모달리티 붕괴
여러 종류의 데이터(예: 시각, 촉각)를 함께 학습할 때, 모델이 정보량이 많거나 학습이 쉬운 특정 데이터에만 의존하고 다른 데이터의 신호를 무시하게 되는 현상이다. 로봇 학습에서는 시각 정보가 지배적이 되어 정작 중요한 촉각 피드백을 활용하지 못하는 문제로 나타난다.