컨텍스트 부패
LLM의 입력 길이가 길어질수록 모델의 주의 집중력이 분산되어 정보 추출 정확도가 급격히 떨어지는 현상이다. Transformer의 고정된 컨텍스트 윈도우 한계로 인해 발생하며, 본 논문은 이를 해결하는 것을 목표로 한다.