자기회귀 디코딩
이전 단계에서 생성된 토큰을 다음 단계의 입력으로 사용하여 순차적으로 데이터를 생성하는 방식입니다. 주로 대형 언어 모델(LLM)의 텍스트 생성에서 표준적으로 사용되며, 문맥의 일관성을 유지하는 데 탁월한 성능을 보입니다.