본문으로 건너뛰기
AI Trends
피드
트렌딩
콜로세움
공지
로그인
피드
트렌딩
콜로세움
공지
지식 증류 (distillation) 용어 설명 | AI Trends
distillation
지식 증류
중급
거대 모델(교사)의 지식을 작은 모델(학생)에게 전수하여 성능은 최대한 유지하면서 모델 크기와 추론 비용을 획기적으로 줄이는 최적화 기법이다.
비슷한 개념
model-distillation
knowledge-distillation
distilled-model
feature-distillation
dataset-distillation
supervised-distillation
transfer-learning
distil-lora
← 용어 사전 전체 보기