활성화 고려 양자화
Activation-aware Weight Quantization의 약자로, 모델 실행 시 활성화 값을 분석하여 중요한 가중치를 보존하며 양자화하는 기법이다. 일반적인 양자화보다 정확도 손실이 적은 것이 특징이다.