Bfloat16
구글이 개발한 16비트 부동소수점 형식으로, 기존 FP16보다 넓은 수치 범위를 표현할 수 있어 딥러닝 학습 시 수치적 안정성이 높다. 메모리 사용량을 절반으로 줄이면서도 모델 성능 저하를 최소화한다.