안전 훈련
AI 모델이 유해하거나 부적절한 콘텐츠를 생성하지 않도록 학습 단계에서 가드레일을 설정하는 과정이다. 이로 인해 특정 키워드나 묘사가 차단되거나 품질이 의도적으로 저하될 수 있다.