안전 가드레일
AI 모델이 유해하거나 편향된 답변을 생성하지 않도록 설정한 기술적 제한 장치이다. 모델의 학습 과정이나 출력 단계에서 특정 윤리 지침을 준수하도록 강제하여 오남용을 방지하는 역할을 한다.