안전 필터
AI 모델이 유해하거나 위험한 콘텐츠를 생성하지 않도록 사전에 설정된 차단 메커니즘이다. 자살, 폭력, 불법 정보 등을 감지하면 답변을 거부하거나 삭제하며 때로는 학술적 질문도 위험으로 오해하여 차단하는 부작용이 있다.