중재 API
사용자의 입력이나 모델의 출력이 안전 가이드라인을 준수하는지 검사하는 인터페이스이다. 혐오 표현, 폭력성 등 부적절한 콘텐츠를 사전에 식별하여 차단함으로써 서비스의 안전성을 확보한다.