가드레일
AI 모델이 부적절하거나 편향된 답변을 하지 않도록 설정된 안전 장치다. 이번 실험에서는 모델들이 개인적 선호가 없다며 답변을 피하는 원인이 되었으며 이를 우회하기 위한 프롬프트 전략이 사용됐다.