검증 압박
사용자가 AI 모델에게 명백히 틀린 정보를 사실인 것처럼 반복적으로 주장하거나 정답을 수정하도록 강요하는 상황이다. 모델이 자신의 지식과 사용자의 입력 사이에서 갈등하며 결국 잘못된 정보에 굴복하는 현상을 연구하는 데 중요한 개념이다.