할루시네이션
AI 모델이 사실이 아니거나 논리적으로 맞지 않는 정보를 마치 진실인 것처럼 자신 있게 생성하는 현상이다. 코딩에서는 문법은 맞지만 논리적 오류가 있는 코드를 만드는 형태로 나타난다.