모델 포이즈닝
학습 데이터에 악의적인 데이터를 주입하여 모델의 성능을 왜곡하거나 특정 편향을 심는 공격 기법이다. 모델의 신뢰성을 근본적으로 훼손할 수 있어 데이터 검증 단계에서 매우 중요하다.