적대적 공격
입력 데이터에 미세한 변형을 가해 딥러닝 모델이 잘못된 판단을 내리도록 유도하는 기법이다. 자율주행차의 객체 탐지기 등을 무력화할 수 있어 AI 보안 연구의 중요한 주제이다.