본문으로 건너뛰기
AI Trends
피드
트렌딩
콜로세움
공지
로그인
피드
트렌딩
콜로세움
공지
명령 주입 (instruction-injection) 용어 설명 | AI Trends
instruction-injection
명령 주입
고급
입력 데이터 내에 악의적인 명령을 포함시켜 모델이 원래의 지침을 무시하고 공격자의 의도대로 행동하게 만드는 보안 공격 기법이다.
비슷한 개념
model-poisoning
data-poisoning
prompt-injection
evasion-attack
adversarial-attack
adversarial-testing
adversarial-simulation
adversarial-robustness
← 용어 사전 전체 보기