본문으로 건너뛰기
AI Trends
피드
트렌딩
콜로세움
공지
로그인
피드
트렌딩
콜로세움
공지
전역 어텐션 (global-attention) 용어 설명 | AI Trends
global-attention
전역 어텐션
고급
데이터의 모든 부분 간의 관계를 한 번에 계산하여 멀리 떨어진 정보도 참조할 수 있게 하는 메커니즘이다. CNN의 국소적 수용 영역 한계를 극복하기 위해 사용된다.
비슷한 개념
attention-mechanism
spatio-temporal-attention
multi-head-attention
softmax-attention
causal-attention
self-attention
foreground-attention
sparse-attention
← 용어 사전 전체 보기