차분 프라이버시
데이터셋에 통계적 노이즈를 추가하여 특정 개인의 데이터 포함 여부를 알 수 없도록 수학적으로 보장하는 프라이버시 보호 기술이다. 모델이 학습 데이터의 민감한 정보를 암기하거나 유출하는 것을 방지하는 데 핵심적인 역할을 한다.