에포크
전체 학습 데이터셋이 신경망을 한 번 통과하는 횟수를 의미한다. 에포크가 너무 적으면 학습이 부족하고, 너무 많으면 특정 데이터에만 과하게 최적화되는 과적합이 발생할 수 있다.