반응형
gradient
-
머신러닝: 역전파(back propagation) 공부하기(개념, 예제)머신러닝 2020. 10. 8. 01:19
머신러닝: 최적화(Optimization) 공부하기 (Gradient descent, SGD) Optimization에 대해 알아보기전, Loss function에 대한 선행이 되어 있어야 한다. 다음과 같이 이미 classifer가 된 결과물이 있다. 하지만 보시다시피 각각의 이미지 값에 대해서 해당 label(cat, car, frog)들. seungjuitmemo.tistory.com 계산 결과와 정답의 오차를 구해 이 오차에 관여하는 가중치(W) 값들를 수정하여 오차가 작아지는 방향으로 일정 횟수를 반복해 수정하는 방법이다. Gradient descent를 이용한 방식은 시간이 너무 오래걸리므로 Backpropagation을 이용하여 효율적으로 d..