◎ 밑바닥부터 시작하는 딥러닝(1)¶ ● chapter 6. 학습 관련 기술들¶ 6.1 매개변수 갱신 최적화(Optimization) : 매개변수의 최적값을 찾는 것 확률적 경사 하강법(SGD)이란 매개변수의 기울기를 구해, 기울어진 방향으로 매개변수 값을 갱신하는 일을 몇 번이고 반복해서 점점 최적의 값을 도출해내는 방법 In [1]: # SGD 구현하기 class SGD: def __init__(self, lr=0.01): self.lr = lr # learning rage(학습률) def update(self, parms, grads): for key in params.keys(): params[key] -= self.lr*grads[key] SGD의 단점 SGD는 단순하고 구현도 쉽지만, 문제에 ..