IT Repository

(14) Optimizer - ADAM Optimizer 본문

Basic fundamentals

(14) Optimizer - ADAM Optimizer

IT찬니 2020. 1. 13. 18:13

 

 

 

 

ADAM (Adaptive Moment Estimation)

NAG(Momentum)와 RMSProp(Adaptive Learning rate) 의 장점을 합친 Optimizer

mt=β1mt1+(1β1)gtvt=β2vt1+(1β2)g2t ˆmt=mt1βt1ˆvt=vt1βt2 θt+1=θtηˆvt+ϵˆmt (mt:Momentumvt:Adaptive lr)

일반적으로 β1=0.9, β2=0.9999 정도의 값을 사용한다.
이 경우, 초기의 mtvt의 값이 상대적으로 큰 차이가 나서 스텝 사이즈가 너무 커지기 때문에,
ˆmtˆvt의 값으로 변환하여 파라미터를 업데이트한다.

'Basic fundamentals' 카테고리의 다른 글

(13) Optimizer - Adaptive learning rate 개념  (0) 2020.01.13
(12) Optimizer - Momentum 개념  (0) 2020.01.13
(11) Optimizer - Vanilla SGD  (0) 2020.01.13
(10) Optimizer  (0) 2020.01.13
(9) Other Techniques of Optimize  (0) 2020.01.13
Comments