Notice
Recent Posts
Recent Comments
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- ML
- autoencoder
- 기계학습
- Snn
- 이상 현상 탐지
- MNIST
- 머신러닝
- Bagging
- 딥러닝
- 이상 탐지
- Wavelet Transform
- 뉴럴네트워크
- Deep Learning
- 레이텍
- map
- rnn
- 머신러닝 논문리뷰
- Deep Neural Network
- Python
- anomalydetection
- MLE
- Machine Learning
- 논문 해석
- 논문리뷰
- Spiking Neural Network
- Fast Fourer Transform
- ae
- Generative Model
- 논문 리뷰
- 인공신경망
- Today
- Total
목록stochastic gradient descent (1)
MATH & ML
gradient descent
결국 우리의 목적은 우리의 모델결과와 실제 target 사이의 error를 최소화시키는데에 있다.즉 loss function을 최소화 하는 parameter(weight) W를 찾는것이 목표이다그런데 문제는 loss function이 그냥 미분해서 구할 수 없는 경우가 자주 생기며 이 대는 어떻게 이 W를 찾을지가 중요하다.이때 쓰는것이 바로 gradient descent이다.수학적으로 어떤 함수의 gradient는 그 함수의 경사가 가장 가파른 곳의 벡터를 나타내게 되는데이를 이용하여 W를 함수의 경사가 가장 가파른 방향으로 loss function이 작아지도록 계속 업데이트를 시키는 과정그게 바로 gradient descent라고 할 수 있다.문제는 이 과정중에 local minimum이나 saddl..
Machine Learning
2018. 4. 13. 10:51