Notice
Recent Posts
Recent Comments
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- MNIST
- Generative Model
- 인공신경망
- 뉴럴네트워크
- Machine Learning
- ae
- 이상 탐지
- 머신러닝 논문리뷰
- rnn
- 논문리뷰
- 딥러닝
- 레이텍
- Python
- Bagging
- MLE
- 머신러닝
- Fast Fourer Transform
- Spiking Neural Network
- Deep Neural Network
- ML
- 기계학습
- 이상 현상 탐지
- Wavelet Transform
- 논문 리뷰
- anomalydetection
- map
- autoencoder
- 논문 해석
- Deep Learning
- Snn
- Today
- Total
MATH & ML
dimension reduction에 관련된 몇 가지 관점 본문
앞에 썻던 글에서 처럼 네이버 d2 영상을 보다보면 차원축소와 관련된 영상을 볼 수 있는데
이에서 언급한 새로들은 차원축소와 관련된 관점들을 써보려고한다.
0. 차원축소란 고차원에 존재하는 데이터들을 잘 담고(포함?어우르고?)있는 그 고차원에 있는 submanifold(저차원)를 찾는 것이라고도 볼 수 있다.
1. 차원축소가 필요한 이유 중 visualization도 물론 있지만, 고차원에서의 데이터들은 차원이 높은곳에 있어 데이터들이 너무 희박하게 존재해서 문제이다. 예를들면 그림 rgb 200*200 그림을 보면 랜덤으로 아무거나 뽑으면 거의 절대로 우리가 알아볼수 있는 그림이 나오기가 힘들다. 즉 Random image is just noisy일 뿐이다.
2. 차원의 저주 : 같은 메져에 대해서도 고차원에서 가깝던 데이터가 저차원의 manifold에서는 거리가 짧아질 수 있어서 고차원에서의 적절한 거리측정 방식을 찾기 힘들다.
'Machine Learning' 카테고리의 다른 글
Generative model과 Discriminate model 차이점과 비교 (0) | 2018.06.17 |
---|---|
Autoencoder란 개략적 설명과 종류 (0) | 2018.06.15 |
머신러닝의 전반적인 흐름(에러 관점, 확률론적인 관점 그리고 MLE와 MAP차이 및 연관성) (1) | 2018.06.07 |
capsnet(캡스넷) (0) | 2018.04.25 |
sequence to sequence(seq2seq) (0) | 2018.04.23 |
Comments