Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | ||||
| 4 | 5 | 6 | 7 | 8 | 9 | 10 |
| 11 | 12 | 13 | 14 | 15 | 16 | 17 |
| 18 | 19 | 20 | 21 | 22 | 23 | 24 |
| 25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Workflw
- Encoder-Decoder Attention
- Pull
- The Anatomy of a Large-Scale Hypertextual Web Search Engine
- Self attention
- 머신러닝 흐름
- conda create env
- CommandNotFoundError
- 머신러닝 순서
- conda install
- github
- Regression Metric
- conda env
- 구글검색엔진알고리즘
- NLU
- Multi-class Classification
- 최대사후추정확률
- Sentence for TextRank
- Pull Requests
- Scaled Dot-Product
- commit
- Keyword for TextRank
- Binary classification
- TextRank
- cs182
- Activate
- conda
- attention score
- 머신러닝
- MachineLearningWorkflow
Archives
- Today
- Total
목록PCA (1)
HalfMoon
중요 개념 : 차원, 차원의 저주, 차원 축소, SVD, PCA, LDA, ICA 중요 개념 but 설명은 없는 : 행렬의 개념들, 정사영, 공분산, 다중공선성 들어가기 앞서, 직관적으로 이해되는 PCA, LDA, ICA에 대한 부분은 그림을 중심으로 설명하였기에 수식이 없다. 그리고 직관적으로 이해가 되지 않는 SVD의 경우, DeepDive를 만들어 수식과 함께 설명했다. 차원이란? 차원은 점 등의 위치를 나타내기 위해 필요한 축의 개수이다. ML에서는 이러한 차원을 변수 즉, feature의 수라고 생각하면 이해가 편하다. 위 사진을 예로 들면 설명하면 이해가 더욱 빨라질 것 이다. ML에서의 feature는 해당 데이터의 좌표값을 나타내기 위한 도구로도 사용된다. 좌측의 이미지에서 feature는..
AI/Machine Learning
2022. 9. 4. 23:37