Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | ||||
| 4 | 5 | 6 | 7 | 8 | 9 | 10 |
| 11 | 12 | 13 | 14 | 15 | 16 | 17 |
| 18 | 19 | 20 | 21 | 22 | 23 | 24 |
| 25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Sentence for TextRank
- 구글검색엔진알고리즘
- cs182
- 머신러닝
- Pull Requests
- The Anatomy of a Large-Scale Hypertextual Web Search Engine
- Scaled Dot-Product
- Self attention
- Regression Metric
- attention score
- Workflw
- 머신러닝 순서
- Multi-class Classification
- github
- Keyword for TextRank
- CommandNotFoundError
- conda install
- conda create env
- 최대사후추정확률
- TextRank
- conda
- 머신러닝 흐름
- NLU
- Pull
- Encoder-Decoder Attention
- Binary classification
- Activate
- commit
- MachineLearningWorkflow
- conda env
Archives
- Today
- Total
목록LDA (1)
HalfMoon
중요 개념 : 차원, 차원의 저주, 차원 축소, SVD, PCA, LDA, ICA 중요 개념 but 설명은 없는 : 행렬의 개념들, 정사영, 공분산, 다중공선성 들어가기 앞서, 직관적으로 이해되는 PCA, LDA, ICA에 대한 부분은 그림을 중심으로 설명하였기에 수식이 없다. 그리고 직관적으로 이해가 되지 않는 SVD의 경우, DeepDive를 만들어 수식과 함께 설명했다. 차원이란? 차원은 점 등의 위치를 나타내기 위해 필요한 축의 개수이다. ML에서는 이러한 차원을 변수 즉, feature의 수라고 생각하면 이해가 편하다. 위 사진을 예로 들면 설명하면 이해가 더욱 빨라질 것 이다. ML에서의 feature는 해당 데이터의 좌표값을 나타내기 위한 도구로도 사용된다. 좌측의 이미지에서 feature는..
AI/Machine Learning
2022. 9. 4. 23:37