Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- skld
- BDA
- 지니계수
- 의사결정트리
- 빅데이터분석학회
- 선형회귀
- confusion_matrix
- Machine Learning
- 가지치기
- 부스팅
- BDA학회
- adaboost
- 랜덤포레스트
- 논문리뷰
- AAAI
- 로지스틱
- 에이다부스트
- AutoML
- OLS
- 한국산업경영시스템학회
- 로짓
- distillm
- 데이터사이언스
- 엔트로피
- 머신러닝
- ML
- dl
- 규제
- 평가지표
- DT
Archives
- Today
- Total
목록K-nearest neighbors (1)
데이터 사이언스 공부할래

KNN 알고리즘에 대해 알아보고, 실습을 통해 KNN 알고리즘의 파라미터, 최적의 k를 찾아본다. KNN(K-Nearest Neighbors)KNN은 데이터로부터 가까운 거리에 있는 k개의 다른 데이터에 의한 결과로 예측하는 알고리즘을 말한다.회귀 문제와 분류 문제 모두 해결 가능한 Memory-based learning이다. k 결정 과정너무 큰 k를 선택하면, 미세한 경계부분의 분류 정확도가 떨어지게 되며,너무 작은 k를 선택하면, 과적합이 될 가능성이 생기며, 이상치의 영향을 크게 받고, 패턴이 직관적이지 못한다. Majority voting데이터의 갯수가 균일하지 않다면, 거리에 반비례하는 Weight를 주어 편향성의 영향을 줄일 수 있다. 종속변수범주형 변수KNN 중 가장 많이 나타나는 범주로 ..
B.D.A
2024. 6. 3. 19:41