Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 에이다부스트
- distillm
- dl
- 데이터사이언스
- 의사결정트리
- skld
- 논문리뷰
- 빅데이터분석학회
- AutoML
- 평가지표
- Machine Learning
- BDA학회
- OLS
- 지니계수
- 선형회귀
- BDA
- 로지스틱
- adaboost
- 랜덤포레스트
- DT
- 머신러닝
- 로짓
- ML
- 부스팅
- AAAI
- 한국산업경영시스템학회
- 엔트로피
- 가지치기
- confusion_matrix
- 규제
Archives
- Today
- Total
목록엘라스티넷 (1)
데이터 사이언스 공부할래

라쏘 회귀(L1 Regularization), 릿지 회귀(L2 Regularization)에 대해 알아본다. 회귀분석의 성능을 평가할 때, 대부분 실제값과 예측값의 차이를 가지고 평가한다.둘의 관계만을 확인하면, 회귀계수에 대해 과적합이 일어날 수 있다. Regularization최적 모델을 위한 비용함수의 구성요소 : 학습데이터 잔차 오류 최소화(RSS 선형회귀의 비용함수 개념) + 회귀계수 크기 제어(규제를 통해 과적합 현상을 낮추고, 일반화할 수 있도록 진행 회귀 계수를 규제)비용 함수의 목표 : Min(RSS(W)+α∗‖W‖ 가중치 규제모델의 손실 함수 값이 너무 작아지지 않도록 특정한 값(함수) 추가Weight 값이 과도하게..
B.D.A
2024. 7. 17. 23:55