Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- caffemodel
- Yolo5
- 카프카
- SPARK
- train data
- 파이썬
- Apache Spark
- scenedelegate
- opencv
- roboflow
- SeSAC
- 얼굴 비식별화
- iOS부트캠프
- yolov5
- 스파크
- Kafka
- 내채공만기
- 아파치 카프카
- python
- 아파치 스파크
- Yolo5 custom dataset
- Swift
- face blur
- IOS
- 내일채움공제만기
- Apache Kafka
- 비식별화
- 앱생명주기
- 준지도학습
- YOLO
Archives
- Today
- Total
목록주성분분석 (1)
봉식이와 캔따개
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/Cxh71/btqXu31fhOd/6OwEakkQkb8AYkyz1OnI8K/img.png)
PCA는 차원 축소 방법 중 하나이다. 차원축소란? 많은 feature들로 구성된 다차원의 데이터 세트의 차원을 축소해 새로운 차원의 데이터 세트를 생성하는 것을 말한다. 차원이 증가할수록(feature가 증가할수록) 예측 신뢰도가 떨어지고 과적합이 발생히고 개별 feature간의 상관관계가 높을 가능성이 있다. 차원 축소를 하는 이유에는 여러가지가 있는데 첫번째는 시각화 (차원이 3차원이 넘어가면 시각화를 할 수 없기 때문에 시각화를 위해 차원 축소를 한다) 두번째는 노이즈 제거 세번째는 메모리 절약 네번째는 모델 성능 향상 등의 이유가 있다. → 정리 데이터에 feature가 많은 경우가 있는데 모든 feature가 결과에 중요한 영향을 끼치는 것은 아니다. 따라서 가장 중요한 feature 몇 개 ..
머신러닝, 딥러닝/기초
2021. 2. 17. 15:04