Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 얼굴 비식별화
- Apache Kafka
- caffemodel
- 카프카
- Apache Spark
- SeSAC
- Kafka
- SPARK
- 앱생명주기
- 준지도학습
- iOS부트캠프
- roboflow
- python
- scenedelegate
- face blur
- YOLO
- 비식별화
- Yolo5
- 아파치 카프카
- 내일채움공제만기
- train data
- Swift
- 스파크
- IOS
- 파이썬
- 아파치 스파크
- yolov5
- opencv
- Yolo5 custom dataset
- 내채공만기
Archives
- Today
- Total
목록pca (1)
봉식이와 캔따개
주성분 분석(PCA)를 이해해보자
PCA는 차원 축소 방법 중 하나이다. 차원축소란? 많은 feature들로 구성된 다차원의 데이터 세트의 차원을 축소해 새로운 차원의 데이터 세트를 생성하는 것을 말한다. 차원이 증가할수록(feature가 증가할수록) 예측 신뢰도가 떨어지고 과적합이 발생히고 개별 feature간의 상관관계가 높을 가능성이 있다. 차원 축소를 하는 이유에는 여러가지가 있는데 첫번째는 시각화 (차원이 3차원이 넘어가면 시각화를 할 수 없기 때문에 시각화를 위해 차원 축소를 한다) 두번째는 노이즈 제거 세번째는 메모리 절약 네번째는 모델 성능 향상 등의 이유가 있다. → 정리 데이터에 feature가 많은 경우가 있는데 모든 feature가 결과에 중요한 영향을 끼치는 것은 아니다. 따라서 가장 중요한 feature 몇 개 ..
머신러닝, 딥러닝/기초
2021. 2. 17. 15:04