본문 바로가기
Computer Science/데이터마이닝

[Dimensionality Reduction] 2

by 큌 2024. 6. 17.
반응형

주성분분석(PCA)

• 데이터를 새 좌표계로 전송하는 직교 선형 변환 • 분산을 최대화하는 새 좌표 찾기

• 데이터를 새 좌표계로 전송하는 직교 선형 변환 • 데이터 투영에 의한 가장 큰 분산은 첫 번째 좌표(첫 번째 주성분)에 있습니다.

• 두 번째로 큰 분산은 두 번째 좌표(두 번째 주성분)에 있습니다.

PCA를 계산하는 방법

• 1단계: 데이터를 가져옵니다.

• 2단계: 평균을 줄입니다.

3단계: 공분산 행렬을 계산합니다.

• 행렬 X가 주어졌을 때 공분산 행렬을 계산하는 방법은?

• 4단계: 공분산 행렬의 고유 벡터와 고유값을 계산합니다.

• 5단계: 구성요소 선택 및 특징 벡터 구성 • 새 피쳐 벡터 구성

• 근사화를 위해 1차원 공간에 대한 특징 벡터를 줄일 수 있습니다.

• 5단계: 새로운 데이터 세트 도출

• 최종 데이터 = 행 데이터 조정 * 새 특징 벡터 • 이렇게 하면 선택한 구성 요소를 사용하여 원본 데이터를 새 데이터로 변환합니다.

• 최종 데이터 = 행 데이터 조정 * 새 특징 벡터

PCA를 이용한 얼굴인식

• 1단계: 전처리: 얼굴 정규화

• 이미지를 동일한 크기로 만듭니다.

• 눈을 기준으로 줄을 서고 강도를 정규화합니다.

PCA를 이용한 얼굴인식

• 2단계: 원시 피쳐는 픽셀 강도 값(2061 피쳐)입니다.

• 3단계: 각 이미지는 이러한 기능의 벡터 i로 인코딩됩니다.

• 4단계: 모든 얼굴에 대해 "평균" 얼굴을 계산합니다: • 5단계: 각 얼굴 벡터에서 평균 얼굴을 뺀다.

• 6단계: 공분산 행렬 C를 계산합니다.

• 7단계: C의 고유 벡터 vi를 계산합니다.

• 첫 번째 K개의 주성분(고유 벡터)만 유지합니다.

고유 얼굴을 사용한 얼굴 판별

• 기본 구성 요소를 사용하여 데이터베이스에서 가장 유사한 얼굴을 찾습니다

반응형

'Computer Science > 데이터마이닝' 카테고리의 다른 글

[Introduction toRecommender Systems] 1  (0) 2024.06.17
[Dimensionality Reduction] 3  (0) 2024.06.17
[Dimensionality Reduction] 1  (0) 2024.06.17
[Clustering] 2  (0) 2024.06.17
[Clustering] 1  (0) 2024.06.17