새소식

반응형
ML

[인터뷰 질문] ML 기초 (2) - 차원 축소

  • -
728x90
반응형

 

차원 축소란?

✔️ dimension reduction 기법으로 보통 어떤 것들이 있나요?

✔️ 차원 축소의 장점은?

✔️ 차원 축소의 예시를 들어주세요

✔️ 차원 축소는 어떤 방법들이 있나요?

 

PCA (Principal Component Analysis)

✔️ PCA는 차원 축소 기법이면서, 데이터 압축 기법이기도 하고, 노이즈 제거 기법이기도 합니다. 왜 그런지 설명해주세요.

✔️ 분산을 최대화하는 것의 의미가 무엇인가요? 기하학적으로 설명해보세요.

✔️ PCA에 정규화가 필요한가요? 필요하다면 왜 필요할까요?

✔️ PCA로 어디까지 차원 감소를 하는 것이 타당할까요?

✔️ PCA 해 구하는 방법을 설명해보세요.

✔️ PCA의 한계는?

 

LDA(Linear Discriminant Analysis)

✔️ LDA 는 무엇인가요?

✔️ LDA는 아주 강한 데이터 분포를 가정하고 있는데, 그건 어떤 가정일까요?

✔️ 현실 데이터는 그렇지 않은 경우가 많습니다. 실제로 사용이 가능한걸까요?

✔️ LDA와 PCA는 전통적인 차원축소 알고리즘입니다. 응용적 관점에서 이들 원리의 같고 다름을 분석해보세요.

✔️ LDA와 PCA를 사용하는 예시는? (음성 인식에서)

 

기타 

✔️ PCA, LSA, LDA, SVD 등의 약자가 어떤 뜻이고 서로 어떤 관계를 가지는지 설명할 수 있나요?

✔️ 수학적 관점에서 목적함수에 대해 LDA와 PCA 알고리즘은 어떤 차이점과 연관성이 있는지 설명해 보세요.

 

✔️ 머신 러닝에서 차원 축소를 어떻게 사용할까?

반응형
Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.