次元削減

2.6

次元削減

まとめ
  • この章では、高次元データを情報を保ちながら低次元に圧縮する代表手法を学ぶ。
  • 線形手法(PCA/SVD/LDA)と非線形手法(t-SNE/Isomap/Kernel PCA)の使い分けを理解する。
  • 可視化・前処理・ノイズ低減など、実務で次元削減をどう使うかを判断できるようになる。

直感 #

次元削減は、データのばらつきや近さの構造をできるだけ保ったまま、情報を少ない軸に再配置する技術です。目的が可視化なのか、下流モデルの性能改善なのかで、保持すべき構造(大域構造か局所近傍か)が変わります。

詳細な解説 #

Chapter 6 #

次元削減 #


なぜ次元削減を学ぶのか? #

  • 可視化
    2次元や3次元に落とし込むことで、人間の目で「データの構造」を直感的に理解できる。

  • ノイズ除去・特徴圧縮
    重要な成分だけを残すことで、不要なノイズや冗長な特徴を削減し、モデルの精度向上や過学習防止につながる。

  • 計算効率の向上
    高次元データを低次元に変換することで、計算量を削減でき、学習が速くなる。


この章で扱う代表的な手法 #

  • PCA(主成分分析)
    データの分散が最大になる方向を探して次元を削減する最も基本的な手法。

  • SVD(特異値分解)
    行列を直交行列と特異値に分解することで、情報量の多い成分を抽出する数学的基盤。

  • LDA(線形判別分析)
    クラスラベルを用い、クラス間の分離を最大化するように次元削減する教師あり手法。

  • Kernel PCA
    PCAを非線形に拡張し、円や渦巻きのような複雑な構造をとらえることができる。