K_DM
Youtube
Twitter
1.
はじめに
1.1
役立つ資料集
2.
機械学習
2.1
線形回帰
2.1.1 最小二乗法
2.1.2 リッジ回帰・ラッソ回帰
2.1.3 外れ値と頑健性
2.2
線形分類
2.2.1 ロジスティック回帰
2.2.2 判別分析
2.3
決定木
2.3.1 決定木(分類)
2.3.2 決定木(回帰)
2.3.3 決定木のパラメータ
2.3.4 RuleFit
2.4
アンサンブル
2.4.1 ランダムフォレスト
2.4.2 スタッキング
2.4.3 Adaboost(分類)
2.4.4 Adaboost(回帰)
2.4.5 勾配ブースティング
2.4.6 勾配ブースティングの可視化
2.5
クラスタリング
2.5.1 k-means
2.5.2 k-means++
2.5.3 X-means
2.6
次元削減
2.6.1 PCA
2.6.2 SVD
2.6.3 LDA
2.6.4 Kernel-PCA
2.7
時系列
2.7.1 Prophetを使ってみる
3.
データ前処理
3.1
データ前処理する前に
3.2
データの読み込み・集約
3.2.1 サンプルデータ
3.2.2 pandasの使用
3.2.3 数値に対する演算
3.2.4 SQLで操作
3.3
数値データ
3.3.1 数値をビン化
3.3.2 BoxCox変換
3.3.3 YeoJonson変換
3.3.4 外れ値にラベルを付与①
3.3.5 外れ値にラベルを付与②
3.4
カテゴリカルデータ
3.4.1 One-hot
3.4.2 Target Encoder
3.4.3 Count Encoder
3.4.4 Ordered Target Statistics
3.5
テーブルデータ全般
3.5.1 pdfから表を抽出
3.5.2 処理の進捗を表示
3.5.3 パターンマッチで列を選択
3.5.4 一括で特徴ベクトル化
3.6
特殊なデータ
3.6.1 deeplで論文を翻訳
3.6.2 EDGARのデータを取得
4.
評価指標
4.1
モデル選択
4.1.1 交差検証
4.1.2 層状k分割交差検証
4.1.3 検証曲線
4.2
回帰
4.2.1 相関係数
4.2.2 決定係数
4.3
分類
4.3.1 ROC-AUC
5.
時系列
5.1
プロットと前処理
5.1.1
データの確認
5.1.2
トレンドの除去
5.1.3
STL分解
5.1.3.2
MSTL分解
5.1.4
Box-Cox変換
5.1.5
調整
5.1.6
移動平均
5.2
指数平滑化
5.2.1
単純指数平滑化
5.2.2
Holtの線形指数平滑法
5.2.3
Holt-Wintersの手法
5.3
単変量
5.3.5
AR過程
5.3.6
MA課程
5.4
多変量
5.6
Prophet
5.6.1 Prophet
5.6.2 Prophetのモデルの中身
5.6.3 Prophetのパラメータ
5.5
形状・類似度
5.5.1 動的時間伸縮法(DTW)
5.5.2 DDTW(Derivative-DTW)
5.5.3 DTWとDDTW
5.5.3 tsfresh
5.7
階層化・グループ化
5.7.1 階層的な構造
6.
可視化
6.1
カテゴリと数値
6.1.1 日本地図
6.1.2 ツリーマップ
6.1.3 ドーナツチャート
6.1.4 サンキーダイアグラム
6.2
数値の分布
6.2.1 ヒストグラム
6.2.2 密度プロット
6.2.3 リッジラインプロット
6.2.4 バイオリン図
Appendix
A.1 matplotlibスタイルシート
7.
経済データ
7.1
時系列データ
7.1.1
FREDデータベース
7.1.2 mplfinance
7.1.3 RSI
7.1.4
相互相関
7.1.5
ピーク検出
7.1.6 ETFと利回りを比較
7.1.7
CCI(消費者信頼感指数)
7.1.8
変化点の検出
7.1.9 企業の財務情報をパース
7.1.10
季節調整
7.1.11
外れ値
7.1.12
Quantstats
7.2
可視化
7.2.1 カントリーリスクプレミアム
7.2.2 +-の変化の表現
7.2.3 レーダーチャート
7.3
テキスト処理
7.3.1 テキストの感情分析
7.3.2.1 動画からの音声認識
7.3.2.2 英語から日本語字幕データを作成
8. GPT・プロンプト
8.1
文章の校閲
Issues
Privacy Policy
Youtube
Twitter
Twitch
プライバシーポリシー
問題点・ミスを見つけた場合
日本語
English
Bahasa Indonesia
Español
色を反転する
履歴削除
トップページ
>
機械学習
> 次元削減
Chapter 6
次元削減
COPYRIGHT (C) 2021- K_DM. ALL RIGHTS RESERVED. [
Privacy policy
]