Top-k Accuracy

Eval

Top-k Accuracy と Recall@k

作成日: 最終更新: 読了時間: 1 分
まとめ
  • Top-k Accuracy は正解ラベルが上位 k 個の候補に含まれる割合を測る指標です。
  • 画像分類で k を変えた正解率を算出し、モデル比較への活用を確認します。
  • 候補提示数との兼ね合いや他のランキング指標との併用ポイントを整理します。

1. 定義 #

モデルがクラスごとのスコアを出力し、上位 k 件の候補集合を \(S_k(x)\) とすると $$ \mathrm{Top\text{-}k\ Accuracy} = \frac{1}{n} \sum_{i=1}^n \mathbf{1}{ y_i \in S_k(x_i) } $$ Recall@k とほぼ同義で、正解ラベルが Top-k に含まれたかどうかを評価します。


2. Python 3.13 での計算 #

python --version  # 例: Python 3.13.0
pip install scikit-learn
import numpy as np
from sklearn.metrics import top_k_accuracy_score

proba = model.predict_proba(X_test)  # shape: (n_samples, n_classes)
top3 = top_k_accuracy_score(y_test, proba, k=3, labels=model.classes_)
top5 = top_k_accuracy_score(y_test, proba, k=5, labels=model.classes_)

print("Top-3 Accuracy:", round(top3, 3))
print("Top-5 Accuracy:", round(top5, 3))

top_k_accuracy_score は確率スコアを受け取り、指定した k の Top-k Accuracy を返します。labels を渡しておくとクラスの並び順が異なる場合でも安全です。


3. 設計と注意点 #

  • k の選び方:UI が表示できる候補数やビジネス要件に合わせて設定する。
  • タイブレーク:同点の候補が多いときは並び順が不安定になるため、小数点付きスコアや安定ソートで制御する。
  • 複数正解:マルチラベルの場合は Hit Rate や Precision@k、Recall@k を併用して全体像を把握する。

4. 実務での活用例 #

  • レコメンドシステム:提示した候補リストの中にユーザーが本当に選んだアイテムが入っているかを評価。
  • 画像認識:ImageNet などクラス数が多い課題で Top-5 Accuracy を報告するのが一般的。
  • 検索システム:検索結果上位 10 件に目的の文書が含まれているかを測る。

5. ランキング指標との比較 #

指標特徴適用シーン
Top-k Accuracy上位 k に正解があれば成功候補リストに正解が含まれれば十分な場合
NDCG順位に重み付け順位の良さも重視したいとき
MAP適合率の平均複数の正解が存在するランキング
Hit RateTop-k Accuracy とほぼ同義レコメンド分野で広く使用

まとめ #

  • Top-k Accuracy は候補リストに正解ラベルが含まれているかを確認するシンプルな指標。
  • scikit-learn の top_k_accuracy_score で複数の k を簡単に検証できる。
  • NDCG や MAP などと組み合わせ、順位の質や複数正解の扱いも含めてモデルを評価しよう。