活用テクニック2026年3月31日

AUC-ROC 完全ガイド — ROC 曲線の読み方とモデル比較への活用

閾値に依存しないモデル評価の決定版。ROC 曲線の作り方・AUC の解釈・PR 曲線との使い分け・多クラスへの拡張を、図解とともに解説します。

AUC-ROC 曲線の概念図

AUC-ROC は、分類モデルの性能を閾値に依存せず評価できる指標です。ROC 曲線(Receiver Operating Characteristic Curve)の下の面積(Area Under the Curve)として計算され、モデルの総合的な分離能力を 1 つの数値で表します。モデル間の公平な比較に最適です。

ROC 曲線とは

ROC 曲線は、分類閾値を 0 から 1 まで変化させたときの TPR(真陽性率 = Recall)と FPR(偽陽性率 = FP / (FP + TN))の関係をプロットしたグラフです。閾値ごとに TPR と FPR を計算し、すべての点をつなぐと ROC 曲線が得られます。

ROC 曲線の読み方

ROC 曲線は左上に近いほど良いモデルです。左上の点(FPR = 0、TPR = 1)は「すべての正例を検出し、誤検知はゼロ」という完璧な分類を意味します。対角線(FPR = TPR の直線)はランダムな予測に相当します。曲線が対角線の上にあるほど、ランダムより優れたモデルです。

AUC の直感的な解釈

AUC は「ランダムに選んだ正例のスコアが、ランダムに選んだ負例のスコアよりも高くなる確率」と解釈できます。AUC = 0.85 なら、85% の確率で正例に高いスコアを付けられるということです。これにより閾値を設定する前に、モデルの分離能力を評価できます。

AUC の値の目安

  1. 1

    AUC = 0.5

    ランダムな予測と同等です。モデルが分類を全く学習できていない状態を意味します。

  2. 2

    AUC = 0.7〜0.8

    許容範囲のモデルです。タスクの難易度によっては実用的な性能です。

  3. 3

    AUC = 0.8〜0.9

    良好なモデルです。多くのビジネスユースケースで実用的な性能を発揮します。

  4. 4

    AUC = 0.9 以上

    優秀なモデルです。高い分離能力を持ち、閾値を適切に設定すれば非常に高い精度が期待できます。

ROC 曲線で閾値を選ぶ方法 — Youden's Index

Youden's Index は TPR - FPR を最大化する点を最適な閾値として選ぶ方法です。ROC 曲線上で対角線から最も離れた点に相当し、感度と特異度のバランスが最も良い閾値を自動的に決定できます。ビジネス要件に応じて、この点から閾値を調整するのが実践的です。

AUC-ROC の強み

AUC-ROC の最大の強みは閾値非依存であることです。閾値を事後的に調整できるため、「モデル自体の分離能力」を純粋に比較できます。また、スケール不変であり、モデルが出力する確率の絶対値ではなく順序(ランキング)のみを評価します。

AUC-ROC の限界 — 不均衡データでの注意点

AUC-ROC は不均衡データでは楽観的な評価を与えることがあります。陽性が 0.1% のデータでは、FPR の分母(FP + TN)が非常に大きいため、多くの FP が発生しても FPR はほとんど変化しません。結果として ROC 曲線は良好に見えてしまいます。

AUC-PR との使い分け

AUC-PR(Precision-Recall AUC)は、不均衡データでの評価に適した代替指標です。PR 曲線は Recall(TPR)と Precision の関係をプロットし、陽性クラスの検出に焦点を当てます。陽性が少ないデータでは AUC-PR の方がモデルの実力を正確に反映するため、AUC-ROC と AUC-PR の両方を確認することが推奨されます。

多クラスへの拡張

多クラス分類では、One-vs-Rest(各クラスを1つずつ「陽性」として二値分類に変換)や One-vs-One(クラスのペアごとに二値分類)の方法で AUC-ROC を計算します。Qast では One-vs-Rest 方式の Macro AUC-ROC がリーダーボードに表示されます。

Qast での ROC 曲線の確認方法

Qast のモデル詳細ページでは、ROC 曲線がインタラクティブなグラフとして表示されます。AUC の値はリーダーボードでソート・比較でき、複数モデルの ROC 曲線を重ねて表示することも可能です。閾値ごとの TPR / FPR の変化を視覚的に確認できます。

不均衡データでは AUC-ROC と AUC-PR の両方を確認しましょう。AUC-ROC が高くても AUC-PR が低い場合、そのモデルは少数クラスの検出に弱い可能性があります。

関連記事

Qast のモデルリーダーボードで分類指標を比較している画面
活用テクニック2026年3月6日

分類モデルの評価指標ガイド — Accuracy・F1・AUC-ROC の読み方と使い分け

Accuracy だけ見ていませんか?分類タスクで使われる代表的な評価指標の意味と、データの特性に応じた選び方をやさしく解説します。

続きを読む →
F1 スコアの概念図
活用テクニック2026年3月30日

F1 スコア完全ガイド — Precision と Recall を 1 つの数値で評価する方法

Precision と Recall のどちらも重要なとき、F1 スコアが最適な選択肢。調和平均の意味・F-beta との関係・多クラスでの計算方法を実例で解説します。

続きを読む →
Log Loss(対数損失)の概念図
活用テクニック2026年4月1日

Log Loss(対数損失)完全ガイド — 確率予測の正確さを測る指標

「80% の自信で正解」と「51% の自信で正解」は同じ? Log Loss は確率の質を評価する指標。計算式・直感的な解釈・Cross-Entropy との関係を解説します。

続きを読む →
Precision(適合率)の概念図
活用テクニック2026年3月28日

Precision(適合率)完全ガイド — 誤検知を減らしたいときの最重要指標

「陽性と判定したものは本当に陽性か?」Precision の計算式・ビジネスでの重要性・Recall とのトレードオフ・閾値調整の実践テクニックを詳しく解説します。

続きを読む →
Recall(再現率)の概念図
活用テクニック2026年3月29日

Recall(再現率)完全ガイド — 見逃しを許さないための最重要指標

「本当に陽性なものをどれだけ見つけられたか?」Recall の計算式・医療や不正検知での重要性・Sensitivity との関係・実践的な閾値設定を詳しく解説します。

続きを読む →

Qast を導入してみませんか?

導入のご相談やデモのご依頼は、お気軽にお問い合わせください。