活用テクニック2026年3月1日

ロジスティック回帰入門 — 確率で分類するシンプルな手法

ロジスティック回帰の仕組みをやさしく解説します。シグモイド関数で確率を出力し、二値分類から多クラス分類まで対応できる基本手法を学びましょう。

ロジスティック回帰の概念図

ロジスティック回帰は、名前に「回帰」とつきますが実際には分類アルゴリズムです。データの特徴量から「あるクラスに属する確率」を計算し、その確率をもとに分類を行います。機械学習の分類手法の中で最も基本的かつ広く使われている手法の一つです。

シグモイド関数で確率を出力する仕組み

ロジスティック回帰の核となるのがシグモイド関数です。各特徴量に重みを掛けて合計したスコアを、シグモイド関数に通すことで 0〜1 の確率値に変換します。例えば「この顧客が離脱する確率は 82%」のように、単なる Yes / No ではなく確信度も得られます。二値分類だけでなく、ソフトマックス関数を使えば3つ以上のクラスに対応する多クラス分類も可能です。

どんなときに使うべきか

ロジスティック回帰は、データが線形に分離できる(直線や平面で分けられる)場合に高い精度を発揮します。また、各特徴量の重みがそのまま「どの変数がどれだけ結果に影響しているか」を示すため、結果の解釈性・説明性が求められるビジネスシーンに最適です。医療診断、与信審査、マーケティングのターゲティングなど、判断理由の説明が必要な場面で広く使われています。

Qast ではロジスティック回帰を含む39種類のアルゴリズムを自動比較します。解釈性を重視したい場合はロジスティック回帰のモデルを選択し、SHAP 値による説明可能AI機能と組み合わせると効果的です。

Qast を導入してみませんか?

導入のご相談やデモのご依頼は、お気軽にお問い合わせください。