BLOG
Qast ブログ
Qastの使い方をステップバイステップで解説。初めての方でもすぐに始められます。

プロファイリングレポートの完全ガイド — EDA結果をHTMLレポートで共有・活用する
ydata-profiling(旧 pandas-profiling)を使えば、データセットの包括的な分析レポートをワンコマンドで生成できます。レポートの読み方、各セクションの活用法、チームとの共有方法、そして Qast との連携を解説します。
続きを読む →
部分依存プロットの完全ガイド — 特徴量がモデル予測に与える影響を可視化する
Partial Dependence Plot(PDP)を使えば、特定の特徴量がモデルの予測にどのような影響を与えているかを視覚的に理解できます。PDP の計算原理、1D/2D プロット、ICE プロット、SHAP との違い、解釈のコツを詳しく解説します。
続きを読む →
外れ値検出の完全ガイド — IQR・Isolation Forest・アンサンブル手法で異常値を見極める
データに含まれる外れ値はモデル精度を大きく左右します。IQR 法から Isolation Forest、アンサンブル外れ値検出まで、代表的な手法の原理と使い分け、そして除去 vs 保持の判断基準を体系的に解説します。
続きを読む →
Adjusted R²(自由度調整済み決定係数)完全ガイド — 特徴量の数を正しく考慮する評価指標
R² は特徴量を増やすだけで上がる。Adjusted R² はこの罠を回避し、本当に価値ある特徴量だけを残す指標。計算式・R² との比較・AIC/BIC との関係を解説します。
続きを読む →
R²(決定係数)完全ガイド — モデルの説明力を測る最重要指標
「モデルがデータの変動をどれだけ説明できるか」を 0〜1 で示す R²。計算式・負の値の意味・相関係数との関係・過学習の罠を詳しく解説します。
続きを読む →
ターゲットリーケージ検出の完全ガイド — 本番環境で精度が出ない原因を見破る
テスト精度は 99% なのに本番では使い物にならない——その原因はターゲットリーケージかもしれません。直接リーケージと間接リーケージの違い、検出手法、深刻度レベルの判定方法、そして対処戦略を体系的に解説します。
続きを読む →
MAPE(平均絶対パーセント誤差)完全ガイド — 割合で誤差を測るビジネス指標
「予測が何%ずれるか」で伝わる MAPE。直感的な反面、ゼロ近傍で爆発する弱点も。計算式・sMAPE・WMAPE・ビジネスKPIでの使い方を解説します。
続きを読む →
ターゲット分析の完全ガイド — 予測対象の特性を徹底的に理解する
ターゲット変数の分布、クラス不均衡、特徴量との相関ランキング、有用性スコアなど、予測対象を多角的に分析する手法を詳しく解説します。Qast の自動ターゲット分析を使えば、分析から対策までワンストップで実行できます。
続きを読む →
RMSE(二乗平均平方根誤差)完全ガイド — 回帰モデル評価のデファクトスタンダード
回帰指標の中で最も広く使われる RMSE。計算式・MAE との違い・正規化 RMSE(NRMSE)・Kaggle での使われ方を実例で解説します。
続きを読む →
クラスタリング分析の完全ガイド — K-meansとHDBSCANでデータの自然なグループを発見する
教師なし学習の代表格であるクラスタリング。K-meansのエルボー法・シルエット分析による最適K決定から、密度ベースのHDBSCANまで、実践的な手法と結果の解釈方法を解説します。
続きを読む →
MSE(平均二乗誤差)完全ガイド — 大きな誤差を厳しく罰する損失関数の王道
機械学習の損失関数として最も広く使われる MSE。計算式・分散とバイアスの分解・最小二乗法との関係・勾配降下法での役割を解説します。
続きを読む →
多変量分析の完全ガイド — PCAとt-SNEで高次元データの構造を可視化する
数十〜数百の特徴量を持つ高次元データを2次元に圧縮して構造を把握する方法を解説。PCAの寄与率やローディング、t-SNEのperplexity調整、UMAPとの比較まで網羅します。
続きを読む →
MAE(平均絶対誤差)完全ガイド — 外れ値に強いロバストな誤差指標
「予測が平均的にいくらずれるか」を直感的に示す MAE。計算式・RMSE との違い・外れ値への頑健性・中央値回帰との関係を実例で解説します。
続きを読む →
特徴量関連性分析の完全ガイド — 冗長な特徴量を見つけて特徴量選択に活かす
特徴量間の関連度マトリクス、階層クラスタリング、冗長性の検出——高次元データから本当に必要な特徴量を見極めるための分析手法とQastでの実践方法を解説します。
続きを読む →
二変量分析の完全ガイド — 2変数の関係を可視化と検定で深掘りする
散布図・箱ひげ図・クロス集計表——変数の型の組み合わせに応じた最適な可視化と検定手法を体系的に解説。Qastの自動二変量分析で得られるインサイトの読み方も紹介します。
続きを読む →
Cohen's Kappa 完全ガイド — 偶然の一致を除いた真のモデル評価
Accuracy 90% でも Kappa は 0.2?偶然の一致を差し引いて「モデルの真の貢献」を測る Cohen's Kappa。計算式・解釈基準・Fleiss' Kappa との違いを解説します。
続きを読む →
相関分析の完全ガイド — Pearson・Spearman・相互情報量・Cramér's Vを使い分ける
特徴量間の関係を正しく測る方法を解説します。線形相関だけでなく、非線形・カテゴリ変数間の関連性まで、4つの指標の使い分けとQastでの自動分析を紹介します。
続きを読む →
Log Loss(対数損失)完全ガイド — 確率予測の正確さを測る指標
「80% の自信で正解」と「51% の自信で正解」は同じ? Log Loss は確率の質を評価する指標。計算式・直感的な解釈・Cross-Entropy との関係を解説します。
続きを読む →
分布分析の完全ガイド — データの分布を正しく理解し、前処理に活かす
ヒストグラム+KDE、Q-Qプロット、正規性検定(Shapiro-Wilk、Anderson-Darling、KS、D'Agostino)、分布フィッティング、AIC/BIC比較、対数変換・Box-Cox変換まで包括的に解説します。
続きを読む →
AUC-ROC 完全ガイド — ROC 曲線の読み方とモデル比較への活用
閾値に依存しないモデル評価の決定版。ROC 曲線の作り方・AUC の解釈・PR 曲線との使い分け・多クラスへの拡張を、図解とともに解説します。
続きを読む →
F1 スコア完全ガイド — Precision と Recall を 1 つの数値で評価する方法
Precision と Recall のどちらも重要なとき、F1 スコアが最適な選択肢。調和平均の意味・F-beta との関係・多クラスでの計算方法を実例で解説します。
続きを読む →
単変量分析の完全ガイド — 各カラムの特徴を徹底的に理解する
平均・中央値・標準偏差・四分位数・歪度・尖度などの記述統計量から、ヒストグラムやカテゴリ別の値集計まで、単変量分析の全手法を解説します。
続きを読む →
データ品質チェック完全ガイド — モデル学習前に必ず確認すべき10のポイント
ターゲットリーケージ、高欠損率カラム、定数カラム、IDカラム混入、クラス不均衡など、モデル学習前に確認すべき10の品質チェック項目を詳しく解説します。
続きを読む →
Recall(再現率)完全ガイド — 見逃しを許さないための最重要指標
「本当に陽性なものをどれだけ見つけられたか?」Recall の計算式・医療や不正検知での重要性・Sensitivity との関係・実践的な閾値設定を詳しく解説します。
続きを読む →
Precision(適合率)完全ガイド — 誤検知を減らしたいときの最重要指標
「陽性と判定したものは本当に陽性か?」Precision の計算式・ビジネスでの重要性・Recall とのトレードオフ・閾値調整の実践テクニックを詳しく解説します。
続きを読む →
欠損値分析の完全ガイド — 欠損パターンから見えるデータの真実
欠損値の種類(MCAR・MAR・MNAR)、欠損パターンのヒートマップ、共起行列、Little の MCAR 検定など、欠損値の分析手法と適切な補完戦略の選び方を解説します。
続きを読む →
データ監査の完全ガイド — データセットの健全性を一目で判断する方法
データセットの行数・列数・データ型・欠損・重複・メモリ使用量など、モデル学習の前に押さえておくべきデータ監査の全項目を解説します。Qast の自動データ監査機能の活用法も紹介します。
続きを読む →
Accuracy(正解率)を正しく理解する — 万能ではないシンプル指標の落とし穴と活用法
もっとも直感的な分類指標 Accuracy。しかし不均衡データでは「99% なのに使えない」ことも。計算式・具体例・限界・Qast での活用をやさしく解説します。
続きを読む →
Spearmanの順位相関入門 — 単調関係を捉えるノンパラメトリック相関
Spearmanの順位相関係数の仕組みをやさしく解説します。順位に基づいて単調関係の強さを測る、外れ値や非正規分布に強いノンパラメトリック相関指標を学びましょう。
続きを読む →
Pearsonの相関係数入門 — 線形関係の強さを測る
Pearsonの相関係数の仕組みをやさしく解説します。2つの数値変数の線形関係の方向と強さを -1〜+1 で表現する、最も基本的な相関指標を学びましょう。
続きを読む →
カイ二乗検定入門 — カテゴリ変数の独立性を検定
カイ二乗検定の仕組みをやさしく解説します。クロス集計表の観測度数と期待度数を比較し、2つのカテゴリ変数が独立かどうかを判定する手法を学びましょう。
続きを読む →
事後検定入門 — どの群間に差があるかを特定する多重比較法
事後検定(多重比較法)の仕組みをやさしく解説します。ANOVAで差が見つかった後、Tukey HSDやBonferroni補正を使ってどの群間に差があるかを特定する手法を学びましょう。
続きを読む →
Kruskal-Wallis検定入門 — ANOVAのノンパラメトリック版
Kruskal-Wallis検定の仕組みをやさしく解説します。正規分布を仮定せず、順位に基づいて3群以上の分布の違いを検定するノンパラメトリック手法を学びましょう。
続きを読む →
一元配置分散分析(ANOVA)入門 — 3群以上の平均を同時に比較
一元配置分散分析(ANOVA)の仕組みをやさしく解説します。F統計量を用いて3群以上の平均値に差があるかを同時に検定する手法を学びましょう。
続きを読む →
Mann-Whitney U検定入門 — ノンパラメトリックな2群比較
Mann-Whitney U検定の仕組みをやさしく解説します。正規分布を仮定せず、順位に基づいて2群の分布の違いを検定する、外れ値に強い手法を学びましょう。
続きを読む →
Welchのt検定入門 — 分散が等しくない2群の比較
Welchのt検定の仕組みをやさしく解説します。等分散性を仮定しないため、実務データで安心して使えるロバストな2群比較手法を学びましょう。
続きを読む →
t検定入門 — 2群の平均値の差を検定する基本手法
t検定の仕組みをやさしく解説します。2つの群の平均値に統計的に有意な差があるかを判定する、最も基本的な仮説検定手法を学びましょう。
続きを読む →
Anderson-Darling検定入門 — 分布の裾に注目した適合度検定
Anderson-Darling検定の仕組みをやさしく解説します。KS検定を改良し、分布の裾(テール)部分に重みを置くことで、より高い検出力を実現する適合度検定を学びましょう。
続きを読む →
コルモゴロフ-スミルノフ検定入門 — 累積分布の最大乖離を検定
コルモゴロフ-スミルノフ検定の仕組みをやさしく解説します。経験的累積分布関数と理論分布を比較し、任意の分布への適合度を判定する汎用的な手法を学びましょう。
続きを読む →
D'Agostino-Pearson検定入門 — 歪度と尖度で正規性を評価
D'Agostino-Pearson検定の仕組みをやさしく解説します。歪度(分布の左右の偏り)と尖度(分布の尖り具合)を同時に評価し、正規性を判定する手法を学びましょう。
続きを読む →
回帰モデルの評価指標を完全解説 — MAE から決定係数まで
回帰モデルの予測精度を正しく評価するための指標を体系的に解説。RMSE、MAE、R²、MAPE など、各指標の数学的意味とビジネスでの使い分けを詳しく紹介します。
続きを読む →
Shapiro-Wilk検定入門 — 正規性を調べる最も信頼性の高い検定
Shapiro-Wilk検定の仕組みをやさしく解説します。順序統計量と正規分布の期待値を比較し、データが正規分布に従うかを高い検出力で判定する手法を学びましょう。
続きを読む →
分類モデルの評価指標を完全解説 — Accuracy から AUC-ROC まで
分類モデルの精度を正しく評価するには、タスクの特性に合った指標を選ぶ必要があります。混同行列からAUC-ROC曲線まで、主要な評価指標の意味と使い分けを解説します。
続きを読む →
ElasticNet入門 — Ridge と Lasso のいいとこ取り
ElasticNet の仕組みをやさしく解説します。L1正則化とL2正則化を組み合わせることで、特徴量選択と安定性の両方を実現するハイブリッド手法を学びましょう。
続きを読む →
Lasso回帰入門 — L1正則化で特徴量を自動選択
Lasso回帰の仕組みをやさしく解説します。L1正則化により不要な特徴量の重みを完全にゼロにし、スパースで解釈しやすいモデルを自動構築する手法を学びましょう。
続きを読む →
Ridge回帰入門 — L2正則化で過学習を抑える
Ridge回帰の仕組みをやさしく解説します。L2正則化ペナルティにより全特徴量の重みを縮小し、多重共線性への対処と過学習抑制を実現する手法を学びましょう。
続きを読む →
SHAP で機械学習モデルの判断根拠を可視化する — 説明可能AI入門
「なぜこの予測結果になったのか?」——SHAP(SHapley Additive exPlanations)を使ったモデルの説明手法と、Qast の説明可能AI機能を解説します。
続きを読む →
線形回帰入門 — すべての予測モデルの出発点
線形回帰の仕組みをやさしく解説します。y = wx + b の基本式から最小二乗法、前提条件、使いどころまで、数値予測の出発点を学びましょう。
続きを読む →
ニューラルネットワーク(MLP)入門 — テーブルデータのための深層学習
多層パーセプトロン(MLP)の仕組みをやさしく解説します。層構造、活性化関数、バックプロパゲーションの基本と、テーブルデータでの役割を学びましょう。
続きを読む →
Qast EDA 完全ガイド — 16の分析機能で データの全体像を把握する
Qast の探索的データ分析(EDA)機能が提供する16種類の分析を徹底解説。基本統計量からクラスタリング、外れ値検出、分布フィッティングまで、データサイエンスの第一歩を自動化します。
続きを読む →
k近傍法入門 — 似ているデータから答えを導くシンプルな手法
k近傍法(k-NN)の仕組みをやさしく解説します。インスタンスベース学習の考え方、距離の計算方法、k の選び方のコツを学びましょう。
続きを読む →
回帰モデルの評価指標ガイド — RMSE・MAE・R² の読み方と使い分け
RMSE が低いのに使えないモデル?回帰タスクで使われる代表的な評価指標の意味と、外れ値やスケールに応じた選び方をやさしく解説します。
続きを読む →
サポートベクターマシン入門 — マージン最大化で最適な境界線を引く
サポートベクターマシン(SVM)の仕組みをやさしく解説します。マージン最大化の考え方、カーネルトリック、高次元データへの強みを学びましょう。
続きを読む →
分類モデルの評価指標ガイド — Accuracy・F1・AUC-ROC の読み方と使い分け
Accuracy だけ見ていませんか?分類タスクで使われる代表的な評価指標の意味と、データの特性に応じた選び方をやさしく解説します。
続きを読む →
CatBoost入門 — カテゴリ変数に強い前処理いらずのブースティング
CatBoost の仕組みをやさしく解説します。カテゴリ変数の自動処理、Ordered Boosting による過学習抑制など、前処理を最小限にできる理由を学びましょう。
続きを読む →
データ前処理の完全ガイド — 機械学習の精度を左右する下準備を解説
欠損値の処理、カテゴリ変数のエンコーディング、特徴量スケーリング——機械学習モデルの精度を大きく左右するデータ前処理の手法と、Qastでの自動処理を解説します。
続きを読む →
LightGBM入門 — 大規模データに強い高速ブースティング
LightGBM の仕組みをやさしく解説します。ヒストグラムベースの分割、リーフワイズ成長、大規模データやカテゴリ変数への強みを学びましょう。
続きを読む →
SHAPで機械学習モデルを「説明」する — 特徴量の影響を可視化するガイド
「なぜこの予測結果になったのか?」——SHAP(SHapley Additive exPlanations)を使ったモデルの説明可能性と、Qastでの活用方法をやさしく解説します。
続きを読む →
探索的データ分析(EDA)完全ガイド — Qastが自動で行う16のデータ分析
モデル学習の前に、データの全体像を把握する「探索的データ分析(EDA)」。Qast が自動実行する16の分析ツールと、結果の読み方をステップバイステップで解説します。
続きを読む →
XGBoost入門 — Kaggle上位の常連、勾配ブースティングの代表格
XGBoost の仕組みをやさしく解説します。勾配ブースティングの考え方、逐次的な木の構築、正則化による過学習抑制など、高精度の秘密を学びましょう。
続きを読む →
データ前処理とは? — AIが予測精度を高めるために裏側でやっていること
「前処理」って何をしているの? 欠損値の補完、カテゴリ変換、スケーリングなど、予測モデルの精度を大きく左右する前処理の仕組みを、料理のたとえでやさしく解説します。
続きを読む →
ランダムフォレスト入門 — 多数の決定木で安定した予測を実現
ランダムフォレストの仕組みをやさしく解説します。バギングによるアンサンブル学習と多数決で、決定木の弱点である過学習を克服する手法を学びましょう。
続きを読む →
決定木入門 — 「もし〇〇なら」で分類する直感的な手法
決定木の仕組みをやさしく解説します。if-then ルールによるツリー構造、ジニ不純度や情報利得の考え方、メリットとデメリットを学びましょう。
続きを読む →
Optunaで学ぶハイパーパラメーターチューニング — 仕組みと実践ガイド
機械学習モデルの性能を左右するハイパーパラメーター。Optunaを用いた効率的な探索手法の仕組みと、Qastでの自動チューニングの裏側を解説します。
続きを読む →
ロジスティック回帰入門 — 確率で分類するシンプルな手法
ロジスティック回帰の仕組みをやさしく解説します。シグモイド関数で確率を出力し、二値分類から多クラス分類まで対応できる基本手法を学びましょう。
続きを読む →
統計的検定の基礎 — Qast EDAで使われる検定手法を解説
「この差は偶然?」「この分布は正規分布?」——探索的データ分析(EDA)で自動実行される統計的検定の手法と読み方をやさしく解説します。
続きを読む →
Qastが使う回帰アルゴリズム — 数値予測の手法をやさしく解説
「来月の売上は?」「この物件の適正価格は?」——回帰タスクでQastが自動比較する代表的なアルゴリズムの特徴と使いどころを解説します。
続きを読む →
Qastが使う分類アルゴリズム — 手法の特徴と選び方ガイド
「この顧客は離脱する?」「このメールはスパム?」——分類タスクでQastが自動比較する代表的なアルゴリズムの仕組みと得意分野を、数式なしで解説します。
続きを読む →
クラスタリング手法まとめ — データの隠れたグループを発見する技術
「顧客をセグメント分けしたい」「似たデータをまとめたい」——教師なし学習の代表格であるクラスタリングの主要手法を、仕組み・特徴・選び方と共にやさしく解説します。
続きを読む →
ワンクリックでモデルをAPIデプロイする方法
学習済みモデルをボタン一つでRESTful APIとしてデプロイし、本番環境で利用する方法を解説します。
続きを読む →
AIアシスト vs 手動設定 — 学習設定の使い分けガイド
Qast の AI アシスト学習設定と手動設定、それぞれの強みと最適な使い分け方を解説します。初回探索は AI に任せ、本番チューニングは手動で行うハイブリッド戦略がおすすめです。
続きを読む →
AIアシスト学習設定ガイド — プロンプトを入力するだけで最適なモデル設定が完成
Qast の「AI アシスト学習設定」機能を使えば、データの目的を自然言語で伝えるだけで AI が最適な学習設定を自動提案します。使い方をステップバイステップで解説します。
続きを読む →
AI アシスト学習設定の仕組み — LLM × スキーマ解析で実現する自動設定提案
Qast の AI アシスト学習設定がどのように動作しているかを技術的に解説します。LLM へのプロンプト設計、スキーマ情報の活用、提案結果のバリデーションまで、裏側のアーキテクチャを紹介します。
続きを読む →
モデルリーダーボードで最適なモデルを選ぶ方法
39種類のアルゴリズムが学習した結果から、リーダーボードを使って最適なモデルを効率的に選定する方法を解説します。
続きを読む →
CSVアップロードから予測モデル作成まで — はじめてのQastガイド
Qast を使って、CSVファイルのアップロードから予測モデルの作成までをステップバイステップで解説します。プログラミング知識は一切不要です。
続きを読む →