アルゴリズム | 使用例 | 選択基準 |
線形回帰 | 特徴量と目的変数の線形関係をモデル化する場合
例: 家の価格予測 | データが線形関係を持ち、単純なモデルで問題を解決できる場合 |
ロジスティック回帰 | 2つのクラスを分類する問題
例: スパムメール分類 | データが2つのクラスに分類され、線形の決定境界で分離できる場合 |
サポートベクトルマシン | 2つ以上のクラスを分類する問題
例: 手書き数字の分類 | データが非線形であり、高い分類性能が求められる場合 |
ナイーブベイズ | 特徴量が独立していると仮定できる問題
例: テキスト分類、スパムメール分類 | 特徴量が独立しており(仮定)、単純なモデルで問題を解決できる場合 |
K最近傍法 | 2つ以上のクラスを分類する問題、小規模から中規模のノイズのないデータセット
例: 手書き文字検出、画像認識、および動画認識 | データが高次元でなく、ノイズが少ない場合 |
決定木 | 複雑なデータの分類や回帰問題
例: 顧客セグメンテーション | データが非線形であり、解釈が容易である場合 |
ランダムフォレスト | 決定木の弱点を補う場合
例: 顧客セグメンテーション | データが複雑であり、決定木による過学習のリスクがある場合(最近、Boosting TreesのXGBoostやLightGBMがよく用いられます) |
全て読むには購入が必要です