アプローチ | 概要と長所 | |
---|---|---|
線形分類器 | 線形分離分析 (LDA:Linear Discriminant Analysis) |
20世紀前半に考案された方法。 クラス内外の分散の関係から線形な境界を探し出す。 |
ロジスティック回帰 (Logistic Regression) |
二値分類問題で非常によく使われる。 リッジ、ロッソなどの正則化項を加えられることが多い。 |
|
カーネル法 |
サポートベクターマシン (SVM:Support Vector Machine) |
カーネル関数の選択によって性質が大きく変わる。 よく利用されるRBFカーネル曲線的な二値分類問題が得意。 さまざまな分野の分類・予測に利用される。 |
ツリー構造 |
CART決定木 (Classification And Regression Trees) |
対象のさまざまな観点による分類を(樹木の枝分かれのように)繰り返す方法。 AIの古典的方法だがさまざまな工夫が施されている。 |
ランダムフォレスト (Random Forest) |
決定木をたくさん集めたアンサンブル学習。 さまざまなメリットがある。(過学習しにくい、データの正規化の必要がない、混合データに対応、少ない学習データに対応、変数重要度を把握できる) 多値分類も得意。 |
|
勾配ブースティング (Gradient Boosting) |
ランダムフォレストに似たアンサンブル学習。 学習データにより強くフィットさせる方法がとられていて分類能力は向上。 |
|
ディープラーニング |
畳み込みニューラルネットワーク (CNN:Convolutional Neural Network) |
画像認識などの定番として利用されるディープラーニング。 さまざまな用途に利用される。<br> ResNetなどの発展形がある。 |
回帰型ニューラルネットワーク (RNN:Recurrent neural network) |
自然言語解析などでよく使われる。 長・短期記憶(LSTM)やゲート付き(GRU)など、いくつかの発展形がある。 |
|
その他の教師あり型 |
k-近傍法 (k-NN: k-Nearest Neighbor) |
k個の近傍を調べることによって分類する方法。 シンプルな割に性能がよいアプローチ。 学習の必要がない。 |
クラスタリング |
k-平均法 (k-Means Clustering) |
与えられたデータをk個の領域に分類するシンプルな分類方法。 k個の中心値(center)を探し出し、どの中心に一番近いかによって分類する。 |
階層的クラスタリング (Hierarchical Clustering) |
階層的なクラスタをつくる。 「距離」の定義にいくつかの方法がある。 |