【決定木入門】直感的な予測モデルを使った分類と可視化の具体例!

※関数の書き方・実行結果に誤りがあるケースがあります。随時修正中です。また誤りに気づかれた方はこちらからご連絡頂きますとめちゃ嬉しいです。

目次

機械学習入門へようこそ!

ほな、今回は「決定木」についてお話しするで!決定木っちゅうのは、データを使って予測をするためのシンプルで直感的なモデルなんや。これを使うことで、複雑なデータをわかりやすく可視化できるんやで。例えば、木を見上げたときに枝分かれしてるやろ?それと同じように、決定木もいろんな選択肢を枝として持ってて、それに沿ってデータを分類したりするんや。

メリット

  • 直感的な理解:決定木は視覚的にわかりやすいから、初心者にも扱いやすいんや。
  • 柔軟性:分類問題にも回帰問題にも使えるから、いろんな場面で活躍するで。
  • 特徴量の重要度の評価:どの特徴が予測にどれだけ貢献しているかを見極めやすいんや。

この講座では、決定木の基本から実装、さらにはその解釈まで、じっくりと掘り下げていくから楽しみにしててな!

決定木の基本概念と動作原理

ほな、まずは決定木の基本的な概念とその動作原理について説明するで!決定木は、データを決定するための「木」の形をしたモデルやねん。この木は、データの特徴を基にして分岐していくことで、最終的に予測を行うんや。

決定木の構造

  • ノード:木の中の各ポイントや。ここで特徴量に基づいた判断が行われるんや。
  • エッジ:ノード同士を繋ぐ線のこと。決定をもとに次のノードに進むための道しるべや。
  • リーフノード:最終的な予測結果が出るノードのこと。ここでクラスラベルや数値が決まるんや。

動作原理

  1. 特徴量の選択:まず、データの特徴量の中から最も分割に適した特徴量を選ぶんや。この選び方には、「ジニ不純度」や「情報利得」などの指標が使われるで。
  2. データの分割:選んだ特徴量に基づいてデータを二つに分けるんや。これを繰り返していくことで、どんどん小さなグループに分かれていくで。
  3. リーフノードへの到達:最終的にはリーフノードに辿り着いて、クラスラベルや予測値が決定されるんや。

このように、決定木はシンプルなルールに従ってデータを分類することで、非常に直感的な予測を実現するんやで!次は、実際に分類木と回帰木の実装を見ていこうか!

分類木と回帰木の実装

さて、次は実際に「分類木」と「回帰木」の実装を見ていくで!決定木には主に二つのタイプがあって、ひとつはクラスを分類するための「分類木」、もうひとつは数値を予測するための「回帰木」や。これらを使って、どんなデータでも予測できるようになるんや!

分類木の実装

まずは、分類木の実装を見てみよう。ここでは、アイリスデータセットを使って、花の種類を予測する例や。

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier

# アイリスデータセットの読み込み
iris = load_iris()
X = iris.data
y = iris.target

# データをトレーニングセットとテストセットに分割
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 決定木モデルの作成
clf = DecisionTreeClassifier()

# モデルのトレーニング
clf.fit(X_train, y_train)

# テストデータでの精度を評価
accuracy = clf.score(X_test, y_test)
print(f'分類木の精度: {accuracy:.2f}')

回帰木の実装

次に、回帰木の実装を見てみよう。ここでは、ボストンの住宅価格データセットを使って、価格を予測する例や。

from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeRegressor

# ボストン住宅価格データセットの読み込み
boston = load_boston()
X = boston.data
y = boston.target

# データをトレーニングセットとテストセットに分割
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 決定木回帰モデルの作成
reg = DecisionTreeRegressor()

# モデルのトレーニング
reg.fit(X_train, y_train)

# テストデータでの精度を評価
score = reg.score(X_test, y_test)
print(f'回帰木の精度: {score:.2f}')

まとめ

このように、分類木と回帰木を使って、データを分類したり数値を予測したりすることができるんや。シンプルやけど、めっちゃ強力な手法やで!次は、決定木の可視化と解釈について見ていこうか!

決定木の可視化と解釈

さあ、次は決定木の可視化とその解釈についてお話しするで!決定木はその構造が視覚的にわかりやすいから、モデルの動作を理解するのにめっちゃ役立つんや。可視化することで、どの特徴がどれだけ重要か、またどのように予測が行われるのかを確認できるんやで。

決定木の可視化

まずは、前のセクションで作成した分類木を可視化してみるで。sklearn.treeモジュールのplot_treeを使って、木の構造を描画するんや。

import matplotlib.pyplot as plt
from sklearn.tree import plot_tree

# 決定木の可視化
plt.figure(figsize=(12, 8))
plot_tree(clf, filled=True, feature_names=iris.feature_names, class_names=iris.target_names)
plt.title('分類木の可視化')
plt.show()

回帰木の可視化

同様に、回帰木も可視化できる。回帰木の場合も、plot_treeを使ってみるで。

plt.figure(figsize=(12, 8))
plot_tree(reg, filled=True)
plt.title('回帰木の可視化')
plt.show()

解釈のポイント

  • 分岐条件:木の各ノードでどの特徴量が使われているか、またその条件がどのようにデータを分けているかを確認できる。
  • リーフノード:リーフノードでは最終的なクラスや予測値が表示されるから、どのようにデータが分類されているかが一目でわかる。
  • 特徴量の重要度:どの特徴量がモデルにとって重要なのかも、可視化を通じて理解できるんや。

まとめ

このように、決定木はその構造を可視化することで、モデルの動作を直感的に理解できるんや。これが、決定木の大きな魅力の一つやで!次は、特徴量の重要度の評価について見ていこうか!

特徴量の重要度の評価

さて、次は「特徴量の重要度」についてお話しするで!決定木では、どの特徴がモデルの予測にどれだけ影響を与えているかを評価することができるんや。これを知ることで、モデルを改善したり、データの理解を深めたりすることができるんやで。

特徴量の重要度とは

特徴量の重要度は、モデルが予測を行う際に、各特徴量がどれだけ寄与しているかを示す指標や。重要度が高い特徴量は、予測に大きな影響を与えているということや。

特徴量の重要度の取得

sklearnの決定木モデルでは、feature_importances_属性を使って、特徴量の重要度を簡単に取得することができるで。早速、分類木の重要度を見てみよう。

import pandas as pd

# 特徴量の重要度を取得
importance = clf.feature_importances_

# 特徴量の名前と重要度をデータフレームにまとめる
feature_importance_df = pd.DataFrame({'Feature': iris.feature_names, 'Importance': importance})

# 重要度でソート
feature_importance_df = feature_importance_df.sort_values(by='Importance', ascending=False)

print(feature_importance_df)

可視化してみよう

特徴量の重要度を可視化することで、どの特徴が重要かを直感的に理解できるで。棒グラフを使ってみよう。

plt.figure(figsize=(10, 6))
plt.barh(feature_importance_df['Feature'], feature_importance_df['Importance'], color='skyblue')
plt.xlabel('重要度')
plt.title('特徴量の重要度')
plt.show()

まとめ

このように、決定木を使うことで特徴量の重要度を評価し、可視化することができるんや。これによって、どの特徴が予測に大きな影響を与えているかがわかるから、モデル改善やデータ分析に役立つんやで!次は、決定木の長所と短所についてお話ししようか!

決定木の長所と短所

さて、最後に「決定木の長所と短所」についてお話しするで!決定木はシンプルで使いやすい手法やけど、良いところもあれば、注意しなあかんところもあるんや。これを理解して、適切に使うことが大切やで!

決定木の長所

  • 直感的な理解:決定木は木構造で視覚化できるから、誰でも簡単に理解できる。モデルの動作を直感的に掴めるんや。

  • 特徴量のスケーリング不要:特徴量のスケーリング(標準化や正規化)が必要ないから、そのままデータを使えるんや。

  • 扱えるデータタイプの幅広さ:数値データだけでなく、カテゴリデータも扱えるから、様々なデータに適用できるんやで。

  • 非線形関係の捉え方:決定木はデータ内の非線形な関係を容易に捉えることができるから、複雑なデータにも対応可能や。

決定木の短所

  • 過学習のリスク:決定木はデータに対して非常に柔軟やけど、その分過学習しやすい。特に深い木を作ると、トレーニングデータには完璧にフィットしても、新しいデータにはうまく適応できへんことがあるんや。

  • 不安定性:データの少しの変化でも、構造が大きく変わることがある。これが決定木の不安定性につながるんや。

  • バイアスの存在:決定木は、特定の特徴量に偏った結果を出すことがある。特に、カテゴリ数が多い特徴量に引っ張られることがあるから注意が必要や。

まとめ

決定木は、直感的で扱いやすい手法やけど、長所と短所をしっかり理解して使うことが大切や。これを踏まえて、次のステップとしては、より複雑なモデルや手法に進んでいくことができるで!これで決定木の基本は完了やけど、もっと学びたいことがあったら、どんどん質問してな!

【決定木入門】直感的な予測モデルを使った分類と可視化の具体例!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

目次