Scikit-learnとは何か?
Scikit-learn(サイキットラーン)は、Pythonで実装されたオープンソースの機械学習ライブラリです。特に、データサイエンスや機械学習の初心者にとって使いやすいように設計されています。このライブラリは、シンプルなインターフェースを提供しつつ、さまざまな機械学習アルゴリズムやツールを含んでいます。

Pythonで機械学習を始めたいけれど、どのライブラリを使えばいいのか迷っていませんか?Scikit-learnは、初心者にも使いやすい機械学習ライブラリです。このガイドでは、Scikit-learnの基本から、モデルの構築、評価、チューニングまで、ステップバイステップで解説しています。機械学習に興味がある方は、ぜひチェックしてみてください!
Scikit-learnの特徴
他の機械学習ライブラリとの比較
Scikit-learnは、TensorFlowやPyTorchのようなディープラーニングに特化したライブラリとは異なり、一般的な機械学習アルゴリズムを手軽に使える点で優れています。Scikit-learnは、ディープラーニングよりも、クラシックな機械学習アルゴリズムに焦点を当てているため、学習曲線が緩やかであり、すぐに実務での活用が可能です。
例えば、TensorFlowやPyTorchはニューラルネットワークを用いた高度なモデルの開発に適していますが、Scikit-learnはデータの前処理やシンプルなモデル構築に特化しています。そのため、プロトタイピングや軽量なアプリケーションに非常に有用です。
Scikit-learnのインストール

Scikit-learnを使い始めるためには、まずPython環境にインストールする必要があります。この章では、Scikit-learnのインストール方法と、必要な依存ライブラリについて説明します。
Scikit-learnのインストール方法
Scikit-learnはPythonパッケージとして提供されており、pipコマンドを使って簡単にインストールできます。また、AnacondaなどのPythonディストリビューションを利用している場合には、condaコマンドを使ってインストールすることも可能です。
pipを使ったインストール
最も一般的な方法は、pipを使ったインストールです。以下のコマンドをターミナルやコマンドプロンプトに入力することで、Scikit-learnをインストールできます。
pip install scikit-learnこれで、Scikit-learnとその依存ライブラリが自動的にインストールされます。
condaを使ったインストール
Anacondaを使用している場合は、condaコマンドでインストールすることもできます。Anacondaはデータサイエンスに必要な多くのライブラリを含んでおり、環境管理も容易です。
conda install scikit-learncondaを使うと、Scikit-learnだけでなく、互換性のある依存ライブラリがAnacondaのリポジトリからインストールされるため、環境の整合性が保たれやすくなります。
必要な依存ライブラリ
Scikit-learnを使用するためには、いくつかの依存ライブラリが必要です。以下は、その主なライブラリです。
- NumPy: 多次元配列オブジェクトと高速な数値計算を提供するライブラリ。Scikit-learnの多くの処理で使用されます。
- SciPy: 科学技術計算のためのライブラリ。線形代数、最適化、統計などの機能を提供します。
- Joblib: 並列計算をサポートするためのライブラリ。Scikit-learnのモデルのトレーニングや予測を高速化するのに役立ちます。
これらのライブラリは、Scikit-learnをインストールすると自動的にインストールされますが、既にインストールされている場合は、必要に応じて更新することをお勧めします。
インストールの確認
Scikit-learnが正しくインストールされたかどうかを確認するには、Pythonインタープリタを起動し、以下のコマンドを実行してみてください。
import sklearn
print(sklearn.__version__)これにより、インストールされているScikit-learnのバージョンが表示されます。エラーが発生しなければ、インストールは成功です。
データの準備
機械学習プロジェクトでは、データの準備が成功の鍵を握っています。Scikit-learnを使ったモデル構築においても、適切なデータの前処理が重要です。この章では、データセットの読み込み方法や前処理、そして特徴量のスケーリングや変換について説明します。
データセットの読み込み
Scikit-learnには、いくつかの有名なデータセットが組み込まれており、練習やデモンストレーションに利用できます。たとえば、手書き数字の画像データであるdigitsデータセットや、アヤメの品種分類で知られるirisデータセットなどがあります。
以下は、irisデータセットを読み込む方法です。
from sklearn.datasets import load_iris
# データセットを読み込む
iris = load_iris()
# 特徴量データとターゲットデータを取得
X = iris.data
y = iris.target上記のコードで、Xには特徴量データ(例:がく片の長さや幅など)が、yにはターゲットデータ(例:アヤメの品種)が格納されます。
外部データの読み込み
実際のプロジェクトでは、自分で用意したデータを使うことが多いでしょう。Scikit-learnは、PandasのDataFrameを直接扱うことができるため、CSVファイルやExcelファイルなどからデータを読み込むことが容易です。以下は、CSVファイルからデータを読み込む例です。
import pandas as pd
# CSVファイルを読み込む
data = pd.read_csv('your_dataset.csv')
# 特徴量とターゲットに分ける
X = data.drop('target_column', axis=1)
y = data['target_column']ここで、target_columnにはターゲット(目的変数)のカラム名を指定します。
データの前処理
生データはそのままではモデルに適さないことが多いため、前処理が必要です。前処理には、欠損値の処理やカテゴリカルデータの数値化などが含まれます。
欠損値の処理
欠損値が存在する場合、そのデータを削除するか、適切な値で補完する必要があります。Scikit-learnではSimpleImputerを使って欠損値を補完できます。
from sklearn.impute import SimpleImputer
# 欠損値を平均値で補完
imputer = SimpleImputer(strategy='mean')
X = imputer.fit_transform(X)カテゴリカルデータのエンコーディング
カテゴリカルデータは、モデルに適用できるように数値化する必要があります。Scikit-learnではOneHotEncoderやLabelEncoderを使ってカテゴリカルデータをエンコードできます。
from sklearn.preprocessing import OneHotEncoder
# OneHotEncoderを使用してカテゴリデータを数値化
encoder = OneHotEncoder(sparse=False)
X_encoded = encoder.fit_transform(X_categorical)特徴量のスケーリングと変換
モデルにデータを入力する前に、特徴量をスケーリングすることが推奨されます。多くの機械学習アルゴリズムは、データのスケールに敏感だからです。例えば、StandardScalerを使ってデータを標準化(平均0、分散1に変換)できます。
from sklearn.preprocessing import StandardScaler
# データの標準化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)このようにスケーリングすることで、異なる特徴量の影響を均等に扱えるようになり、モデルの性能が向上することが多いです。
モデルの選択とトレーニング

データの準備が整ったら、次に行うのはモデルの選択とトレーニングです。Scikit-learnは、さまざまな機械学習アルゴリズムを提供しており、回帰、分類、クラスタリングなどのタスクに応じて適切なモデルを選ぶことができます。この章では、代表的なモデルをいくつか紹介し、そのトレーニング方法について説明します。
モデルの選択
まず、どのモデルを使うかを選択します。Scikit-learnでは、タスクに応じて以下のようなモデルを使用できます。
- 回帰タスク
連続値を予測する問題に対して、線形回帰や決定木回帰、サポートベクターマシン(SVM)などが利用されます。- 線形回帰 (
LinearRegression) - 決定木回帰 (
DecisionTreeRegressor) - サポートベクターマシン (
SVR)
- 線形回帰 (
- 分類タスク
ラベル(クラス)を予測する問題に対して、ロジスティック回帰、k近傍法(k-NN)、ランダムフォレストなどが適しています。- ロジスティック回帰 (
LogisticRegression) - k近傍法 (
KNeighborsClassifier) - ランダムフォレスト (
RandomForestClassifier)
- ロジスティック回帰 (
- クラスタリングタスク
データをグループに分ける問題に対して、k-meansクラスタリングや階層クラスタリングなどが利用されます。- k-meansクラスタリング (
KMeans) - 階層クラスタリング (
AgglomerativeClustering)
- k-meansクラスタリング (
モデルのトレーニング
モデルの選択が済んだら、データを使ってモデルをトレーニングします。ここでは、分類タスクにおけるロジスティック回帰モデルを例に説明します。
モデルのインスタンス化
モデルのクラスをインポートし、インスタンス化します。
from sklearn.linear_model import LogisticRegression
# モデルをインスタンス化
model = LogisticRegression()データの分割
モデルをトレーニングする前に、データをトレーニングセットとテストセットに分割します。これにより、モデルの性能を評価するために未使用のデータを確保できます。
from sklearn.model_selection import train_test_split
# データをトレーニングセットとテストセットに分割
X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42)ここでは、train_test_split関数を使い、データの20%をテストセットとして確保しています。
モデルのトレーニング
トレーニングデータを使って、モデルをトレーニングします。Scikit-learnでは、fitメソッドを使ってモデルをトレーニングできます。
# モデルをトレーニング
model.fit(X_train, y_train)予測の実行
トレーニングが完了したら、テストデータを使って予測を行います。
# テストデータを使って予測
y_pred = model.predict(X_test)このy_predには、テストデータに対する予測結果が含まれます。
予測結果の評価
最後に、予測結果を評価します。Scikit-learnは、精度、混同行列、F1スコアなど、さまざまな評価指標を提供しています。
from sklearn.metrics import accuracy_score
# モデルの精度を評価
accuracy = accuracy_score(y_test, y_pred)
print(f"Accuracy: {accuracy:.2f}")このコードにより、テストデータに対するモデルの精度が表示されます。
モデルの評価
モデルのトレーニングが完了したら、その性能を評価することが重要です。モデルの評価によって、どの程度うまく動作しているか、改善が必要かどうかを判断できます。この章では、モデルの評価指標と、Scikit-learnでの評価方法について説明します。
モデルの評価指標
Scikit-learnは、さまざまな評価指標を提供しており、モデルの種類やタスクに応じて適切な指標を選ぶことができます。以下は、代表的な評価指標です。
正解率(Accuracy)
正解率は、全体の予測の中で正しく予測された割合を示します。分類問題で最も一般的に使われる指標ですが、クラスが不均衡な場合には適していないことがあります。
from sklearn.metrics import accuracy_score
# 正解率の計算
accuracy = accuracy_score(y_test, y_pred)
print(f"Accuracy: {accuracy:.2f}")精度(Precision)
精度は、正と予測されたサンプルのうち、実際に正であったサンプルの割合を示します。偽陽性を避けたい場合に有用です。
from sklearn.metrics import precision_score
# 精度の計算
precision = precision_score(y_test, y_pred, average='weighted')
print(f"Precision: {precision:.2f}")再現率(Recall)
再現率は、実際に正であるサンプルのうち、正と予測されたサンプルの割合を示します。偽陰性を避けたい場合に有用です。
from sklearn.metrics import recall_score
# 再現率の計算
recall = recall_score(y_test, y_pred, average='weighted')
print(f"Recall: {recall:.2f}")F1スコア
F1スコアは、精度と再現率の調和平均です。精度と再現率のバランスを取りたい場合に使われます。
from sklearn.metrics import f1_score
# F1スコアの計算
f1 = f1_score(y_test, y_pred, average='weighted')
print(f"F1 Score: {f1:.2f}")混同行列(Confusion Matrix)
混同行列は、分類結果の詳細な分析を可能にします。各クラスごとの真陽性、偽陽性、真陰性、偽陰性の数を視覚的に確認できます。
from sklearn.metrics import confusion_matrix
# 混同行列の計算
cm = confusion_matrix(y_test, y_pred)
print("Confusion Matrix:\n", cm)交差検証の方法と重要性
モデルの評価は、単一のトレーニングとテストの分割だけでなく、交差検証(cross-validation)を用いて行うことで、より信頼性の高い結果を得ることができます。
交差検証は、データセットを複数の部分に分割し、それぞれをテストセットとして利用しながらモデルを評価する方法です。これにより、モデルが特定のデータに依存しすぎることを防ぎ、汎化性能をより正確に評価できます。
Scikit-learnでは、cross_val_scoreを使って簡単に交差検証を実行できます。
from sklearn.model_selection import cross_val_score
# 交差検証の実行
cv_scores = cross_val_score(model, X_scaled, y, cv=5, scoring='accuracy')
print(f"Cross-Validation Accuracy: {cv_scores.mean():.2f} ± {cv_scores.std():.2f}")このコードでは、データを5つの分割(fold)に分けて交差検証を行い、平均精度と標準偏差を計算しています。交差検証を行うことで、モデルの性能の一貫性を確認することができます。
モデルのチューニング

モデルをトレーニングし、初期の評価を行った後、次に取り組むべきはモデルのチューニングです。モデルのチューニングとは、モデルのパフォーマンスを向上させるために、ハイパーパラメータを調整したり、過学習を防いだりするプロセスを指します。この章では、ハイパーパラメータの最適化と過学習の防止方法について説明します。
ハイパーパラメータの最適化
ハイパーパラメータとは、モデルのトレーニングにおいて事前に設定するパラメータのことです。これらはデータから学習されるパラメータとは異なり、ユーザーが手動で設定する必要があります。ハイパーパラメータの適切な設定は、モデルの性能に大きく影響します。
Scikit-learnでは、主に以下の2つの方法でハイパーパラメータの最適化が行われます。
グリッドサーチ(Grid Search)
グリッドサーチは、指定されたハイパーパラメータの組み合わせを総当たりで試し、その中から最適な組み合わせを見つける方法です。
from sklearn.model_selection import GridSearchCV
# ハイパーパラメータの候補を定義
param_grid = {
'C': [0.1, 1, 10],
'penalty': ['l2'],
'solver': ['lbfgs', 'liblinear']
}
# グリッドサーチを実行
grid_search = GridSearchCV(LogisticRegression(), param_grid, cv=5, scoring='accuracy')
grid_search.fit(X_train, y_train)
# 最適なハイパーパラメータを表示
print(f"Best Parameters: {grid_search.best_params_}")このコードでは、ロジスティック回帰モデルに対してグリッドサーチを行い、最適なC、penalty、およびsolverの組み合わせを見つけます。
ランダムサーチ(Random Search)
ランダムサーチは、指定された範囲からランダムにハイパーパラメータの組み合わせを選んで試す方法です。グリッドサーチに比べて、より広い範囲のハイパーパラメータを効率的に探索できる場合があります。
from sklearn.model_selection import RandomizedSearchCV
# ハイパーパラメータの範囲を定義
param_dist = {
'C': [0.1, 1, 10, 100],
'penalty': ['l2'],
'solver': ['lbfgs', 'liblinear']
}
# ランダムサーチを実行
random_search = RandomizedSearchCV(LogisticRegression(), param_distributions=param_dist, n_iter=10, cv=5, scoring='accuracy')
random_search.fit(X_train, y_train)
# 最適なハイパーパラメータを表示
print(f"Best Parameters: {random_search.best_params_}")ランダムサーチは、試行回数を制限しながらも効率的に最適なハイパーパラメータを見つけるのに有効です。
過学習を防ぐ方法
過学習(Overfitting)は、モデルがトレーニングデータに過度に適応し、テストデータや新しいデータに対してうまく一般化できない状態を指します。過学習を防ぐためのいくつかのアプローチを以下に紹介します。
交差検証の活用
前の章で説明した交差検証は、過学習を検出し、防ぐための強力なツールです。交差検証を使うことで、モデルの汎化性能を評価し、過学習を回避することができます。
正則化(Regularization)
正則化は、モデルの複雑さを制限することで、過学習を防ぐ手法です。たとえば、ロジスティック回帰や線形回帰においては、L1やL2正則化を使うことで、過度にフィットするのを抑制できます。
model = LogisticRegression(penalty='l2', C=0.1)
model.fit(X_train, y_train)ここでは、L2正則化を適用し、Cパラメータを小さくすることで正則化の強度を高めています。
データ拡張
データの増加は、過学習を防ぐためのもう一つの方法です。データが十分でない場合、モデルは限られた情報からパターンを学び、過学習に陥りやすくなります。データを増やすことで、モデルがより一般化能力を高めることができます。
早期停止(Early Stopping)
早期停止は、モデルがトレーニングデータに対して改善しなくなった段階でトレーニングを止めることで過学習を防ぐ手法です。これは主にディープラーニングで使用されますが、Scikit-learnの一部のモデルでも適用できます。
モデルの保存とデプロイ
機械学習モデルをトレーニングしてチューニングが完了したら、そのモデルを保存し、必要に応じて再利用できるようにすることが重要です。モデルを保存することで、同じモデルを再トレーニングする手間を省き、実際のアプリケーションで簡単にデプロイ(配備)できます。この章では、Scikit-learnでのモデルの保存方法と、保存したモデルの読み込みと再利用方法について説明します。
モデルの保存
Scikit-learnでは、Pythonの標準ライブラリであるjoblibやpickleを使ってモデルを簡単に保存できます。これらは、トレーニング済みのモデルをファイルにシリアライズ(バイナリ形式に変換)し、ディスクに保存するのに使用されます。
Joblibを使った保存方法
joblibは、大きなデータを効率的にシリアライズするために最適化されたツールです。特に、Scikit-learnのモデル保存に推奨されています。
from sklearn.externals import joblib
# モデルの保存
joblib.dump(model, 'trained_model.joblib')このコードにより、modelオブジェクトがtrained_model.joblibというファイル名で保存されます。
Pickleを使った保存方法
pickleは、Pythonオブジェクトをシリアライズするためのもう一つの標準的な方法です。joblibほど効率的ではありませんが、同様にモデルを保存できます。
import pickle
# モデルの保存
with open('trained_model.pkl', 'wb') as file:
pickle.dump(model, file)この方法でも、トレーニング済みモデルがtrained_model.pklとして保存されます。
保存したモデルの読み込み
保存したモデルは、後で再利用するために読み込むことができます。これにより、新しいデータに対して予測を行ったり、モデルを再評価したりできます。
Joblibを使ったモデルの読み込み
joblibを使って保存したモデルを読み込む場合、以下のように行います。
# モデルの読み込み
loaded_model = joblib.load('trained_model.joblib')これで、loaded_modelには保存されたモデルが復元されます。
Pickleを使ったモデルの読み込み
pickleを使って保存したモデルを読み込む場合は、次のようにします。
# モデルの読み込み
with open('trained_model.pkl', 'rb') as file:
loaded_model = pickle.load(file)このコードで、loaded_modelとして復元されたモデルを使用できます。
モデルのデプロイ
モデルをデプロイするということは、トレーニング済みのモデルを実際のアプリケーション環境で使用することを意味します。デプロイの方法はさまざまですが、ここではいくつかの一般的な方法を紹介します。
Web APIとしてのデプロイ
トレーニング済みモデルをWeb APIとして公開し、外部からデータを入力して予測を取得することができます。これには、FlaskやFastAPIなどのPythonフレームワークを使用します。
from flask import Flask, request, jsonify
import joblib
app = Flask(__name__)
# モデルをロード
model = joblib.load('trained_model.joblib')
@app.route('/predict', methods=['POST'])
def predict():
data = request.get_json()
prediction = model.predict([data['features']])
return jsonify({'prediction': prediction.tolist()})
if __name__ == '__main__':
app.run(debug=True)これで、/predictエンドポイントにデータを送信することで、予測結果を取得できるようになります。
バッチ予測
大量のデータに対してバッチ予測を行う場合、保存したモデルを読み込み、CSVファイルやデータベースからデータを取り込み、一括して予測を実行するスクリプトを作成することが考えられます。
import pandas as pd
# データの読み込み
data = pd.read_csv('new_data.csv')
# モデルの読み込み
model = joblib.load('trained_model.joblib')
# 予測の実行
predictions = model.predict(data)これにより、数多くのデータに対して効率的に予測を行い、結果を保存することが可能です。
クラウドサービスへのデプロイ
クラウドベースのサービス(例:AWS SageMaker、Google AI Platform)にモデルをデプロイすることで、スケーラブルな環境でモデルを実行することができます。これにより、大規模なデータ処理やリアルタイム予測を可能にすることができます。
これで、Scikit-learnを使った機械学習プロジェクトの基本的な流れをすべてカバーしました。これまでの内容を通じて、モデルの作成から評価、チューニング、そしてデプロイまでの一連のプロセスについて理解が深まったかと思います。

ここまで読んでいただきありがとうございます!
UdemyのPythonコースにはオンラインで学習ができる動画コンテンツがたくさんあります。
当ブログのような文章メインの説明では足りない箇所を補えると思うので、もっと詳しく勉強したいという方はぜひチェックしてみてください!


コメント