前回、K近傍法によるサンプルプログラムを書きました。
前回記事
最近Pythonで遊んでおります。 ってことで今回は、K近傍法のサンプルプログラムを書いてみました。 環境 JupyterLab 僕はDocker環境を利用しています。 [sitecard subtitle[…]
ってことで今回は、ロジスティック回帰のサンプルプログラムを書いてみます。
環境
- JupyterLab
僕はDocker環境を利用しています。
参考記事
インストールは不要!!はーーいっ!! Anacondaとかをホストには入れたくないので、Dockerで使えるようにします。 最終的にDockerさえあれば、他ツールのインストールは一切不要です。 ということで今回は、Docke[…]
ソースコード
ロジスティック回帰とは
他サイトにいっぱい情報があるので割愛します。
ロジスティック回帰のサンプルプログラム
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 |
from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn import metrics from sklearn.metrics import accuracy_score, confusion_matrix, classification_report # アイリスデータをロードする iris = load_iris() # 学習用データ、予測用データ、学習用教師データ、予測用教師データを「学習:8、予測:2」の割合で割り当てる (train_X, test_X, train_Y, test_Y) = train_test_split(iris.data, iris.target, test_size=0.2) # ロジスティック回帰用インスタンス生成 model = LogisticRegression() # 学習モデル生成 model.fit(train_X, iris.target_names[train_Y]) # ロジスティック回帰による予測を行う pred = model.predict(test_X) # 精度を計算する score = accuracy_score(iris.target_names[test_Y], pred) # 結果を出力する print('score:%s' % score) print(classification_report(iris.target_names[test_Y], pred)) print(confusion_matrix(iris.target_names[test_Y], pred)) |
前回書いたK近傍法のプログラムとほぼ変わらないですね。
ロジスティック回帰による実行結果
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
score:1.0 precision recall f1-score support setosa 1.00 1.00 1.00 10 versicolor 1.00 1.00 1.00 9 virginica 1.00 1.00 1.00 11 accuracy 1.00 30 macro avg 1.00 1.00 1.00 30 weighted avg 1.00 1.00 1.00 30 [[10 0 0] [ 0 9 0] [ 0 0 11]] |
おすすめ本
これおすすめやで。
まとめ
前回とほぼ同じ内容の記事になってしまった。。
まあどうでもいいや。
さいなら。