2020年5月– date –
-
AIプログラミング
【AIプログラミング】勾配ブースティングマシンを勉強、乳がんデータを分類
勾配ブースティングマシンという名前がかっこいいやつを勉強しました。 アルゴリズムは見た目じゃなくて中身だよ。 決定木の流れで、ランダムフォレストと勉強してきましたが、今回は、最終進化のような、勾配ブースティングマシンというものを勉強しまし... -
AIプログラミング
【AIプログラミング】ランダムフォレストで乳がんデータを分類、RandomForestClassifier
30次元のすべての特徴量でランダムフォレストしてみました。 特徴量2つだけだと寂しかったからね。 前回までのランダムフォレストでは、可視化のために特徴量を2次元に絞って行っていました。今回は、scikit-learnの乳がんデータですべての特徴量を利用... -
AIプログラミング
【AIプログラミング】ランダムフォレストを学ぶ、scikit-learnで分類
ランダムフォレストを学んでいます。 ランダムフォレストは、決定木の進化版みたいだね。 決定木について、ある程度勉強してきたので、次は決定木の進化版のランダムフォレストについて勉強していきたいと思います。2001年に考案されたまだ比較的新し... -
AIプログラミング
【AIプログラミング】scikit-learnの決定木、max_leaf_nodesを調整
scikit-learnのパラメータ調整で、max_leaf_nodesは重要っぽい 重要なパラメータが何かを知っておいたほうがいいね 前回までの決定木のパラメータmax_depthは、重要でした。今回は、scikit-learnの決定木でチューニングできるたくさんのパラメータのうち、... -
AIプログラミング
【AIプログラミング】plot_treeで決定木を視覚化
scikit-learnの決定木は、どんな条件に木構造がつくられたか、確認できるみたいだね。 条件が確認できると、人間側としてもアルゴリズムが何をしているか、ブラックボックスにならなくていいね。 前回は、決定木について概要を勉強し、どんなふうに分類さ... -
AIプログラミング
【AIプログラミング】決定木で分類を行う、境界線の可視化
教師あり学習で使える、決定木というものを勉強しました。 決定木は機械学習の中でも、比較的イメージしやすい動作をするね。 決定木というものを勉強しました。決定木は機械学習の手法でも、比較的イメージしやすいらしく、また、最近の機械学習のコンペ... -
AIプログラミング
【AIプログラミング】scikit-learnのPCAで次元削減、サポートベクターマシンで乳がんデータを分類
PCAには寄与率というものがあるらしい・・・ 寄与率を確認して特徴量を減らしていくことができるね。 前回、PCAを試してみてどんな風に特徴量を抽出するのか、なんとなくのイメージが持てました。今回も、もう少しPCAについて勉強してみました。寄与率とい... -
AIプログラミング
【AIプログラミング】乳がんデータの特徴量を変換、PCAで特徴量を削減
主成分分析という手法を勉強しているけど、仕組みが難しいよ。 scikit-learnだと、PCAという機能に入れるだけで簡単にできるみたい。 データの標準化を学び、いい感じの結果が出たので、データを変換することを調べていました。そして、主成分分析(PCA)... -
AIプログラミング
【AIプログラミング】データの標準化、StandardScalerで精度を上げる
データの前処理という重要な工程を勉強しました。 何事にも準備は大切だよね。 今まで、データの処理を行わずに機械学習の訓練を行っていました。機械学習の精度を向上させるためには、アルゴリズムのチューニングより、訓練するためのデータを整えること... -
AIプログラミング
【AIプログラミング】線形モデルでの乳がんデータの分類、特徴量をPolynomialで増やしたらどうなのか
分類問題にも、多項式回帰で勉強した特徴量の増加をしてみたらどうなるか、やってみました。 確かに、境界線が二次元関数のように曲がると、良さそうだね。 回帰問題で、多項式回帰という物を学びました。これは特徴量の二乗、三乗を考えて、特徴量を増や... -
AIプログラミング
【AIプログラミング】ボストン住宅価格データ「RM」で多項式回帰と単回帰の精度比較
多項式回帰、もう少し色々とやってみました。 前回はテストデータへの精度も出していなかったね。 前回、多項式回帰について勉強して、グラフにするところまではやっていましたが、肝心のテストデータへの精度を求めることはしていませんでした。今回は、... -
AIプログラミング
【AIプログラミング】多項式回帰を勉強する、scikit-learnで多項式回帰プログラミング
ビニングに続きて、特徴量を増やしてモデルを複雑にする、多項式回帰について学びました。 Xの二乗とかでも回帰できると便利だね。 今回は、ビニングに続いて、一つの特徴量でより複雑なモデルを構築するための手法の一つである、多項式回帰について学びま...