AIプログラミング

【AIプログラミング】ボストン住宅価格データ「RM」で多項式回帰と単回帰の精度比較

多項式回帰、もう少し色々とやってみました。 前回はテストデータへの精度も出していなかったね。 前回、多項式回帰について勉強して、グラフにするところまではやっていましたが、肝心のテストデータへの精度を求めることはしていませんでし...
AIプログラミング

【AIプログラミング】多項式回帰を勉強する、scikit-learnで多項式回帰プログラミング

ビニングに続きて、特徴量を増やしてモデルを複雑にする、多項式回帰について学びました。 Xの二乗とかでも回帰できると便利だね。 今回は、ビニングに続いて、一つの特徴量でより複雑なモデルを構築するための手法の一つである、多項式回帰...
AIプログラミング

【AIプログラミング】ビニングの分割数を増加させたら、ビニングをもう少し調べる

細かくビニングしたらどうなるかとか、色々試したら、衝撃の事実が・・・ 何か問題があったのかな? ビニングのプログラムを色々といじっていました。前回のボストン住宅価格データの「RM」を題材に、もっと細かく分割したら精度が上がるの...
AIプログラミング

【AIプログラミング】ビニングでボストン住宅価格の回帰、ビニングについて勉強

ビニングなるものに出会いました。 ビニングはbinningで、特徴量をいくつかのビンに分けるんだね。 機械学習で、データ自体を色々いじって新しい特徴量を作り出したりすることを、特徴量エンジニアリングというらしです。今回は、ビニ...
AIプログラミング

【AIプログラミング】Lasso回帰でパラメータを変化させてみる

Lasso回帰でパラメータのalphaを変化させるとどんな風に特徴量が選択されていくのか見てみました。 特徴量が選択されて削減されると言っても、どの特徴量が削られていくか気になるね。 Lasso回帰でもalphaというパラメー...
AIプログラミング

【AIプログラミング】Lasso回帰でボストン住宅価格の予測モデルを作成

リッジ回帰とは違った過学習を防ぐ手段を備えたLasso回帰を勉強したよ RidgeとLassoはセットで覚えるみたいだね Ridge回帰は線形回帰の重みを0に近づける方向に補正をかけることで、回帰モデルの複雑化を抑制するという...
AIプログラミング

【AIプログラミング】リッジ回帰のパラメータ変化を学習曲線で確認

リッジ回帰のパラメータによって学習曲線がどんな風に変わるか確認してみたよ パラメータの違いを視覚化するのも大事だね 前回は、リッジ回帰のalpha=10のときの学習曲線を描きました。リッジ回帰のパラメータを変化させることによっ...
AIプログラミング

【AIプログラミング】scikit-learnで学習曲線を描く、Ridge回帰をサンプル数で評価

学習曲線というものをしりました。 アルゴリズムのチューニングに役立つね。 機械学習アルゴリズムのチューニングをするにあたって、訓練データへの精度と未知のテストデータへの精度がサンプル数においてどのように変化しているのかを知るこ...
AIプログラミング

【AIプログラミング】交差検証でリッジ回帰、リッジCVについても勉強

回帰でも交差検証を使わないとですね。 そうだね、リッジ回帰には交差検証もやってくれるRidgeCVっていうものもあるらしいね。 前回までの回帰問題に対しては、train_test_splitでデータを分割するのみでした。分類の...
AIプログラミング

【Aiプログラミング】リッジ回帰でボストン住宅価格データの回帰をする

リッジ回帰という過学習を抑える回帰方法を勉強しました。 数学的に勉強しようとすると難しくなってくるところだね。 今回、リッジ回帰というものを勉強しました。正直、何となく数学的な計算イメージはわかるのですが、いろいろ調べると統計...
スポンサーリンク
タイトルとURLをコピーしました