2020年5月– date –
-
AIプログラミング
【AIプログラミング】ビニングの分割数を増加させたら、ビニングをもう少し調べる
細かくビニングしたらどうなるかとか、色々試したら、衝撃の事実が・・・ 何か問題があったのかな? ビニングのプログラムを色々といじっていました。前回のボストン住宅価格データの「RM」を題材に、もっと細かく分割したら精度が上がるのかな・・・とか... -
AIプログラミング
【AIプログラミング】ビニングでボストン住宅価格の回帰、ビニングについて勉強
ビニングなるものに出会いました。 ビニングはbinningで、特徴量をいくつかのビンに分けるんだね。 機械学習で、データ自体を色々いじって新しい特徴量を作り出したりすることを、特徴量エンジニアリングというらしです。今回は、ビニングという手法を勉強... -
AIプログラミング
【AIプログラミング】Lasso回帰でパラメータを変化させてみる
Lasso回帰でパラメータのalphaを変化させるとどんな風に特徴量が選択されていくのか見てみました。 特徴量が選択されて削減されると言っても、どの特徴量が削られていくか気になるね。 Lasso回帰でもalphaというパラメータが存在していて、この値を大きく... -
AIプログラミング
【AIプログラミング】Lasso回帰でボストン住宅価格の予測モデルを作成
リッジ回帰とは違った過学習を防ぐ手段を備えたLasso回帰を勉強したよ RidgeとLassoはセットで覚えるみたいだね Ridge回帰は線形回帰の重みを0に近づける方向に補正をかけることで、回帰モデルの複雑化を抑制するというものでした。これは、L2ノルムという... -
AIプログラミング
【AIプログラミング】リッジ回帰のパラメータ変化を学習曲線で確認
リッジ回帰のパラメータによって学習曲線がどんな風に変わるか確認してみたよ パラメータの違いを視覚化するのも大事だね 前回は、リッジ回帰のalpha=10のときの学習曲線を描きました。リッジ回帰のパラメータを変化させることによって、学習曲線にどんな... -
AIプログラミング
【AIプログラミング】scikit-learnで学習曲線を描く、Ridge回帰をサンプル数で評価
学習曲線というものをしりました。 アルゴリズムのチューニングに役立つね。 機械学習アルゴリズムのチューニングをするにあたって、訓練データへの精度と未知のテストデータへの精度がサンプル数においてどのように変化しているのかを知ることができる、... -
AIプログラミング
【AIプログラミング】交差検証でリッジ回帰、リッジCVについても勉強
回帰でも交差検証を使わないとですね。 そうだね、リッジ回帰には交差検証もやってくれるRidgeCVっていうものもあるらしいね。 前回までの回帰問題に対しては、train_test_splitでデータを分割するのみでした。分類の時も交差検証という方法で訓練データと... -
AIプログラミング
【Aiプログラミング】リッジ回帰でボストン住宅価格データの回帰をする
リッジ回帰という過学習を抑える回帰方法を勉強しました。 数学的に勉強しようとすると難しくなってくるところだね。 今回、リッジ回帰というものを勉強しました。正直、何となく数学的な計算イメージはわかるのですが、いろいろ調べると統計学の深いお話...