前回の続編.色んな機械学習のアルゴリズムを試して,良さそうなやつ数個をVotingClassifierでアンサンブル学習して精度を出している.
結論から言うと今回のスコアは0.72で,前回の0.71よりもちょっとだけ良くなってる (誤差の範囲か?)
やったことはいつもの通りgistのjupyter notebookに書いた.
アルゴリズムを色々なものを試してみたものの,データの前処理の方は特に触っていないのでそんなに精度が上がることは期待していなかったが,ほとんど変わらないとはちょっと意外だった.やはりまだほとんどのデータの属性を捨てているのでアルゴリズムをいくら頑張っても効果は薄いんだろうな.
使ってみたアルゴリズムは以下の通り.
- SVC
- Decision Tree
- AdaBoost
- Random Forest
- Extra Trees
- Gradient Boosting
- Multiple layer perceprton (neural network)
- KNN
- Logistic regression
- Linear Discriminant Analysis
- xgboost
最終的にVotingClassifierに使用したアルゴリズムは,
- Random Forest
- Adaboost
- ExtraTrees
- Gradient boosting
- SVC
- (xgboost: これをVotingClassifierに入れるとモデルの学習に時間がかかって結果が出なかったので,今回は除外した.)
である.アルゴリズムの選定はパラメータチューニングしていない状態でcross validation scoreを算出して,比較して高いものを選んでいる (と思う.この辺りは参考にしたKernelのやり方をそのままにしてるので,勘違いかも.)
次は捨てていた属性を学習に使えるように前処理をもう少し頑張ってみよう.次で精度が向上することを期待.
PREVIOUSKaggleのTitanic問題を試してみた2