Kaggle 今後の方針
Kaggle を初めて少し時間が経っていろいろ分かってきたので今後の方針をここで書きながら考える。
学び
- Feature Engineering がんばらないと勝てないコンペ多い。
- Tabular data だと NN よりも XGBoost 勢が人気で強い。
- Kernel 書くとフィードバックもらえる
- Kernel 読むの勉強になる。特に終わったコンペの上位 Kernel。
- すぐにコピペできる資産が溜まってくると楽になる。Cross Validation, Hyper parameter tuning 等々。
始めた動機
- DNN 周りですぐに手を動かすことができるように
- RNN/LSTM 以外も詳しくなりたい
- 毎日触る機会として使う
今後の方針
- 入賞は nice to have
- 1つのコンペに集中
- Kernel を読んでその手法を取り入れる・理解するプロセスを繰り返す
- ある程度コピペ資産が溜まったら整理する
- 重点トピック
- Cross Validation と高速化
- Hyper parameter tuning の勘所
- Keras API はほとんど理解できるように
- Blog ドリブンで。