7762aa93ff14087
http://nhiro.org.s3.amazonaws.com/4/2/425a076efb0991e578b95ffdc209a59a.jpg https://gyazo.com/425a076efb0991e578b95ffdc209a59a
(OCR text)
88
モデル
XGBoost: scikit-learnの他のモデルとの一貫性の
ためにラッパーを実装、0.44x
NN: Lasagnef TReLUZDropout, GPU.
Sparse AutoencoderとReLUで多層Perceptronとも
書いてあるけど、Lasagneでやったか不明* 0.44x
SVM: RBFカーネルが一番 0.45x
RF, Extra Trees: ETがRFよりも良い成績。キャリブ
レーションがとても有効。 0.44x
あと2次のLRとKNN
* Referenceにkerasが載ってるからそっちかも