7762aa93ff14071
http://nhiro.org.s3.amazonaws.com/d/5/d5cd0ce4fbdb834ca8c143e738d00497.jpg https://gyazo.com/d5cd0ce4fbdb834ca8c143e738d00497
(OCR text)
72
2層目3層目
XGBOOST (GDBT): 250 runs.
Lasagna(NN): 600 runs.
ExtraTree(ADABOOST): 250 runs.
3層目でXGBOOSTとNNを0.65:0.35で幾何平均
その後ETと0.85:0.15で算術平均
平均の種類を変えてパラメータサーチすることが
かえって過学習の原因にならないか疑問。