111 KaggleOpsとかGPU
2021年1月18日20時10分から
kerneler.icon質問や感想は以下のマシュマロよりください
いただいた質問はや感想は、放送で紹介します
このポッドキャストでは、恋言とカレーが、Kaggleなどのデータサイエンスに関連する情報、新しい働き方、量子コンピュータ、xR等について話します。
kerneler.iconお題
colaboratoryやkagglenotebookなど複数環境でkaggleをやるときに参考になる
mlflowで出されるファイルを、全てGSCに保存する
自分もパイブラインに組み込みつつある
深層を学習する場合のGPUベンチマークはLambda LabがPyTorchとTFでかなり網羅的にまとめてくれており、自分で機材用意する場合は一見の価値あり。RTX3090のコスパがすごい
https://gyazo.com/df0571e91744dc9d42fb60b09fe19a38
https://gyazo.com/abf6a57ee182cef398bd7c519f8d06a8
今週のKaggle
目的変数は、取引価格(総額)について常用対数をとった、「取引価格(総額)_log」です。
予測精度の評価はMAEにより行います。
2021/03/31 14:59まで(日本時間)
上位10人がコードを提出、そのコードで未公開のデータで精度を競う
今回のコンペでは、学習データの一部に目的変数(被引用数)が含まれておらず、
代わりにDigital Object Identifier(DOI)により計算された低精度被引用数が代替変数として付与されています。
現実世界の問題においては必ずしも充分な量の教師データを用意できるとは限らず、
そのような場合においては弱教師あり学習が1つの有効な手段となります。
2020年3月28日 24:00 JST期限
評価指標RMSLE(root mean squared Logarithmic error)
俳句
かがみこみ道のはこべにひとりごと