~どき☆どき 書評:Kaggleで勝つデータ分析の技術~

目次だけみて、かなり良さげな技術書出たので予約して買いました。

まだつまみ読みで6章と7章しか読んでないけどかなりイイです。


Kaggleで勝つデータ分析の技術
Kaggleで勝つデータ分析の技術
(アフィリじゃないよ。ただのリンクです。)



良かったとこ。


xgboostのハイパーパラメータ調整テクが3パターンも載っている

僕はお仕事では、MLPやCNNはゴリゴリ触ってるのでそっちの調整は分かるんだけど
RandomForestやらxgboostのグラフの中身を理解してないというかする気がない(死)ので
cockbookというかチートシート?みたいな調整方法が3人分も載ってて楽チンできます。


アンサンブル学習するときにTrain/Testに分けとかないとリーケージ起こす場合がある

・・・ことをおまえはしった(メキシコ風)
正直、まだ腹に落とせてないけど、Testの結果でアンサンブルするとリーケージになるから
Train/Test/Validationに分けないといけない? みたいなことのよう。
もう少し読み込みます。


ベイズ最適化のライブラリ

・・・あるのね。
情弱なので(死)気づかず自分で組んでしまいました。
(そしてそのプログラムは、全然部品化されてなかったのでお蔵入りしてしまいました(死死))
ライブラリ、使おう。


よく結果を出しているアンサンブル学習にみられる傾向

・具体的な配分とか載ってます。
・同じ特徴量でもモデルは変えたものは有効とか。
・モデルのパラメータ変えるだけでも有効そうとか。


アンサンブル学習に対する理解が圧倒的に不足していた

・2nd Layerでパーセプトロンをかますっぽい。なーる。
・昔、DNNとXGBoostでアンサンブルしてたときは、soft votingで算術平均取ればいいかなーと雑に考えてたら
 probaがDNNは0.9:0.1とかなのに、xgboostは0.50001:0.49999とかの結果になってて死んだ記憶があるが、
 このケースに対応できるね。S・G・I !!(すごい)
・そんなことがあったので、アンサンブル学習はながらくHard Votingしか信じてなかったけど、
 圧倒的理解不足に対する偏見でした。アンサンブル学習さん、ごめんなさい。


1章から~5章

・機械学習の基礎を浅く広く伝えたいときに僕が資料を作る手間がなくなりました。
・2か月くらいかけて社内メンバー共有用に資料ちまちま書こうと思ってところですた。ほん爆アド。
・この本買ってね。って言います。





ぼくは英語すらすら読めないので、
こういう体系的にまとまったイントロ+実践向け(初~中級者)まで読者層にみた日本語の機械学習の書籍はほんと嬉しい。

変な謎い機械学習セミナー\44,000を受けてにわか知ったかおじさんになるくらいでしたら
この書籍を買った方がDAN☆ZEN ふたりはプリキュアです。

機械学習に興味あるぞって方は是非。

ブログ気持玉

クリックして気持ちを伝えよう!

ログインしてクリックすれば、自分のブログへのリンクが付きます。

→ログインへ

なるほど(納得、参考になった、ヘー)
驚いた
面白い
ナイス
ガッツ(がんばれ!)
かわいい

気持玉数 : 1

なるほど(納得、参考になった、ヘー)

この記事へのコメント