GBDT の実装である XGBoost とかのコードを森田が読みます。感想などはハッシュタグ #misreading か hello@misreading.chat にお寄せください。
-
- [1603.02754] XGBoost: A Scalable Tree Boosting System
- dmlc/xgboost: Scalable, Portable and Distributed Gradient Boosting (GBDT, GBRT or GBM) Library, for Python, R, Java, Scala, C++ and more. Runs on single machine, Hadoop, Spark, Flink and DataFlow
- Sparse matrices (scipy.sparse) — SciPy v1.2.1 Reference Guide
- u++ on Twitter: “[#misreading episode 58] 自分にとっては新鮮な視点が多かった。GBDTのFrameworkとして終始「XGBoost」に言及があるけど、Kaggleでの現在の主流は「LightGBM」なので2019年の情報としては誤解を招きそう。あとアンサンブルの例としてバギングとランダムフォレストを横並びで列挙するのは微妙かも。”
- Microsoft/LightGBM: A fast, distributed, high performance gradient boosting (GBDT, GBRT, GBM or MART) framework based on decision tree algorithms, used for ranking, classification and many other machine learning tasks. It is under the umbrella of the DMTK(http://github.com/microsoft/dmtk) project of Microsoft.
- LightGBM: A Highly Efficient Gradient Boosting Decision Tree – Microsoft Research
- How to train Boosted Trees models in TensorFlow – TensorFlow – Medium
Follow-up
- Cloud Run documentation | Cloud Run | Google Cloud
- 今シーズンはこのエピソードでおしまいです。またしばらくお休みします。