Сначала мы поговорим про сам градиентный бустинг и покажем основной пайплайн обучения модели. Но основной темой туториала станут новые фичи. Никита Дмитриев объяснит, как обучить модель, когда данных очень много, расскажет о встроенной функциональности подбора параметров и о типах деревьев (с недавних пор на CPU и GPU можно обучать не только симметричные деревья). Затем Никита затронет тему анализа обученной модели. Последнюю часть туториала мы посвятим работе с текстовыми признаками. А в самом конце будет небольшое соревнование с призами. ;)
Для участия требуется базовое знание Python. Чтобы подготовиться к работе с CatBoost, убедитесь, что у вас установлены Jupyter, сам CatBoost, SHAP, ipywidgets и sklearn.
Туториал пройдёт в Zoom. Зарегистрируйтесь, чтобы получить приглашение в день встречи.