ML: RandomForest + Boosting

ML: RandomForest + Boosting

11th Grade

12 Qs

quiz-placeholder

Similar activities

Microbit basics

Microbit basics

1st Grade - University

13 Qs

Информационная безопасность

Информационная безопасность

10th Grade - Professional Development

15 Qs

Тест по информатике

Тест по информатике

11th Grade

16 Qs

Искусственный интеллект

Искусственный интеллект

1st Grade - Professional Development

15 Qs

Тест по теме: "Встроенные функции"

Тест по теме: "Встроенные функции"

10th - 11th Grade

16 Qs

IT Startup информатика тест

IT Startup информатика тест

11th Grade

10 Qs

PYTHON FILES

PYTHON FILES

9th - 12th Grade

8 Qs

АРХИТЕКТУРА КОМПЬЮТЕРНЫХ СИСТЕМ

АРХИТЕКТУРА КОМПЬЮТЕРНЫХ СИСТЕМ

10th - 12th Grade

10 Qs

ML: RandomForest + Boosting

ML: RandomForest + Boosting

Assessment

Quiz

Computers

11th Grade

Hard

Created by

Василий Лысов

FREE Resource

12 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Какой алгоритм чаще всего используется в качестве базового в градиентном бустинге?

Логистическая регрессия

k-ближайших соседей

Случайный лес

Дерево решений

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Какое основное отличие случайного леса от градиентного бустинга?

Случайный лес строит деревья независимо, а бустинг — последовательно

Случайный лес всегда дает более точные предсказания, чем бустинг

В случайном лесе деревья всегда глубокие, а в бустинге — только глубины 3

Градиентный бустинг не может работать с категориальными признаками

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Что из ниже перечисленного наиболее эффективно снижает дисперсию модели в случайном лесе?

Добавление L1-регуляризации к каждому дереву

Увеличение глубины деревьев

Использование одной и той же выборки для всех деревьев

Увеличение числа деревьев в ансамбле

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Зачем в случайном лесе используют случайное подмножество признаков при построении каждого дерева?

Чтобы ускорить обучение в 100 раз

Потому что все признаки одинаково важны

Чтобы уменьшить корреляцию между деревьями и улучшить обобщающую способность

Чтобы уменьшить глубину деревьев

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Какой гиперпараметр в XGBoost контролирует переобучение, штрафуя за сложность модели?

reg_lambda

learning_rate

n_estimators

max_depth

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Как LightGBM ускоряет обучение по сравнению с другими бустингами?

Он просто использует меньше деревьев

Он не достраивает деревья

Он не строит деревья, а работает как линейная модель

Он обучается только на маленьких датасетах

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Что происходит на каждой итерации в градиентном бустинге?

Строится дерево, которое предсказывает значения целевой переменной

Повторно обучается первое дерево на новом подмножестве данных

Строится модель, приближающая градиент функции потерь

Все предыдущие деревья удаляются и заменяются новым

Create a free account and access millions of resources

Create resources
Host any resource
Get auto-graded reports
or continue with
Microsoft
Apple
Others
By signing up, you agree to our Terms of Service & Privacy Policy
Already have an account?