AIS_L07

AIS_L07

University

10 Qs

quiz-placeholder

Similar activities

Chess-1

Chess-1

University

15 Qs

филфак

филфак

University

13 Qs

Тест №2

Тест №2

University

10 Qs

Психологія агресії_3

Психологія агресії_3

University

10 Qs

Котяча мова тіла

Котяча мова тіла

1st Grade - Professional Development

10 Qs

Итоговый тест ТРИЗ

Итоговый тест ТРИЗ

University

13 Qs

1 марта - Международный день борьбы с наркоманией

1 марта - Международный день борьбы с наркоманией

University

15 Qs

Московский Кремль

Московский Кремль

University

11 Qs

AIS_L07

AIS_L07

Assessment

Quiz

Other

University

Practice Problem

Hard

Created by

Roy Bebru

Used 3+ times

FREE Resource

AI

Enhance your content in a minute

Add similar questions
Adjust reading levels
Convert to real-world scenario
Translate activity
More...

10 questions

Show all answers

1.

MULTIPLE SELECT QUESTION

45 sec • 1 pt

Media Image

Коефіцієнт навчання використовують для ...

Планування розподілу скільки часу приділити на роботу, університет і все інше

Керування величини кроку градієнтного спуску

Швидкості навчання нейронної мережі

Пошуку абсолютного мінімуму функції втрат

Оцінки особистої швидкості засвоєння знань

2.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Media Image

Нормалізація даних при машинному навчанні допомагає ...

Привести всі значення ознак до єдиного масштабу з метою прискорити обрахунки та уникнути помилок переповнення при обчисленнях

Знайти найкращий мінімум функції втрат

Прибрати "шум" у вхідних даних

Перевіряти допустимі межі отриманих результатів на кожному кроці обчислень

Прискорити обрахунки через проектування процесу на стандартну паралельну обчислювальну архітектуру

3.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Media Image

Аналітичний пошук мінімуму функції втрат кращий за багатокроковий градієнтний спуск, тому що...

В переважній більшості практичних випадків градієнтний спуск знаходить прийнятне рішення в той час як аналітичне - ні

Легше вирішити одне матричне рівняння і отримати результат одразу ніж робити наперед невідому кількість кроків градієнтного спуску

Легше наперед вивести формулу і її разово застосувати ніж нескінченно довго наближатися до того ж результату ітеративно

Обидва методи погані: мінімум функції завжди ж видно на малюнку - просто треба глянути на функцію з більшого просторового виміру і побачити мінімум одразу

4.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Media Image

Перенавчена модель, це ...

Випадок, коли моделі надали занадто багато тренувальних зразків.

Випадок, коли модель занадто точно запам'ятала всі особливості навчального набору разом із шумом, що супроводжував його створення.

Випадок, коли модель вилучила і узагальнила всі корисні закономірності.

Випадок, коли модель навчилася більшому, ніж це передбачували творці навчального набору зразків.

5.

MULTIPLE SELECT QUESTION

1 min • 1 pt

Media Image

Які 2 твердження про регуляризатори правдиві?

L2 регуляризатор гладкий тому що він неперервно диференційований

L2 регуляризатор гладкий тому що він неперервно використовуваний

L1 регуляризатор дозволяє автоматично відбирати найважливіші ознаки, але не дає можливість використовувати градієнтні методи оптимізації

L1 регуляризатор не є гладким, тому він найкраще підходить для пошуку оптимуму на dataset'ах імпульсних систем

L1, L2 регуляризація дозволяє ефективно боротися з галюцинаціями нейронних мереж

6.

MULTIPLE CHOICE QUESTION

45 sec • 1 pt

Media Image

Що таке градієнт функції?

Напрямок (вектор) зростання функції

Напрямок (вектор) спадання (зменшення) функції

Напрямок (вектор) найбільшої зміни функції

Знак похідної функції в точці, який визначає, в яку сторону робити наступний крок пошуку мінімуму

7.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Media Image

Колінеарності ознак треба розуміти як ...

Погано підготований dataset, який не підходить для навчання моделі

Лінійну взаємозалежність ознак, яких треба позбутися перед навчанням моделі

Присутність повної або часткової лінійної взаємозалежності ознак, позбутися якої важко або неможливо

Кількість (арність) ознак, що входить як аргумент у функцію шуканої залежності: унарність, бінарність, колінеарність.

Create a free account and access millions of resources

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

By signing up, you agree to our Terms of Service & Privacy Policy

Already have an account?