Search Header Logo
Лекция 3. Алгоритм back propagation

Лекция 3. Алгоритм back propagation

Assessment

Presentation

Computers

University

Practice Problem

Easy

Created by

Татьяна ВУЗ

Used 2+ times

FREE Resource

34 Slides • 12 Questions

1

media

2

Poll

Как вы оцениваете свою мотивацию к изучению материала на сегодняшней лекции?

Очень высокая

Высокая

Умеренная

Низкая

3

media

4

media

5

media

6

media

7

Multiple Choice

Чем обучение с учителем отличается от обучения без учителя?

1

В обучении с учителем нет входных данных

2

В обучении с учителем известны целевые значения для данных

3

Обучение без учителя требует больше ресурсов

4

В обучении без учителя человек не участвует

8

media

9

media

10

Multiple Choice

На каком алгоритме базируется обратное распространение ошибки?

1

Метод наименьших квадратов

2

Градиентный спуск

3

Случайный лес

4

Метод опорных векторов

11

media

12

media

13

media

14

media

15

media

16

media

17

media

18

Multiple Choice

Что сохраняется во время прямого прохода для последующего обратного распространения?

1

Исходные веса сети

2

Выходные значения всех нейронов

3

Целевые значения d

4

Градиенты функции активации

19

Multiple Choice

Какой процесс запускается после вычисления ошибки e?

1

Повторный прямой проход

2

Обратный проход для корректировки весов

3

Генерация новых данных

4

Изменение структуры сети

20

media

21

media

22

media

23

media

24

Multiple Choice

Как вычисляется локальный градиент δ для выходного нейрона с логистической функцией активации?

1

δ=e⋅f(vout​)

2

δ=e⋅y⋅(1−y)

3

δ=e⋅(1−y2)

4

δ=e⋅tanh(vout​)

25

media

26

media

27

Multiple Choice

Как параметр λ связан с градиентным спуском?

1

Он определяет направление градиента

2

Он задаёт размер шага сходимости при обновлении весов

3

Он заменяет вычисление градиента

4

Он используется только в прямом проходе

28

media

29

media

30

Multiple Choice

Почему при вычислении локального градиента используется производная функции активации f′(x)?

1

Чтобы увеличить скорость обучения

2

Для учёта влияния входной суммы нейрона на ошибку

3

Чтобы исключить нелинейность

4

Для генерации новых весов

31

media

32

media

33

media

34

media

35

Multiple Choice

Почему при обновлении весов первого слоя используются входные данные x1,x2​?

1

Они заменяют градиенты

2

Это входные сигналы, связанные с корректируемыми весами

3

Для уменьшения ошибки e

4

Чтобы увеличить скорость обучения

36

media

37

media

38

Multiple Choice

Какова цель алгоритма градиентного спуска в обучении нейронной сети?

1

Максимизировать точность на тестовых данных

2

Минимизировать критерий качества работы НС

3

Увеличить скорость обработки данных

4

Случайно изменить веса для исследования пространства

39

media

40

media

41

media

42

media

43

Multiple Choice

Какую функцию активации использует нейронная сеть в данном примере?

1

Сигмоида

2

Гиперболический тангенс

3

ReLU

4

Линейная функция

44

media

45

Poll

Как бы Вы оценили свою концентрацию во время занятия?

Полностью сосредоточен(а)

Часто отвлекался(ась)

Почти не слушал(а)

Засыпал(а)

46

media
media

Show answer

Auto Play

Slide 1 / 46

SLIDE