P23 | Resolución de ejercicios

P23 | Resolución de ejercicios

University

30 Qs

quiz-placeholder

Similar activities

Producto Qbano

Producto Qbano

University

25 Qs

Indicación geográfica y denominación de origen

Indicación geográfica y denominación de origen

University - Professional Development

26 Qs

Antimicrobianos

Antimicrobianos

University - Professional Development

26 Qs

Neuropsicologia

Neuropsicologia

University

25 Qs

Excel

Excel

University

25 Qs

HTML Basico

HTML Basico

12th Grade - Professional Development

25 Qs

Herramientas de planificación estratégica

Herramientas de planificación estratégica

University - Professional Development

25 Qs

Ergonomia

Ergonomia

University

25 Qs

P23 | Resolución de ejercicios

P23 | Resolución de ejercicios

Assessment

Quiz

Other

University

Medium

Created by

Chiara Calviello Crusella

Used 4+ times

FREE Resource

30 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

ReLU es una función de ...

... costo.

... activación.

... pérdida.

2.

MULTIPLE SELECT QUESTION

2 mins • 1 pt

La función ReLU ayuda a mitigar el problema del gradiente que se desvanece si, por la red neuronal, fluyen ...

... tanto positivos como negativos.

... sólo positivos.

... sólo negativos.

3.

MULTIPLE SELECT QUESTION

2 mins • 1 pt

La función Leaky ReLU ayuda a mitigar el problema del gradiente que se desvanece si, por la red neuronal, fluyen ...

... tanto positivos como negativos.

... sólo positivos.

... sólo negativos.

4.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

El teorema de aproximación universal de Hornik establece que una red feedforward con una sola capa oculta es suficiente para aproximar, con precisión arbitraria, cualquier función con un número finito de discontinuidades, siempre y cuando las funciones de activación de las neuronas sean lineales.

Verdadero

Falso

Answer explanation

Siempre y cuando las funciones de activación de las neuronas sean NO lineales.

5.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

La función de pérdida asociada a todo perceptrón multicapa es siempre convexa.

Verdadero

Falso

Answer explanation

De hecho, suele ser NO convexa.

6.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

Con una cantidad suficiente de iteraciones, el algoritmo de descenso por gradiente garantiza encontrar el mínimo global en funciones no-convexas.

Verdadero

Falso

Answer explanation

NO lo garantiza.

7.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

Con una cantidad suficiente de iteraciones y un tamaño del paso adecuado, el algoritmo de descenso por gradiente garantiza encontrar el mínimo global en funciones convexas.

Verdadero

Falso

Create a free account and access millions of resources

Create resources
Host any resource
Get auto-graded reports
or continue with
Microsoft
Apple
Others
By signing up, you agree to our Terms of Service & Privacy Policy
Already have an account?