P23 | Resolución de ejercicios

P23 | Resolución de ejercicios

University

30 Qs

quiz-placeholder

Similar activities

Coye clase final

Coye clase final

University

30 Qs

Test Jueces de Israel

Test Jueces de Israel

KG - Professional Development

25 Qs

Dirección financiera

Dirección financiera

University

25 Qs

TEORIA POLITICA

TEORIA POLITICA

University

25 Qs

Introducción a los Negocios Internacionales 3er parcial 2021

Introducción a los Negocios Internacionales 3er parcial 2021

University

25 Qs

Derecho Ambiental Mexicano Otoño 2021

Derecho Ambiental Mexicano Otoño 2021

University

25 Qs

2025 Responsabilidad social. Tercer parcial

2025 Responsabilidad social. Tercer parcial

University

25 Qs

Tema 5. Franqueo, deposito, entrega, recogida y distribución

Tema 5. Franqueo, deposito, entrega, recogida y distribución

University

26 Qs

P23 | Resolución de ejercicios

P23 | Resolución de ejercicios

Assessment

Quiz

Other

University

Medium

Created by

Chiara Calviello Crusella

Used 4+ times

FREE Resource

30 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

ReLU es una función de ...

... costo.

... activación.

... pérdida.

2.

MULTIPLE SELECT QUESTION

2 mins • 1 pt

La función ReLU ayuda a mitigar el problema del gradiente que se desvanece si, por la red neuronal, fluyen ...

... tanto positivos como negativos.

... sólo positivos.

... sólo negativos.

3.

MULTIPLE SELECT QUESTION

2 mins • 1 pt

La función Leaky ReLU ayuda a mitigar el problema del gradiente que se desvanece si, por la red neuronal, fluyen ...

... tanto positivos como negativos.

... sólo positivos.

... sólo negativos.

4.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

El teorema de aproximación universal de Hornik establece que una red feedforward con una sola capa oculta es suficiente para aproximar, con precisión arbitraria, cualquier función con un número finito de discontinuidades, siempre y cuando las funciones de activación de las neuronas sean lineales.

Verdadero

Falso

Answer explanation

Siempre y cuando las funciones de activación de las neuronas sean NO lineales.

5.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

La función de pérdida asociada a todo perceptrón multicapa es siempre convexa.

Verdadero

Falso

Answer explanation

De hecho, suele ser NO convexa.

6.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

Con una cantidad suficiente de iteraciones, el algoritmo de descenso por gradiente garantiza encontrar el mínimo global en funciones no-convexas.

Verdadero

Falso

Answer explanation

NO lo garantiza.

7.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

Con una cantidad suficiente de iteraciones y un tamaño del paso adecuado, el algoritmo de descenso por gradiente garantiza encontrar el mínimo global en funciones convexas.

Verdadero

Falso

Create a free account and access millions of resources

Create resources
Host any resource
Get auto-graded reports
or continue with
Microsoft
Apple
Others
By signing up, you agree to our Terms of Service & Privacy Policy
Already have an account?