Quiz IA2: Redes Neuronales Densas

Quiz IA2: Redes Neuronales Densas

University

8 Qs

quiz-placeholder

Similar activities

EXAMEN CULTURA FÍSICA TERAPÉUTICA 1

EXAMEN CULTURA FÍSICA TERAPÉUTICA 1

University

11 Qs

TENDENCIAS DE LA ACTIVIDAD FÍSICA Y CALISTENIA

TENDENCIAS DE LA ACTIVIDAD FÍSICA Y CALISTENIA

University

10 Qs

HIPERTROFIA

HIPERTROFIA

1st Grade - University

10 Qs

Planificación Tradicional

Planificación Tradicional

University

10 Qs

Nociones de Ciencia de Datos y Machine Learning

Nociones de Ciencia de Datos y Machine Learning

University

6 Qs

HIPERTROFIA

HIPERTROFIA

University

10 Qs

Grupos 2°

Grupos 2°

University

10 Qs

CLASE 4

CLASE 4

University

10 Qs

Quiz IA2: Redes Neuronales Densas

Quiz IA2: Redes Neuronales Densas

Assessment

Quiz

Science

University

Medium

Created by

William Serrano

Used 4+ times

FREE Resource

8 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

2 mins • 5 pts

En el contexto del gradiente descendiente estocástico (SGD), ¿cuál es la ventaja de utilizar mini-lotes en lugar de actualizar los pesos después de cada muestra individual?

Mini-lotes reducen el costo computacional al evitar la necesidad de calcular el gradiente

Mini-lotes proporcionan un equilibrio entre la estabilidad de las actualizaciones y la eficiencia computacional

Mini-lotes permiten un ajuste más preciso de los hiperparámetros

Mini-lotes eliminan por completo la necesidad de funciones de activación

2.

MULTIPLE CHOICE QUESTION

2 mins • 5 pts

En una red neuronal densa con múltiples capas, ¿qué efecto tiene una tasa de aprendizaje demasiado alta durante el entrenamiento?

Convergencia más rápida a un mínimo global

El modelo puede atascarse en mínimos locales

El modelo puede saltarse el mínimo, resultando en oscilaciones o incluso divergencia

Menor riesgo de sobreajuste, pero mayor error en el conjunto de prueba

3.

MULTIPLE CHOICE QUESTION

2 mins • 5 pts

¿Por qué es necesario un conjunto de validación durante el entrenamiento de una red neuronal?

Para ajustar los pesos finales del modelo después de la fase de entrenamiento

Para seleccionar el mejor modelo y ajustar los parámetros, evitando el sobreajuste

Para aumentar la precisión del conjunto de prueba

Para seleccionar el mejor modelo y ajustar los hiperparámetros, evitando el sobreajuste

4.

MULTIPLE CHOICE QUESTION

2 mins • 5 pts

En redes neuronales densas, ¿por qué se suele emplear una función de pérdida como la entropía cruzada (cross-entropy) en lugar de MSE (error cuadrático medio) en problemas de clasificación?

La entropía cruzada es menos sensible a errores grandes

La entropía cruzada está diseñada para manejar variables continuas

La entropía cruzada penaliza más los errores de clasificación y produce gradientes más significativos

La entropía cruzada asegura una mayor convergencia de los pesos

5.

MULTIPLE CHOICE QUESTION

2 mins • 5 pts

¿Cuál de los siguientes es un hiperparámetro en una red neuronal densa?

Pesos

Bias (sesgo)

Tasa de aprendizaje

Salida de la red

6.

MULTIPLE CHOICE QUESTION

2 mins • 5 pts

¿Qué técnica permite actualizar los pesos de una red neuronal hacia atrás a lo largo de las capas para minimizar el error?

Normalización por lotes

Forward propagation

Backpropagation

Algoritmo de evolución

7.

MULTIPLE CHOICE QUESTION

2 mins • 5 pts

En redes neuronales densas, ¿qué indica que un modelo está "sobreajustado" a los datos de entrenamiento?

Alto rendimiento tanto en el conjunto de entrenamiento como en el conjunto de validación

Bajo error en el conjunto de entrenamiento pero alto error en el conjunto de validación

Alto error en ambos conjuntos de entrenamiento y validación

Baja variabilidad en las predicciones del modelo para datos de prueba

8.

MULTIPLE CHOICE QUESTION

2 mins • 5 pts

Si una red neuronal densa utiliza una función de activación lineal (por ejemplo, f(x) = x) en todas sus capas ocultas, ¿cuál es el resultado final?

La red funcionará correctamente, aprendiendo representaciones no lineales

La red será equivalente a un modelo lineal, incapaz de aprender relaciones no lineales

La red aprenderá más rápido debido a la simplicidad de las funciones de activación

La red tendrá problemas para ajustar sus pesos, pero eventualmente aprenderá representaciones complejas