
Quiz IA2: Redes Neuronales Densas
Authored by William Serrano
Science
University
Used 4+ times

AI Actions
Add similar questions
Adjust reading levels
Convert to real-world scenario
Translate activity
More...
Content View
Student View
8 questions
Show all answers
1.
MULTIPLE CHOICE QUESTION
2 mins • 5 pts
En el contexto del gradiente descendiente estocástico (SGD), ¿cuál es la ventaja de utilizar mini-lotes en lugar de actualizar los pesos después de cada muestra individual?
Mini-lotes reducen el costo computacional al evitar la necesidad de calcular el gradiente
Mini-lotes proporcionan un equilibrio entre la estabilidad de las actualizaciones y la eficiencia computacional
Mini-lotes permiten un ajuste más preciso de los hiperparámetros
Mini-lotes eliminan por completo la necesidad de funciones de activación
2.
MULTIPLE CHOICE QUESTION
2 mins • 5 pts
En una red neuronal densa con múltiples capas, ¿qué efecto tiene una tasa de aprendizaje demasiado alta durante el entrenamiento?
Convergencia más rápida a un mínimo global
El modelo puede atascarse en mínimos locales
El modelo puede saltarse el mínimo, resultando en oscilaciones o incluso divergencia
Menor riesgo de sobreajuste, pero mayor error en el conjunto de prueba
3.
MULTIPLE CHOICE QUESTION
2 mins • 5 pts
¿Por qué es necesario un conjunto de validación durante el entrenamiento de una red neuronal?
Para ajustar los pesos finales del modelo después de la fase de entrenamiento
Para seleccionar el mejor modelo y ajustar los parámetros, evitando el sobreajuste
Para aumentar la precisión del conjunto de prueba
Para seleccionar el mejor modelo y ajustar los hiperparámetros, evitando el sobreajuste
4.
MULTIPLE CHOICE QUESTION
2 mins • 5 pts
En redes neuronales densas, ¿por qué se suele emplear una función de pérdida como la entropía cruzada (cross-entropy) en lugar de MSE (error cuadrático medio) en problemas de clasificación?
La entropía cruzada es menos sensible a errores grandes
La entropía cruzada está diseñada para manejar variables continuas
La entropía cruzada penaliza más los errores de clasificación y produce gradientes más significativos
La entropía cruzada asegura una mayor convergencia de los pesos
5.
MULTIPLE CHOICE QUESTION
2 mins • 5 pts
¿Cuál de los siguientes es un hiperparámetro en una red neuronal densa?
Pesos
Bias (sesgo)
Tasa de aprendizaje
Salida de la red
6.
MULTIPLE CHOICE QUESTION
2 mins • 5 pts
¿Qué técnica permite actualizar los pesos de una red neuronal hacia atrás a lo largo de las capas para minimizar el error?
Normalización por lotes
Forward propagation
Backpropagation
Algoritmo de evolución
7.
MULTIPLE CHOICE QUESTION
2 mins • 5 pts
En redes neuronales densas, ¿qué indica que un modelo está "sobreajustado" a los datos de entrenamiento?
Alto rendimiento tanto en el conjunto de entrenamiento como en el conjunto de validación
Bajo error en el conjunto de entrenamiento pero alto error en el conjunto de validación
Alto error en ambos conjuntos de entrenamiento y validación
Baja variabilidad en las predicciones del modelo para datos de prueba
Access all questions and much more by creating a free account
Create resources
Host any resource
Get auto-graded reports

Continue with Google

Continue with Email

Continue with Classlink

Continue with Clever
or continue with

Microsoft
%20(1).png)
Apple
Others
Already have an account?