Search Header Logo

Cierre 12-06-2025

Authored by LUCIANO PARADA LETELIER

Information Technology (IT)

University

Cierre 12-06-2025
AI

AI Actions

Add similar questions

Adjust reading levels

Convert to real-world scenario

Translate activity

More...

    Content View

    Student View

11 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál es la principal diferencia entre Bagging y Boosting en términos de entrenamiento de modelos base?

Bagging entrena modelos secuencialmente, mientras que Boosting los entrena en paralelo

Bagging entrena modelos en paralelo usando muestras bootstrap independientes, mientras que Boosting entrena modelos secuencialmente donde cada uno intenta corregir los errores del anterior

Bagging usa todos los datos de entrenamiento para cada modelo, mientras que Boosting usa submuestras aleatorias

No hay diferencia significativa entre ambos métodos en el proceso de entrenamiento

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

En Random Forest, ¿qué sucede cuando se establece el parámetro max_features='sqrt' para un dataset con 16 características?

Se utilizan todas las 16 características en cada división de nodo

Se utilizan exactamente 4 características seleccionadas aleatoriamente en cada división de nodo

Se utilizan 8 características (la mitad) en cada división de nodo

Se utiliza solo 1 característica en cada división de nodo

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál de las siguientes afirmaciones sobre el Out-of-Bag (OOB) score en Random Forest es CORRECTA?

El OOB score siempre es mayor que el accuracy en el conjunto de entrenamiento

El OOB score se calcula usando todas las muestras de entrenamiento para cada árbol

El OOB score proporciona una estimación no sesgada del error de generalización sin necesidad de un conjunto de validación separado

El OOB score solo está disponible cuando bootstrap=False

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

En el contexto de AdaBoost, ¿qué determina el peso de cada clasificador débil en la predicción final?

El número de muestras utilizadas para entrenar el clasificador

La profundidad del árbol de decisión utilizado como clasificador base

El error ponderado del clasificador en los datos de entrenamiento

El tiempo que tomó entrenar el clasificador

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál es la ventaja principal del método de Stacking comparado con la votación por mayoría simple?

Stacking es computacionalmente más eficiente que la votación por mayoría

Stacking siempre produce mejores resultados que cualquier otro método de ensamblado

Stacking utiliza un meta-modelo que puede aprender patrones complejos en las predicciones de los modelos base, mientras que la votación por mayoría usa reglas fijas

Stacking requiere menos modelos base que la votación por mayoría

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Cuando se trabaja con datasets desbalanceados en problemas de clasificación, ¿cuál de las siguientes estrategias de ensamblado es más apropiada?

Usar Random Forest estándar con todos los parámetros por defecto

Implementar Bagging con muestreo sin reemplazo para asegurar igual representación de clases

Utilizar BalancedRandomForestClassifier o configurar class_weight='balanced' en Random Forest

Aplicar únicamente técnicas de boosting sin consideraciones especiales para el desbalance

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Esta pregunta verifica el entendimiento del parámetro max_features en Random Forest: max_features='sqrt': Utiliza la raíz cuadrada del número total de características. Con 16 características: √16 = 4 características por división. Esta aleatoriedad en la selección de características es clave para la diversidad en Random Forest.

Correspondería a max_features=None

Correspondería a max_features=0.5 o max_features=8

Correspondería a max_features=1

Utiliza la raíz cuadrada del número total de características

Access all questions and much more by creating a free account

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

Already have an account?