Search Header Logo

LLMs

Authored by Sergio Aparicio

Computers

Professional Development

Used 6+ times

LLMs
AI

AI Actions

Add similar questions

Adjust reading levels

Convert to real-world scenario

Translate activity

More...

    Content View

    Student View

14 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿ Qué tareas podemos realizar en el Procesamiento del Lenguaje Natural ?

Discriminatorias

Generativas

Discriminatorias y Generativas

Discriminatorias y análisis de sentimientos.

2.

MULTIPLE CHOICE QUESTION

1 min • 2 pts

Los LLM son una clase de modelos de aprendizaje automático que han sido entrenados ...

Gracias a Azure.

En enormes conjuntos de datos textuales

Bajo la tecnología OpenIA

Con conjunto de datos, pequeños pero eficientes.

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

La clave del éxito de los LLM radica ...

en su capacidad para el preentrenamiento en grandes cantidades de datos antes de ajustarse (afinar) para tareas específicas.

en su capacidad para el preentrenamiento en pequeñas cantidades de datos antes de ajustarse (afinar) para tareas específicas.

en su capacidad para el preentrenamiento en grandes cantidades de datos después de ajustarse (afinar) para tareas específicas.

en su capacidad para el preentrenamiento en grandes cantidades de datos antes de ajustarse (afinar) para tareas generales.

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

El conjunto de datos de afinación es ...

más grande en comparación con el conjunto de datos de preentrenamiento

más extensivo en comparación con el conjunto de datos de preentrenamiento

más pequeño en comparación con el conjunto de datos de preentrenamiento

más generativo en comparación con el conjunto de datos de preentrenamiento

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Las RRN procesan los datos de forma ...

Paralela

Generativa

Secuencial

Disruptiva

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

En las RNN cuando ocurre el Vanishing gradients es debido.

A que el gradiente tiende a infinito.

A que el gradiente tiende a 0.

A que el gradiente se forma secuencialmente.

La función entra en perdida y se desvanece.

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

La novedad de la arquitectura Transformer.

Los parámetros están optimus

Pueden procesar la entrada de datos simultáneamente

Pueden procesar la entrada de datos secuencialmente

No tienen entrada de datos.

Access all questions and much more by creating a free account

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

Already have an account?