Search Header Logo

Examen de LLMs y Prompts 4

Authored by Victor Montoya

Architecture

1st - 5th Grade

Used 1+ times

Examen de LLMs y Prompts 4
AI

AI Actions

Add similar questions

Adjust reading levels

Convert to real-world scenario

Translate activity

More...

    Content View

    Student View

26 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál es la función primordial de un Large Language Model (LLM)?

Almacenar y gestionar bases de datos relacionales.

Predecir y generar la secuencia de texto más probable a continuación.

Realizar análisis de sentimientos exclusivamente.

Servir como interfaz gráfica de usuario.

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Qué característica distingue principalmente a los modelos LLM de "chat" o "instrucción" de otros LLMs?

Su capacidad para ejecutar código.

Están optimizados para interacciones conversacionales y diálogos.

Siempre son modelos de menor tamaño.

No requieren prompts para funcionar.

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Define el término "alucinación" en el contexto de los LLMs.

La habilidad del modelo para crear contenido artístico.

La generación de información incorrecta o inventada por el LLM, a menudo con aparente certeza.

Un estado de error en el que el modelo deja de responder.

La capacidad de un LLM para comprender imágenes.

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál es una de las implicaciones más importantes de que "todos los LLM alucinan"?

Que solo los modelos de código abierto son propensos a este fenómeno.

Que la información generada por un LLM debe ser siempre verificada.

Que la alucinación es un problema que se resolverá completamente en el futuro cercano.

Que es un indicador de la creatividad superior del modelo.

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Por qué se enfatiza la "especificidad" en la ingeniería de prompts?

Para aumentar la velocidad de procesamiento del modelo.

Porque los LLMs son muy sensibles a la entrada y no pueden inferir fácilmente la intención ambigua.

Para reducir el consumo de recursos computacionales.

Para hacer que el modelo genere respuestas más cortas.

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Explica en qué consiste la técnica de "Few-Shot Prompting".

Entrenar un modelo con un conjunto de datos muy pequeño.

Proporcionar al LLM ejemplos de pares entrada/salida deseados dentro del propio prompt para guiar su comportamiento.

Realizar una única pregunta al modelo sin contexto previo.

Limitar el número de palabras en la respuesta del modelo.

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál es el rol fundamental de un "System Message" en un prompt de chat?

Es el mensaje final que el usuario envía al modelo.

Establece el contexto general, la personalidad o las directrices de comportamiento para el LLM.

Se utiliza para extraer datos estructurados de la respuesta del modelo.

Registra automáticamente el historial de conversación.

Access all questions and much more by creating a free account

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

Already have an account?