Quiz Lab 2 - LLM

Quiz Lab 2 - LLM

12th Grade

13 Qs

quiz-placeholder

Similar activities

Google Docs Quiz 1

Google Docs Quiz 1

6th - 12th Grade

10 Qs

BESPOKE One Door

BESPOKE One Door

1st - 12th Grade

15 Qs

Calculating Board Feet

Calculating Board Feet

9th - 12th Grade

10 Qs

AC Motor Revision Part 2

AC Motor Revision Part 2

11th - 12th Grade

15 Qs

Les Tableurs ( Microsoft Excel ) 1

Les Tableurs ( Microsoft Excel ) 1

6th - 12th Grade

10 Qs

Indovina le proprietà del vetro

Indovina le proprietà del vetro

6th Grade - University

17 Qs

Blender (Software)

Blender (Software)

1st Grade - Professional Development

18 Qs

Privilegios de Usuario en Ubuntu - Comandos

Privilegios de Usuario en Ubuntu - Comandos

12th Grade

10 Qs

Quiz Lab 2 - LLM

Quiz Lab 2 - LLM

Assessment

Quiz

Instructional Technology

12th Grade

Hard

Created by

Francesco Plutino

FREE Resource

13 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Cosa significa "language model" nel contesto dei LLM?

Un sistema che stima la probabilità di una sequenza di parole

Un modello che imita la grammatica umana

Un'app che traduce tra lingue

Un algoritmo che riconosce solo comandi vocali

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Perché i LLM usano i "token" invece delle parole intere?

Per gestire parole nuove o parziali

Per essere compatibili con immagini

Per occupare meno memoria

Per criptare i dati

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Cosa fa il positional encoding?

Aggiunge l'informazione sulla posizione dei token nel testo

Ordina alfabeticamente i token

Codifica il tono della frase

Traduce le parole in immagini

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Nella self-attention, cosa misura il prodotto tra Q e K?

L'importanza relativa tra token in base al contesto

Il numero di token simili

La differenza semantica tra token

La posizione nel batch

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual è l'effetto di temperature=1.5 nella generazione del testo?

Il testo sarà più creativo ma anche meno coerente

Il testo sarà molto breve

Il testo sarà sempre in inglese

Blocca la generazione

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Cosa succede se `top_k` è impostato a 1?

Il modello sceglie sempre il token più probabile

Il modello genera solo un token

Si attiva il training

Non funziona la generazione

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual è il ruolo della matrice di embedding?

Trasformare i token in vettori numerici

Ordinare i token

Convertire immagini in testo

Eseguire l'output finale

Create a free account and access millions of resources

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

By signing up, you agree to our Terms of Service & Privacy Policy

Already have an account?