Quiz Lab 2 - LLM

Quiz Lab 2 - LLM

12th Grade

13 Qs

quiz-placeholder

Similar activities

Impianti industriali

Impianti industriali

12th Grade

17 Qs

Alla scoperta del Museo della Bonifica

Alla scoperta del Museo della Bonifica

7th Grade - University

10 Qs

QUIZ USO TECNOLOGIE NEL MONDO DEL CALCIO

QUIZ USO TECNOLOGIE NEL MONDO DEL CALCIO

6th Grade - University

18 Qs

Quiz sull'Incapsulamento in OOP

Quiz sull'Incapsulamento in OOP

12th Grade

15 Qs

OOP in java

OOP in java

12th Grade

15 Qs

Domande digitali

Domande digitali

9th - 12th Grade

10 Qs

Quiz sui Podcast

Quiz sui Podcast

10th Grade - University

15 Qs

agricoltura e alimentazione

agricoltura e alimentazione

12th Grade

13 Qs

Quiz Lab 2 - LLM

Quiz Lab 2 - LLM

Assessment

Quiz

Instructional Technology

12th Grade

Hard

Created by

Francesco Plutino

FREE Resource

13 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Cosa significa "language model" nel contesto dei LLM?

Un sistema che stima la probabilità di una sequenza di parole

Un modello che imita la grammatica umana

Un'app che traduce tra lingue

Un algoritmo che riconosce solo comandi vocali

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Perché i LLM usano i "token" invece delle parole intere?

Per gestire parole nuove o parziali

Per essere compatibili con immagini

Per occupare meno memoria

Per criptare i dati

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Cosa fa il positional encoding?

Aggiunge l'informazione sulla posizione dei token nel testo

Ordina alfabeticamente i token

Codifica il tono della frase

Traduce le parole in immagini

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Nella self-attention, cosa misura il prodotto tra Q e K?

L'importanza relativa tra token in base al contesto

Il numero di token simili

La differenza semantica tra token

La posizione nel batch

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual è l'effetto di temperature=1.5 nella generazione del testo?

Il testo sarà più creativo ma anche meno coerente

Il testo sarà molto breve

Il testo sarà sempre in inglese

Blocca la generazione

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Cosa succede se `top_k` è impostato a 1?

Il modello sceglie sempre il token più probabile

Il modello genera solo un token

Si attiva il training

Non funziona la generazione

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual è il ruolo della matrice di embedding?

Trasformare i token in vettori numerici

Ordinare i token

Convertire immagini in testo

Eseguire l'output finale

Create a free account and access millions of resources

Create resources
Host any resource
Get auto-graded reports
or continue with
Microsoft
Apple
Others
By signing up, you agree to our Terms of Service & Privacy Policy
Already have an account?

Discover more resources for Instructional Technology