SIA - Transformers

SIA - Transformers

University

10 Qs

quiz-placeholder

Similar activities

Unidad - Política fiscal

Unidad - Política fiscal

University

14 Qs

UK Knowledge Test

UK Knowledge Test

University

10 Qs

IS - DAS - SOCASIS - Sem 4

IS - DAS - SOCASIS - Sem 4

University

12 Qs

Distorsiones Cognitivas

Distorsiones Cognitivas

University

10 Qs

Métodos y Sistemas de Trabajo - Examen Parcial 2

Métodos y Sistemas de Trabajo - Examen Parcial 2

University

13 Qs

La Edad Media y el Humanismo

La Edad Media y el Humanismo

University

10 Qs

Dragon City

Dragon City

KG - University

6 Qs

2F Spelling 6 nov - 10 nov

2F Spelling 6 nov - 10 nov

KG - University

10 Qs

SIA - Transformers

SIA - Transformers

Assessment

Quiz

Other

University

Practice Problem

Easy

Created by

Eugenia Piñeiro

Used 3+ times

FREE Resource

AI

Enhance your content in a minute

Add similar questions
Adjust reading levels
Convert to real-world scenario
Translate activity
More...

10 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

¿En qué está basado un Transformer?

Un Modelo Recurrente

Un Mecanismo de Atención

Un Modelo de Redes Neuronales Generativas

Un Mecanismo Convolucional

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

La arquitectura de un Transformer está basada en múltiples Autoencoders

Verdadero

Falso

3.

MULTIPLE CHOICE QUESTION

45 sec • 1 pt

Un Transformer no logra resolver el problema del gradiente que desaparece (vanishing gradient problem)

Verdadero

Falso

4.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

¿Cuál es el objetivo de la capa de Self-Attention?

Ayudar al Encoder a establecer un orden en la secuencia

Ayudar al Decoder a dividir la secuencia en tokens

Ayudar al Encoder a mirar otras palabras en la secuencia

Ayudar al Decoder a mirar palabras siguientes en la secuencia

5.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

¿En qué consiste el proceso de "pre-processing"?

Embedding -> Tokenization -> Positional Encoding

Tokenization -> Embedding -> Positional Encoding

Positional Encoding -> Embedding -> Tokenization

6.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

¿Para qué sirve el proceso de Embedding?

Establecer un orden entre las palabras

Dividir la secuencia de palabras en tokens

Normalizar los tokens

Representar una palabra en un vector de números

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

El proceso de Positional Encoding asigna un número natural consecutivo a cada token para representar su orden

Verdadero

Falso

Create a free account and access millions of resources

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

By signing up, you agree to our Terms of Service & Privacy Policy

Already have an account?