SIA - Transformers

SIA - Transformers

University

10 Qs

quiz-placeholder

Similar activities

diagramas de flujo

diagramas de flujo

University

15 Qs

DIPTONGOS E HIATOS - PROFE BRAMBILA

DIPTONGOS E HIATOS - PROFE BRAMBILA

6th Grade - University

10 Qs

LINGÜÍSTICA DEL TEXTO

LINGÜÍSTICA DEL TEXTO

University

10 Qs

Examen Teórico 1ra Parcial

Examen Teórico 1ra Parcial

University

15 Qs

Cuestionario sobre 'Entre Luces y Sombras'

Cuestionario sobre 'Entre Luces y Sombras'

8th Grade - University

8 Qs

Quiz de procedimientos de emergencia

Quiz de procedimientos de emergencia

University - Professional Development

9 Qs

Repaso 2do parcial COMPRAS Y VENTAS

Repaso 2do parcial COMPRAS Y VENTAS

University

10 Qs

Efectos de drogas

Efectos de drogas

University

10 Qs

SIA - Transformers

SIA - Transformers

Assessment

Quiz

Other

University

Easy

Created by

Eugenia Piñeiro

Used 3+ times

FREE Resource

10 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

¿En qué está basado un Transformer?

Un Modelo Recurrente

Un Mecanismo de Atención

Un Modelo de Redes Neuronales Generativas

Un Mecanismo Convolucional

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

La arquitectura de un Transformer está basada en múltiples Autoencoders

Verdadero

Falso

3.

MULTIPLE CHOICE QUESTION

45 sec • 1 pt

Un Transformer no logra resolver el problema del gradiente que desaparece (vanishing gradient problem)

Verdadero

Falso

4.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

¿Cuál es el objetivo de la capa de Self-Attention?

Ayudar al Encoder a establecer un orden en la secuencia

Ayudar al Decoder a dividir la secuencia en tokens

Ayudar al Encoder a mirar otras palabras en la secuencia

Ayudar al Decoder a mirar palabras siguientes en la secuencia

5.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

¿En qué consiste el proceso de "pre-processing"?

Embedding -> Tokenization -> Positional Encoding

Tokenization -> Embedding -> Positional Encoding

Positional Encoding -> Embedding -> Tokenization

6.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

¿Para qué sirve el proceso de Embedding?

Establecer un orden entre las palabras

Dividir la secuencia de palabras en tokens

Normalizar los tokens

Representar una palabra en un vector de números

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

El proceso de Positional Encoding asigna un número natural consecutivo a cada token para representar su orden

Verdadero

Falso

Create a free account and access millions of resources

Create resources
Host any resource
Get auto-graded reports
or continue with
Microsoft
Apple
Others
By signing up, you agree to our Terms of Service & Privacy Policy
Already have an account?