Quizz M7

Quizz M7

Professional Development

10 Qs

quiz-placeholder

Similar activities

Google Drive

Google Drive

Professional Development

11 Qs

Quiz de Excel

Quiz de Excel

Professional Development

11 Qs

Conhecendo o CSS

Conhecendo o CSS

Professional Development

14 Qs

Reguladores de Tensão

Reguladores de Tensão

Professional Development

13 Qs

Quiz sobre Equipamentos para movimentação interna de materiais

Quiz sobre Equipamentos para movimentação interna de materiais

Professional Development

10 Qs

Atitudes Empreendedoras de Sucesso

Atitudes Empreendedoras de Sucesso

Professional Development

11 Qs

Quiz Evolução da Robótica

Quiz Evolução da Robótica

Professional Development

15 Qs

Plano de Ensino

Plano de Ensino

Professional Development

7 Qs

Quizz M7

Quizz M7

Assessment

Quiz

Instructional Technology

Professional Development

Easy

Created by

Leidiane Beatriz

Used 2+ times

FREE Resource

10 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Sobre arquiteturas profundas para NLP, é correto afirmar que:

Apenas redes neurais convolucionais são utilizadas em NLP.

Modelos como Transformers e RNNs são exemplos de arquiteturas profundas usadas em NLP.

Redes neurais profundas não melhoram significativamente o desempenho em NLP.

Modelos de atenção são obsoletos e foram substituídos por SVMs.

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual a principal limitação das redes neurais recorrentes (RNNs) tradicionais?

Não podem ser usadas para modelar sequências temporais.

Excesso de parâmetros comparado às redes convolucionais.

Dificuldade em processar sequências de tamanho variável.

Incapacidade de capturar dependências de longo prazo devido ao problema do desaparecimento do gradiente.

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual é a principal inovação dos modelos Transformer em comparação com as RNNs?

Uso de convoluções profundas para capturar contexto.

Utilização de apenas uma camada para modelar texto.

Substituição das recorrências pelo mecanismo de atenção, permitindo processamento paralelo.

Introdução das redes LSTM para melhorar a memória de curto prazo.

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Como funciona o mecanismo de atenção nos Transformers?

Ele prioriza palavras aleatórias no texto de entrada.

Ele ajusta dinamicamente os pesos das palavras na sequência, destacando as mais relevantes para cada token.

Ele usa apenas a palavra anterior para prever a próxima palavra.

Ele aplica convoluções para calcular relações entre palavras.

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual é a principal diferença entre RNN e LSTM?

LSTMs possuem portas que ajudam a mitigar o desaparecimento do gradiente, enquanto RNNs comuns não.

LSTMs são redes convolucionais aplicadas ao NLP.

RNNs são um tipo de Transformer aprimorado.

LSTMs não conseguem lidar com sequências temporais longas.

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

No modelo SEQ2SEQ com LSTM, o que é o "encoder-decoder"?

Um mecanismo de compressão de texto usado para diminuir a quantidade de dados.

Uma abordagem que usa um LSTM para codificar uma sequência de entrada e outro LSTM para decodificá-la em uma sequência de saída.

Um algoritmo baseado em regras para tradução automática.

Um método exclusivo para gerar embeddings de palavras.

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

O que diferencia o ULMFit de outros modelos de NLP?

Ele substitui completamente modelos baseados em Transformers.

Ele não requer pré-treinamento e é treinado do zero para cada nova tarefa.

Ele depende exclusivamente de redes convolucionais para processar texto.

Ele utiliza uma abordagem de fine-tuning de aprendizado profundo para adaptar modelos pré-treinados a tarefas específicas de NLP.

Create a free account and access millions of resources

Create resources
Host any resource
Get auto-graded reports
or continue with
Microsoft
Apple
Others
By signing up, you agree to our Terms of Service & Privacy Policy
Already have an account?