Search Header Logo
revisão

revisão

Assessment

Presentation

Information Technology (IT)

University

Hard

Created by

Wanderlan Carvalho

FREE Resource

48 Slides • 20 Questions

1

media

2

media

3

media

4

media

5

media

6

media

7

media

8

media

9

media

10

media

11

media

12

media

13

media

14

media

15

media

16

media

17

media

18

media

19

media

20

media

21

media

22

media

23

media

24

media

25

media

26

media

27

media

28

media

29

media

30

media

31

media

32

media

33

media

34

media

35

media

36

media

37

media

38

media

39

media

40

media

41

media

42

media

43

media

44

media

45

media

46

media

47

media

48

media

49

Multiple Choice

Antônio, auditor especializado em Análise de Dados, está estudando o uso de algoritmos de aprendizado de máquina (Machine Learning) para a detecção de fraudes em contas públicas. Como parte de seus experimentos, ele dividiu seu conjunto de dados em treinamento e teste. Após treinar um modelo, percebeu que os resultados apresentavam indícios de underfitting. underfitting ocorre

1

quando o modelo se ajuste bem ao conjunto de treinamento, mas acaba por capturar não apenas os padrões, mas também os ruídos, comprometendo sua capacidade de generalização.

2

  apenas quando o conjunto de treinamento não contém exemplos de todas as classes, prejudicando o desempenho do modelo em classes minoritárias.

3

quando o modelo não consegue capturar adequadamente os padrões nos dados do conjunto de treinamento, resultando em um desempenho insuficiente

4

  quando a taxa de aprendizado do modelo é muito baixa, prolongando por exemplo o tempo necessário para que o modelo convirja.

5

quando o modelo apresenta uma complexidade muito maior do que o necessário, levando por exemplo ao uso ineficiente de recursos computacionais.

50

Multiple Choice

As redes neurais artificiais são um dos pilares da inteligência artificial moderna. Inspiradas no funcionamento do cérebro humano, essas estruturas matemáticas são capazes de aprender padrões a partir de dados, tornando-se ferramentas poderosas para tarefas como reconhecimento de imagens, processamento de linguagem natural e tomada de decisões.  A Deep learning é uma subárea do aprendizado de máquina que utiliza redes neurais profundas para modelar dados complexos. Assinale a alternativa que descreve corretamente uma característica fundamental das redes neurais profundas

1

Redes profundas se caracterizam por nunca demandarem grandes volumes de dados para treinar seus modelos de forma eficaz.

2

Redes Neurais Recorrentes (RNNs) são adequadas para processar dados sequenciais, como séries temporais e texto

3

  Redes Neurais Convolucionais (CNNs) são mais indicadas para a análise de dados tabulares do que para tarefas de visão computacional.

4

Redes neurais profundas se caracterizam por não permitirem otimização dos hiperparâmetros para obter um melhor desempenho.

5

Redes neurais artificiais simples são sempre uma melhor opção do que abordagens de deep learning, visto que apresentam maior precisão do que redes profundas para dados complexos.

51

Multiple Choice

As técnicas de regressão são amplamente utilizadas para modelar a relação entre variáveis e realizar previsões contínuas em aprendizado de máquina. Sobre as diferentes técnicas de regressão, assinale a alternativa correta

1

  Regressão Polinomial é uma técnica exclusiva para análise categórica de variáveis.

2

   Regressão Linear é adequada apenas para problemas não lineares, devido à sua simplicidade.

3

  Regressão Logística é uma técnica de regressão apropriada para prever valores contínuos em vez de classes.

4

   Regressão Lasso é uma variante da regressão linear que elimina a necessidade de regularização dos coeficientes.

5

   A regressão Ridge adiciona uma penalidade baseada na soma dos quadrados dos coeficientes, sendo útil para reduzir overfitting.

52

Multiple Choice

As técnicas de classificação são fundamentais em aprendizado de máquina para prever categorias ou classes com base em dados históricos. Nesse contexto, assinale a alternativa que descreve corretamente uma técnica amplamente utilizada para classificação

1

K-means é um algoritmo de aprendizado por reforço baseado na definição de centros em clusters.

2

Aprendizagem por Reforço é uma técnica baseada em redes neurais, que utiliza recompensas para treinar modelos.

3

Regressão Logística é uma técnica usada para prever classes binárias, como “aprovado” ou “reprovado”.

4

A análise de Componentes Principais (PCA) é utilizada para reduzir a dimensionalidade de dados, sendo um algoritmo utilizado para treinar modelos com base em recompensas.

5

Árvores de Decisão são algoritmos de classificação que utilizam redes neurais profundas para dividir os dados em diferentes categorias, otimizando a performance por meio de camadas ocultas.

53

Multiple Choice

As redes neurais são componentes essenciais da inteligência artificial moderna. Elas operam a partir de estruturas que imitam o cérebro humano, com múltiplas camadas de nós (neurônios artificiais), permitindo a resolução de problemas complexos, desde classificação de imagens até tradução automática. Entre os tipos mais importantes de redes estão as convolucionais, recorrentes e os transformers. As redes convolucionais são amplamente utilizadas para reconhecimento de padrões visuais, enquanto as recorrentes são indicadas para dados sequenciais, como texto e áudio. Os transformers revolucionaram o campo por conseguirem lidar com sequências com maior eficiência e paralelismo, sendo hoje a base de modelos linguísticos como BERT e GPT. Essas redes são alimentadas por algoritmos otimizadores e técnicas como o backpropagation e o mecanismo de atenção, permitindo ajustes finos e aprendizado profundo a partir de grandes volumes de dados :

Considerando as informações apresentadas, avalie as asserções a seguir e a relação proposta entre elas:

I. As redes neurais convolucionais são indicadas para análise de dados sequenciais, como texto e voz, sendo superiores às redes recorrentes nesses contextos.
PORQUE
II. O mecanismo de atenção presente nos transformers permite maior eficiência no processamento de dados sequenciais, tornando esses modelos mais eficazes do que as RNNs em diversas tarefas de linguagem natural.

A respeito dessas asserções, assinale a opção correta:

1

As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I.

2

As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I.

3

A asserção I é uma proposição verdadeira, e a II é uma proposição falsa.

4

A asserção I é uma proposição falsa, e a II é uma proposição verdadeira.

5

As asserções I e II são proposições falsas.

54

Multiple Choice

O aprendizado de máquina é um dos pilares da inteligência artificial moderna. Ele se baseia na construção de modelos computacionais capazes de aprender a partir de dados e tomar decisões ou realizar previsões sem serem explicitamente programados para cada tarefa. Essa abordagem se divide principalmente em três categorias: o aprendizado supervisionado, que utiliza dados rotulados para ensinar o modelo a prever saídas; o aprendizado não supervisionado, que trabalha com dados sem rótulos, buscando padrões ocultos; e o aprendizado por reforço, em que o agente aprende interagindo com o ambiente, tomando decisões, recebendo recompensas ou punições, e ajustando suas ações com base nesse retorno. Cada uma dessas abordagens é aplicável a diferentes cenários, como diagnóstico médico, recomendação de produtos, robótica e jogos. :

Com base nas características do aprendizado supervisionado, assinale a alternativa que melhor representa sua aplicação:

1

Um agente de software que joga xadrez e melhora suas jogadas ao longo do tempo por meio de recompensas.

2

Um sistema de recomendação que agrupa usuários com base em comportamento similar, sem uso de rótulos prévios.

3

Um modelo que recebe imagens de animais rotuladas e aprende a distinguir gatos de cachorros.

4

Um algoritmo que analisa dados de sensores ambientais e forma grupos com base na similaridade dos sinais.

5

Um programa que simula decisões econômicas em um ambiente virtual para maximizar retorno financeiro.

55

Multiple Choice

A evolução das redes neurais artificiais ampliou significativamente as aplicações de aprendizado profundo, permitindo o processamento eficiente de imagens, textos, áudios e sequências temporais. No domínio da visão computacional, as redes neurais convolucionais (CNNs) se destacam por sua capacidade de extrair características visuais relevantes, utilizando camadas de convolução e pooling. Já as redes neurais recorrentes (RNNs), com variantes como LSTM e GRU, foram projetadas para tratar sequências de dados, mantendo informações anteriores por meio de ciclos internos, o que as torna valiosas em tarefas como tradução automática e geração de texto. Mais recentemente, os transformers passaram a dominar o campo, substituindo as RNNs em muitas tarefas, devido ao seu mecanismo de atenção, que permite foco contextualizado sem depender da ordem sequencial direta. A diversidade de arquiteturas reflete a complexidade e especificidade dos desafios enfrentados pela inteligência artificial. ponto):

Com base nas informações acima. assinale as afirmativas corretas:

I. As redes convolucionais utilizam filtros para extrair características visuais relevantes em tarefas como classificação de imagens.
II. As redes recorrentes são indicadas para problemas que envolvem dados temporais, como séries de tempo e reconhecimento de voz.
III. Transformers superam RNNs em diversas tarefas linguísticas por não dependerem da sequência exata das palavras para atribuir significado.
IV. As CNNs são mais indicadas para processamento de texto do que para visão computacional.

assinale as afirmativas corretas:

1

I e II, apenas.

2

I, II e III, apenas.

3

II, III e IV, apenas.

4

I, III e IV, apenas

5

I, II, III e IV.

56

Multiple Choice

O aprendizado por reforço é uma das abordagens mais dinâmicas da inteligência artificial. Diferente do aprendizado supervisionado e não supervisionado, ele se baseia na interação de um agente com um ambiente. A cada ação tomada, o agente recebe um retorno na forma de recompensa ou punição, o que influencia suas decisões futuras. O objetivo é maximizar a recompensa acumulada ao longo do tempo. Esse processo envolve conceitos como estados, ações, política, função de valor e recompensa. Algoritmos como Q-Learning, SARSA, e Deep Q-Networks (DQN) são amplamente utilizados. O Q-Learning, por exemplo, constrói uma tabela de valores que orienta as melhores decisões a partir de cada estado, enquanto as variações mais recentes utilizam redes neurais para lidar com ambientes mais complexos e com grande número de estados possíveis. Essa forma de aprendizado é amplamente aplicada em jogos, sistemas autônomos e robótica, pois permite ao agente aprender estratégias por meio de tentativa e erro.

Com base na leitura do texto, avalie as seguintes afirmações :

I. No aprendizado por reforço, o agente aprende observando padrões em grandes volumes de dados rotulados, como no aprendizado supervisionado.
II. O Q-Learning é um algoritmo que permite ao agente aprender quais ações tomar em cada estado com base na maximização de recompensas futuras.
III. O aprendizado por reforço é especialmente útil em contextos onde o agente precisa tomar decisões sequenciais sem conhecimento prévio do ambiente.
IV. Algoritmos baseados em redes neurais, como o Deep Q-Network, permitem ao agente lidar com ambientes simples e de baixa complexidade.

As afirmativas corretas são:

1

I e II, apenas.

2

II e III, apenas

3

I, II e IV, apenas.

4

II, III e IV, apenas.

5

I, III e IV, apenas.

57

Multiple Choice

No universo dos algoritmos de aprendizado supervisionado, o classificador Naive Bayes destaca-se por sua simplicidade e eficiência. Baseado no Teorema de Bayes, esse algoritmo estima a probabilidade de uma determinada classe com base nas características observadas em um dado de entrada. O termo "naive" (ingênuo) refere-se à suposição de independência entre os atributos – ou seja, o algoritmo assume que todas as características são estatisticamente independentes umas das outras em relação à classe, o que raramente é verdade na prática, mas funciona bem em muitas situações. Apesar dessa suposição simplificadora, o Naive Bayes é amplamente utilizado em aplicações como filtragem de spam, classificação de sentimentos em textos, e diagnóstico médico, onde oferece resultados competitivos com algoritmos mais complexos. Sua principal vantagem está na velocidade de treinamento e inferência, mesmo com grandes volumes de dados.

No universo dos algoritmos de aprendizado supervisionado, o classificador Naive Bayes destaca-se por sua simplicidade e eficiência. Baseado no Teorema de Bayes, esse algoritmo estima a probabilidade de uma determinada classe com base nas características observadas em um dado de entrada. O termo "naive" (ingênuo) refere-se à suposição de independência entre os atributos – ou seja, o algoritmo assume que todas as características são estatisticamente independentes umas das outras em relação à classe, o que raramente é verdade na prática, mas funciona bem em muitas situações. Apesar dessa suposição simplificadora, o Naive Bayes é amplamente utilizado em aplicações como filtragem de spam, classificação de sentimentos em textos, e diagnóstico médico, onde oferece resultados competitivos com algoritmos mais complexos. Sua principal vantagem está na velocidade de treinamento e inferência, mesmo com grandes volumes de dados.

Com base no texto acima, avalie as afirmações a seguir:

I. O classificador Naive Bayes é baseado na aplicação do Teorema de Bayes, com a suposição de independência entre os atributos.
II. O desempenho do Naive Bayes é sempre inferior ao de algoritmos como Redes Neurais e SVM, sendo útil apenas em conjuntos de dados pequenos.
III. Apesar da suposição de independência entre atributos, o Naive Bayes pode apresentar bons resultados em tarefas reais, como detecção de spam e análise de sentimentos.
IV. A principal desvantagem do Naive Bayes é o alto custo computacional necessário para processar grandes volumes de dados.

Está correta o que se afirma em :

1

I e II, apenas.

2

II e IV, apenas.

3

I e III, apenas

4

III e IV, apenas

5

I, III e IV, apenas.

58

Multiple Choice

As Máquinas de Vetores de Suporte (Support Vector Machines – SVM) são modelos de aprendizado supervisionado utilizados tanto para classificação quanto para regressão. Um dos principais conceitos que fundamentam o SVM é a maximização da margem entre as classes, ou seja, o algoritmo busca encontrar o hiperplano que melhor separa os dados, garantindo que a distância entre os vetores de suporte (pontos mais próximos do hiperplano) e esse hiperplano seja a maior possível. Essa maximização é essencial para promover a generalização do modelo, reduzindo o risco de overfitting.

No entanto, dados reais muitas vezes não são linearmente separáveis. Para esses casos, o SVM utiliza o conceito de "kernel trick", que transforma os dados em uma dimensão superior onde a separabilidade linear pode ser obtida. Funções kernel comuns incluem o polinomial, o radial basis function (RBF) e o sigmoide. O desempenho do SVM depende fortemente da escolha do kernel e de seus parâmetros, bem como do parâmetro de regularização C, que controla o trade-off entre a maximização da margem e a penalização de erros de classificação.

O SVM também é conhecido por ser eficiente mesmo em espaços de alta dimensão, sendo amplamente utilizado em problemas como classificação de texto, reconhecimento de padrões e bioinformática.

Com base no texto acima, assinale a alternativa que descreve corretamente uma característica das Máquinas de Vetores de Suporte (SVM)

1

O SVM encontra o hiperplano que minimiza a distância entre os vetores de suporte, focando na redução da complexidade computacional, mesmo que isso reduza a generalização.

2

A utilização de funções kernel permite que o SVM evite completamente a criação de margens, eliminando a necessidade de considerar dados não linearmente separáveis.

3

O parâmetro de regularização C, quando muito elevado, favorece a maximização da margem ao custo de uma maior taxa de erros de classificação.

4

O SVM pode ser aplicado em espaços de alta dimensão, sendo eficiente mesmo com um número elevado de atributos, desde que bem parametrizado

5

O SVM apresenta bons resultados somente quando os dados são linearmente separáveis, sendo ineficaz quando a separabilidade exige transformações no espaço de atributos.

59

Multiple Choice

O algoritmo Random Forest é uma técnica de aprendizado de máquina baseada em árvores de decisão, usada tanto para tarefas de classificação quanto de regressão. Ele funciona construindo um conjunto (ou "floresta") de árvores de decisão durante o treinamento e produzindo a classe que é a moda das classes (no caso de classificação) ou a média das previsões (no caso de regressão) das árvores individuais.

Cada árvore na floresta é construída a partir de uma amostra aleatória dos dados com reposição (técnica conhecida como bootstrap). Além disso, em cada divisão da árvore, apenas um subconjunto aleatório de atributos é considerado, o que reduz a correlação entre as árvores e aumenta a diversidade do modelo. Essa aleatoriedade controlada é uma das principais características que diferenciam o Random Forest de uma simples coleção de árvores de decisão.

Essa abordagem reduz significativamente o risco de overfitting, comum em modelos baseados em uma única árvore, e geralmente fornece alta acurácia preditiva. No entanto, sua interpretabilidade é menor do que a de uma única árvore, e o custo computacional pode ser elevado quando muitas árvores são utilizadas.

Com base no texto acima, assinale a alternativa que descreve corretamente uma característica do algoritmo Random Forest

1

O Random Forest evita o overfitting ao treinar cada árvore com todos os dados disponíveis, garantindo homogeneidade entre os modelos.

2

O Random Forest considera todos os atributos disponíveis em cada divisão da árvore para aumentar a precisão de cada árvore individual

3

O Random Forest produz um modelo único e determinístico a partir de uma única árvore profunda e bem ajustada aos dados

4

O Random Forest utiliza amostragem com reposição e seleção aleatória de atributos em cada divisão para aumentar a diversidade entre as árvores.

5

O Random Forest, por depender de árvores independentes, ignora qualquer forma de aleatoriedade no treinamento para manter a consistência do modelo.

60

Multiple Choice

O Perceptron é um dos modelos mais antigos de redes neurais artificiais, proposto por Frank Rosenblatt em 1958. Trata-se de um classificador linear que busca encontrar um hiperplano que separa dados em duas classes. O modelo é composto por um vetor de pesos, uma função de ativação (geralmente o degrau) e uma regra de atualização dos pesos baseada no erro de classificação.

O algoritmo de treinamento do Perceptron ajusta os pesos de forma iterativa: se a saída da predição for correta, os pesos permanecem; se for incorreta, os pesos são atualizados com base na diferença entre a saída esperada e a predita, multiplicada pelo valor da entrada. Esse processo é repetido até que os dados sejam corretamente classificados (caso sejam linearmente separáveis) ou até atingir um número máximo de iterações.

Entretanto, o Perceptron possui limitações significativas: ele só consegue resolver problemas linearmente separáveis. Problemas como o do operador lógico XOR não podem ser resolvidos por um Perceptron simples, pois não há uma linha (ou hiperplano) que separe corretamente as classes. Essa limitação impulsionou o desenvolvimento de arquiteturas mais complexas, como as redes neurais multicamadas, capazes de resolver problemas não lineares.

Com base no texto acima, assinale a alternativa que apresenta uma limitação característica do Perceptron

1

O Perceptron simples é incapaz de ajustar seus pesos quando as classes são linearmente separáveis, mesmo com iterações infinitas

2

O Perceptron resolve com eficiência problemas não lineares, como o XOR, utilizando apenas uma camada oculta

3

O Perceptron depende de funções de ativação contínuas, como a ReLU ou a sigmoide, para resolver problemas lineares.

4

O Perceptron é limitado a problemas linearmente separáveis, falhando quando não há um hiperplano que separe as classes.

5

O Perceptron não realiza atualizações nos pesos quando a predição está incorreta, o que limita seu poder de aprendizado.

61

Multiple Choice

As Redes Neurais Recorrentes (RNNs) são uma classe de redes neurais artificiais especialmente desenvolvidas para lidar com dados sequenciais. Ao contrário das redes neurais tradicionais (feedforward), as RNNs possuem conexões que formam ciclos, permitindo que informações sejam preservadas e reutilizadas ao longo do tempo. Isso as torna particularmente úteis para tarefas em que a ordem dos dados importa, como processamento de linguagem natural, reconhecimento de fala, séries temporais e tradução automática.

O funcionamento das RNNs envolve a atualização do estado oculto a cada nova entrada da sequência. Esse estado age como uma espécie de memória, armazenando informações anteriores que influenciam o processamento de entradas futuras. No entanto, RNNs tradicionais enfrentam dificuldades para aprender dependências de longo prazo, devido ao problema do desvanecimento ou explosão do gradiente durante o treinamento, o que afeta negativamente a capacidade de capturar relações distantes em sequências longas.

Para mitigar essas limitações, arquiteturas mais avançadas como LSTM (Long Short-Term Memory) e GRU (Gated Recurrent Unit) foram desenvolvidas. Essas variantes introduzem mecanismos de controle interno (portas) que regulam o fluxo de informação e permitem que as redes retenham informações relevantes por períodos mais longos, com maior estabilidade no treinamento.

Com base no texto acima, assinale a alternativa que apresenta corretamente uma característica das Redes Neurais Recorrentes (RNNs)

1

As RNNs ignoram a ordem dos dados de entrada, sendo ideais para tarefas em que a sequência não influencia o resultado, como classificação de imagens estáticas.

2

As RNNs processam os dados simultaneamente em todas as posições da sequência, dispensando o uso de memória temporal.

3

As RNNs tradicionais são eficazes para aprender dependências de longo prazo, mesmo em sequências extensas, sem necessidade de mecanismos adicionais.

4

As RNNs mantêm uma memória interna ao longo da sequência, mas podem sofrer com desvanecimento do gradiente, o que dificulta o aprendizado de relações temporais distantes.

5

As RNNs utilizam exclusivamente a função de ativação ReLU para preservar o estado de memória ao longo da sequência temporal.

62

Multiple Choice

O DBSCAN (Density-Based Spatial Clustering of Applications with Noise) é um algoritmo de agrupamento baseado em densidade, amplamente utilizado para descobrir clusters em conjuntos de dados com formatos arbitrários, mesmo na presença de ruídos. Diferente de algoritmos como o K-means, que assume formas esféricas de clusters e exige a definição prévia do número de grupos, o DBSCAN identifica regiões densas no espaço de dados e expande os clusters a partir de pontos centrais (core points), conforme dois parâmetros principais: ε (epsilon), que define o raio de vizinhança ao redor de um ponto, e MinPts, que especifica o número mínimo de pontos para formar uma região densa.

O algoritmo classifica os pontos em três categorias: pontos centrais (core points), que possuem pelo menos MinPts vizinhos dentro de ε; pontos de borda, que estão dentro da vizinhança de um core point, mas não possuem vizinhança própria densa; e ruído, que são pontos que não se enquadram em nenhuma das duas categorias anteriores. Essa abordagem permite que o DBSCAN identifique clusters com formas complexas e ignore outliers naturalmente.

Apesar de suas vantagens, o DBSCAN pode apresentar desempenho limitado em conjuntos de dados com variação significativa de densidade, já que o uso de um valor fixo de ε pode levar à fusão incorreta de clusters ou à divisão de um único cluster em vários grupos.

Com base no texto acima, assinale a alternativa que apresenta corretamente uma característica do algoritmo DBSCAN

1

O DBSCAN exige a definição prévia do número de clusters e assume que todos os grupos possuem a mesma densidade e formato esférico.

2

O DBSCAN é capaz de identificar outliers e lidar com clusters de formatos arbitrários sem depender da definição prévia do número de grupos.

3

O DBSCAN ignora a densidade dos dados e se baseia unicamente na distância euclidiana entre os pontos para formar os clusters.

4

O DBSCAN é ideal para conjuntos de dados com densidades variadas, já que adapta automaticamente o valor de ε para cada região.

5

O DBSCAN, por sua simplicidade, é limitado à aplicação em dados bidimensionais e não é eficaz para conjuntos de dados de alta dimensionalidade.

63

Multiple Choice

As árvores de decisão são modelos amplamente utilizados em tarefas de classificação e regressão, por sua estrutura simples e interpretável. Elas funcionam dividindo recursivamente o conjunto de dados em subconjuntos com base em atributos que maximizam a separação entre as classes (no caso de classificação) ou reduzem o erro (no caso de regressão). Em cada nó da árvore, é feita uma escolha baseada em critérios como ganho de informação, índice de Gini ou redução de variância, dependendo da tarefa e do algoritmo utilizado (ID3, C4.5, CART, entre outros).

O processo continua até que os dados sejam perfeitamente classificados (ou até atingir um critério de parada, como profundidade máxima ou número mínimo de amostras por nó). Uma das principais vantagens das árvores de decisão é sua capacidade de lidar com dados categóricos e contínuos, bem como sua facilidade de interpretação, permitindo que usuários compreendam as decisões do modelo.

Por outro lado, elas são suscetíveis a overfitting, especialmente quando crescem demais sem poda. Estratégias como poda prévia (pre-pruning) ou poda posterior (post-pruning) são frequentemente aplicadas para reduzir esse problema e melhorar a capacidade de generalização.

Com base no texto acima, assinale a alternativa que apresenta corretamente uma característica das árvores de decisão

1

Árvores de decisão exigem dados exclusivamente categóricos, pois não conseguem realizar divisões baseadas em atributos numéricos.

2

O critério de parada mais comum nas árvores de decisão é o número máximo de folhas, sendo desnecessário limitar a profundidade.

3

Árvores de decisão são imunes ao overfitting, pois ajustam-se apenas até o ponto em que a acurácia não melhora mais.

4

Árvores de decisão constroem classificadores interpretáveis, mas podem sofrer com overfitting quando não controladas por técnicas de poda

5

A construção de árvores de decisão depende da definição prévia do número de clusters, como ocorre em algoritmos não supervisionados.

64

Multiple Choice

O algoritmo de backpropagation, ou retropropagação, é um dos pilares do treinamento de redes neurais artificiais. Esse método consiste na aplicação da regra da cadeia do cálculo diferencial para propagar o erro da saída para os neurônios das camadas anteriores, ajustando os pesos sinápticos de modo a minimizar a função de erro. Para funcionar corretamente, o algoritmo requer que as funções de ativação utilizadas nas camadas da rede sejam diferenciáveis. Redes profundas, compostas por várias camadas ocultas, podem apresentar desafios relacionados ao desaparecimento ou explosão do gradiente, especialmente quando funções inadequadas são utilizadas ou os pesos não são inicializados de forma apropriada. Apesar disso, backpropagation é amplamente utilizado devido à sua eficiência computacional e eficácia em redes treinadas com grandes volumes de dados, principalmente quando associado a técnicas como gradient descent, regularização e normalização de dados.

Considerando as informações apresentadas, avalie as asserções a seguir e a relação proposta entre elas:

I. O algoritmo de backpropagation depende da diferenciabilidade das funções de ativação das camadas para ajustar os pesos da rede.

PORQUE

II. O backpropagation utiliza derivadas parciais para propagar o erro da camada de saída até as camadas anteriores, ajustando os pesos com base no gradiente da função de custo.

A respeito dessas asserções, assinale a opção correta:

1

As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I.

2

As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I.

3

A asserção I é uma proposição verdadeira, e a II é uma proposição falsa.

4

A asserção I é uma proposição falsa, e a II é uma proposição verdadeira.

5

As asserções I e II são proposições falsas.

65

Multiple Choice

O algoritmo K-Means é um método de aprendizado não supervisionado amplamente utilizado para agrupamento de dados. Ele funciona particionando um conjunto de n observações em k grupos, nos quais cada observação pertence ao grupo cujo centroide (média dos pontos do grupo) está mais próximo. Inicialmente, k centróides são escolhidos aleatoriamente e, em seguida, o algoritmo alterna entre duas etapas: atribuir cada ponto ao centroide mais próximo e recalcular os centróides com base nos novos agrupamentos. Esse processo é repetido até que os centróides se estabilizem. Apesar de sua simplicidade e eficiência, o K-Means pode ser sensível à escolha inicial dos centróides e não garante a obtenção de um agrupamento ótimo global, podendo convergir para mínimos locais da função de custo. Além disso, ele assume que os clusters têm formato esférico e tamanho semelhante, o que pode limitar seu desempenho em conjuntos de dados com estruturas complexas ou com variância desigual entre grupos.

Com base no texto e nos conhecimentos sobre o algoritmo K-Means, analise as afirmativas a seguir:

. O K-Means pode não encontrar a melhor solução de agrupamento global, pois é suscetível à convergência em mínimos locais da função de custo.
II. A escolha do número k de agrupamentos deve ser feita antes da execução do algoritmo, o que pode exigir conhecimento prévio dos dados.
III. O algoritmo K-Means apresenta desempenho ideal em bases de dados com clusters de formatos esféricos e com variâncias semelhantes.
IV. A inicialização dos centróides pode influenciar diretamente o resultado final, sendo comum o uso de estratégias como o K-Means++ para minimizar esse impacto.

Estão corretos os itens :

1

I, II e III, apenas.

2

II e IV, apenas.

3

I, II, III e IV.

4

I e III, apenas.

5

I, III e IV, apenas.

66

Multiple Choice

Em redes neurais convolucionais (CNNs), as camadas de pooling desempenham um papel fundamental na redução da dimensionalidade dos dados e no controle do sobreajuste, além de promover maior invariância espacial às pequenas variações e deslocamentos nas imagens. O tipo mais comum é o max pooling, no qual o valor máximo de uma região específica da imagem (ou mapa de ativação) é selecionado. Outro tipo, menos utilizado, é o average pooling, que calcula a média dos valores da região. Essas operações não possuem parâmetros treináveis, mas afetam significativamente a estrutura da rede e a forma como a informação é propagada para camadas posteriores. Ao reduzir a resolução espacial dos dados, o pooling contribui para o aumento da eficiência computacional e a diminuição do número de parâmetros, facilitando o treinamento de modelos mais profundos. No entanto, essa redução pode levar à perda de informações detalhadas, o que exige um equilíbrio entre simplificação e preservação de características relevantes. Estratégias modernas, como global average pooling, também têm sido utilizadas como alternativa ao uso de camadas densas, especialmente em tarefas de classificação.

Com base nas informações apresentadas, assinale a alternativa correta:

1

O uso do max pooling tem como principal vantagem a substituição de camadas convolucionais, eliminando a necessidade de convoluções em redes profundas.

2

A camada de pooling atua como uma etapa de regularização treinável, responsável por ajustar automaticamente os pesos da rede em regiões específicas.

3

O pooling aumenta a dimensionalidade dos mapas de ativação, promovendo maior riqueza de detalhes e complexidade nas camadas posteriores.

4

A utilização de pooling reduz a resolução espacial das representações, contribuindo para a redução da complexidade computacional e para a generalização do modelo.

5

Diferentemente do max pooling, o average pooling é sempre preferido por preservar melhor os detalhes espaciais da imagem, sendo o padrão nas CNNs modernas.

67

Multiple Choice

No contexto do aprendizado por reforço, algoritmos como o SARSA (State-Action-Reward-State-Action) são utilizados para estimar políticas de tomada de decisão em ambientes estocásticos e dinâmicos. O SARSA é um algoritmo on-policy, ou seja, aprende a política de comportamento baseada nas ações efetivamente tomadas pelo agente. A sigla reflete a sequência de elementos usados na atualização de seu valor Q: estado atual (S), ação tomada (A), recompensa recebida (R), novo estado (S') e nova ação (A'). A fórmula de atualização do SARSA considera tanto o estado seguinte quanto a próxima ação, o que o diferencia de algoritmos off-policy, como o Q-Learning, que busca estimar o valor ótimo independentemente da política seguida. Por esse motivo, o SARSA tende a gerar comportamentos mais conservadores, especialmente em situações onde ações arriscadas podem levar a recompensas maiores, mas também a penalidades severas. Seu uso é apropriado em contextos nos quais a segurança e a coerência da política comportamental ao longo do aprendizado são mais importantes que a exploração agressiva de recompensas.

Considerando as informações apresentadas, avalie as asserções a seguir e a relação proposta entre elas:

I. O algoritmo SARSA é considerado on-policy porque atualiza seus valores Q com base nas ações realmente executadas pela política atual.
PORQUE
II. A política on-policy exige que o agente explore ações aleatórias com maior frequência, o que resulta em um comportamento mais exploratório e menos conservador.

A respeito dessas asserções, assinale a opção correta:

1

As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I.

2

As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I.

3

A asserção I é uma proposição verdadeira, e a II é uma proposição falsa.

4

A asserção I é uma proposição falsa, e a II é uma proposição verdadeira.

5

As asserções I e II são proposições falsas.

68

Multiple Choice

As redes neurais convolucionais (CNNs) revolucionaram o campo da visão computacional por sua capacidade de extrair automaticamente características relevantes de imagens. Um dos principais componentes dessas redes é o filtro convolucional, também conhecido como kernel. Um filtro convolucional consiste em uma pequena matriz de pesos que percorre a imagem de entrada, realizando operações de convolução para detectar padrões locais, como bordas, texturas ou formas específicas. Esses filtros são treináveis, ou seja, seus valores são ajustados durante o processo de aprendizado, de modo que se especializem em identificar características discriminativas para a tarefa em questão.

Durante a convolução, o filtro é aplicado sobre pequenas regiões da imagem, e o resultado de cada operação (produto escalar entre os valores do filtro e os da imagem) gera um valor em um novo mapa chamado mapa de ativação ou mapa de características (feature map). Esse processo permite a extração de informações locais preservando a estrutura espacial dos dados. Filtros diferentes podem ser aprendidos em cada camada convolucional, permitindo a construção de representações hierárquicas, das mais simples às mais complexas, à medida que a imagem avança pela rede.

Com base nas informações apresentadas, assinale a alternativa que completa corretamente a afirmativa a seguir:

Os filtros convolucionais são fundamentais em redes neurais convolucionais porque...

1

definem a estrutura da camada de normalização que impede a sobrecarga de gradientes em redes densas.

2

identificam padrões locais por meio de operações de convolução, sendo ajustados durante o treinamento da rede.

3

evitam a necessidade de operações de ativação ao substituí-las por pesos fixos, reduzindo o custo computacional.

4

eliminam a dependência de funções de perda ao utilizar aprendizagem supervisionada com rótulos fixos.

5

selecionam automaticamente a taxa de aprendizado ideal para cada camada da rede convolucional.

media

Show answer

Auto Play

Slide 1 / 68

SLIDE