Search Header Logo

3. Hadoop - DS4341

Authored by Michael Chec

Other

University

Used 1+ times

3. Hadoop - DS4341
AI

AI Actions

Add similar questions

Adjust reading levels

Convert to real-world scenario

Translate activity

More...

    Content View

    Student View

12 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál es la función principal del componente HDFS en el ecosistema de Hadoop?

Proporcionar un entorno de desarrollo para aplicaciones distribuidas

Almacenar y gestionar grandes vol. de datos distribuidos en varios nodos

Realizar cálculos distribuidos en paralelo

Controlar la seguridad y autenticación de usuarios

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Qué papel desempeña el NameNode en HDFS?

Ejecuta las tareas de MapReduce

Almacena los bloques de datos en el clúster

Mantiene y gestiona la tabla de metadatos que mapea archivos a bloques

Proporciona copias de seguridad de datos en caso de fallo de nodos

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál es la función principal del proceso "Reduce" en MapReduce?

Filtrar los datos de entrada antes de que se procesen

Dividir la tarea en sub-tareas más pequeñas

Combinar y agregar los resultados de las tareas de mapeo

Almacenar los resultados finales en HDFS

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Qué sucede cuando un bloque de datos se corrompe en HDFS?

El Job Tracker reintenta la tarea

El DataNode replica el bloque automáticamente

El NameNode asigna un DataNode alternativo con una réplica del bloque

Se debe reiniciar el clúster para corregir el error

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Qué sucede cuando un NameNode en un clúster de Hadoop falla?

El sistema se detiene y debe ser reiniciado manualmente

Un Secondary NameNode asume automáticamente el control

Los DataNodes continúan funcionando independientemente

No hay impacto ya que HDFS es completamente redundante

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál es la ventaja principal de usar HDFS para almacenar grandes volúmenes de datos?

Alta disponibilidad debido a la replicación de datos

Capacidad para ejecutar consultas SQL directamente sobre los datos

Almacenamiento en memoria para acceso rápido

Flexibilidad en la modificación de datos en tiempo real

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál es el propósito principal de Apache Pig en el ecosistema Hadoop?

Proveer una interfaz gráfica para gestionar Hadoop

Ejecutar consultas SQL sobre datos estructurados

Proveer un lenguaje de scripting de alto nivel para procesamiento de datos

Sincronizar datos entre Hadoop y bases de datos relacionales

Access all questions and much more by creating a free account

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

Already have an account?