extraer
Workflow
lento
refinamiento
alta
compacidad
entrada
compresión
ELT
refinamiento
sin
datos
procesar
estructurar
máxima
colector
transformar
sistema
consumo
interoperabilidad
estructurada
cargar
compactos
datos
salida
operaciones
fuente
menos
sin
serialización
recolección
rápido
rapidez
pruebas
procesamiento
1
.
En
las
plataformas
Big
Data
,
es
necesaria
la
____________________
para
permitir
el
intercambio
de
mensajes
entre
máquinas
y
guardar
datos
.
2
.
Cuando
se
elige
un
mecanismo
de
motor
de
compresión
,
es
importante
entender
la
relación
entre
la
____________________
de
____________________
,
el
nivel
de
____________________
y
los
recursos
de
____________________
necesarios
.
3
.
Preferiblemente
,
un
mecanismo
de
motor
de
serialización
debe
serializar
y
deserializar
datos
a
____________________
velocidad
con
una
reducción
de
tamaño
____________________
,
ser
susceptible
a
cambios
futuros
y
trabajar
con
una
variedad
de
productores
y
consumidores
de
datos
.
4
.
Por
lo
general
,
un
motor
de
compresión
____________________
proporcionará
datos
más
____________________
que
requieren
más
recursos
de
procesamiento
,
mientras
que
un
mecanismo
de
motor
de
compresión
____________________
proporcionará
datos
____________________
compactos
y
requerirá
menos
recursos
de
procesamiento
.
5
.
Cuando
se
usa
un
sistema
de
archivos
distribuido
,
los
datos
deben
serializarse
,
ya
que
trabajar
con
bytes
____________________
____________________
no
solamente
es
difícil
,
sino
que
también
causa
problemas
de
____________________
.
6
.
Un
pipeline
de
datos
es
un
flujo
de
trabajo
(
____________________
)
orientado
por
datos
,
compuesto
por
múltiples
tareas
en
las
que
cada
una
comprende
____________________
de
____________________
,
operación
y
datos
de
____________________
.
7
.
Un
pipeline
de
datos
se
usa
para
mover
datos
entre
la
____________________
y
el
____________________
de
manera
automática
,
mientras
se
llevan
a
cabo
diferentes
____________________
.
8
.
Una
de
las
principales
razones
para
diseñar
un
Big
Data
Pipeline
es
convertir
los
datos
____________________
____________________
en
su
forma
____________________
,
a
fin
de
que
sean
útiles
para
los
sistemas
descendentes
.
9
.
Un
típico
Big
Data
Pipeline
consiste
en
las
etapas
de
____________________
de
datos
,
____________________
de
datos
y
____________________
de
datos
.
10
.
La
etapa
de
____________________
de
datos
involucra
las
tareas
de
extracción
,
validación
o
limpieza
(
cleansing
)
y
joining
o
división
.
11
.
Como
parte
de
la
etapa
de
consumo
de
datos
,
por
lo
general
se
requiere
mayor
procesamiento
o
transformación
de
datos
.
12
.
La
etapa
de
recolección
de
datos
está
compuesta
por
las
tareas
de
ingestión
,
filtración
,
compresión
y
almacenamiento
de
datos
.
13
.
Al
igual
que
el
ETL
,
el
proceso
____________________
-
____________________
-
____________________
(
____________________
)
es
un
proceso
mediante
el
cual
los
datos
son
cargados
desde
un
sistema
origen
a
un
sistema
destino
.
14
.
El
ELT
elimina
la
necesidad
de
un
____________________
de
____________________
(
base
de
____________________
)
,
ya
que
los
datos
se
pueden
transformar
internamente
en
la
plataforma
Big
Data
.