La Analítica es como un banco de ejercicios, uno no se pone en forma solo por instalar uno en el sótano
Rebecca Lieb dixit
Los Problemas de MapReduce Como hemos visto en el post anterior MapReduce se encarga de automatizar el procesado de los datos en paralelo a través de distintos nodos de un cluster gestionando las tareas necesarios para la realización del trabajo...
MapReduce es el modelo de programación utilizado en Hadoop que, básicamente, le hace la vida más fácil a los programadores a la hora de trabajar con grandes volúmenes de datos distribuidos a través de múltiples máquinas que va a trabajar en paralelo...
No todo lo que se puede contar cuenta, y no todo lo que cuenta puede contarse
Albert Einstein dixit
Un poco de Historia Como sabrás Apache Software Foundation es un proyecto que recoge distintas iniciativas de código abierto (Open Source) y Hadoop es una de esas iniciativas. El corazón de lo que es hoy Hadoop se inspiró en dos proyectos de Google...
Como ya he explicado en algún post de esta serie una de las limitaciones que han sufrido los analistas de datos en el pasado ha sido la de estar sujetos a la capacidad de procesamiento de sus máquinas. Ni siquiera la famosa ley de Moore ha sido...