Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Big Data

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 6

1.

Historia y evolución de la analítica del


Big Data.
¿Desde cuándo existe el Big Data?
En gran medida, el término ‘Big Data’ se emplea de forma generalizada desde
finales de los años 90. Sin embargo, el boom que ha supuesto no abarcaba los
avances experimentados en campos como internet, dispositivos móviles y
conexión. Existen expertos en Big Data que sitúan su historia desde mucho
antes. Incluso, hay quienes lo sitúan en el paleolítico. Esto se podría explicar con
una lógica que relaciona el término con el primitivo interés de los seres humanos
por lograr y procesar la información.

Desde la escritura cuneiforme, el más antiguo sistema de escritura conocido,


hasta los centros de datos modernos, los seres humanos siempre han
recopilado información. Para 2020, se prevé que nuestra civilización haya
generado 40 zettabytes de información. Esto equivaldría a 57 veces el número de
granos de arena de todas las playas del mundo.

El origen del Big Data


Alan Turing, padre de la computación, soñaba en los años 30 con una máquina
que realizara tareas y pasara a otras de forma autónoma. Durante la II Guerra
Mundial, el científico lideró un equipo de inteligencia en Bletchley Park. Su objetivo
era descifrar Enigma, una de las máquinas de cifrado que empleaba el ejército
nazi. Este trabajo permitió acortar entre 2 y 4 años la Gran Guerra. Es así cómo a
Alan Turing se le considera como pionero de lo que hoy conocemos como
‘Big Data’.

El Big Data desde años 50 a los 80


Tras la II Guerra Mundial, la influencia en el Big Data en cuanto a su evolución se
puede clasificar en:

 1956: Se crea la Memoria Virtual. El físico Fritz Rudolf Güntsch desarrolla


esta idea que trataba el almacenamiento finito como infinito. De esta manera,
permitía que los datos se procesasen sin una limitación de memoria del hardware.
 1962: William C. Dersch presenta la máquina ‘Shoebox’. Este sistema
comprende la voz por primera vez. Concretamente, 16 palabras y 10 dígitos en
inglés hablado.
 1966: A finales de los 60 las organizaciones diseñan sistemas de
computación más avanzados. Esto permite automatizar sus sistemas de
inventario.
 1989: Erik Larson menciona al Big Data en el sentido que conocemos hoy
en día. En este año se popularizan las herramientas de business intelligence para
analizar la actividad comercial y el rendimiento de las operaciones.

Nacimiento de la WWW y recorrido del Big Data


hasta hoy
Con el nacimiento de la WWW (World Wide Web) e Internet en 1989 se abren los
primeros caminos a la generación masiva de datos. De esto deriva la aparición
de los primeros sistemas de gestión y almacenamiento de información en 1992.
Hoy en día permite que seamos capaces de procesar e interpretar el Big Data.

Desde 2009 a 2011 aparecen empresas como Cloudera y Hortonworks. Ambas


nacen con el objetivo de conseguir una mejor gestión de los datos. Estos
servicios abren un mundo de posibilidades para las empresas. Para 2012, por
primera vez se emplea el Big Data en fines políticos. Barack Obama lo usó en su
campaña para conocer las opiniones de los votantes más indecisos y saber qué
canales utilizaban. De esta manera lanzaba unos mensajes con un impacto más
personalizado.

En 2016 el Big Data alcanza un puesto importante en la sociedad. Se


generaliza la contratación de expertos en Big Data, el Machine Learning llega a las
fábricas y el Internet de las Cosas comienza a abarcar diferentes sectores. Para
2017 los datos llegarían a las masas. La gente puede conocer sus patrones de
descanso, su gasto de dinero y se informa de, por ejemplo, sobre la posesión de
balón de su equipo de fútbol. Los datos están en todas partes y la población ya
se encuentra dispuesta a usarlos.
2. Analítica del Big Data en el mundo actual
Las técnicas y herramientas para analizar el Big Data están sufriendo un claro aumento de la
demanda debido al valor que tienen para las organizaciones. Las empresas pueden encontrar
oportunidades para obtener nuevos conocimientos con los que administrarlas de forma eciente.
Esta información es de ayuda, sin duda, para proporcionar información signicativa con la que
tomar decisiones comerciales más acertadas y mejores. Cualquier empresa puede potenciar sus
estrategias, pero si se tiene en cuenta el enfoque de los clientes y del público objetivo, estas
mejorarán. Un eciente análisis del Big Data es de utilidad porque trabaja en pro de la mejora de los
benecios empresariales. Benecios de Big Data Analytics Existen algunas herramientas de análisis
de datos que reducen el coste de almacenamiento. Esto es signicativo porque aumenta la eciencia
de los negocios. Además, gracias a estas herramientas la analítica es más sencilla, lo que lleva a
una toma de decisiones que ahorra energía y tiempo, al realizarse con mayor rapidez. ¿Qué otros
benecios puedes encontrar? El servicio mejora. Una circunstancia que generará una mayor tasa de
conversión e ingresos adicionales.
Mejora en la toma de decisiones. Al tener disponible un gran volumen de datos estructurados, las
organizaciones pueden tomar decisiones en base a la interpretación de los mismos con mayor
rapidez y criterio. Conocimiento del mercado. Ayuda a tomar decisiones y te permite localizar
ventanas de oportunidad, adelantándote así a las necesidades de los consumidores y a las
tendencias de consumo o los desajustes en materia de atención al cliente. Feedback en tiempo
real. El Big Data no solo permite almacenar o procesar una gran cantidad de datos, sino que facilita
el hecho de recibirlos y tener disponible esa información más rápidamente. Es muy ágil y te
permite conocer el estado de un lanzamiento o el resultado de una estrategia inmediatamente.
Tecnología de presente y futuro. El Big Data está en evolución y en un futuro no muy lejano será
esencial para tomar decisiones. Este es el motivo por el que las empresas apuestan por la
transformación digital. En sectores como el de la medicina o el sector nanciero está suponiendo
toda una revolución

3. Por qué es tan importante la analítica del el Big Data?


La Importancia de Big Data Analytics: Los datos son indispensables en el tejido empresarial
actual y se están convirtiendo en una pieza clave que ayuda a tomar decisiones estratégicas.
Debes saber que se generan a diario, tanto por los usuarios como por las empresas algunas
de ellas desconocen, permitiendo identificar los problemas de los clientes

El análisis de Big Data ayuda a las organizaciones a aprovechar sus datos y utilizarlos
para identificar nuevas oportunidades. Eso, a su vez, conduce a movimientos de negocios
más inteligentes, operaciones más eficientes, mayores ganancias y clientes más felices. Las
empresas con más éxito con Big Data consiguen valor de las siguientes formas:

 Reducción de coste. Las grandes tecnologías de datos, como Hadoop y el análisis


basado en la nube, aportan importantes ventajas en términos de costes cuando se trata de
almacenar grandes cantidades de datos, además de identificar maneras más eficientes de
hacer negocios.
 Más rápido, mejor toma de decisiones. Con la velocidad de Hadoop y la analítica en
memoria, combinada con la capacidad de analizar nuevas fuentes de datos, las empresas
pueden analizar la información inmediatamente y tomar decisiones basadas en lo que han
aprendido.
 Nuevos productos y servicios. Con la capacidad de medir las necesidades de los
clientes y la satisfacción a través de análisis viene el poder de dar a los clientes lo que
quieren. Con la analítica de Big Data, más empresas están creando nuevos productos para
satisfacer las necesidades de los clientes.

4.Cómo funciona y tecnologías clave.


 Cada vez que hacemos clic en un botón al navegar por internet, cada vez que
hacemos scroll en una página, cada vez que hacemos una transacción bancaria o que
leemos una newsletter, generamos un dato. Cada vez que un móvil envía una llamada a un
smartwatch o que compartimos contenido entre la tablet y la televisión, nuestros dispositivos
generan un dato. Explicado de forma muy simplificada, el Big Data:
 Recibe los datos.
 Los almacena.
 Los distribuye entre distintos procesadores (para poder procesarlos a mayor
velocidad).
 Procesa los datos.
 Reúne de nuevo los datos.
 Utiliza algoritmos predictivos y prescriptivos para interpretarlos (mediante técnicas de
Ciencia de Datos).
 Extrae la información requerida (patrones de comportamiento, oportunidades de
negocio, predicciones de venta, etcétera).
 El factor humano entra en el siguiente paso: el Big Data no toma las decisiones finales,
sino que da información a las personas para que estas puedan tomar resoluciones más
satisfactorias. No obstante, la industria 4.0 trabaja desde hace tiempo en cerrar el círculo
mediante la aplicación de modelos predictivos y prescriptivos.
 La idea es realimentar los sistemas de producción con prescripciones
automáticas provenientes de los modelos prescriptivos. Los humanos definen estos
modelos y los modelos emiten prescripciones/acciones a llevar a cabo (en base a una
definición de acciones posibles previamente definidas en función de los resultados de los
modelos).

 Análisis predictivo: soluciones de software y / o hardware que permiten a las
empresas descubrir, evaluar, optimizar e implementar modelos predictivos mediante el
análisis de grandes fuentes de datos para mejorar el rendimiento comercial o mitigar el
riesgo.
  Bases de datos NoSQL: bases de datos de valores clave, documentos y gráficos. 
 Búsqueda y descubrimiento de conocimiento: herramientas y tecnologías para
admitir la extracción de información de autoservicio y nuevas perspectivas de grandes
repositorios de datos estructurados y no estructurados que residen en múltiples fuentes,
como sistemas de archivos, bases de datos, flujos, API y otras plataformas y aplicaciones.
 Análisis de flujo: software que puede filtrar, agregar, enriquecer y analizar un alto
rendimiento de datos de múltiples fuentes de datos en vivo y en cualquier formato de datos.
  
 Fábrica de datos en memoria: proporciona acceso de baja latencia y procesamiento
de grandes cantidades de datos mediante la distribución de datos a través de la memoria de
acceso aleatorio dinámica (DRAM), Flash o SSD de un sistema informático distribuido.
  
 Almacenes de archivos distribuidos: una red informática donde los datos se
almacenan en más de un nodo, a menudo de forma replicada, para redundancia y
rendimiento.
  
 Virtualización de datos: una tecnología que ofrece información de varias fuentes de
datos, incluidas fuentes de Big Data como Hadoop y tiendas de datos distribuidos en tiempo
real y casi en tiempo real.
  
 Integración de datos: herramientas para la orquestación de datos en soluciones
como Amazon Elastic MapReduce (EMR), Apache Hive, Apache Pig, Apache Spark,
MapReduce, Couchbase, Hadoop y MongoDB.
  
 Preparación de datos: software que alivia la carga de aprovisionar, dar forma, limpiar
y compartir conjuntos de datos diversos y desordenados para acelerar la utilidad de los
datos para el análisis.
  
 Calidad de los datos: productos que realizan limpieza y enriquecimiento de datos en
grandes conjuntos de datos de alta velocidad, utilizando operaciones paralelas en
almacenes de datos distribuidos y bases de datos.

5. ¿Quién la utiliza?
 Las empresas emplean la información que extraen de los datos procesados con fines
comerciales, pero también se pueden utilizar para alcanzar otros objetivos. Por ejemplo, para
ganar unas elecciones. El Big Data permite, entre otras cosas, conocer cuáles son las
preocupaciones de los indecisos, de modo que puedas darles respuesta durante la
campaña electoral.
 El Big Data se puede utilizar prácticamente en cualquier campo, además de con fines
comerciales y electorales. Por ejemplo, su uso se ha aplicado en la industria sanitaria. La
información sobre los pacientes permite hacer diagnósticos más acertados y aplicar
tratamientos más certeros.
 También se emplea para ajustar la producción: si conoces cómo se van a comportar
tus clientes, puedes hacer predicciones de venta y ajustar la producción en las fábricas,
para que no haya producto sobrante. De igual modo, permite que la compra de materia
prima a los posibles proveedores sea mucho más ajustada. Ambos reducen los costes
generales de las empresas productoras.
 En publicidad, como en una campaña electoral, la inteligencia de datos permite saber
quiénes son tus clientes potenciales, conocer qué les gusta, cuáles son sus dudas y cómo
llegar a ellos. Por ejemplo, ¿a través de redes sociales? Si es así, ¿de qué redes sociales?
¿A través del móvil, de la tablet o del ordenador?

También podría gustarte