Big Data 5
Big Data 5
Big Data 5
COCHABAMBA – BOLIVIA
1. ¿Qué es Big Data?
Cuando hablamos de Big Data nos referimos a conjuntos de
datos o combinaciones de conjuntos de datos cuyo tamaño
(volumen), complejidad (variabilidad) y velocidad de crecimiento
(velocidad) dificultan su captura, gestión, procesamiento o
análisis mediante tecnologías y herramientas convencionales,
tales como bases de datos relacionales y estadísticas
convencionales o paquetes de visualización, dentro del tiempo
necesario para que sean útiles.
Aunque el tamaño utilizado para determinar si un conjunto de
datos determinado se considera Big Data no está firmemente
definido y sigue cambiando con el tiempo, la mayoría de los
analistas y profesionales actualmente se refieren a conjuntos de
datos que van desde 30-50 Terabytes a varios Petabytes.
La naturaleza compleja del Big Data se debe principalmente a la
naturaleza no estructurada de gran parte de los datos generados
por las tecnologías modernas, como los web logs, la
identificación por radiofrecuencia (RFID), los sensores
incorporados en dispositivos, la maquinaria, los vehículos, las
búsquedas en Internet, las redes sociales como Facebook,
computadoras portátiles, teléfonos inteligentes y otros teléfonos
móviles, dispositivos GPS y registros de centros de llamadas.
En la mayoría de los casos, con el fin de utilizar eficazmente el
Big Data, debe combinarse con datos estructurados
(normalmente de una base de datos relacional) de una aplicación
comercial más convencional, como un ERP (Enterprise Resource
Planning) o un CRM (Customer Relationship Management).
https://www.powerdata.es/big-data
OBJETIVO GENERAL
SEGÚN AUTOR:
Fabián García Nocetti
Analizar millones de millones de datos y orientar con ellos la
toma humana de decisiones acerca de grandes problemas
transversales, son los principales objetivos del Big data, una
herramienta tecnológica en pleno desarrollo gracias a su sólido
fundamento científico. “Big data involucra cómputo de alto
rendimiento, grandes volúmenes de información del orden de los
petabytes y gigantescas bases de datos que no se pueden
manejar de manera convencional.
Utiliza métodos de inteligencia artificial y supercomputadoras
para manejar esos volúmenes”, explicó Demetrio Fabián García
Nocetti, del Instituto de Investigaciones en Matemáticas
Aplicadas y en Sistemas (IIMAS) de la UNAM. La urdimbre del Big
data, resumió, son las matemáticas, la estadística y las ciencias
de la computación.
En la era de la información, caracterizada por la generación de
crecientes cantidades de datos en Internet, redes sociales y
telefonía celular, entre otras fuentes, la ciencia requiere cubrir
necesidades que rebasan a las tecnologías existentes, dijo.
Volumen, velocidad, variedad y valor.
Para almacenar grandes cantidades de datos, del orden de los
petabytes (unidad de almacenamiento de información que
equivale a mil millones de millones de bytes, o a un 10 seguido
de 15 ceros), el Big data considera los datos por su volumen
(tamaño de los mismos, provenientes de diversas fuentes),
velocidad (rapidez con que llegan, utilizando diferentes unidades
de almacenamiento) y variedad (si son datos estructurados o no,
y si se trata de textos, imágenes o sonidos).
Se pueden tener muchos datos almacenados y gestionados de
diversas formas, pero lo importante es encontrar su valor.
http://www.dgcs.unam.mx/boletin/bdboletin/2018_544.html
Las 7 V
Volumen de información
El volumen se refiere a la cantidad de datos que son generados
cada segundo, minuto y días en nuestro entorno. Es la
característica más asociada al Big Data, ya que hace referencia a
las cantidades masivas de datos que se almacenan con la
finalidad de procesar dicha información, transformando los datos
en acciones.
Cada vez estamos más conectados al mundo 2.0 por lo que
generamos más y más datos. Para algunas empresas, el estar en
el mundo digital es algo obligatorio, por lo que la cantidad de
datos generados es aún mayor. Por ejemplo, una empresa que
vende sus productos únicamente a través de un canal online, le
convendría implantar tecnología Big Data para procesar toda
aquella información que recoge su página web rastreando todas
las acciones que lleva a cabo el cliente; conocer donde cliquea
más veces, cuántas veces ha pasado por el carrito de la compra,
cuáles son los productos más vistos, las páginas más visitadas,
etc.
Velocidad de los datos
La velocidad se refiere a los datos en movimiento por las
constantes interconexiones que realizamos, es decir, a la rapidez
en la que son creados, almacenados y procesados en tiempo
real.
Para los procesos en los que el tiempo resulta fundamental, tales
como la detección de fraude en una transacción bancaria o la
monitorización de un evento en redes sociales, estos tipos de
datos deben estudiarse en tiempo real para que resulten útiles
para el negocio y se consigan conclusiones efectivas.
Viabilidad
La inteligencia empresarial es un componente fundamental para
la viabilidad de un proyecto y el éxito empresarial. Se trata de la
capacidad que tienen las compañías en generar un uso eficaz del
gran volumen de datos que manejan.
La inteligencia competitiva también se asocia con la innovación
de los equipos de trabajo y el uso de tecnologías empleadas. Una
empresa inteligente analiza, selecciona y monitoriza la
información con el fin de conocer mejor el mercado en el que
opera, a sus clientes y diseñar estrategias eficaces.
Es necesario filtrar a través de esta información y seleccionar
cuidadosamente los atributos y factores que son capaces de
predecir los resultados que más interesan a las empresas. El
secreto del éxito es descubrir las relaciones entre las variables
ocultas.
Una vez que conoces la viabilidad de tu organización, es el
momento de detallar el proyecto en una hoja de ruta, y
desarrollar el plan de negocio.
Visualización de los datos
Cuando hablamos de visualización nos referimos al modo en el
que los datos son presentados. Una vez que los datos son
procesados (los datos están en tablas y hojas de cálculo),
necesitamos representarlos visualmente de manera que sean
legibles y accesibles, para encontrar patrones y claves ocultas en
el tema a investigar. Para que los datos sean comprendidos
existen herramientas de visualización que te ayudarán a
comprender los datos gráficamente y en perspectiva contextual.
https://virtual.urbe.edu/tesispub/0109029/cap01.
Social;
El análisis de Big Data ayuda a las organizaciones a aprovechar
sus datos y utilizarlos para identificar nuevas oportunidades.
Eso, a su vez, conduce a movimientos de negocios más
inteligentes, operaciones más eficientes, mayores ganancias y
clientes más felices. Las empresas con más éxito con Big Data
consiguen valor de las siguientes formas:
Reducción de coste. Las grandes tecnologías de datos,
como Hadoop y el análisis basado en la nube, aportan
importantes ventajas en términos de costes cuando se
trata de almacenar grandes cantidades de datos, además
de identificar maneras más eficientes de hacer negocios.
Generación
Obviamente, lo primero que tiene que pasar para que
comience el ciclo de vida del Big Data es la generación de los
datos.
Recopilación
No todos los datos valen para su posterior análisis en Big
Data. Por ese motivo, no se recopilan ni utilizan todos los
datos que se generan todos los días.
Procesamiento
Una vez que se han recopilado los datos, se deben procesar.
El procesamiento en Big Data se lleva a cabo de la siguiente
manera:
Gestión
Una vez almacenados los datos, llegamos a la gestión de los
mismos para Big Data. ¿Qué implica esto? Pues
básicamente, la gestión de las bases de datos o los
conjuntos de datos previamente almacenados.
Modelado estadístico
Algoritmos
Inteligencia artificial
Minería de datos
Aprendizaje automático.
Cada una de estas estrategias es válida para un tipo de
desafío específico. Algo que aprenderás si te decides a
especializarte como analista de Big Data.
Visualización
Una vez analizados los datos, otra de las fases de Big
Data es la visualización de los mismos.