Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Big Data 5

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 29

BIG DATA

NOMBRE COMPLETO: GILIAN CARILLO SANGUINO

MARY DAYSI GRAJEDA ANTEZANA

CARRERA: INGENIERÍA COMERCIAL

SEMESTRE: 4TO SEMESTRE

MATERIA: GESTION DE PRODUCCION

DOCENTE: MERIDA RODRIGO HERBET

FECHA DE ENTREGA: 19/10/2023

COCHABAMBA – BOLIVIA
1. ¿Qué es Big Data?
Cuando hablamos de Big Data nos referimos a conjuntos de
datos o combinaciones de conjuntos de datos cuyo tamaño
(volumen), complejidad (variabilidad) y velocidad de crecimiento
(velocidad) dificultan su captura, gestión, procesamiento o
análisis mediante tecnologías y herramientas convencionales,
tales como bases de datos relacionales y estadísticas
convencionales o paquetes de visualización, dentro del tiempo
necesario para que sean útiles.
Aunque el tamaño utilizado para determinar si un conjunto de
datos determinado se considera Big Data no está firmemente
definido y sigue cambiando con el tiempo, la mayoría de los
analistas y profesionales actualmente se refieren a conjuntos de
datos que van desde 30-50 Terabytes a varios Petabytes.
La naturaleza compleja del Big Data se debe principalmente a la
naturaleza no estructurada de gran parte de los datos generados
por las tecnologías modernas, como los web logs, la
identificación por radiofrecuencia (RFID), los sensores
incorporados en dispositivos, la maquinaria, los vehículos, las
búsquedas en Internet, las redes sociales como Facebook,
computadoras portátiles, teléfonos inteligentes y otros teléfonos
móviles, dispositivos GPS y registros de centros de llamadas.
En la mayoría de los casos, con el fin de utilizar eficazmente el
Big Data, debe combinarse con datos estructurados
(normalmente de una base de datos relacional) de una aplicación
comercial más convencional, como un ERP (Enterprise Resource
Planning) o un CRM (Customer Relationship Management).
https://www.powerdata.es/big-data
OBJETIVO GENERAL
SEGÚN AUTOR:
Fabián García Nocetti
Analizar millones de millones de datos y orientar con ellos la
toma humana de decisiones acerca de grandes problemas
transversales, son los principales objetivos del Big data, una
herramienta tecnológica en pleno desarrollo gracias a su sólido
fundamento científico. “Big data involucra cómputo de alto
rendimiento, grandes volúmenes de información del orden de los
petabytes y gigantescas bases de datos que no se pueden
manejar de manera convencional.
Utiliza métodos de inteligencia artificial y supercomputadoras
para manejar esos volúmenes”, explicó Demetrio Fabián García
Nocetti, del Instituto de Investigaciones en Matemáticas
Aplicadas y en Sistemas (IIMAS) de la UNAM. La urdimbre del Big
data, resumió, son las matemáticas, la estadística y las ciencias
de la computación.
En la era de la información, caracterizada por la generación de
crecientes cantidades de datos en Internet, redes sociales y
telefonía celular, entre otras fuentes, la ciencia requiere cubrir
necesidades que rebasan a las tecnologías existentes, dijo.
Volumen, velocidad, variedad y valor.
Para almacenar grandes cantidades de datos, del orden de los
petabytes (unidad de almacenamiento de información que
equivale a mil millones de millones de bytes, o a un 10 seguido
de 15 ceros), el Big data considera los datos por su volumen
(tamaño de los mismos, provenientes de diversas fuentes),
velocidad (rapidez con que llegan, utilizando diferentes unidades
de almacenamiento) y variedad (si son datos estructurados o no,
y si se trata de textos, imágenes o sonidos).
Se pueden tener muchos datos almacenados y gestionados de
diversas formas, pero lo importante es encontrar su valor.
http://www.dgcs.unam.mx/boletin/bdboletin/2018_544.html
Las 7 V
Volumen de información
El volumen se refiere a la cantidad de datos que son generados
cada segundo, minuto y días en nuestro entorno. Es la
característica más asociada al Big Data, ya que hace referencia a
las cantidades masivas de datos que se almacenan con la
finalidad de procesar dicha información, transformando los datos
en acciones.
Cada vez estamos más conectados al mundo 2.0 por lo que
generamos más y más datos. Para algunas empresas, el estar en
el mundo digital es algo obligatorio, por lo que la cantidad de
datos generados es aún mayor. Por ejemplo, una empresa que
vende sus productos únicamente a través de un canal online, le
convendría implantar tecnología Big Data para procesar toda
aquella información que recoge su página web rastreando todas
las acciones que lleva a cabo el cliente; conocer donde cliquea
más veces, cuántas veces ha pasado por el carrito de la compra,
cuáles son los productos más vistos, las páginas más visitadas,
etc.
Velocidad de los datos
La velocidad se refiere a los datos en movimiento por las
constantes interconexiones que realizamos, es decir, a la rapidez
en la que son creados, almacenados y procesados en tiempo
real.
Para los procesos en los que el tiempo resulta fundamental, tales
como la detección de fraude en una transacción bancaria o la
monitorización de un evento en redes sociales, estos tipos de
datos deben estudiarse en tiempo real para que resulten útiles
para el negocio y se consigan conclusiones efectivas.

Variedad de los datos


La variedad se refiere a las formas, tipos y fuentes en las que se
registran los datos. Estos datos pueden ser datos estructurados y
fáciles de gestionar como son las bases de datos, o datos no
estructurados, entre los que se incluyen documentos de texto,
correos electrónicos, datos de sensores, audios, vídeos o
imágenes que tenemos en nuestro dispositivo móvil, hasta
publicaciones en nuestros perfiles de redes sociales, artículos
que leemos en blogs, las secuencias de click que hacemos en una
misma página, formularios de registro e infinidad de acciones
más que realizamos desde nuestro Smartphone, Tablet y
ordenador.
Estos últimos datos requieren de una herramienta específica,
debido a que el tratamiento de la información es totalmente
diferente con respecto a los datos estructurados. Para ello, las
empresas necesitan integrar, observar y procesar datos que son
recogidos a través de múltiples fuentes de información con
herramientas cualificadas.
Veracidad de los datos
Cuando hablamos de veracidad nos referimos a la incertidumbre
de los datos, es decir, al grado de fiabilidad de la información
recibida.
Es necesario invertir tiempo para conseguir datos de calidad,
aplicando soluciones y métodos que puedan eliminar datos
imprevisibles que puedan surgir como datos económicos,
comportamientos de los consumidores que puedan influir en las
decisiones de compra.
La necesidad de explorar y planificar la incertidumbre es un reto
para el Big Data que está a la orden del día en las compañías
dedicadas al análisis de datos.

Viabilidad
La inteligencia empresarial es un componente fundamental para
la viabilidad de un proyecto y el éxito empresarial. Se trata de la
capacidad que tienen las compañías en generar un uso eficaz del
gran volumen de datos que manejan.
La inteligencia competitiva también se asocia con la innovación
de los equipos de trabajo y el uso de tecnologías empleadas. Una
empresa inteligente analiza, selecciona y monitoriza la
información con el fin de conocer mejor el mercado en el que
opera, a sus clientes y diseñar estrategias eficaces.
Es necesario filtrar a través de esta información y seleccionar
cuidadosamente los atributos y factores que son capaces de
predecir los resultados que más interesan a las empresas. El
secreto del éxito es descubrir las relaciones entre las variables
ocultas.
Una vez que conoces la viabilidad de tu organización, es el
momento de detallar el proyecto en una hoja de ruta, y
desarrollar el plan de negocio.
Visualización de los datos
Cuando hablamos de visualización nos referimos al modo en el
que los datos son presentados. Una vez que los datos son
procesados (los datos están en tablas y hojas de cálculo),
necesitamos representarlos visualmente de manera que sean
legibles y accesibles, para encontrar patrones y claves ocultas en
el tema a investigar. Para que los datos sean comprendidos
existen herramientas de visualización que te ayudarán a
comprender los datos gráficamente y en perspectiva contextual.

Valor de los datos


El dato no es valor. Tampoco tienes valor por el mero hecho de
recopilar gran cantidad de información. El valor se obtiene de
datos que se transforman en información; esta a su vez se
convierte en conocimiento, y este en acción o en decisión. El
valor de los datos está en que sean accionables, es decir, que los
responsable de la empresas puedan tomar una decisión (la mejor
decisión) en base a estos datos.
No todos los datos de los que partimos se convierten en acción o
decisión. Para ello, es necesario tener tecnologías aplicadas. Por
ejemplo, una publicación en una red social, que gracias al uso de
tecnologías de procesamiento de lenguaje natural, puede medir
el sentimiento positivo o negativo, con la ayuda de un algoritmo
de análisis de redes sociales o herramientas que permitan
obtener de esto información.

En definitiva, el Big Data es una combinación de estas siete


características donde las empresas pueden obtener una ventaja
competitiva frente a sus competidores contribuyendo al éxito
asegurado con las tres últimas V de viabilidad, visualización y la
más importante, la de valor.
No todas las compañías optaran por la misma metodología con
respecto al desarrollo y la creación de sus capacidades con
tecnologías Big Data. Sin embargo, en todos los sectores existe la
posibilidad de recurrir a estas nuevas tecnologías y analíticas
para mejorar la toma de decisiones y el rendimiento, tanto a
nivel interno como en el mercado.
https://www.iic.uam.es/innovacion/big-data-caracteristicas-mas-
importantes-7-v/
JUSTIFICACIÓN:
Teoría;
La justificación teoría propone que Big Data es el gran conjunto
de datos estructurados y no estructurados que cada año
aumenta su tamaño y que puede originarse a través de
diferentes fuentes como: redes sociales, consultas en motores de
búsqueda, correos, Información propia de las empresas, entre
otros. En la actualidad, las empresas acumulan cada vez más y
más de estos datos; sin embargo, no cuentan con las
herramientas, experiencia y conocimientos necesarios para
aprovecharla y generar ganancias.
Desde un plano teórico, esta investigación será capaz de
optimizar el desarrollo de un algoritmo de procesamiento de
BigData a través de la herramienta MapReduce. Se estima, en
teoría, que el desarrollo de un algoritmo bajo este paradigma
presentará una mejora considerable en el tiempo de respuesta
promedio por herramientas de procesamiento y en términos más
generales habrá un incremento en la efectividad a la hora de
realizar tareas de alta exigencia en materia de procesamiento de
datos. La realidad práctica de esta investigación propone
aspectos de suma importancia relacionados a la optimización del
funcionamiento práctico de los algoritmos de procesamiento,
aunado al perfeccionamiento de los procesos de análisis
orientados a la marcación de tendencias para marketing. Se hará
uso de distintas estrategias lógicas para el desarrollo práctico de
un algoritmo con una estructura moldeada por MapReduce y a
su vez, se comprobará la utilidad que presentan este tipo de
herramientas dentro de los análisis de mercado y el impacto que
se ha generado desde que fueron concebidas y utilizadas por
primera vez por el campo de la informática. No obstante, la
información provista por este proyecto puede presentarse útil
para toda una variedad de campos como: turismo, empresas de
manufactura, cuidado de la salud, publicidad,” retailers” (o
minoristas); todo gracias a su versatilidad en ofrecerles puntos
de referencia a las empresas con los que ellas puedan realizar
movimientos y eliminar áreas problemáticas de manera más
eficiente al aprovechar sus grandes fluctuaciones de datos
disponibles.
La justificación metodológica de este proyecto presentará el uso
del método científico para su investigación. Una vez demostrada
su veracidad, podrá ser utilizado para otros trabajos de
investigación y otros proyectos parecidos.
Los resultados de este proyecto darán validez al uso del
paradigma MapReduce para el análisis de Big Data en el ámbito
informático mediante este algoritmo creado para fines antes
pautados en la justificación Práctica y dando más oportunidades
para Algoritmos creados usando Big Data.

https://virtual.urbe.edu/tesispub/0109029/cap01.
Social;
El análisis de Big Data ayuda a las organizaciones a aprovechar
sus datos y utilizarlos para identificar nuevas oportunidades.
Eso, a su vez, conduce a movimientos de negocios más
inteligentes, operaciones más eficientes, mayores ganancias y
clientes más felices. Las empresas con más éxito con Big Data
consiguen valor de las siguientes formas:
 Reducción de coste. Las grandes tecnologías de datos,
como Hadoop y el análisis basado en la nube, aportan
importantes ventajas en términos de costes cuando se
trata de almacenar grandes cantidades de datos, además
de identificar maneras más eficientes de hacer negocios.

 Más rápido, mejor toma de decisiones. Con la velocidad


de Hadoop y la analítica en memoria, combinada con la
capacidad de analizar nuevas fuentes de datos, las
empresas pueden analizar la información inmediatamente
y tomar decisiones basadas en lo que han aprendido.

 Nuevos productos y servicios. Con la capacidad de medir


las necesidades de los clientes y la satisfacción a través de
análisis viene el poder de dar a los clientes lo que quieren.
Con la analítica de Big Data, más empresas están creando
nuevos productos para satisfacer las necesidades de los
clientes.
Por ejemplo:
 Turismo: Mantener felices a los clientes es clave para la
industria del turismo, pero la satisfacción del cliente puede
ser difícil de medir, especialmente en el momento
oportuno. Resorts y casinos, por ejemplo, sólo tienen una
pequeña oportunidad de dar la vuelta a una mala
experiencia de cliente. El análisis de Big data ofrece a estas
empresas la capacidad de recopilar datos de los clientes,
aplicar análisis e identificar inmediatamente posibles
problemas antes de que sea demasiado tarde.

 Cuidado de la salud: El Big Data aparece en grandes


cantidades en la industria sanitaria. Los registros de
pacientes, planes de salud, información de seguros y otros
tipos de información pueden ser difíciles de manejar, pero
están llenos de información clave una vez que se aplican las
analíticas. Es por eso que la tecnología de análisis de datos
es tan importante para el cuidado de la salud. Al analizar
grandes cantidades de información - tanto estructurada
como no estructurada - rápidamente, se pueden
proporcionar diagnósticos u opciones de tratamiento casi
de inmediato.

 Administración: La administración se encuentra ante un


gran desafío: mantener la calidad y la productividad con
unos presupuestos ajustados. Esto es particularmente
problemático con lo relacionado con la justicia. La
tecnología agiliza las operaciones mientras que da a la
administración una visión más holística de la actividad.

 Retail: El servicio al cliente ha evolucionado en los últimos


años, ya que los compradores más inteligentes esperan que
los minoristas comprendan exactamente lo que necesitan,
cuando lo necesitan. El Big Data ayuda a los minoristas a
satisfacer esas demandas. Armados con cantidades
interminables de datos de programas de fidelización de
clientes, hábitos de compra y otras fuentes, los minoristas
no sólo tienen una comprensión profunda de sus clientes,
sino que también pueden predecir tendencias, recomendar
nuevos productos y aumentar la rentabilidad.

 Empresas manufactureras: Estas despliegan sensores en


sus productos para recibir datos de telemetría. A veces esto
se utiliza para ofrecer servicios de comunicaciones,
seguridad y navegación. Ésta telemetría también revela
patrones de uso, tasas de fracaso y otras oportunidades de
mejora de productos que pueden reducir los costos de
desarrollo y montaje.

 Publicidad: La proliferación de teléfonos inteligentes y


otros dispositivos GPS ofrece a los anunciantes la
oportunidad de dirigirse a los consumidores cuando están
cerca de una tienda, una cafetería o un restaurante. Esto
abre nuevos ingresos para los proveedores de servicios y
ofrece a muchas empresas la oportunidad de conseguir
nuevos prospectos.

 Otros ejemplos del uso efectivo de Big Data existen en las


siguientes áreas:

o Uso de registros de logs de TI para mejorar la


resolución de problemas de TI, así como la detección
de infracciones de seguridad, velocidad, eficacia y
prevención de sucesos futuros.
o Uso de la voluminosa información histórica de un Call
Center de forma rápida, con el fin de mejorar la
interacción con el cliente y aumentar su satisfacción.
o Uso de contenido de medios sociales para mejorar y
comprender más rápidamente el sentimiento del
cliente y mejorar los productos, los servicios y la
interacción con el cliente.
o Detección y prevención de fraudes en cualquier
industria que procese transacciones financieras
online, tales como compras, actividades bancarias,
inversiones, seguros y atención médica.
o Uso de información de transacciones de mercados
financieros para evaluar más rápidamente el riesgo y
tomar medidas correctivas.
Económico;
Optimización de costos: El Big Data permite a las organizaciones
recopilar, almacenar y analizar grandes cantidades de datos de
manera más eficiente y a menudo a menor costo que las
soluciones tradicionales. Esto puede reducir los gastos
operativos y mejorar la eficiencia en diferentes áreas de negocio.
Toma de decisiones basada en datos:
Al analizar grandes volúmenes de datos, las empresas pueden
tomar decisiones más informadas. Esto reduce el riesgo de tomar
decisiones costosas basadas en suposiciones o intuición, lo que a
menudo resulta en una mejor gestión de recursos y una mayor
rentabilidad.
Mejora de la eficiencia operativa:
El Big Data puede ayudar a identificar ineficiencias en los
procesos empresariales, lo que conduce a una mayor eficiencia.
Esto puede incluir la optimización de cadenas de suministro,
programación de producción, gestión de inventarios, entre otros,
lo que ahorra costos y aumenta la productividad.
Segmentación y personalización:
El Big Data permite a las empresas comprender mejor a sus
clientes. Al segmentar a los clientes en grupos específicos según
sus preferencias y comportamientos, las empresas pueden
ofrecer productos y servicios más personalizados. Esto puede
aumentar la retención de clientes y las ventas, lo que tiene un
impacto directo en la economía de la empresa.
Detección de fraudes y riesgos:
En sectores como la banca y los seguros, el Big Data se utiliza
para detectar patrones de fraude y riesgo. Esto ayuda a las
empresas a reducir pérdidas financieras y a mantener bajos los
costos relacionados con actividades fraudulentas.
Innovación y desarrollo de nuevos productos:
El análisis de datos masivos puede proporcionar información
valiosa sobre las tendencias del mercado y las necesidades de los
clientes. Esto puede impulsar la innovación y el desarrollo de
nuevos productos y servicios, lo que a su vez puede generar
nuevas fuentes de ingresos.
Competitividad:
En un entorno empresarial altamente competitivo, el Big Data
puede proporcionar una ventaja estratégica. Las empresas que
utilizan datos para tomar decisiones más inteligentes tienen más
probabilidades de sobrevivir y prosperar en el mercado.
Mejora de la calidad de productos y servicios:
Al recopilar y analizar datos de retroalimentación de clientes y
datos de calidad de productos, las empresas pueden mejorar la
calidad de lo que ofrecen. Esto puede llevar a una mayor
satisfacción del cliente y ahorros relacionados con la garantía y
devoluciones de productos defectuosos.
Predicciones y planificación a largo plazo:
El Big Data permite a las organizaciones realizar análisis
predictivos que ayudan en la planificación a largo plazo. Esto
puede incluir la gestión de la fuerza laboral, la expansión de la
infraestructura y la toma de decisiones estratégicas que
impactan en la economía de la empresa.
https://chat.openai.com/c/a77297ee-d989-4e35-9288-
88fea64e4b0b

Las fases de Big Data y el ciclo de vida de los datos


Las fases de Big Data se describen a menudo como un ciclo
de vida. Y es que todo lo aprendido en un proyecto, los
conocimientos extraídos del análisis de datos, generalmente
sirven para el siguiente trabajo. De esta forma, la última de
las fases de Big Data retroalimenta a la primera.

Pero, ¿cuáles son las fases de Big Data? Si quieres saberlo,


quédate con nosotros y ¡descúbrelo!

Generación
Obviamente, lo primero que tiene que pasar para que
comience el ciclo de vida del Big Data es la generación de los
datos.

Esto se produce de forma inconsciente. Tanto los individuos


como las empresas y los gobiernos generan datos de forma
constante. Cada interacción en Internet, cada compra, cada
venta, todo deja un rastro de datos.

Aquí es donde da comienzo la magia del Big Data. Con la


debida atención y tratamiento, estos datos pueden generar
información muy valiosa para quien sepa usarla e
interpretarla.

Recopilación
No todos los datos valen para su posterior análisis en Big
Data. Por ese motivo, no se recopilan ni utilizan todos los
datos que se generan todos los días.

Depende de los especialistas en Big Data identificar que


información se debe capturar y cuáles son los mejores
medios para hacerlo. Existen formas de hacer esta
recopilación:
 Formularios: Los formularios en los que se introducen
datos relevantes son una buena fuente de información
para el Big Data.
 Encuestas: las encuestas pueden ser una forma eficaz
de recopilar una gran cantidad de información de un
gran número de personas.
 Entrevistas: Las entrevistas ofrecen oportunidades para
recopilar datos cualitativos y subjetivos que pueden ser
difíciles de capturar por otros medios.
 Observación directa: observar y monitorizar como se
comportan las personas cuando interactúan con una
web o una aplicación es otra de las formas de recopilar
datos.
Como puedes ver, esta es una de las fases de Big Data más
importantes. EN ella se hace el primer cribado de la
información que va a ser necesaria.

Procesamiento
Una vez que se han recopilado los datos, se deben procesar.
El procesamiento en Big Data se lleva a cabo de la siguiente
manera:

 Disputa de datos: En este caso se limpia el conjunto de


datos y se transforma de a algo más accesible y
utilizable.
 Compresión de datos: En este momento, en esta de las
fases de Big Data, los datos se transforman a un
formato que se puede almacenar de manera más
eficiente.
 Cifrado de datos: En es te punto, los datos se traducen
a otro código para poder protegerlos de problemas de
privacidad.
Almacenamiento
Otra de las fases de Big Data más importantes es el
almacenamiento de los datos previamente recopilados y
procesados.

Lo más habitual en Big Data es crear bases de datos o


conjuntos de datos. Después se almacenan en la nube o en
servidores de almacenamiento físico. Esto depende da cada
empresa y organización.

Lo importante en esta fase es establecer protocolos de


seguridad y hacer copias de seguridad de todos los datos que
se vayan a almacenar. Se trata de una medida preventiva en
caso de que la fuente original se corrompe o se ve
comprometida.

Gestión
Una vez almacenados los datos, llegamos a la gestión de los
mismos para Big Data. ¿Qué implica esto? Pues
básicamente, la gestión de las bases de datos o los
conjuntos de datos previamente almacenados.

Esto supone que los profesionales del Big Data deben


organizar, almacenar y recuperar datos según sea necesario
durante todo el ciclo de un proyecto de datos.

Se trata, por tanto, de un proceso continuo. Un proceso que


tiene lugar desde el principio hasta el final del proyecto. Es,
en conclusión, una de las fases de Big Data que se intercalan
con el resto.
Análisis
Esta es la fase de Big Data clave. Una vez procesados,
almacenados y hecha la gestión de las bases de datos, llega el
momento de analizarlos.

No obstante, el análisis de Big Data se puede hacer sobre


datos no procesados. Para ello, los analistas
emplean diferentes herramientas y estrategias como, por
ejemplo:

 Modelado estadístico
 Algoritmos
 Inteligencia artificial
 Minería de datos
 Aprendizaje automático.
Cada una de estas estrategias es válida para un tipo de
desafío específico. Algo que aprenderás si te decides a
especializarte como analista de Big Data.

Visualización
Una vez analizados los datos, otra de las fases de Big
Data es la visualización de los mismos.

Esta fase se refiere al proceso de creación de


representaciones gráficas de información, generalmente
mediante el uso de una o más herramientas de visualización.

Gracias a esto, la posterior interpretación del análisis Big


Data es más sencillo. Y es que, la visualización facilita la
comunicación rápida de su análisis a una audiencia más
amplia.
Interpretación
Y llegamos a la última de las fases de Big Data. Aunque,
como te decíamos al comienzo, se trata de un ciclo de vida
continuo que hace que los distintos proyectos de Big Data se
retroalimenten entre ellos.

El proceso de interpretación puede incluir una descripción o


explicación de lo que muestran los datos.

Además, en esta parte del análisis Big Data también se hace


algo todavía más importante cuáles pueden ser las
implicaciones de los datos analizados.
Marco Teórico

¿Qué es Big Data?


El big data y su análisis son el centro de la ciencia moderna y de
negocios. Los datos actualmente se consiguen de diversas formas
tales como transacciones en línea, correos electrónicos, videos,
audios, imágenes, secuencias de clics, registros, publicaciones,
consultas de búsqueda, registros de salud, interacciones de
redes sociales, datos científicos, sensores y teléfonos móviles y
sus aplicaciones [23]. Estos se almacenan en bases de datos que
crecen masivamente y se vuelven difíciles de capturar, formar,
almacenar, administrar, compartir, analizar y visualizar a través
de herramientas de software de base de datos típicas.
El valor del Big Data
Tal como se vio en la Sección big data tiene una gran incidencia
en el área del marketing a través de la atención casi
personalizada hacia el cliente. Uno de los ejemplos que ya es
familiar en productos que funcionan base a internet, son los
motores de recomendaciones.
Estos usan patrones y las características de los productos para
enriquecer la experiencia de los usuarios. La tienda online
Amazon usa como estrategia principal de marketing este
servicio, donde ofrece ciertas recomendaciones según el historial
de compra.
En Chile tiendas de retail como Falabella, Paris y Ripley ya han
empezado a usar esta estrategia. Similarmente Netflix usa estos
motores de recomendaciones para ofrecer un catálogo de
películas a gustos del consumidor. Las grandes marcas usan una
técnica llamada Sentiment analysis, que consiste en un proceso
de identificación y categorización computacional de las palabras
empleadas en texto de opiniones como publicaciones y Twitter.
Bajo este sistema, permiten dilucidar la opinión general del
texto, teniendo como output si la satisfacción hacia el producto
ha sido positiva, negativa o neutra. Los teléfonos móviles no
están exentos de estas tecnología. Las marcas aprovechan de
usar los sensores integrados a este, como el GPS y obtienen la
localización exacta en tiempo real.
Basado en esto ofrecen anuncios y ofertas a los usuarios que
estén dentro de un radio cercano. Las empresas de seguros en
Chile están empezando a tomar conciencia de cómo podría
afectar el big data en sus negocios. Se espera que el 60 % de la
compañías van a integrar tecnologías de información y de
operación para el año 2018. Esto no quiere decir que sólo se
modernicen las herramientas para mejorar procesos internos, si
no de captar el potencial que el análisis de datos tiene en un
negocio basado en la evaluación de los riesgos.
Estos grandes avances provocarán una auténtica revolución, al
permitir un mayor conocimiento del cliente y de su
comportamiento, facilitando el estudio de la previsión de los
riesgos y el análisis de probabilidades de ocurrencia de
siniestros.
Herramienta de análisis para Big Data
Cuando se habla de las herramientas que se usan para tratar big
data, se hace referencia al campo de ingeniería de computación-
industrial; Data Science. Resulta difícil de separar las
metodologías existentes en este campo, tales como Data Mining,
Artificial Intelligence, Machine Learning o Deep Learning. Existe
una superposición considerable de los conceptos y técnicas
usadas en cada una de estas ramas.
Inteligencia Artificial
Es el estudio del diseño de agentes inteligentes. Teniendo en
cuenta que un agente puede ser cualquier cosa que se relacione
con su entorno, para que este se considere inteligente se debe
cumplir que sus acciones sean motivadas y apropiadas a sus
objetivos, sea flexible a cambios en el entorno y sus metas, y que
tome decisiones correctas dadas limitaciones perceptivas
(inputs) teniendo en cuenta su computación finita. Esta
definición cabe dentro de la categoría del pensamiento racional.
Cartas de control
Big data a menudo toma la forma de flujo de datos longitudinal,
o sea observaciones de ciertos procesos coleccionados
secuencialmente a través del tiempo (conservando el mismo
sujeto o característica de medición). e.g la medición del peso de
un objeto en una línea de producción, secuencia de imágenes
satelitales y datos del clima. Uno de los muchos propósitos de
coleccionar y analizar Big data puede ser el monitoreo del
performance longitudinal de algún proceso. A este fin, el proceso
de control estadístico (SPC) puede ser una herramienta muy útil.
Machine Learning
Dicho esto en palabras más simple, si un software (Agente
inteligente) mejora a través de la experiencia, se puede decir que
ha aprendido. Machine Learning puede ser solución para una
gran cartera de problemas en el sector de los negocios, desde
detección de fraude, targeting de consumidores y
recomendación de productos hasta monitoreo en tiempo-real de
la industria, diagnósticos médicos, y análisis de texto. Puede
tomar problemas que no pueden ser solucionados manualmente
por la inconmensurable cantidad de datos a analizar.
Big Data en la Industria
Big Data and Predective Analysis (BDPA) Se está usando para
crear ventajas en el mercado sobre empresas del mismo rubro
que no aprovechen este avance [2]. Por lo que pasó de ser una
opción a una necesidad donde crea nuevas capacidades
estratégicas y mejora los procesos de negocios de las
organizaciones.
Las formas en que se avanza se observan en la creación de
productos de la siguiente generación, trasparencia de
información y Business Inteligence entre otras. Estas iniciativas
también están marcando una fuerte tendencia en SCM (Cadena
de suministros). No sólo se traducen en beneficiar los costos
para SCM, si no que que abarca la creación de nuevas
estrategias.
Por lo tanto el objetivo de esta innovación en SCM es la mejora
del resultado final triple, esto quiere decir sustentabilidad en lo
social, financiero y las mediciones del rendimiento del entorno.
Estas mejoras se deben aplicar en todas las áreas de la
organización para obtener una ventaja en cuanto a la analítica de
datos . Lamentablemente no se ha hallado aún una forma de
conectar la evidencia de que los conceptos de sustentabilidad en
SCM y BDPA estén relacionados directamente. Por lo que
investigadores han desarrollado una teoría de 8 puntos que
conecta estos conceptos, y se propone temas de investigación
para motivar.
Nuevo enfoque a la administración
La revolución que ha tenido la explosión del Big Data lo ha
llevado a ser mucho más poderoso que los estudios de analítica
del pasado. Un aumento en la precisión de medición conlleva a
una mejor administración de los recursos. Esta hace clara alusión
a la famosa frase de Deming y Trucker “No puedes administrar lo
que no mides”. Las intervenciones en las empresas son más
efectivas, y áreas donde prevalecía la intuición, se han visto
desplazada por un método más científico gracias a los datos,
información y el rigor de las predicciones echas por modelos.
Las primeras empresas que han nacido digitalmente, como
Netflix, Spotify y sobre todo Amazon son un claro ejemplo de que
un buen manejo de sus bases de datos, ha contribuido a una
mejor administración. Estas empresas pueden cumplir metas que
ejecutivos de negocios no podrían imaginar años atrás.
Después de todo es bien sabido que los negocios online
compiten en que tan bien manejan sus datos . Inclusive Peter
Norvig, director de búsquedas de Google ha mencionado que la
razón de su éxito frente a otros motores de búsqueda no se debe
a la calidad de sus algoritmos, si no que ellos tienen mayor
cantidad de datos, y superan al mercado en las 3 V’s.
Uno de los objetivos de este estudio es aclarecer la importancia
que tiene la necesidad de transición de mentalidad en los
ejecutivos, ya que es una nueva forma de liderazgo. Usando Big
Data permite a los administradores decidir a través de la
evidencia sobre la intuición.
Big Data en Finanzas
La finanza cuantitativa es un área en la cual los datos son la
información vital que se procesa en todos los aspectos. Las
principales empresas y firmas financieras están adoptando
tecnologías Big Data avanzadas para obtener información
manejable de datos masivos de mercado, estandarizando datos
financieros de una variedad de fuentes, reduciendo el tiempo de
respuesta a flujos de datos en tiempo real, mejorando la
escalabilidad de algoritmos y gran cantidad de software de
tecnología de punta.
Hoy en día, estas importantes ganancias están impulsando a los
pioneros de los profesionales financieros a desarrollar y
desplegar soluciones de Big Data en productos financieros, que
van desde la negociación algorítmica de front-office hasta la
administración y análisis de datos de back-office.El análisis de Big
Data puede ayudar a revelar más oportunidades de mercado
ocultas mediante el análisis de datos estructurados de gran
volumen y noticias sociales, en contraste con los de bajo
desempeño que son incapaces de adoptar técnicas novedosas.
El concepto de “Big” en el contexto de la industria financiera es
diferente de lo que es en contextos científicos o minoristas. En
las empresas minoristas, por ejemplo, el análisis del perfil de los
clientes implica principalmente el análisis de datos no
estructurados de las fuentes de las redes sociales, tal como se
menciona en la sección de herramientas.
Sin embargo, los mercados financieros se ocupan principalmente
de datos estructurados recopilados de un conjunto limitado de
fuentes, como intercambios y proveedores de datos. Los desafíos
de los grandes datos en el contexto financiero generalmente se
refieren a proyectos que involucran múltiples factores, como
grandes volúmenes de datos complejos que deben tener
referencias cruzadas en un marco de tiempo específico.
Si bien esto no siempre es necesario los desafíos contemplado
también incluyen de identificación de clase heterogénea de
activos e información de riesgo, implementando complejas
agregaciones de datos para informes normativos ad hoc, análisis
de crédito, generación de señales de negociación o gestión de
riesgos para instancias, mientras se reducen las latencias de
agregación y aumento de datos.
Caso empresarial del big data
1. Recomendaciones personalizadas: Netflix es conocido por
su sistema de recomendaciones personalizadas. Utiliza
algoritmos de aprendizaje automático que analizan el
comportamiento de visualización de los usuarios, como las
películas y series que han visto y las calificaciones que han
dado. Con esta información, Netflix sugiere contenido
adicional que es relevante para cada usuario, lo que
aumenta la retención y el compromiso del cliente.
2. Producción de contenido original: Netflix utiliza el análisis
de datos para identificar tendencias y preferencias del
público. Esto influye en las decisiones sobre qué contenido
original producir. La empresa recopila información sobre
qué géneros, actores y tramas son populares, lo que les
permite tomar decisiones más informadas sobre qué series
y películas producir.
3. Optimización de la entrega de contenido: Para garantizar
una experiencia de transmisión fluida, Netflix utiliza datos
de rendimiento para determinar la mejor calidad de
transmisión que puede proporcionar a un usuario en
función de su conexión a Internet y dispositivo. Esto
asegura que los usuarios obtengan la mejor calidad posible
sin interrupciones.
4. Detección de fraude: Netflix utiliza el análisis de datos para
detectar actividades fraudulentas, como compartir cuentas
entre usuarios. Esto ayuda a proteger su modelo de
negocio y garantizar que los usuarios paguen por el servicio
que están utilizando.
5. Análisis de audiencia: Netflix analiza datos demográficos y
de comportamiento para comprender su audiencia y sus
preferencias. Esto se utiliza para tomar decisiones sobre
marketing, lanzamiento de contenido y estrategias de
expansión internacional.
6. Experimentos A/B: Netflix realiza constantemente pruebas
y experimentos A/B en su plataforma para evaluar el
impacto de cambios en la interfaz, las funciones y las
recomendaciones. Estos experimentos se basan en datos y
ayudan a optimizar la experiencia del usuario.
7. Personalización de portadas: Incluso la portada de una
película o serie en Netflix se personaliza en función de los
gustos del usuario. Esto puede influir en si un usuario hace
clic en un título específico y comienza a verlo.

También podría gustarte