Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Big Data

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 6

Diferencias entre Cloud vs On Premise

En el mundo de las soluciones para el trabajo de servidores, bases de datos y grandes volúmenes
de datos existen diferentes soluciones para cubrir las distintas necesidades de cada cliente, las
cuales pueden ser los servicios cloud y los on premise.

“¿En qué consiste el software en la nube?

Estas soluciones te permiten gestionar, almacenar y acceder a tus datos y aplicaciones a través de
internet de una manera rápida y eficiente. Esto elimina la necesidad de adquirir infraestructura
física localizado dentro del edificio.”

“¿Qué es el software on-premise?

A diferencia del software basado en la nube, el software on-premise está instalado en los
servidores y dispositivos locales de la empresa. Esto permite tener acceso físico a la información y
control directo de la configuración, manejo y seguridad de esos datos. El software on-premise no
depende directamente de una conexión de internet por lo que al haber una falla en los enlaces la
empresa podrá seguir operando.”

Algunas de las diferencias entre estos sistemas son los siguientes:

La forma de implementación. “La nube goza de una implementación rápida que puede llevarse a
cabo a través de Internet y en cuestión de horas mientras que las aplicaciones locales que deben
instalarse en un servidor físico y en cada PC o computadora “

La flexibilidad, “Esto debido a que no necesitamos contratar servidores muy robustos para
crecimiento en un futuro, la nube permite el crecer o decrecer servicio de una manera muy sencilla
Otra característica es decir adiós a los tediosos temas de instalación, licencias, soporte y
mantenimiento, de todo esto se encarga el proveedor de nube.”

La movilidad. “Una de las mayores ventajas de la nube es que ofrece acceso en cualquier lugar y
cualquier momento mientras que los sistemas on premise quedan alojados únicamente en los
equipos y servidores que se encuentran dentro de la empresa.”

¿Qué es el Cloud computing?

Podemos definirlo como “la práctica consistente en ofrecer servicios informáticos a distancia,
alojándolos en uno o más datacenters externos en lugar de en servidores dedicados «on-
premises». Así pues, en lugar de adquirir y desplegar los recursos digitales necesarios en sus
propias instalaciones, las empresas pueden acceder a ellos de forma remota a través de un
proveedor de cloud, con pago por consumo.”

En el mundo del cloud existen 3 tipos de servicios los cuales son:

“Infrastructure-as-a-Service (IaaS): Al automatizar los componentes de una infraestructura de


vanguardia, las empresas de todos los niveles pueden controlar mejor sus costes al tiempo que
disfrutan de una mayor escalabilidad y agilidad. Las empresas, al no tener que desplegar, gestionar
y realizar el mantenimiento de sus infraestructuras «on-premises», gozan de una mayor libertad
para innovar.”
Platform-as-a-Service (PaaS)

“Con el enfoque PaaS, los equipos pueden construir, testar, desplegar y gestionar sus propias
aplicaciones en una plataforma cloud diseñada para ayudar al usuario. La infraestructura
informática subyacente, como el hardware y el middleware, es gestionada por un proveedor de
cloud fiable. Los equipos informáticos internos no necesitan encargarse del mantenimiento de la
infraestructura, por lo que pueden centrarse en las necesidades de la empresa en materia de datos
y aplicaciones, favoreciendo así un crecimiento sostenido del negocio.”

Software-as-a-Service (SaaS)

Con el modelo SaaS, las plataformas de software se alojan externamente, en el cloud, y los
usuarios pueden acceder al software online, mediante una suscripción. De este modo, las
empresas no tienen obligación de adquirir, instalar y actualizar las principales plataformas de
software, mientras que los equipos en todo el mundo pueden acceder a sus herramientas clave.
Con SaaS, el usuario solo tiene que preocuparse por la gestión de sus propios datos en una
aplicación, ya que el proveedor externo se encarga de administrar el software en el cloud.”

Data Warehouse:
Existen centros de datos donde los diferentes proveedores de servicios de cloud
computing almacenan una gran cantidad de información y datos a estos lugares se les
conoce dentro de la industria como Data Warehouse. “Los datos de un data
warehouse deben almacenarse de forma segura, fiable, fácil de recuperar y fácil de
administrar.”
“¿Qué es un Data Warehouse?
Un data warehouse es un repositorio unificado para todos los datos que recogen los
diversos sistemas de una empresa. El repositorio puede ser físico o lógico y hace hincapié
en la captura de datos de diversas fuentes sobre todo para fines analíticos y de acceso.

Normalmente, un data warehouse se aloja en un servidor corporativo o cada vez más, en


la nube. Los datos de diferentes aplicaciones de procesamiento de transacciones Online
(OLTP) y otras fuentes se extraen selectivamente para su uso por aplicaciones analíticas y
de consultas por usuarios.”

BBVA 'Machine learning': ¿qué es y cómo funciona?


El machine learning esta presente en el dia a dia en nuestras vidas, ya sea en los
algoritmos de Spoitfy, Youtube, Netflix o en los asistentes virtuales.
“Aunque ahora esté de moda, gracias a su capacidad para derrotar a jugadores del Go o
resolver cubos de Rubik, su origen se remonta al siglo pasado. “La estadística es sin duda la
base fundamental del aprendizaje automático, que básicamente consiste en una serie de
algoritmos capaces de analizar grandes cantidades de datos para deducir cuál es el
resultado más óptimo para un determinado problema”
El modelo de machine funciona debido principalmente a tres principios los cuales son:
“El ‘aprendizaje por refuerzo’ se produce cuando una máquina aprende por medio de
prueba y error hasta alcanzar la mejor manera de completar una tarea dada.”
‘Aprendizaje supervisado’, se produce cuando se entrena a las máquinas con datos
etiquetados. Por ejemplo, fotos con descripciones de los elementos que aparecen en ellas.
El algoritmo que utiliza la máquina es capaz de seleccionar esas etiquetas en otras bases
de datos. Así, si se ha etiquetado un grupo de imágenes en las que se muestran perros, la
máquina puede identificar imágenes similares.
‘aprendizaje no supervisado’, las máquinas no identifican patrones en bases de datos
etiquetadas, sino que buscan similitudes. En este caso, los algoritmos no están
programados para detectar un tipo específico de datos, como ocurría con las imágenes de
perros, sino que buscan ejemplos que se parezcan y puedan agrupar. Entre sus diversas
aplicaciones está, por ejemplo, recomendar productos a clientes de un ‘e-commerce’
basándose en sus compras anteriores.”
Minería de datos. ¿Qué es y por qué es importante?
“La minería de datos es el proceso de hallar anomalías, patrones y correlaciones en
grandes conjuntos de datos para predecir resultados. Empleando una amplia variedad de
técnicas, puede utilizar esta información para incrementar sus ingresos, recortar costos,
mejorar sus relaciones con clientes, reducir riesgos y más.”
“El proceso de hurgar en los datos para descubrir conexiones ocultas y predecir
tendencias futuras tiene una larga historia. Conocido algunas veces como "descubrimiento
de conocimientos en bases de datos", el término "minería de datos" no se acuño sino
hasta la década de 1990. Pero su base comprende tres disciplinas científicas
entrelazadas: estadística (el estudio numérico de relaciones de datos), inteligencia
artificial (inteligencia similar a la humana exhibida por software y/o máquinas) y machine
learning (algoritmos que pueden aprender de datos para hacer predicciones). Lo que era
antiguo es nuevo otra vez, ya que la minería de datos continúa evolucionando para igualar
el ritmo del potencial sin límites del big data y poder de cómputo asequible.”
La minería de datos es importante debido a que cada dos años se duplican la cantidad de
datos disponibles en todo el ámbito informático y digital a lo cual se requiere una
estructura para el análisis de los mismos y así mejorar servicios, hacerlos más eficientes
así como entender estos datos y buscar evaluarlos y tomar las mejores decisiones.

¿Qué son los procesos ETL?


ETL por sus siglas en ingles “extract transform y load.” Es la capacidad de integrar datos
extrayéndolos de bases de datos, servidores, etc, transformándolos y cargandolos en algo
tangible y entendible para el análisis de estos.
En el proceso de extracción se realiza lo siguiente:
“Extraer los datos desde los sistemas de origen.
● Analizar los datos extraídos obteniendo un chequeo.
● Interpretar este chequeo para verificar que los datos extraídos cumplen la pauta o
estructura que se esperaba. Si no fuese así, los datos deberían ser rechazados.
● Convertir los datos a un formato preparado para iniciar el proceso de transformación”

Para que los datos que sean cargados primero deben ser transformados para eso se
deben analizar y asegurar que sean:

● Declarativas.
● Independientes.
● Claras.
● Inteligibles.
● Con una finalidad útil para el negocio”

Por último en el proceso de carga se obtienen los datos transformados para ingresarlos al
destino correspondientes. Existen dos tipos de carga los cuales son:

“Acumulación simple: esta manera de cargar los datos consiste en realizar un resumen de
todas las transacciones comprendidas en el período de tiempo seleccionado y transportar el
resultado como una única transacción hacia el data warehouse, almacenando un valor
calculado que consistirá típicamente en un sumatorio o un promedio de la magnitud
considerada. Es la forma más sencilla y común de llevar a cabo el proceso de carga.

Rolling: Se almacena información resumida a distintos niveles, correspondientes a distintas


agrupaciones de la unidad de tiempo o diferentes niveles jerárquicos en alguna o varias de
las dimensiones de la magnitud almacenada (por ejemplo, totales diarios, totales semanales,
totales mensuales, etc.).”

Gracias a los procesos ETL es posible que cualquier organización:

• Los cargue en otro lugar como una base de datos, un data mart o un data warehouse.

• Una vez alojados en destino, esos datos se analicen.

• O, cuando ya están cargados en su ubicación definitiva, se empleen en otro sistema


operacional, para apoyar un proceso de negocio.
¿Qué es un dato?

Un dato es una representación simbólica de un hecho, concepto o instrucción que puede ser
procesada por una computadora o por un ser humano. En términos más simples, un dato es
una unidad básica de información que puede ser utilizada para realizar cálculos, análisis y
toma de decisiones.

Los datos pueden ser numéricos, alfabéticos, alfanuméricos, sonidos, imágenes, videos,
entre otros formatos. Los datos se pueden recolectar a través de diversas fuentes, como
encuestas, experimentos, observaciones, mediciones, sensores, bases de datos, entre otros.

En la actualidad, los datos se han vuelto extremadamente valiosos en el mundo tecnológico,


ya que son utilizados en diversas aplicaciones y sistemas, como el aprendizaje automático,
la inteligencia artificial, la robótica, el análisis de negocios, entre otros. Para aprovechar al
máximo los datos, es necesario contar con herramientas y técnicas para recopilar,
almacenar, procesar y analizar los datos de manera eficiente y precisa.

¿Cómo construimos los datos?

La construcción de datos puede ser un proceso complejo y depende del tipo de dato. Sin
embargo, algunas formas comunes de construir datos se pueden forma de las siguientes
maneras.

Recopilación de información a través de encuestas, entrevistas, experimentos y mediciones.

Generación de datos a través de la observación de eventos naturales o la recopilación de


información de sensores y dispositivos electrónicos.

Creación de datos a partir de la extracción y transformación de datos existentes en


diferentes formatos, como archivos de texto, hojas de cálculo, bases de datos, entre otros.

“Los datos pueden ser estructurados o no estructurados.

Datos estructurados se representan idealmente mediante un campo fijo en un archivo o


registro, por ejemplo, el precio unitario, la fecha y el porcentaje de comisión dentro de las
bases de datos, los sistemas empresariales y los almacenes de datos.

Datos no estructurados no caben en el “cuadro pequeño y ordenado” o en el campo de


datos; los ejemplos comunes incluyen mensajes de correo electrónico, archivos de
procesamiento de textos, imágenes y archivos de audio o video.”

¿Qué importancia tiene la teoría en la construcción de los datos?

La teoría es fundamental en la construcción de datos porque proporciona un marco


conceptual y metodológico para la recopilación, análisis e interpretación de información.
La teoría también ayuda a los investigadores a formular preguntas y objetivos claros para su
investigación, lo que a su vez les permite construir datos más precisos y significativos.

¿Por qué son importantes las bases de datos?

Las bases de datos son importantes porque permiten el almacenamiento y la gestión


eficiente de grandes cantidades de datos, lo que permite el acceso rápido y fácil a la
información. Lo que es crucial para la toma de decisiones en tiempo real.

Gestión de datos centralizada: Las bases de datos permiten la gestión centralizada de los
datos, lo que facilita la tarea de mantener la integridad y coherencia de los datos.

Seguridad y privacidad de los datos: Las bases de datos permiten el control de acceso y la
encriptación de los datos, lo que ayuda a garantizar la seguridad y privacidad de la
información almacenada.

Generación de informes y análisis: Las bases de datos permiten la generación de informes y


análisis basados en los datos almacenados, lo que es útil para la toma de decisiones
empresariales y la planificación estratégica.

https://www.cesuma.mx/blog/que-es-la-informacion-en-informatica-y-otras-
ciencias.html
https://www.cavsi.com/espanol/blog/que-es-un-dato/
https://economipedia.com/definiciones/dato.html

También podría gustarte