Informe Tecnologías 4.0
Informe Tecnologías 4.0
Informe Tecnologías 4.0
Docente:
Juan Reyes
Alumnos:
Constanza Pastén, Antonella Cofré, Contanza Orrego
23/03/2024
Índice
Introducción........................................................................................................................... 3
Tecnologías 4.0.......................................................................................................................4
Robótica............................................................................................................................ 4
Ciberseguridad................................................................................................................. 4
Cloud Computing............................................................................................................. 6
Big Data y Análisis de Datos...........................................................................................7
Internet de las Cosas..................................................................................................... 10
Realidad Aumentada......................................................................................................12
Inteligencia Artificial y Machine Learning....................................................................13
Conclusión............................................................................................................................15
Bibliografía........................................................................................................................... 15
2
Introducción
Hoy en día nos encontramos en una fase de transformación sin precedentes iniciada
por la Cuarta Revolución Industrial. En el mundo digitalizado, somos testigos de una
convergencia de tecnologías innovadoras que están alterando la forma en que
vivimos, trabajamos e interactuamos. El informe profundizará en las tecnologías 4.0
que son la base de esta transformación, incluidas la robótica, la ciberseguridad, el
cloud computing, el big data y el análisis de datos, el internet de las cosas (IoT), la
realidad aumentada (RA), la inteligencia artificial (IA) y el machine learning.
El informe está estructurado en varias secciones que abarcan cada una de las
tecnologías 4.0 mencionadas. Comenzaremos por una introducción general a la
Cuarta Revolución Industrial, seguida de secciones dedicadas a la robótica,
ciberseguridad, cloud computing, big data y análisis de datos, IoT, AR, IA y ML.
Cada sección incluirá una descripción detallada de la tecnología, sus aplicaciones y
casos de uso destacados.
3
Tecnologías 4.0
Robótica
En el ámbito científico, la robótica se define como una disciplina que integra
diversas áreas tecnológicas con el propósito de crear máquinas programables
capaces de realizar tareas de forma autónoma o imitar el comportamiento humano y
animal. En esencia, un robot se asemeja a un ordenador con la capacidad de
moverse.
Ciberseguridad
La ciberseguridad, seguridad digital o seguridad de la tecnología de la información
es la práctica de proteger equipos, redes, aplicaciones de software, sistemas, datos
e información confidencial ante ataques digitales. Esto incluye también cuentas,
archivos, fotos e incluso el dinero.
4
El campo de la ciberseguridad comenzó a tomar forma en la década de 1970, a
medida que la informática y las redes computacionales se extendían. Fue en ese
mismo año que, como medida de protección para evitar que ciertos programas se
movieran a través de la primera red de computadoras (la red ARPANET), se
desarrollaron programas capaces de perseguir y eliminar este tipo de conductas. Así
se creó el primer sistema antivirus de malware y el primer sistema con la capacidad
de auto replicarse (y a partir de esto se crearon los primeros virus, gusanos y
troyanos informáticos). En 1987 comenzaron a aparecer los primeros programas
maliciosos comerciales, y es en esta época que John McAfee, pionero en la
creación de antivirus, fundó McAfee y lanzó el software VirusScan.
5
críticas y promover buenas prácticas en el ámbito digital. Y también la colaboración
Público-Privada, que se refiere a la colaboración entre el gobierno y las empresas
para enfrentar los desafíos de la ciberseguridad, fomentando la capacitación en
buenas prácticas de seguridad informática.
Cloud Computing
Las nubes de computadora comenzaron a formarse tan temprano como en la
década de 1960. El científico de la computación J.C.R. Licklider tenía una visión de
una población global interconectada que pudiera acceder a programas y datos
desde cualquier lugar, desde cualquier sitio.
6
Además, con una gestión mínima, todos los componentes de software en la nube
pueden ser escalados según sea necesario.
Amazon lanzó la primera nube comercial, llamada Elastic Compute Cloud (EC2), en
2006. Esto fue seguido de cerca en 2008 por Google, que introdujo modelos de
precios radicales con planes de entrada gratuitos y servicios de computación y
almacenamiento de bajo costo con su aplicación Google Apps.
Chile ya cuenta con el llamado “cable Curie”, una conexión submarina de 10,500
km, que la empresa instaló entre las costas de Valparaíso y California para optimizar
la latencia de sus productos y el funcionamiento de su nube pública.
Google fue también una de las primeras empresas en construir un data center en
Chile, con una infraestructura inaugurada en Quilicura el 2015. Posteriormente, en
2021, la compañía inauguró la Región Cloud de Santiago y a la vez, anunciaron su
intención de construir un nuevo data center en Cerrillos, con una inversión de 200
millones de dólares.(Entel 2023)
7
modelar conjuntos de datos para identificar patrones, tendencias y relaciones
significativas. Esto implica utilizar técnicas estadísticas y herramientas de
visualización para extraer información accionable y conocimientos que respalden la
toma de decisiones estratégicas y tácticas en una organización. El análisis de datos
puede realizarse tanto en conjuntos de datos pequeños como grandes, utilizando
diversas metodologías y enfoques según el contexto y los objetivos específicos del
análisis.
Aunque el término Big Data es relativamente reciente, sus raíces se remontan a las
décadas de 1960 y 1970, cuando surgieron los primeros centros de datos y las
bases de datos relacionales. Hacia el año 2005, la atención se centró en la
generación masiva de datos por parte de usuarios en plataformas como Facebook y
YouTube. Fue entonces cuando se desarrolló Hadoop, un marco de código abierto
diseñado específicamente para el almacenamiento y análisis de grandes conjuntos
de datos, junto con la creciente popularidad de NoSQL. Estos avances en marcos
de código abierto, como Hadoop y Spark, fueron cruciales para facilitar el uso y
reducir los costos del big data. Con la proliferación del Internet de las Cosas (IoT),
se sumaron más dispositivos conectados que generan datos sobre patrones de uso
y rendimiento de productos, mientras que el aprendizaje automático ha ampliado
aún más la generación de datos. A medida que el big data ha evolucionado, el
Cloud Computing ha ampliado sus capacidades, ofreciendo escalabilidad elástica y
facilitando el análisis de grandes volúmenes de datos a través de bases de datos de
gráficos.
Por otro lado, existen algunas diferencias entre el Big Data y el análisis de datos. Lo
cual radica en la escala y complejidad de los conjuntos de datos que manejan, así
como sus objetivos: El big data se refiere a grandes volúmenes de datos, tanto
estructurados como no estructurados, que requieren tecnologías avanzadas para su
almacenamiento y análisis. Su objetivo principal es extraer insights valiosos para
informar la toma de decisiones y generar valor. En cambio, el análisis de datos se
centra en examinar, limpiar y modelar datos para descubrir patrones y tendencias
que ayuden a comprender mejor un problema específico. Trabaja con conjuntos de
datos más manejables en términos de volumen y complejidad, con el objetivo de
generar información accionable para respaldar decisiones estratégicas y tácticas.
8
El big data es fundamental debido a que su análisis va más allá de lo que la
percepción humana y el análisis de bases de datos tradicional pueden alcanzar.
Esto se debe a su capacidad para procesar grandes volúmenes de datos en tiempo
real, identificar patrones complejos y correlaciones que de otra manera pasarían
desapercibidos. Además, el big data permite tomar decisiones más informadas y
precisas, optimizar procesos, detectar fraudes o anomalías, y personalizar
experiencias para usuarios y clientes. En resumen, el análisis del big data
proporciona insights valiosos que pueden impulsar la innovación, mejorar la
eficiencia y generar ventajas competitivas en diversos sectores y organizaciones. Y,
a su vez, el análisis de datos complementa el big data al convertir datos en
información significativa. Aplicando técnicas estadísticas y herramientas de
visualización, se identifican tendencias, se optimizan procesos y se toman
decisiones estratégicas. Además, contribuye a la detección temprana de problemas
y mejora la calidad de productos y servicios, impulsando la eficiencia operativa y la
competitividad.
9
Internet de las Cosas
El Internet de las Cosas o IoT (de sus siglas en inglés Internet of Things) se refiere a
una red de dispositivos físicos, electrodomésticos, vehículos y otros objetos físicos
que están integrados con sensores, software y conectividad de red que les permite
recopilar y compartir datos a través del Internet. Estos dispositivos pueden variar
desde dispositivos domésticos inteligentes hasta dispositivos portátiles como relojes
inteligentes y ropa con RFID (identificación por radio frecuencia), hasta complejas
maquinarias industriales y sistemas de transporte. Hoy en día incluso se está
hablando de “ciudades inteligentes” basadas en tecnologías de IoT.
Es en 1982 cuando surgieron los primeros debates sobre la creación de una red de
dispositivos inteligentes, todo empezó con el caso de una máquina de Coca-Cola
modificada que se conectó a Internet, marcando así el inicio de la era de los
dispositivos conectados. Durante la década de los 90, diversos artículos académicos
contribuyeron al desarrollo de la idea, y en 1999, el término "Internet de las cosas"
se popularizó. Desde entonces, el enfoque ha estado en agregar sensores y
capacidades de conexión a cualquier dispositivo posible, buscando dotar de
inteligencia a objetos electrónicos diversos. Y desde 2010 la evolución del Internet
de las Cosas ha sido exponencial y se espera que el crecimiento continúe en los
próximos años. En este sentido, el último paso en las tecnologías de conectividad
para el IoT ha sido el 5G, una conexión inalámbrica significativamente más rápida
que sus predecesores.
Entre las tecnologías que componen y hacen posible el IoT podemos mencionar los
sensores y actuadores, tecnologías de conectividad, computación en la nube,
10
análisis de big data y las tecnologías de seguridad y privacidad: Los sensores y
actuadores son componentes esenciales que permiten la detección de cambios en
el entorno y la ejecución de acciones físicas, respectivamente. Estos dispositivos
son fundamentales para la interacción de las máquinas y dispositivos con el mundo
físico, posibilitando la automatización sin intervención humana. Además, las
tecnologías de conectividad, como Wi-Fi, Bluetooth, celular, Zigbee y LoRaWAN,
son utilizadas para transmitir datos desde los dispositivos IoT a la nube. En la nube,
los datos generados por IoT son almacenados, procesados y analizados mediante
plataformas de computación en la nube, que también proporcionan herramientas
para el desarrollo y despliegue de aplicaciones IoT. El análisis de big data es crucial
para extraer información valiosa de los grandes volúmenes de datos IoT, utilizando
algoritmos de aprendizaje automático, herramientas de visualización y modelos de
análisis predictivo. Por último, las tecnologías de seguridad y privacidad, como el
cifrado, los controles de acceso y los sistemas de detección de intrusiones, son
empleadas para proteger los dispositivos y datos IoT de las amenazas cibernéticas,
garantizando así la confidencialidad e integridad de la información.
Entre uno de los muchos ejemplos del uso de IoT, puede destacarse su utilidad en el
sector agrícola, en donde esta tecnología ha encontrado aplicaciones significativas
para mejorar la eficiencia y la productividad. En donde se emplea para monitorear el
suelo y los cultivos, midiendo la humedad y otros parámetros para gestionar el riego
y la fertilización de manera eficiente. También se utiliza para controlar el clima y
prever eventos meteorológicos, protegiendo los cultivos. En ganadería, el IoT
monitorea la salud del ganado y su ubicación, facilitando una gestión proactiva.
Además, en la cadena de suministro, el IoT asegura la trazabilidad y calidad de los
productos agrícolas, con dispositivos de bajo consumo energético que funcionan
incluso en ubicaciones remotas.
11
Los desafíos que persiguen al IoT abarcan diversos aspectos críticos que deben ser
considerados en la implementación y gestión de esta tecnología. Entre los riesgos
más destacados se encuentran la seguridad y privacidad de los datos, ya que
muchos dispositivos IoT son vulnerables a amenazas cibernéticas y pueden
recopilar grandes cantidades de datos personales, generando preocupaciones sobre
la protección de la privacidad. Además, la interoperabilidad entre dispositivos de
diferentes fabricantes, la sobrecarga de datos que puede abrumar a las empresas,
los costos y complejidades de implementación, así como los desafíos regulatorios y
legales, son aspectos críticos que considerar en la adopción y gestión de sistemas
IoT.
Realidad Aumentada
La realidad aumentada es una herramienta que nos permite combinar el mundo
virtual con el físico, a través de tablets celulares entre otros. Esta herramienta es
muy versátil y puede ser aplicada en distintas áreas, como lo es el entretenimiento,
el marketing, el turismo entre otras.
Hay que tener en cuenta que la realidad aumentada es distinta a la realidad virtual,
ya que esta nos sumerge en un entorno únicamente virtual y hay que usar un equipo
especial para poder disfrutar de esta, en cambio la realidad aumentada es una
forma de tecnología que es mucho más accesible para todos.
12
Inteligencia Artificial y Machine Learning
El machine learning (ML) es una disciplina dentro del ámbito de la inteligencia
artificial (IA), pero con un enfoque más específico. Aunque se centra en la
automatización y la programación avanzada, tanto el machine learning como la
inteligencia artificial trascienden la mera automatización, enfocándose en la
capacidad de generar resultados mediante análisis de datos complejos.
Por otro lado, el objetivo del machine learning es permitir que las máquinas analicen
grandes cantidades de datos. Utilizan modelos estadísticos para encontrar patrones
en los datos y generar resultados, los cuales pueden tener asociada una
probabilidad de corrección o un grado de confianza. (IA Y Machine Learning:
Diferencia Entre Inteligencia Artificial Y Machine Learning. AWS, n.d.).
13
El Ministerio de Medio Ambiente en Chile ha implementado dos modelos de
aprendizaje automático (machine learning) para mejorar la gestión ambiental en la
zona de Concón Quintero y Puchuncaví.
14
Conclusión
Bibliografía
● IA y machine learning: diferencia entre inteligencia artificial y machine
learning. AWS. (s.f.). Amazon Web Services, Inc.
15
https://aws.amazon.com/es/compare/the-difference-between-artificial-intellige
nce-and-machine-learning/#:~:text=La%20inteligencia%20artificial%20y%20el
,complejas%20que%20implican%20el%20autoaprendizaje.
● C. (2023, April 3). Cloud computing en constante crecimiento en Chile.
https://enteldigital.cl/blog/cloud-computing-en-constante-crecimiento-en-chile#
:~:text=Las%20proyecciones%20del%20cloud%20computing,8%25%20entre
%202022%20y%202028.
● De Chile, G. (2023, October 23). Chile lidera cumbre de Inteligencia Artificial:
Conozca organismos del Estado que han implementado IA. Gob.cl.
https://www.gob.cl/noticias/chile-lidera-cumbre-de-inteligencia-artificial-conozc
a-organismos-del-estado-que-han-implementado-ia/
● D. (2024, March 14). Inteligencia artificial : definición, historia, usos, peligros.
Formación En Ciencia De Datos | DataScientest.com.
https://datascientest.com/es/inteligencia-artificial-definicion#:~:text=La%20hist
oria%20de%20la%20inteligencia%20artificial%20comenzó%20en%201943%
20con,creación%20de%20una%20red%20neuronal.
● Davies, V. (2021, November 28). The history of cloud computing. Cyber
Magazine. https://cybermagazine.com/cloud-security/history-cloud-computing
● What Is Cloud Computing? | IBM. (s.f.).
https://www.ibm.com/topics/cloud-computing
● ¿Qué es cloud computing? | Google Cloud. (s.f.). Google Cloud.
https://cloud.google.com/learn/what-is-cloud-computing?hl=es
● ¿Qué es Cloud Computing? (s.f.). Salesforce.
https://www.salesforce.com/mx/cloud-computing/?gclid=CjwKCAjw48-vBhBbE
iwAzqrZVCjy1u97yhG8p02VslfZ9Y8MZJQCKeGFBJjmWFY8o8gBzgHLkIGtE
BoCHkoQAvD_BwE&d=7013y000002EkCbAAK&nc=7013y000002EkKfAAK&
utm_source=google&utm_medium=paid_search&utm_campaign=latam_growt
h_alllobaw&utm_content=pg-es-mash_7013y000002EkCbAAK&utm_term=clo
udcomputing&ef_id=CjwKCAjw48-vBhBbEiwAzqrZVCjy1u97yhG8p02VslfZ9Y
8MZJQCKeGFBJjmWFY8o8gBzgHLkIGtEBoCHkoQAvD_BwE:G:s&gclsrc=a
w.ds&&pcrid=674088412308&pdv=c&gad_source=1
● Robótica - Ferrovial. (2021, June 7). Ferrovial.
https://www.ferrovial.com/es-la/innovacion/tecnologias/robotica/
16
● Corporativa, I. (n.d.). Realidad Virtual: otro mundo al alcance de tus ojos.
Iberdrola. https://www.iberdrola.com/innovacion/realidad-virtual
● C. (2023, March 1). Los siete usos de la realidad aumentada que ya están
aquí. BBVA NOTICIAS.
https://www.bbva.com/es/innovacion/siete-usos-realidad-aumentada-ya-estan
-aqui/
● Martínez, P. J. S. (2024, March 6). ¿Qué es la Realidad Aumentada? - Onirix.
Onirix.
https://www.onirix.com/es/aprende-sobre-ra/que-es-la-realidad-aumentada/#:
~:text=La%20Realidad%20Aumentada%20ofrece%20infinitas,construcci%C3
%B3n%20y%20un%20infinito%20etc%C3%A9tera
● ¿Qué es la Realidad Aumentada (RA)? Origen y evolución. (2023, April 4).
García Requejo.
https://garciarequejo.com/es/que-es-la-realidad-aumentada-ra-origen-y-evolu
cion/
● Ciberataques aumentan en relación a 2021 – Noticias UACh. (2022, 19
diciembre). Recuperado 18 de marzo de 2024, de
https://diario.uach.cl/ciberataques-aumentan-en-relacion-a-2021/
● Costo de una filtración de datos 2023 | IBM. (s. f.).
https://www.ibm.com/mx-es/reports/data-breach
Leo University.
https://worldcampus.saintleo.edu/noticias/historia-de-la-ciberseguridad
https://www.tokioschool.com/noticias/internet-de-las-cosas-evolucion/
https://www.intel.la/content/www/xl/es/artificial-intelligence/analytics/what-is-bi
g-data.html
17
● ¿Qué es el big data? (s. f.).
https://www.oracle.com/cl/big-data/what-is-big-data/
https://www.ibm.com/es-es/topics/internet-of-things
https://www.ibm.com/es-es/topics/cybersecurity
https://support.microsoft.com/es-es/topic/-qu%C3%A9-es-la-ciberseguridad-8
b6efd59-41ff-4743-87c8-0850a352a390
● SAS Institute Inc. (s. f.). Big Data: qué es y por qué es importante. SAS.
https://www.sas.com/es_cl/insights/big-data/what-is-big-data.html
https://www.grupocibernos.com/blog/por-que-es-importante-la-ciberseguridad
https://aws.amazon.com/es/what-is/big-data/#:~:text=El%20objetivo%20de%2
0big%20data,de%20los%20activos%20de%20datos.
https://www.df.cl/opinion/columnistas/la-internet-de-las-cosas-y-su-impacto-en
-la-sociedad-chilena#:~:text=Un%20ejemplo%20de%20empresa%20chilena,
miles%20de%20kil%C3%B3metros%20de%20distancia.
18
● News Center Microsoft Latinoamérica. (2022, 23 marzo). El 93% de las
https://news.microsoft.com/es-xl/el-93-de-las-pymes-chilenas-han-invertido-e
n-tecnologia-para-facilitar-el-trabajo-remoto/
19