Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Informe Tecnologías 4.0

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 19

Industrias Creativas, Tecnología y Sociedad II

4ta Revolución Industrial y las


Tecnologías 4.0

Docente:
Juan Reyes

Alumnos:
Constanza Pastén, Antonella Cofré, Contanza Orrego

23/03/2024
Índice

Introducción........................................................................................................................... 3
Tecnologías 4.0.......................................................................................................................4
Robótica............................................................................................................................ 4
Ciberseguridad................................................................................................................. 4
Cloud Computing............................................................................................................. 6
Big Data y Análisis de Datos...........................................................................................7
Internet de las Cosas..................................................................................................... 10
Realidad Aumentada......................................................................................................12
Inteligencia Artificial y Machine Learning....................................................................13
Conclusión............................................................................................................................15
Bibliografía........................................................................................................................... 15

2
Introducción

Hoy en día nos encontramos en una fase de transformación sin precedentes iniciada
por la Cuarta Revolución Industrial. En el mundo digitalizado, somos testigos de una
convergencia de tecnologías innovadoras que están alterando la forma en que
vivimos, trabajamos e interactuamos. El informe profundizará en las tecnologías 4.0
que son la base de esta transformación, incluidas la robótica, la ciberseguridad, el
cloud computing, el big data y el análisis de datos, el internet de las cosas (IoT), la
realidad aumentada (RA), la inteligencia artificial (IA) y el machine learning.

El objetivo principal de este informe es ofrecer una descripción completa de las


tecnologías 4.0 y sus efectos en los diferentes sectores de la sociedad y la
economía. Nos centraremos en examinar el impacto de estas tecnologías en los
procesos industriales, la seguridad digital, la gestión de datos, la interconexión de
dispositivos, la experiencia del usuario y la toma de decisiones basada en datos.

Nos centraremos en explicar cada una de las tecnologías 4.0 mencionadas


anteriormente, enfatizando sus principales características, aplicaciones en la vida
diaria y empresarial, beneficios y desafíos.

El informe está estructurado en varias secciones que abarcan cada una de las
tecnologías 4.0 mencionadas. Comenzaremos por una introducción general a la
Cuarta Revolución Industrial, seguida de secciones dedicadas a la robótica,
ciberseguridad, cloud computing, big data y análisis de datos, IoT, AR, IA y ML.
Cada sección incluirá una descripción detallada de la tecnología, sus aplicaciones y
casos de uso destacados.

3
Tecnologías 4.0

Robótica
En el ámbito científico, la robótica se define como una disciplina que integra
diversas áreas tecnológicas con el propósito de crear máquinas programables
capaces de realizar tareas de forma autónoma o imitar el comportamiento humano y
animal. En esencia, un robot se asemeja a un ordenador con la capacidad de
moverse.

Esta rama del conocimiento se centra en la construcción de dispositivos que buscan


plasmar el deseo humano de concebir seres similares a nosotros mismos, con el fin
de abordar algunas de nuestras necesidades más complejas y, a la vez, liberarnos
de trabajos tediosos o peligrosos. La robótica se vincula estrechamente con la
ingeniería, la construcción y la operación de robots, constituyendo un sector con una
amplia gama de aplicaciones en el ámbito del consumo.

Algunos de los ejemplos en donde la robótica puede ser aplicada es a un nivel


industrial, como en el ensamble de objetos, ya que hace que esta acción sea
mucho más automatizada, precisa y a una escala masiva. También se aplica en el
ensamble de maquinaria industrial, haciendo así que las personas que antes
realizaban este trabajo sean reemplazadas por estas máquinas, haciendo que no
haya riesgo de accidentes. Otra aplicación de esta tecnología es en la medicina,
para cirugías que requieren de una mayor precisión que la humana.

Ciberseguridad
La ciberseguridad, seguridad digital o seguridad de la tecnología de la información
es la práctica de proteger equipos, redes, aplicaciones de software, sistemas, datos
e información confidencial ante ataques digitales. Esto incluye también cuentas,
archivos, fotos e incluso el dinero.

4
El campo de la ciberseguridad comenzó a tomar forma en la década de 1970, a
medida que la informática y las redes computacionales se extendían. Fue en ese
mismo año que, como medida de protección para evitar que ciertos programas se
movieran a través de la primera red de computadoras (la red ARPANET), se
desarrollaron programas capaces de perseguir y eliminar este tipo de conductas. Así
se creó el primer sistema antivirus de malware y el primer sistema con la capacidad
de auto replicarse (y a partir de esto se crearon los primeros virus, gusanos y
troyanos informáticos). En 1987 comenzaron a aparecer los primeros programas
maliciosos comerciales, y es en esta época que John McAfee, pionero en la
creación de antivirus, fundó McAfee y lanzó el software VirusScan.

El objetivo de los ciberdelincuentes es extraer la información de identificación


personal de los clientes, como nombres, direcciones, números de identificación
nacional o datos de tarjetas de crédito, y luego vender estos registros en los
mercados digitales clandestinos. Es por esto mismo que la ciberseguridad es crucial
para garantizar la confidencialidad, integridad y disponibilidad de la información en
entornos digitales y ha tomado mayor prioridad entre empresas y usuarios gracias a
la hiperconectividad que existe hoy en día. Todos compartimos una misma red
digital, que es el Internet, lo que facilita que los ciberdelincuentes hagan de las
suyas. Por eso las redes y sistemas son más vulnerables, y se encuentran menos
protegidos. Además, a medida que las empresas y corporaciones se vayan
incluyendo en el mundo de las redes y estén pasando por un momento de
transformación digital, es un hecho que la ciberseguridad se está volviendo una de
las principales prioridades.

En los últimos años, la ciberseguridad en Chile se ha vuelto algo trascendental tanto


para el sector público como privado, reconociendo la necesidad de proteger la
infraestructura crítica, datos sensibles y la información personal de los ciudadanos.
Según el reporte de amenazas de Fortinet en el año 2022, solo en el primer
semestre de aquel año se registraron alrededor de 5000 millones de intentos de
ciberataques.

Algunos aspectos destacados de esta área en el país incluyen iniciativas y


programas del Gobierno para fortalecer la ciberseguridad, como la Estrategia
Nacional de Ciberseguridad, que busca mejorar la protección de infraestructuras

5
críticas y promover buenas prácticas en el ámbito digital. Y también la colaboración
Público-Privada, que se refiere a la colaboración entre el gobierno y las empresas
para enfrentar los desafíos de la ciberseguridad, fomentando la capacitación en
buenas prácticas de seguridad informática.

Cloud Computing
Las nubes de computadora comenzaron a formarse tan temprano como en la
década de 1960. El científico de la computación J.C.R. Licklider tenía una visión de
una población global interconectada que pudiera acceder a programas y datos
desde cualquier lugar, desde cualquier sitio.

Cloud computing es la provisión de servicios a través de Internet a gran escala.


Democratiza el acceso a recursos de software globalmente, al servir a varios
clientes simultáneamente. Su diferenciador clave es la multilocación, que permite la
distribución de datos y servicios en diferentes ubicaciones geográficas, a diferencia
de los modelos de proveedores de servicios más antiguos y simples tercerizaciones,
las nubes ofrecen a los individuos y a las empresas de todos los tamaños la
capacidad de un pool de recursos de computación con buen mantenimiento, seguro,
de fácil acceso y bajo demanda, como servidores, almacenamiento de datos y
solución de aplicaciones

En 1999, se fundó Salesforce, el primer servicio empresarial en proporcionar


aplicaciones de negocios a través de un sitio web. Este enfoque innovador pronto
fue reconocido por el mercado como una forma pionera de computación en la nube,
o cloud computing ofreciendo a individuos y empresas de todos los tamaños la
capacidad de acceder a un conjunto de recursos informáticos bien mantenidos,
seguros, de fácil acceso y bajo demanda, que incluyen servidores, almacenamiento
de datos y soluciones de aplicaciones. Esto brinda a las empresas una mayor
flexibilidad en el manejo de sus datos y la información, ya que pueden acceder a
ellos desde cualquier lugar y en cualquier momento. Esta capacidad es esencial
para empresas con operaciones globales o en entornos de trabajo dispersos.

6
Además, con una gestión mínima, todos los componentes de software en la nube
pueden ser escalados según sea necesario.

Amazon lanzó la primera nube comercial, llamada Elastic Compute Cloud (EC2), en
2006. Esto fue seguido de cerca en 2008 por Google, que introdujo modelos de
precios radicales con planes de entrada gratuitos y servicios de computación y
almacenamiento de bajo costo con su aplicación Google Apps.

Chile ya cuenta con el llamado “cable Curie”, una conexión submarina de 10,500
km, que la empresa instaló entre las costas de Valparaíso y California para optimizar
la latencia de sus productos y el funcionamiento de su nube pública.

Google fue también una de las primeras empresas en construir un data center en
Chile, con una infraestructura inaugurada en Quilicura el 2015. Posteriormente, en
2021, la compañía inauguró la Región Cloud de Santiago y a la vez, anunciaron su
intención de construir un nuevo data center en Cerrillos, con una inversión de 200
millones de dólares.(Entel 2023)

Big Data y Análisis de Datos

Big data es un gran conjunto de datos no estructurados y de alta velocidad, se


refiere al procesamiento y análisis de conjuntos de datos extremadamente grandes
y complejos que superan las capacidades de herramientas tradicionales de
procesamiento. Es un concepto que describe el flujo de datos no estructurados
creados por todo, desde las publicaciones en redes sociales y el tráfico de red hasta
el Internet de las cosas (IoT), las cámaras de seguridad públicas, transacciones
financieras y los datos meteorológicos globales (prácticamente todo lo que da
vueltas en internet, la nube, la red, etc.). El Big data es demasiado vasto para
estructurarlo en bases de datos relacionales y tradicionales. Se necesita el
aprendizaje automático y la IA para descubrir patrones y extraer información. A su
vez, el análisis de datos se refiere al proceso de examinar, limpiar, transformar y

7
modelar conjuntos de datos para identificar patrones, tendencias y relaciones
significativas. Esto implica utilizar técnicas estadísticas y herramientas de
visualización para extraer información accionable y conocimientos que respalden la
toma de decisiones estratégicas y tácticas en una organización. El análisis de datos
puede realizarse tanto en conjuntos de datos pequeños como grandes, utilizando
diversas metodologías y enfoques según el contexto y los objetivos específicos del
análisis.

Aunque el término Big Data es relativamente reciente, sus raíces se remontan a las
décadas de 1960 y 1970, cuando surgieron los primeros centros de datos y las
bases de datos relacionales. Hacia el año 2005, la atención se centró en la
generación masiva de datos por parte de usuarios en plataformas como Facebook y
YouTube. Fue entonces cuando se desarrolló Hadoop, un marco de código abierto
diseñado específicamente para el almacenamiento y análisis de grandes conjuntos
de datos, junto con la creciente popularidad de NoSQL. Estos avances en marcos
de código abierto, como Hadoop y Spark, fueron cruciales para facilitar el uso y
reducir los costos del big data. Con la proliferación del Internet de las Cosas (IoT),
se sumaron más dispositivos conectados que generan datos sobre patrones de uso
y rendimiento de productos, mientras que el aprendizaje automático ha ampliado
aún más la generación de datos. A medida que el big data ha evolucionado, el
Cloud Computing ha ampliado sus capacidades, ofreciendo escalabilidad elástica y
facilitando el análisis de grandes volúmenes de datos a través de bases de datos de
gráficos.

Por otro lado, existen algunas diferencias entre el Big Data y el análisis de datos. Lo
cual radica en la escala y complejidad de los conjuntos de datos que manejan, así
como sus objetivos: El big data se refiere a grandes volúmenes de datos, tanto
estructurados como no estructurados, que requieren tecnologías avanzadas para su
almacenamiento y análisis. Su objetivo principal es extraer insights valiosos para
informar la toma de decisiones y generar valor. En cambio, el análisis de datos se
centra en examinar, limpiar y modelar datos para descubrir patrones y tendencias
que ayuden a comprender mejor un problema específico. Trabaja con conjuntos de
datos más manejables en términos de volumen y complejidad, con el objetivo de
generar información accionable para respaldar decisiones estratégicas y tácticas.

8
El big data es fundamental debido a que su análisis va más allá de lo que la
percepción humana y el análisis de bases de datos tradicional pueden alcanzar.
Esto se debe a su capacidad para procesar grandes volúmenes de datos en tiempo
real, identificar patrones complejos y correlaciones que de otra manera pasarían
desapercibidos. Además, el big data permite tomar decisiones más informadas y
precisas, optimizar procesos, detectar fraudes o anomalías, y personalizar
experiencias para usuarios y clientes. En resumen, el análisis del big data
proporciona insights valiosos que pueden impulsar la innovación, mejorar la
eficiencia y generar ventajas competitivas en diversos sectores y organizaciones. Y,
a su vez, el análisis de datos complementa el big data al convertir datos en
información significativa. Aplicando técnicas estadísticas y herramientas de
visualización, se identifican tendencias, se optimizan procesos y se toman
decisiones estratégicas. Además, contribuye a la detección temprana de problemas
y mejora la calidad de productos y servicios, impulsando la eficiencia operativa y la
competitividad.

Como ejemplo de uso de ambos conceptos: en Chile, según un reporte de News


Center Microsoft Latinoamérica “...el 85% de los encuestados declaró tomar
decisiones basadas en datos, sobre todos las micro y pequeñas empresas. De
hecho, 6 de cada 10 organizaciones capacitaron a su personal en una cultura
orientada a datos o reclutaron colaboradores especializados en el manejo de datos.
Además, para el 86% de los encuestados el uso de datos y analítica para la
inteligencia del negocio ha aumentado en su empresa”, mientras que, a nivel
internacional, Amazon emplea esta tecnología para personalizar recomendaciones
de productos y mejorar la experiencia del cliente en su plataforma de comercio
electrónico. Por otro lado, a nivel nacional, la Superintendencia de Medio Ambiente
utiliza el análisis de datos para monitorear la calidad del aire y la gestión ambiental,
mientras que, a nivel global, Google aplica el análisis de datos para mejorar la
precisión de los resultados de búsqueda en su motor de búsqueda, ajustando sus
algoritmos con base en patrones de búsqueda y comportamientos de usuarios.

9
Internet de las Cosas

El Internet de las Cosas o IoT (de sus siglas en inglés Internet of Things) se refiere a
una red de dispositivos físicos, electrodomésticos, vehículos y otros objetos físicos
que están integrados con sensores, software y conectividad de red que les permite
recopilar y compartir datos a través del Internet. Estos dispositivos pueden variar
desde dispositivos domésticos inteligentes hasta dispositivos portátiles como relojes
inteligentes y ropa con RFID (identificación por radio frecuencia), hasta complejas
maquinarias industriales y sistemas de transporte. Hoy en día incluso se está
hablando de “ciudades inteligentes” basadas en tecnologías de IoT.

Es en 1982 cuando surgieron los primeros debates sobre la creación de una red de
dispositivos inteligentes, todo empezó con el caso de una máquina de Coca-Cola
modificada que se conectó a Internet, marcando así el inicio de la era de los
dispositivos conectados. Durante la década de los 90, diversos artículos académicos
contribuyeron al desarrollo de la idea, y en 1999, el término "Internet de las cosas"
se popularizó. Desde entonces, el enfoque ha estado en agregar sensores y
capacidades de conexión a cualquier dispositivo posible, buscando dotar de
inteligencia a objetos electrónicos diversos. Y desde 2010 la evolución del Internet
de las Cosas ha sido exponencial y se espera que el crecimiento continúe en los
próximos años. En este sentido, el último paso en las tecnologías de conectividad
para el IoT ha sido el 5G, una conexión inalámbrica significativamente más rápida
que sus predecesores.

El Internet de las Cosas facilita la automatización, monitorización en tiempo real y


optimización de procesos en diversos sectores como la industria, la salud, el
transporte y la domótica, generando una mayor eficiencia de estos sectores. Los
dispositivos relacionados con el IoT generan una gran cantidad de datos que se
puede utilizar para tomar decisiones comerciales mejor informadas y nuevos
modelos de negocio, con todos estos datos las empresas pueden obtener
información sobre el comportamiento del cliente, las tendencias y el rendimiento
operativo.

Entre las tecnologías que componen y hacen posible el IoT podemos mencionar los
sensores y actuadores, tecnologías de conectividad, computación en la nube,

10
análisis de big data y las tecnologías de seguridad y privacidad: Los sensores y
actuadores son componentes esenciales que permiten la detección de cambios en
el entorno y la ejecución de acciones físicas, respectivamente. Estos dispositivos
son fundamentales para la interacción de las máquinas y dispositivos con el mundo
físico, posibilitando la automatización sin intervención humana. Además, las
tecnologías de conectividad, como Wi-Fi, Bluetooth, celular, Zigbee y LoRaWAN,
son utilizadas para transmitir datos desde los dispositivos IoT a la nube. En la nube,
los datos generados por IoT son almacenados, procesados y analizados mediante
plataformas de computación en la nube, que también proporcionan herramientas
para el desarrollo y despliegue de aplicaciones IoT. El análisis de big data es crucial
para extraer información valiosa de los grandes volúmenes de datos IoT, utilizando
algoritmos de aprendizaje automático, herramientas de visualización y modelos de
análisis predictivo. Por último, las tecnologías de seguridad y privacidad, como el
cifrado, los controles de acceso y los sistemas de detección de intrusiones, son
empleadas para proteger los dispositivos y datos IoT de las amenazas cibernéticas,
garantizando así la confidencialidad e integridad de la información.

Entre uno de los muchos ejemplos del uso de IoT, puede destacarse su utilidad en el
sector agrícola, en donde esta tecnología ha encontrado aplicaciones significativas
para mejorar la eficiencia y la productividad. En donde se emplea para monitorear el
suelo y los cultivos, midiendo la humedad y otros parámetros para gestionar el riego
y la fertilización de manera eficiente. También se utiliza para controlar el clima y
prever eventos meteorológicos, protegiendo los cultivos. En ganadería, el IoT
monitorea la salud del ganado y su ubicación, facilitando una gestión proactiva.
Además, en la cadena de suministro, el IoT asegura la trazabilidad y calidad de los
productos agrícolas, con dispositivos de bajo consumo energético que funcionan
incluso en ubicaciones remotas.

Un ejemplo de empresa chilena que está avanzando en IoT es Codelco, que ha


puesto sensores en los camiones de movimiento de mineral, aumentando la
visibilidad y la exactitud de la conducción, por conductores que no están en el
camión, sino en una oficina a cientos o miles de kilómetros de distancia. (Financiero,
2023)

11
Los desafíos que persiguen al IoT abarcan diversos aspectos críticos que deben ser
considerados en la implementación y gestión de esta tecnología. Entre los riesgos
más destacados se encuentran la seguridad y privacidad de los datos, ya que
muchos dispositivos IoT son vulnerables a amenazas cibernéticas y pueden
recopilar grandes cantidades de datos personales, generando preocupaciones sobre
la protección de la privacidad. Además, la interoperabilidad entre dispositivos de
diferentes fabricantes, la sobrecarga de datos que puede abrumar a las empresas,
los costos y complejidades de implementación, así como los desafíos regulatorios y
legales, son aspectos críticos que considerar en la adopción y gestión de sistemas
IoT.

Realidad Aumentada
La realidad aumentada es una herramienta que nos permite combinar el mundo
virtual con el físico, a través de tablets celulares entre otros. Esta herramienta es
muy versátil y puede ser aplicada en distintas áreas, como lo es el entretenimiento,
el marketing, el turismo entre otras.

Hay que tener en cuenta que la realidad aumentada es distinta a la realidad virtual,
ya que esta nos sumerge en un entorno únicamente virtual y hay que usar un equipo
especial para poder disfrutar de esta, en cambio la realidad aumentada es una
forma de tecnología que es mucho más accesible para todos.

Un ejemplo claro de cómo es empleada esta herramienta en el entretenimiento es la


aplicación de Pokemon Go, que nos permite interactuar con pokemons en el plano
virtual y físico haciendo que sea un juego entretenido e innovador, de igual manera
es aplicada en logística permitiendo a supermercados tener una visión de cómo
ordenar de manera eficiente sus productos. También es aplicada en el turismo, para
ver poder ver puntos de interés o información.

12
Inteligencia Artificial y Machine Learning
El machine learning (ML) es una disciplina dentro del ámbito de la inteligencia
artificial (IA), pero con un enfoque más específico. Aunque se centra en la
automatización y la programación avanzada, tanto el machine learning como la
inteligencia artificial trascienden la mera automatización, enfocándose en la
capacidad de generar resultados mediante análisis de datos complejos.

La historia de la inteligencia artificial se puede remontar al año 1943 con la


publicación del artículo "A Logical Calculus of Ideas Immanent in Nervous Activity"
de Warren McCullough y Walter Pitts. En este trabajo pionero, los científicos
presentaron el primer modelo matemático para crear una red neuronal, sentando así
las bases teóricas para el desarrollo posterior de la inteligencia artificial.
Sin embargo, los primeros desarrollos concretos en IA comenzaron en la década de
1950 con programas como el "juego de damas" de Arthur Samuel y el "teorema de
demostración de lógica" de Allen Newell y Herbert Simon. Estos avances marcaron
el inicio de la investigación y el desarrollo de sistemas informáticos capaces de
realizar tareas cognitivas similares a las humanas.

En 1959, Arthur Samuel, mientras trabajaba en IBM, acuñó el término "Machine


Learning". Se refiere al proceso mediante el cual una computadora es alimentada
con datos y utiliza técnicas de análisis para "aprender" a realizar una tarea
específica. Lo distintivo del Machine Learning es que no requiere una programación
específica con millones de líneas de código; de ahí su caracterización como
"aprendizaje automático".(D. Inteligencia artificial : definición, historia, usos, peligros)

El propósito de los sistemas de inteligencia artificial es enseñar a las máquinas a


realizar tareas complejas de manera eficiente, como aprender, resolver problemas y
reconocer patrones.

Por otro lado, el objetivo del machine learning es permitir que las máquinas analicen
grandes cantidades de datos. Utilizan modelos estadísticos para encontrar patrones
en los datos y generar resultados, los cuales pueden tener asociada una
probabilidad de corrección o un grado de confianza. (IA Y Machine Learning:
Diferencia Entre Inteligencia Artificial Y Machine Learning. AWS, n.d.).

13
El Ministerio de Medio Ambiente en Chile ha implementado dos modelos de
aprendizaje automático (machine learning) para mejorar la gestión ambiental en la
zona de Concón Quintero y Puchuncaví.

El primer modelo, denominado "CQP", es un modelo predictivo que utiliza machine


learning para predecir episodios de contaminación en esta área.

El segundo modelo, denominado "Clasificación de Denuncias", también utiliza


machine learning para clasificar la gravedad de las denuncias ambientales recibidas
por la Superintendencia del Medio Ambiente (SMA). Esto permite una gestión más
eficiente al distinguir entre denuncias de baja relevancia y aquellas que requieren
una acción inmediata debido a su impacto ambiental significativo.(G. De Chile,
2023)

14
Conclusión

En conclusión, el uso de tecnologías 4.0 en Chile ha sido un factor clave para


impulsar el progreso y destacar en diversos ámbitos. La implementación de
soluciones basadas en inteligencia artificial y machine learning ha permitido abordar
desafíos importantes, como la gestión ambiental en zonas críticas, con mayor
eficiencia y precisión. Estos avances demuestran el compromiso del país con la
innovación y su capacidad para adaptarse a las últimas tendencias tecnológicas, lo
que contribuye significativamente al desarrollo socioeconómico y al bienestar de la
población.

Bibliografía
● IA y machine learning: diferencia entre inteligencia artificial y machine
learning. AWS. (s.f.). Amazon Web Services, Inc.

15
https://aws.amazon.com/es/compare/the-difference-between-artificial-intellige
nce-and-machine-learning/#:~:text=La%20inteligencia%20artificial%20y%20el
,complejas%20que%20implican%20el%20autoaprendizaje.
● C. (2023, April 3). Cloud computing en constante crecimiento en Chile.
https://enteldigital.cl/blog/cloud-computing-en-constante-crecimiento-en-chile#
:~:text=Las%20proyecciones%20del%20cloud%20computing,8%25%20entre
%202022%20y%202028.
● De Chile, G. (2023, October 23). Chile lidera cumbre de Inteligencia Artificial:
Conozca organismos del Estado que han implementado IA. Gob.cl.
https://www.gob.cl/noticias/chile-lidera-cumbre-de-inteligencia-artificial-conozc
a-organismos-del-estado-que-han-implementado-ia/
● D. (2024, March 14). Inteligencia artificial : definición, historia, usos, peligros.
Formación En Ciencia De Datos | DataScientest.com.
https://datascientest.com/es/inteligencia-artificial-definicion#:~:text=La%20hist
oria%20de%20la%20inteligencia%20artificial%20comenzó%20en%201943%
20con,creación%20de%20una%20red%20neuronal.
● Davies, V. (2021, November 28). The history of cloud computing. Cyber
Magazine. https://cybermagazine.com/cloud-security/history-cloud-computing
● What Is Cloud Computing? | IBM. (s.f.).
https://www.ibm.com/topics/cloud-computing
● ¿Qué es cloud computing? | Google Cloud. (s.f.). Google Cloud.
https://cloud.google.com/learn/what-is-cloud-computing?hl=es
● ¿Qué es Cloud Computing? (s.f.). Salesforce.
https://www.salesforce.com/mx/cloud-computing/?gclid=CjwKCAjw48-vBhBbE
iwAzqrZVCjy1u97yhG8p02VslfZ9Y8MZJQCKeGFBJjmWFY8o8gBzgHLkIGtE
BoCHkoQAvD_BwE&d=7013y000002EkCbAAK&nc=7013y000002EkKfAAK&
utm_source=google&utm_medium=paid_search&utm_campaign=latam_growt
h_alllobaw&utm_content=pg-es-mash_7013y000002EkCbAAK&utm_term=clo
udcomputing&ef_id=CjwKCAjw48-vBhBbEiwAzqrZVCjy1u97yhG8p02VslfZ9Y
8MZJQCKeGFBJjmWFY8o8gBzgHLkIGtEBoCHkoQAvD_BwE:G:s&gclsrc=a
w.ds&&pcrid=674088412308&pdv=c&gad_source=1
● Robótica - Ferrovial. (2021, June 7). Ferrovial.
https://www.ferrovial.com/es-la/innovacion/tecnologias/robotica/

16
● Corporativa, I. (n.d.). Realidad Virtual: otro mundo al alcance de tus ojos.
Iberdrola. https://www.iberdrola.com/innovacion/realidad-virtual
● C. (2023, March 1). Los siete usos de la realidad aumentada que ya están
aquí. BBVA NOTICIAS.
https://www.bbva.com/es/innovacion/siete-usos-realidad-aumentada-ya-estan
-aqui/
● Martínez, P. J. S. (2024, March 6). ¿Qué es la Realidad Aumentada? - Onirix.
Onirix.
https://www.onirix.com/es/aprende-sobre-ra/que-es-la-realidad-aumentada/#:
~:text=La%20Realidad%20Aumentada%20ofrece%20infinitas,construcci%C3
%B3n%20y%20un%20infinito%20etc%C3%A9tera
● ¿Qué es la Realidad Aumentada (RA)? Origen y evolución. (2023, April 4).
García Requejo.
https://garciarequejo.com/es/que-es-la-realidad-aumentada-ra-origen-y-evolu
cion/
● Ciberataques aumentan en relación a 2021 – Noticias UACh. (2022, 19
diciembre). Recuperado 18 de marzo de 2024, de
https://diario.uach.cl/ciberataques-aumentan-en-relacion-a-2021/
● Costo de una filtración de datos 2023 | IBM. (s. f.).

https://www.ibm.com/mx-es/reports/data-breach

● ¿Cuál es la historia de la Ciberseguridad? - Saint Leo University. (s. f.). Saint

Leo University.

https://worldcampus.saintleo.edu/noticias/historia-de-la-ciberseguridad

● Fernández, E. C. (2024, 26 febrero). El internet de las cosas: su evolución en

los últimos años. Tokio School.

https://www.tokioschool.com/noticias/internet-de-las-cosas-evolucion/

● ¿Qué es Big Data? (s. f.). Intel. Recuperado 21 de marzo de 2024, de

https://www.intel.la/content/www/xl/es/artificial-intelligence/analytics/what-is-bi

g-data.html

17
● ¿Qué es el big data? (s. f.).

https://www.oracle.com/cl/big-data/what-is-big-data/

● ¿Qué es Internet de las cosas? | IBM. (s. f.).

https://www.ibm.com/es-es/topics/internet-of-things

● ¿Qué es la ciberseguridad? | IBM. (s. f.).

https://www.ibm.com/es-es/topics/cybersecurity

● ¿Qué es la ciberseguridad? - Soporte técnico de Microsoft. (s. f.).

https://support.microsoft.com/es-es/topic/-qu%C3%A9-es-la-ciberseguridad-8

b6efd59-41ff-4743-87c8-0850a352a390

● SAS Institute Inc. (s. f.). Big Data: qué es y por qué es importante. SAS.

Recuperado 21 de marzo de 2024, de

https://www.sas.com/es_cl/insights/big-data/what-is-big-data.html

● Toledo, R. (2023, 31 marzo). Por qué es importante la ciberseguridad.

Cibernos grupo. Recuperado 18 de marzo de 2024, de

https://www.grupocibernos.com/blog/por-que-es-importante-la-ciberseguridad

● ¿Qué son los macrodatos?: explicación sobre el análisis de macrodatos:

AWS. (s. f.). Amazon Web Services, Inc.

https://aws.amazon.com/es/what-is/big-data/#:~:text=El%20objetivo%20de%2

0big%20data,de%20los%20activos%20de%20datos.

● Financiero, D. (2023, 3 mayo). La Internet de las Cosas y su impacto en la

sociedad chilena. Diario Financiero.

https://www.df.cl/opinion/columnistas/la-internet-de-las-cosas-y-su-impacto-en

-la-sociedad-chilena#:~:text=Un%20ejemplo%20de%20empresa%20chilena,

miles%20de%20kil%C3%B3metros%20de%20distancia.

18
● News Center Microsoft Latinoamérica. (2022, 23 marzo). El 93% de las

PyMEs chilenas han invertido en tecnología para facilitar el trabajo remoto -

News Center Latinoamérica. News Center Latinoamérica.

https://news.microsoft.com/es-xl/el-93-de-las-pymes-chilenas-han-invertido-e

n-tecnologia-para-facilitar-el-trabajo-remoto/

19

También podría gustarte