Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Efrain Villegas Tarea2

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 13

TECNOLOGIAS

APLICADAS
Efrain Villegas Flores

“Tendencias tecnológicas y cómo influye en el mercado de


las Tecnologías de la información. Parte II”
TAREA SEMANA 2
Lunes 16 de noviembre de 2020
DESARROLLO TAREA SEMANA 2

Lea atentamente el documento “Inteligencia artificial y computación avanzada”,


analice la información de acuerdo a los contenidos revisados en la semana y
conteste las preguntas que se presentan a continuación:

1. Mencione tres aspectos que usted considere relevantes en el impacto que


ha causado la inteligencia artificial en el internet of things.

El Internet de las Cosas y la Inteligencia Artificial

¿Cómo ha cambiado el Internet de las Cosas (IoT) y la Inteligencia Artificial (IA) la


actividad de las empresas? Gurús informáticos, avances tecnológicos y un sinfín de
nuevas iniciativas están marcando la revolución digital que vive el mundo
empresarial.

Estos avances nacen con una idea muy clara, la de simplificar la vida de las
personas y contribuir a la mejora de los negocios a través de la conectividad
con objetos y dispositivos. No solo lo ha conseguido, sino que ha sobrepasado
sus expectativas. Conexión entre máquinas, gestión de mayor cantidad de datos,
calidad de la información, mayor seguridad para los trabajadores, nuevos modelos
de negocio, herramientas tecnológicas más eficientes… Todo esto se ha traducido
en una sola palabra: productividad.

Hasta ahora, veníamos hablando de IoT enfocado en nuestros hogares, pero


¿cómo se manifiesta realmente en las empresas? Vamos a ver algunos ejemplos,
pero antes de ponernos manos a la obra es importante recordar que las empresas
innovadoras no solo son aquellas que desarrollan nuevos productos y servicios
para los consumidores, sino también aquellas que usan las nuevas tecnologías
para agilizar sus procesos y mejorar la productividad.

Por eso, cada vez se habla más de EIoT (Enterprise Internet of Things), es decir,
Internet de las Cosas aplicado a las empresas.

La IA combinada con el IoT ha llegado a las empresas de maneras muy distintas,


desde la simple regulación de la temperatura en nuestra oficina, hasta el
seguimiento de las acciones que realizan nuestros clientes o del envío de pedidos
en tiempo real.

En marketing, la Inteligencia Artificial permite recoger información masiva del


público objetivo al que se dirige la empresa, gracias a la segmentación por sus
hábitos y comportamiento a través de la web. Recogen y analizan los datos,
poniéndonos a nuestra disposición para poder tomar mejores decisiones. Otras
vías de aplicación IoT en la empresa:

Dispositivos con conexión a internet (Smartphone, ordenador o Tablet, entre otros).


Aplicaciones de la empresa que pueden instalarse fácilmente tanto en nuestro
ordenador como en el teléfono móvil.
En definitiva, IoT ha venido para quedarse y su implantación en las compañías y
los hogares es cada vez mayor.

Se calcula que el impacto global del Internet de las Cosas en el negocio será de
“más de 14 trillones de dólares para 2030”, según un estudio realizado por la
consultora Accenture. Sumado a todos los avances tecnológicos que están
desembocando en la sociedad, las ventajas se multiplican para los procesos de las
empresas:

 Mayor eficiencia en los procesos de gestión de la compañía.


 Ahorro de costes y tiempo invertidos en la logística.
 Detección de las ineficiencias y reducción de los fallos.
 Mayor calidad en la atención al cliente.
 Gestión de espacios a través de sistemas.
 Mantenimiento predictivo de toda la maquinaria.
 Mayor seguridad industrial.
 Incremento del control y el seguimiento de los procesos.
 Monitorización de equipos.

El IoT ha llegado a todos los sectores de la sociedad, por ello vamos a mostrarte
otros usos extendidos de la Inteligencia Artificial:

Sector agrícola. Agricultura inteligente y mayor control del ganado.


Sector industrial. Monitorización de los equipos y procesos de fabricación, e
incluso mayor control y seguridad gracias a la tecnología blockchain.
Sector público. Aplicaciones de Smart Cities a través del alumbrado o el
transporte urbano inteligente, entre otras cosas.

La sociedad actual presenta nuevas generaciones que no solo nacen con la


tecnología, sino que la demandan cada vez más, interactuando con los objetos y
las personas. Según datos de Cisco publicados en 2015, “más del 99% de las
cosas en el mundo físico aún no están conectadas a internet, pero en 2020, 37.000
millones de cosas inteligentes ya estarían conectadas”.

Sumergidos de lleno en 2020, podemos afirmar que las previsiones se han


cumplido. Mientras la Industria 4.0 tiene como protagonistas a la digitalización, la
automatización y las técnicas de mejora de los procesos, IoT es una revolución en
sí protagonizada por el big data, la analítica, los dispositivos interconectados, el
mantenimiento predictivo y la seguridad industrial.

2. ¿Cuál es la importancia de los fundamentos de la inteligencia artificial y su


desarrollo en el tiempo?

Durante el desarrollo de la Inteligencia Artificial hay algunas disciplinas que han


contribuido con ideas, puntos de vista y técnicas, en base a teorías expuestas de
filosofía, matemáticas, lógica, economía, neurociencia, psicología, ingeniería
computacional, teoría del control y cibernética.

 FILOSOFÍA (AÑO 428 A.C. HASTA EL PRESENTE)


En esta disciplina muestra como los filósofos facilitaron el poder imaginar la
inteligencia artificial, al pensar que la mente funciona como una maquina a partir
del conocimiento codificado en un lenguaje interno, además al suponer que el
pensamiento servía para seleccionar la acción a llevar a cabo Russell, P. y Norvig,
P. (2004).
Aristóteles (384 – 322 a.c.)

Fue el primero en formular un conjunto preciso de leyes que gobernaban la parte


racional de la inteligencia.

Ramón Luli (d. 1315)

Tuvo la idea de que el razonamiento útil se podría obtener por medios artificiales.

Leonardo Da Vinci (1452 – 1519)

Diseño, aunque no construyo, una calculadora mecánica; Construcciones recientes


han mostrado que su diseño era funcional.

Wilhelm Schickard (1592 – 1635)

La primera maquina calculadora conocida se construyó alrededor de 1623.

Gottfried Wilhelm Leibniz (1646 – 1716)

Construyó un dispositivo mecánico con el objetivo de llevar a cabo operaciones


sobre conceptos en lugar de sobre números, pero su campo de acción era muy
limitado.

Descartes (1596 – 1650)

Proporciona la primera discusión clara sobre la distinción entre la mente y la


materia y los problemas que surgen.

Francis Bacon (1561 – 1626)

Se caracteriza por el aforismo de John Locke (1632-1704): «Nada existe en la


mente que no haya pasado antes por los sentidos».

Camap y Cari Hempel (1905 – 1997)

Intenta explicar cómo el conocimiento se Obtiene a partir de la experiencia.

 MATEMÁTICAS (APROXIMADAMENTE DESDE EL AÑO 800 AL PRESENTE)

Según Russell, P. y Norvig, P. (2004), los filósofos delimitaron las ideas más
importantes de la Inteligencia Artificial, puesto que para pasar a ser una ciencia se
necesita una formulación matemática en tres áreas la lógica, la complejidad y la
probabilidad.
Al-Khowarazmi Siglo IX

El primer algo ritmo no trivial es el algoritmo Euclídeo para determinar el máximo


común divisor.

En 1900, David Hilbert (1862 – 1943)

Presento una lista de 23 problemas que acertadamente predijo ocuparían a los


matemáticos durante todo ese siglo.

En 1930, Kurt Godel (1906 – 1978)

Demostró que existe un procedimiento eficiente para demostrar cualquier


aseveración verdadera en la lógica de primer orden de Frege y Russell.

Alan Turing (1912 – 1954)

Tratar de caracterizar exactamente aquellas funciones que si eran susceptibles de


ser caracterizadas.

Steven Cook (1971) y Richard Karp (1972)

La teoría de la NP-completitud Gerolalo Cardano (1501 – 1576) Introducción de la


probabilidad basada en resultados de juegos de apuestas.

Thomas Bayes (1702 – 1761)

Bayes la regla de Bayes y el análisis Bayesiano.

 ECONOMÍA (DESDE EL AÑO 1776 HASTA EL PRESENTE)

La economía se encarga de estudiar cómo la gente toma decisiones que los llevan
a obtener los beneficios esperados. Por consiguiente, se podría afirmar que los
bienes económicos son condición necesaria pero no suficiente para que la persona
alcance sus fines, como la felicidad y la realización personal. Resico (2011).

Esta disciplina se basa en las teorías de la toma de decisiones, la teoría de juegos


y la investigación operativa.

Adam Smith (1723 – 1790)

Fue el primero en tratar al pensamiento económico como una ciencia ya que este
puede concebirse como un conjunto de agentes individuales que intentan
maximizar su propio estado de bienestar económico.

Leon Walras (1834 – 1910)

Formalizó el tratamiento matemático del "beneficio deseado" o utilidad.


John Neumann y Oskar Morgenstern (1944)

Teoría de Juegos en algunos juegos un agente racional debía actuar de forma


aleatoria al menos en apariencia con respecto a sus contrincantes.

Richard Bellman (1957)

Investigación operativa - proceso de decisiones, el resultado de las acciones no


son inmediatas.

 NEUROCIENCIA (DESDE EL AÑO 1861 HASTA EL PRESENTE)

Busca saber y entender cómo el cerebro puede procesar toda la información.

Aristóteles

“De entre todos los animales el hombre tiene el cerebro más grande en proporción
a su tamaño”.

Camillo Golgi (1843-1936)

Desarrolló una técnica de colaboración que permitió la observación de neuronas


individuales en el cerebro.

 PSICOLOGÍA (DESDE EL AÑO 1879 HASTA EL PRESENTE)

Es la ciencia que se encarga de investigar cómo actúan y piensan las personas.

Helmholtz (1821-1894)

Aplico el método científico al estudio de la vista humana, y su obra HandbooK of


physiological Optics, todavía en nuestros días, se considera como “el tratado actual
más importante sobre la física y la fisiología de la vista humana”.

H. S. Jennings (1906)

Trabajo IBehavior of the Lower Organisms.

John Watson (1878 - 1958)

El movimiento anductista, liderado por aplico este punto de vista a los humanos,
rechazando cualquier teoría. En la que intervinieran procesos mentales.

William James (1842-1910)


La conceptualización del cerebro como un dispositivo de procesamiento de
información.

Frederic Bartlett (1886 -1969)

Simposio celebrado en el MIT, en septiembre de 1956 EEUU Los modelos


Cognitivos. Desarrollo del modelo computacional llevo a la creación del campo de
la ciencia cognitiva.

 INGENIERÍA COMPUTACIONAL (DESDE EL AÑO 1940 HASTA EL PRESENTE)

Esta rama es la encargada del software y hardware. Para que la inteligencia


artificial pueda llegar a ser una realidad se necesitan dos cosas: inteligencia y un
artefacto o dispositivo.

Alan Turing Construyó, en 1940

El primer computador operacional de carácter electromecánico, llamado Heath


Robinson, con un único propósito: descifrar mensajes alemanes.

Konrad Zuse en 1941


 El primer computador operacional programable
 Inventó los números de coma flotante y el primer lenguaje de programación de
alto nivel, "Plankalkúl".

 TEORÍA DEL CONTROL Y CIBERNÉTICA (DESDE EL AÑO 1948 HASTA EL


PRESENTE)

Esta Teoría se refiere a la construcción de sistemas autónomos, es decir sistemas


que maximizan una función objetivo en el tiempo.

Ktesibios de Alejandría (250 A.C.)

Construyó la primera máquina auto controlada: un reloj De agua con un regulador


que mantenía el flujo de agua Circulando por él, con un ritmo Constante y
predecible.

Norbert Wiener (1894 - 1964)

La figura central del desarrollo de lo que ahora se llama la teoría de control.

A finales de los años 40, Wiener, junto a Warren McCulloch, Walter Pitts y
John Von Neumann

Organizaron una serie de Conferencias en las que se exploraban los nuevos


modelos cognitivos matemáticos y computacionales, e influyeron en muchos otros
investigadores en el campo de las ciencias del comportamiento.
Inteligencia Artificial

La IA trata de resolver problemas y tomar decisiones similares a las que toman los
seres humanos al afrontar la vida diaria, realizando programas de computadora que
aumenten la capacidad o “inteligencia “de las mismas; el objetivo de las
investigaciones de la IA es, aumentar la utilidad de las máquinas y sus procesos.

Se cree que sus comienzos ocurrieron al definirse la neurona, en 1943, como un


dispositivo binario con varias entradas y salidas. En el año de 1956 se volvió a
tocar este tema y se establecen las bases como un campo independiente de la
informática.

En los 60s, la Inteligencia Artificial no tuvo el éxito esperado, pues requería mucho
capital y la mayoría de las tecnologías eran propias de los grandes centros de
investigación. No fue sino hasta las décadas siguientes que se lograron algunos
avances significativos en una de sus ramas, la llamada Sistemas expertos.

Aunque habitualmente el nacimiento de la IA como rama de la Computación se


suele asociar a avances concretos que tienen lugar durante la primera mitad del
S.XX, podemos encontrar trazas de su existencia mucho antes y no podemos
desligar su desarrollo de la evolución histórica que han tenido los fundamentos de
las Matemáticas.

Al igual que la Computación comienza su andadura como respuesta a la pregunta


sobre las posibilidades de automatización de los procedimientos matemáticos, la IA
surge de forma natural al plantear hasta qué punto aquellos procesos que
consideramos propios de una inteligencia natural (en particular, la humana) podrían
ser automatizables en mecanismos artificiales, tengan éstos un componente físico
concreto o sólo conceptual.

Se pudiera inferir que el objetivo del Inteligencia Artificial es construir réplicas de la


compleja red neuronal del cerebro humano e intentar imitar el comportamiento del
cerebro humano con una computadora.

La Inteligencia Artificial es el nuevo término de moda en ciencia, tecnología y


empresa, llegando a superar en muy poco tiempo a otros términos que estaban
ocupando las portadas e interés público, como Big Data o Ingeniería Genética. Hoy
en día no hay nueva tecnología, servicio digital o investigación puntera que no vaya
asociada al (pretendido) uso de técnicas provenientes de la IA. Aunque en muchos
casos son evidentes los beneficios que esta disciplina ofrece, es necesario analizar
con detalle estas asociaciones para saber hasta qué punto son reales o solo son
reclamos comerciales que no ofrecen un verdadero valor añadido.

La Inteligencia Artificial tiene cada vez más presencia en nuestro trabajo, en la


sociedad y en nuestras vidas. Nuestros objetos cotidianos están conectados a
internet: frigoríficos y congeladores inteligentes con conexión Wi-Fi, robots
aspiradores inteligentes, hornos que envían un mensaje al cocinero cuando el plato
está listo, televisiones inteligentes, puertas de garajes, sensores para el jardín para
medir la humedad y un largo etcétera. La inteligencia es imparable.

La Inteligencia Artificial (IA) es una tecnología presente en las máquinas que


utilizamos en nuestro día a día, como el Smartphone. La IA ha sido creada a través
de la combinación de algoritmos planteados con el fin de crear máquinas con las
mismas capacidades que el ser humano.

Desembocamos en la cuarta revolución industrial con la Inteligencia Artificial (IA)


como protagonista, la realidad aumenta, Robots autónomos, simulación,
ciberseguridad, Cloud, impresión 3D, junto a los sistemas de almacenamiento de
energía, los drones, la biotecnología y otros avances en 3D, robótica.

3. ¿Cuál es la relación de las bases de la IA con respecto a los lenguajes de


programación?

La Inteligencia Artificial se basa en algoritmos, los cuáles permiten a una máquina o


sistema analizar el entorno y tomar decisiones de manera similar a como lo haría
un ser humano. Esto tiene numerosas aplicaciones, como ya hemos visto en
nuestros artículos sobre inteligencia artificial en marketing o inteligencia artificial en
medicina.

Sin embargo, para saber programar inteligencia artificial es necesario tener ciertos
conocimientos, en algunos casos avanzados. A saber, lenguajes de programación,
matemáticas avanzadas, Big Data, etc.

LA PROGRAMACIÓN COMPUTACIONAL COMO SOPORTE DE LA


INTELIGENCIA ARTIFICIAL

¿Qué lenguaje de programación debería aprender para sondear las profundidades


de la Inteligencia Artificial? Por supuesto, querrá un lenguaje con muchas y buenas
bibliotecas de machine learning y deep learning. También debe tener un buen
rendimiento en tiempo de ejecución, un buen soporte de herramientas, una gran
comunidad de programadores y un ecosistema saludable de paquetes de soporte.
Esa es una larga lista de requisitos, pero todavía hay muchas buenas opciones.

A continuación, indicamos los conocimientos que se debe tener para crear


sistemas de inteligencia artificial, comenzando por los lenguajes de programación
más utilizados en este campo.

Python

Python es un poderoso lenguaje de programación creado a mediados de los 90 por


Guido Van Rossum. Se trata de un software de licencia open source, es decir, se
puede modificar y distribuir libremente, incluso con fines comerciales.
Una de las ventajas de Python para la programación de inteligencia artificial es que
el un lenguaje dinámico y resulta más flexible y sencillo de aprender que otros
como Java.

Otra de las razones para que se uno de los lenguajes preferidos por los aficionados
a la IA es que cuenta con una gran comunidad de programadores detrás y una
enorme biblioteca de recursos y archivos de uso libre.

R es un lenguaje orientado a la estadística. Posee numerosas posibilidades, entre


las cuales destacan su gran capacidad para la elaboración de análisis y
la creación de gráficos. Además, es ampliamente usado para la minería de datos
y el cálculo numérico.

Respecto a la programación de inteligencia artificial, R es uno de los lenguajes más


empleados en casos en que se necesita hacer una computación independiente,
o un análisis individual en servidores.

Aunque es similar a Python, existen algunas diferencias entre ambos. Python es


más sencillo de usar y flexible, mientras que R es más visual, por lo que su uso
cada vez está más extendido en el ámbito empresarial.

Java

Java es un lenguaje creado por Sun Microsystems y que actualmente es propiedad


de Oracle. Está orientado a objetos y construido sobre la base de C++.

En la mayoría de los foros u opiniones que se leen en internet se prefiere


programar inteligencia artificial con Python o R, puesto que son más intuitivos,
dinámicos, interpretativos y poseen bibliotecas open source de mayor tamaño,
sobre todo Python.

Sin embargo, Java también es muy usado en proyectos que tienen un gran
volumen de datos y con una marcada evolución en el tiempo. Muchos proyectos
de machine learning de tamaño medio-grande hacen uso de este lenguaje de
programación, aunque sea más “burocrático” y se necesite precisar mucho más los
datos.

C++

Se trata de un lenguaje de programación orientado a la manipulación de objetos.


Fue creado en el año 1979 por Bjarne Stroustrup. Tiene funciones de programación
genérica, estructurada y orientada a objetos, por lo que se considera un lenguaje
multiparadigma.
Permite transformar el código creado por los usuarios en datos comprensibles para
las máquinas. Además, su tiempo de respuesta al ejecutar procesos es muy
rápido, por lo que es muy útil para la programación de inteligencia artificial.

PHP

PHP consiste en un lenguaje con código del lado del servidor. Es decir,


interpreta un script en el servidor web para crear una página web de forma
dinámica.

Es uno de los lenguajes de programación más comunes que existen en la red, y


debido a su sencillez y funcionalidad es uno de los más empleados a la hora de
crear sistemas de inteligencia artificial en la nube.

SQL

SQL es un lenguaje de dominio específico, cuya función es detectar problemas


concretos y ofrecer las técnicas adecuadas para su resolución. Una de sus
principales aplicaciones es la gestión y recuperación de información en bases de
datos relacionales.

Es de gran ayuda para la programación de inteligencia artificial con cualquier otro


tipo de lenguaje, ya que sus procesos se pueden implementar con Java, PHP, C++
y un largo etcétera.

Visual Basic.NET

Es otro lenguaje de programación para inteligencia artificial orientado a objetos,


que se desarrolla sobre la plataforma .NET. Es una evolución del primer Visual
Basic y su desarrollo estuvo rodeado de cierta polémica al cambiar numerosos
paradigmas del original, que los hace incompatibles.

La última versión es Visual Studio 2019, que incorpora funciones como la limpieza
de código, obtención de recomendaciones por inteligencia artificial basadas en
información de la comunidad y compartir código en otros usuarios en tiempo real.

Prolog

Como su propio nombre indica, PROLOG proviene de los términos PROgramación


LÓGica. Se trata de uno de los lenguajes de programación más utilizados en
inteligencia artificial por su capacidad para crear sistemas expertos o que están
basados en el conocimiento.

Normalmente se emplea como un programa de apoyo. Es decir, no se suele


utilizar en exclusiva para la programación de inteligencia artificial. Normalmente los
procesos más generales se programan con otros lenguajes más conocidos,
mientras que PROLOG se aplica a la hora de desarrollar tareas más específicas.
Entre sus principales aplicaciones están la construcción de sistemas de verdadero
o falso, la creación de bases de conocimiento o resolver problemas de lógica, entre
otras.

C#

C#, también denominado C Sharp, es un lenguaje de programación diseñado por


Microsoft que se emplea para la creación de infraestructuras de lenguaje común.
Esto es, permite crear sistemas que albergan aplicaciones escritas en múltiples
lenguajes de alto nivel.

Forma parte de la plataforma .NET de Microsoft. Como lenguaje de programación


para inteligencia artificial es similar a Java, aunque incorpora mejoras basadas en
otros lenguajes. Su nombre significa “Do sostenido” en música, haciendo referencia
a que está un punto por encima de su antecesor, C++.

Objective-C

Terminamos la lista de lenguajes de programación para inteligencia artificial con


Objective-C, el cual está desarrollado como una compilación de los lenguajes de
programación C.

Al igual que C o C++ está considerado como un lenguaje de bajo nivel.


Básicamente, significa que tiene un mejor rendimiento, pero no tiene capacidad de
abstracción ni para tomar sus propias decisiones. Esto implica que el programador
ha de toma todas las decisiones, por lo que la probabilidad de error también es
mayor.

Torch

Más que un lenguaje de programación, Torch es una biblioteca de código


abierto basada en el lenguaje de programación LUA. Se usa principalmente
para computación científica y para diseñar rutinas de aprendizaje automatizado.
Es ampliamente utilizado para la creación de redes neuronales, y los emplean
empresas tan conocidas como Facebook, IBM o Yandex.
REFERENCIAS BIBLIOGRAFICAS

IACC (2020). Tendencias tecnológicas y cómo influye en el mercado de las


Tecnologías de la información. Tecnologías aplicadas. Semana 2. Consultado el 15
de noviembre de 2020.

SANCHO (2020). Breve Historia de la Inteligencia Artificial. Consultado el 15 de


noviembre de 2020 en http://www.cs.us.es/~fsancho/?e=221

IAT (2020). ¿Qué conocimientos son necesarios para programar Inteligencia


Artificial?. Consultado el 15 de noviembre de 2020 en
https://iat.es/tecnologias/inteligencia-artificial/programacion/

CONASA ITWORKS (2020). El Internet de las Cosas y la Inteligencia Artificial en el


mundo empresa. Consultado el 15 de noviembre de 2020 en
https://conasa.grupocibernos.com/blog/el-internet-de-las-cosas-y-la-inteligencia-
artificial-en-el-mundo-empresa

También podría gustarte