Inteligencia Artificial
Inteligencia Artificial
Inteligencia Artificial
Contenido
Inteligencia Artificial................................................................................................................................ 1
TIPOS DE INTELIGENCIA ARTIFICIAL .................................................................................................... 1
APLICACIONES PRÁCTICAS DE LA INTELIGENCIA ARTIFICIAL .............................................................. 2
LAS SEIS LEYES DE LA ROBÓTICA PROPUESTAS POR EL PARLAMENTO EUROPEO .............................. 2
RIESGOS Y REFUTACIONES .................................................................................................................. 3
Inteligencia Artificial
1
APLICACIONES PRÁCTICAS DE LA INTELIGENCIA ARTIFICIAL
La IA está presente en la detección facial de los móviles, en los asistentes virtuales de voz
como Siri de Apple, Alexa de Amazon o Cortana de Microsoft y está integrada en nuestros
dispositivos cotidianos a través de bots (abreviatura de robots) o aplicaciones para móvil, tales
como: Lylin., un personal shopper en versión digital; Parla concebida para ayudarnos con el
aprendizaje de idiomas; Ems, diseñada para hacernos un poco más llevadera la ardua tarea de
encontrar nuevo piso; o Gyant, un asistente virtual de Facebook que emite 'diagnósticos'
médicos. El objetivo de todas ellas: hacer más fácil la vida de las personas.
Los avances en IA ya están impulsando el uso del big data debido a su habilidad para procesar
ingentes cantidades de datos y proporcionar ventajas comunicacionales, comerciales y
empresariales que la han llevado a posicionarse como la tecnología esencial de las próximas
décadas. Transporte, educación, sanidad, cultura...
Los robots deberán contar con un interruptor de emergencia para evitar cualquier
situación de peligro.
No podrán hacer daño a los seres humanos. La robótica está expresamente concebida
para ayudar y proteger a las personas.
No podrán generarse relaciones emocionales.
Será obligatoria la contratación de un seguro
destinado a las máquinas de mayor
envergadura. Ante cualquier daño material,
serán los dueños quienes asuman los costes.
Sus derechos y obligaciones serán clasificados
legalmente.
Las máquinas tributarán a la seguridad social.
Su entrada en el mercado laboral impactará
sobre la mano de obra de muchas empresas. Los robots deberán pagar impuestos para
subvencionar las ayudas de los desempleados.
2
racional que percibe y actúa para alcanzar sus objetivos al máximo. Subcampos como la
robótica y el procesamiento de lenguajes naturales pueden entenderse como casos especiales
del paradigma general. La IA ha incorporado la teoría de la probabilidad a la gestión de la
incertidumbre, la teoría de la utilidad para definir objetivos y el aprendizaje estadístico para
ayudar a las máquinas a adaptarse a circunstancias nuevas. Estos progresos han creado fuertes
vínculos con otras disciplinas que aplican conceptos similares, incluidas la teoría del control,
la economía, la investigación de operaciones y la estadística.
Los progresos en IA parecen acelerarse. En los últimos años, debido en parte a los avances en
el aprendizaje de las máquinas, tareas como el reconocimiento de voz, la identificación de
objetos, la locomoción bípeda y la conducción autónoma se han resuelto en gran medida.
Cada nueva destreza alcanzada trae consigo nuevos mercados potenciales y nuevos incentivos
para seguir invirtiendo en investigación, lo que conduce a un ciclo virtuoso que impulsa la IA.
En la próxima década es probable que asistamos a progresos sustanciales en comprensión
efectiva del lenguaje, lo que conducirá a sistemas capaces de ingerir, sintetizar y contestar
preguntas sobre la suma total del conocimiento humano.
A pesar de todos estos avances, seguimos lejos de la IA a nivel humano. Por ejemplo, no
disponemos de métodos prácticos para inventar conceptos útiles como «electrón» o nuevas
acciones útiles de alto nivel como «preparar diapositivas para la clase de mañana». Esta
última destreza es especialmente importante para sistemas que operan en el mundo real,
donde los objetivos que importan pueden requerir miles de millones de acciones básicas de
control motor. Sin la capacidad de concebir ni razonar sobre acciones nuevas de alto nivel,
son imposibles la planificación y la actuación en las escalas temporales que se manejan. Sin
duda son necesarios más avances que no sabremos describir hasta que nuestros esfuerzos por
construir sistemas IA polivalentes fracasen de maneras interesantes. La dificultad de predecir
estos avances implica que dar una estimación precisa de la fecha en la que la IA alcanzará el
nivel humano es imprudente. Sin embargo, la mayoría de expertos cree que es probable que
ocurra en el presente siglo (Müller y Bostrom 2016; Etzioni 2016).
RIESGOS Y REFUTACIONES
Las preocupaciones que suscita la IA superinteligente no son algo nuevo. Turing mismo, en
una comunicación por radio de 1951, sintió la necesidad de apuntar la siguiente posibilidad:
«Si una máquina puede pensar, es posible que piense de manera más inteligente que nosotros,
3
y entonces ¿dónde nos coloca eso? Incluso si pudiéramos relegar a las máquinas a una
posición de servidumbre, por ejemplo desenchufándolas en momentos estratégicos,
deberíamos, como especie, extraer una lección de humildad […] Este nuevo peligro […] es,
sin duda, algo que puede causarnos preocupación». Irving. J. Good (1965), que había
trabajado con Turing durante la Segunda Guerra Mundial, fue más allá y apuntó la posibilidad
de sistemas de IA que se automejoran. «Habría entonces, indudablemente, una “explosión de
inteligencia”, y la inteligencia del hombre quedaría muy atrás.» El problema del control de la
IA, por tanto, es cómo asegurarse de que los sistemas con un grado arbitrariamente alto de
inteligencia permanecen bajo estricto dominio humano.
Parece razonable ser cauteloso a la hora de crear algo mucho más inteligente que nosotros
mismos; sin embargo, necesitamos algo más que una sensación de inquietud generalizada
para reconducir de manera correcta la despiadada presión científica y económica a la hora de
construir sistemas cada vez más capaces. Muchas novelas y películas han trasladado esta
inquietud a escenarios de máquinas conscientes espontáneamente malvadas, algo que es muy
improbable y, como fenómeno técnico a evitar, imposible de abordar. De hecho, en la medida
en que comprendemos el problema, la fuente de dificultades más probable parece ser un
fracaso en el alineamiento de valores; a saber, que es posible que, sin darnos cuenta, dotemos
a las máquinas de objetivos que no se alinean correctamente con los nuestros. Norbert Wiener
(1960) lo expresó así: «Si usamos para nuestros fines una agencia mecánica en cuyo
funcionamiento no podemos interferir de manera efectiva […] debemos asegurarnos de que el
propósito que damos a la máquina es el que de verdad deseamos».