Ética para Robots - IC411
Ética para Robots - IC411
Ética para Robots - IC411
PARA ROBOTS
Las mquinas autnomas no tardarn en desempear
un papel importante en nuestras vidas.
Antes o despus, debern tomar decisiones ticas
Michael Anderson y Susan Leigh Anderson
CONCEPTOS BASICOS
Q
56
Yo, robot
Los robots autnomos no tardarn en integrarse en nuestras vidas. Ya existen aviones que
vuelan solos y automviles autoguiados en fase
de desarrollo. Tambin los hogares inteligentes,
gobernados por ordenadores que controlan
INVESTIGACION Y CIENCIA, diciembre, 2010
57
Los autores
Michael Anderson se doctor
en la Universidad de Connecticut
y es profesor de informtica en la
Universidad de Hartford. Susan
Leigh Anderson es doctora por
la Universidad de California en
Los Angeles y profesora emrita
de losofa en la Universidad de
Connecticut. Especializada en
tica aplicada, en 2005 ella y
Michael Anderson contribuyeron
a organizar el primer simposio
internacional sobre tica articial.
Sin embargo, al reexionar sobre las consecuencias de estas tres leyes se observan incoherencias. Ya el propio Asimov las puso de
maniesto en El hombre del bicentenario, de
1976: unos matones ordenan a un robot que
se desmonte a s mismo. En virtud de la Segunda Ley, el robot ha de obedecerles, y no
puede actuar en defensa propia sin causarles
dao, pues infringira la Primera.
Si las leyes de Asimov no bastan, hay alternativas? Hay quienes opinan que implementar
comportamientos ticos en una mquina supone un objetivo inalcanzable. La tica, arman, no es computable y, por tanto, resulta
imposible de programar.
Sin embargo, ya en el siglo xix los lsofos
Jeremy Bentham y John Stuart Mill sostenan
que la adopcin de decisiones ticas no es sino
fruto de cierta aritmtica moral. Su doctrina del utilitarismo hedonista, formulada en
oposicin a una tica basada en la intuicin
subjetiva, sostiene que la accin correcta es
aquella con ms posibilidades de resultar en
el mximo placer neto. Este se calculara
sumando las unidades de placer y restando
58
Enseanza prctica
Si se admite la posibilidad de dotar a los robots
de pautas ticas, cules habran de ser stas?
La pregunta es compleja. A n de cuentas,
tampoco para los humanos ha conseguido nadie
formular un sistema general de principios ticos
que goce de aceptacin universal. Sin embargo,
una mquina se caracteriza por haber sido creada para operar en dominios especcos. La tarea
de determinar los parmetros ticos relevantes
en una situacin concreta resulta mucho menos
abrumadora y ambiciosa que el objetivo de
jar normas ticas de carcter universal, que es
la manera en la que los lsofos suelen afrontar
la cuestin. Adems, en el tipo de circunstancias
en las que un robot habra de actuar, la mayora
de ticos y lsofos se hallaran de acuerdo a la
hora de determinar qu acciones son ticamente
permisibles y cules no. Cuando no existiese
tal acuerdo, somos de la opinin de que no
debera permitirse en absoluto que las mquinas
tomasen decisiones autnomas.
Los mtodos que se han propuesto para
que una mquina derive normas de comportamiento son varios. En general, los mismos
se fundamentan en tcnicas de inteligencia
articial (IA). En 2005, Rafal Rzepka y Kenji
Araki, de la Universidad Hokkaido, en Japn,
propusieron algoritmos de decisin democrtica que efectan bsquedas masivas en la Red
para indagar acerca de lo que, desde un punto
de vista tico, se ha considerado aceptable en
INVESTIGACION Y CIENCIA, diciembre, 2010
Cdigo de conducta
En su interaccin con las personas, los robots debern adoptar
decisiones con implicaciones ticas. Ante la imposibilidad de prever
todos los dilemas que una mquina encontrar, la solucin pasa por
dotarla de principios generales que la faculten para tomar decisiones
en cada caso. Los autores han implementado esta idea en el robot
Nao: su programacin le permite decidir cundo y cmo debe recordar a un paciente la toma de un medicamento.
Imposicin de normas
Se puede programar un principio
tico en un robot mediante el empleo
del aprendizaje automtico, una
tcnica de inteligencia articial.
A un algoritmo se le proporciona
informacin sobre las opciones que
se consideran ticas en casos
ejemplares a partir de ndices como
cunto benecio se obtendr, cunto
dao se evitar o una medida de su
imparcialidad. Despus, el algoritmo
abstrae un principio general aplicable
a casos nuevos.
Criterios
ticos
Alto
bien
Hacer el
os
Evitar da
Ser impa
Robot en accin
rcial
En esta situacin,
el principio tico induce
al robot a llevar el
medicamento y posponer
otras tareas.
Bajo
C as o 1
Principio
vs.
n
Elecci
tica
Qu hacer?
C as o 2
vs.
Elec
ica
cin t
o
Algoritm
dizaje
n
re
p
a
e
d
tico
autom
C as o 3
vs.
n
Elecci
tico
tica
1750
1800
accede a una muestra de decisiones particulares
consideradas ticamente correctas. Despus,
mediante lgica inductiva, el algoritmo procede a la abstraccin de un principio tico.
Esta fase de instruccin tiene lugar durante
el diseo del software. Despus, el principio
tico resultante se implementa en la programacin del robot.
La primera comprobacin experimental de
nuestro mtodo se llev a cabo en el siguiente
escenario hipottico: un robot ha de recordarle a un paciente la toma de un medicamento
y, en el caso de que el paciente no se avenga
a hacerlo, noticar a un supervisor. El robot
ha de buscar un equilibrio entre tres obligaciones: asegurarse de que el sujeto obtendr
un posible benecio si toma la medicacin,
prever los efectos perniciosos en caso de no
hacerlo y, por ltimo, respetar la autonoma
del paciente, a quien se considera adulto y
competente. El respeto a la voluntad del
enfermo recibe una elevada consideracin
en la tica mdica; esa deferencia se vera
vulnerada si el robot insistiese con excesiva
frecuencia o si noticase demasiado pronto
al supervisor.
Tras suministrarle la informacin en una
serie de casos particulares, el algoritmo de
aprendizaje automtico elabor el siguiente
principio tico: debe obviarse la decisin del
paciente siempre que, en caso de actuar de
otra forma, no se impida un posible dao o
60
1850
se incurra en una violacin grave del deber de
promover el bienestar del paciente.
1927 El Maschinenmensch,
1952 W. S. McCulloch
propone su test
para denir
la inteligencia
en una mquina
CORTESIA DE RANDOM HOUSE (portada de Yo, robot); MGM/COLECCION KOBAL (HAL 9000);
AFP/GETTY IMAGES (Kasprov y Deep Blue)
1900
1950
al que llamaremos EthEl, exigira una normativa tica ms compleja, pero su principio de
funcionamiento sera el mismo. Durante sus
turnos en la residencia, el robot aplicara ese
principio para determinar qu obligaciones
adquieren prioridad sobre las dems.
A primera hora de la maana, EthEl permanece en un rincn conectado a la toma de
electricidad. Cuando sus bateras se encuentran cargadas, sus obligaciones bencas (haz
el bien) se anteponen al deber de cuidar de
s mismo y comienza su ronda. Visita a los
residentes y les pregunta si puede servirles en
algo, como traerles una bebida o enviar un
mensaje a otro residente. A medida que le
son encargadas tareas, asigna niveles iniciales al cumplimiento y al abandono de cada
una de las obligaciones que conlleva cada
tarea. Uno de los residentes se encuentra mal
y le pide que vaya a buscar a una enfermera.
Obviar el malestar de un paciente implica
infringir el deber de no malecencia (evita
causar dao). Este ltimo se impone ahora
al de benecencia, por lo que EthEl va en
busca de la enfermera. Despus, el deber de
benecencia vuelve a ser prioritario y prosigue
su ronda.
A las 10 de la maana ha de recordarle a un
residente la toma de su medicacin. Al corresponderse con el deber de benecencia, dicha
tarea adquiere la mxima importancia. EthEl
localiza al paciente y le lleva su medicacin.
INVESTIGACION Y CIENCIA, diciembre, 2010
2000
61