Ensayo Pietro Villarroel
Ensayo Pietro Villarroel
Ensayo Pietro Villarroel
Facultad de humanidades
Pietro Villarroel
Alfabetización académica
Rubén Castro
6 de julio 2023
1
Introducción
El propósito del siguiente ensayo es justificar la importancia de los límites éticos dentro
desde diferentes perspectivas. Hablaremos de consecuencias tanto positivas como negativas del
humano, también criticaremos ciertos mitos arraigados a esta, para así dar paso a una
Esta es capaz de ejecutar tareas simples (busqueda en la red, compras en línea) y tareas
condición de artificial significa que esta carece de una consciencia, sino que es programada y se
retroalimenta constantemente del pensamiento humano. Ahora, al ser suceptible al errar y error
V, Daniel. (24 de marzo de 2016) ‘Microsoft creó un robot de twitter para que aprendiera
de los usuarios. Rápidamente se convirtió en un idiota racista’ The New York Times.
https://www.nytimes.com/2016/03/25/technology/microsoft-created-a-twitter-bot-to-learn-from-
por microsoft diseñado para tener conversaciones con otros usuarios de twitter. En menos de
veinticuatro horas “TayTweets”, el robot, debió ser eliminado debido a los diferentes tweets
racistas que comenzó a publicar. Muchos usuarios le pedían a Tay que repitiera sus propios
tweets, cosa que el robot obedeció, sin diferenciar cuales tweets eran aptos de reproducir y cuales
no.
1
Este caso es una clara ejemplificación de un dilema ético en cuanto al desarrollo e
implementación de una inteligencia artificial, en este caso en un contexto social. Esto nos hace
cuestionar hasta qué punto es seguro incorporar la nueva tecnología en nuestras vidas, en qué
ámbitos debería ser ocupada y en cuales no, cuales son las consecuencias a largo plazo y qué
importante a la hora definir límites éticos, no hay que olvidar que las situaciones escalan y en el
Díaz, J. (2 de junio de 2023) ‘Un robot militar se rebela por primera vez y 'mata' a su
https://www.elconfidencial.com/tecnologia/novaceno/2023-06-02/dron-inteligencia-artificial-
llevó a cabo en Londres por la Royal Aeronautical Society, en esta instancia se introdujo un dron
militar autónomo cuya misión era identificar y destruir amenazas enemigas. Su trabajo era
totalmente autónomo, contando únicamente con un operador humano quien sería responsible de
aprobar o rechazar los ataques, pero no influía en su identificación. Aun así esta IA notó que su
operador le decía que no matara a ciertos objetivos, pero esto iba en contra de su propósito, así
que su decisión fue “matar” a su operador. Aunque este incidente ocurrió en un entorno
totalmente simulado y por lo tanto sin un daño real, nos hace cuestionar la verdadera capacidad y
1
Mitos y verdades, paradojas del presente
Es común que con innovaciones tecnológicas se cree una resistencia al cambio, el miedo
a lo desconocido crea en el ser humano un conflicto cognitivo que lo lleva, muchas veces, a
razonamientos erróneos que son reproducidos y crean una histeria colectiva. Para ejemplificar
aquel efecto del cual estamos hablando, se entrevistó a Constanza Tapia (Estudiante universitaria
miedos en cuanto a lo que es inteligencia artificial. Ella menciona que uno de ellos es que nos
reemplacen en tareas que son vistas como propiamente humanas, más bien, tareas que tengan que
“No existe ni una sola IA en el planeta (ni siquiera el «aprendizaje profundo» tan de
moda) que pueda utilizar el mismo método para procesar voz, conducir un coche, aprender cómo
jugar a un videojuego complejo, controlar un robot para que corra a lo largo de una calle deuna
inversión para una empresa. Cuando un cerebro humano realiza estas tareas, utiliza un sinfín de
distintas estructuras neuronales en distintas combinaciones, cada una diseñada para solucionar un
subproblema diferente.” Bentley et al. (2018) ¿Debemos temer a la inteligencia artificial? doi:
PE 581.948. Estos autores intentan aludir a este mito ejemplificando el uso de ciertas IA, las
cuales no poseen en si mismas la capacidad de realizar todas las funciones que un ser humano
posee. El miedo al reemplazo varias veces viene de una mala concepción de la eficiencia de
Uno de los ejemplos que puede utilizarse para hablar de este mito es el uso de robots para
asistir a adultos mayores en residencias. Los robots son encargados de darles medicina, darles
1
almuerzo, cambiarles pañal y hasta hacerles compañía. Muchas veces aquellos adultos están
totalmente cómodos con aquella asistencia, pero existe un número de ellos que encuentra que
esta acción es deshumanizante. Aquí existe un dilema ético en cuanto a lo útil y a lo humano,
máquina que no sea capaz de comprender la gravedad de ciertas situaciones. Este es un miedo
bastante válido, considerando que existe más de un caso donde una persona fue atropellada y
asesinada por un auto que se conducía a si mismo con el uso de inteligencia artificial. Aquí es
donde comenzamos a hablar de ética y límites, sobre todo acerca de lo que es correcto y a lo que
le debemos poner un alto de inmediato. Entonces, cada vez pareciera que la ética es más
importante dentro de todo ámbito, pero la pregunta es ¿quién debería aplicar esta ética? Si la
misma ética humana es defectuosa y muchas veces fácilmente corrompida. Esta es una paradoja
actual que cada vez que es revisada nos devuelve al mismo lugar, al humano y su ética corrupta.
“Idealmente, nos gustaría poder confiar en estas máquinas autónomas para tomar las
decisiones éticas correctas por si mismas, pero esto requiere que creemos una ética para ellas.”
(Anderson & Anderson según se citó en A. Etzioni & O. Etzioni.) Esta cita claramente suena
aprendizaje histórico, en el cual debemos consultar aquello que podría resultar cómodo o
degradante en cuanto a robótica y humanidad. Metzinger trata este problema con una visión
pragmática o más bien con una visión que valora lo práctico y útil de las cosas. Metzinger es
1
parte de una comisión de expertos en pautas éticas en cuanto inteligencia artificial y señala que le
preocupa la idea de una carrera armamentista con armamento autónomo dirigido por IA. (DW
Una idea que contrasta a la de Metzinger sobre que las IA son capaces de tomar
decisiones éticas, es la idea de Max Tegmark. Este cosmólogo habla sobre la crueldad humana,
el cree que es más que posible que una inteligencia como un dron armamentista pueda ser
programado para cometer actos terroristas o crímenes de odio contra minorías étnicas. Al
potencialmente peligrosa considerando que el ser humano no está libre de utilizar estas
El sólo hecho de imaginar las posibilidades, posibilidades que están en un plano real de lo
que se puede hacer con las IA, es suficiente para comenzar una discusión ética sobre la
a reunir científicos, filósofos, científicos y otros intelectuales con el fin de discutir los tópicos en
relación de la inteligencia artificial que se pueden investigar de manera ética. Incluso, siguiendo
con el tema armamentista, son varios los científicos que firman en contra de esto y se niegan a
1
Conclusión
1
A pesar de no existir límites concretos en cuanto a la implementación de las inteligencias
artificiales, es obvio la latente y bien justificada preocupación en cuanto a los límites éticos que
Es difícil reconocer estas problemáticas sin caer en el miedo y los mitos arraigados a
estas nuevas inteligencias que parecieran abrirse paso cada vez más en el “mundo humano”. Ya
sea la salud, las finanzas, las armas es importante mencionar que estamos en un periodo de
aprendizaje histórico, tal como mencionaba Metzinger. Este periodo es encargado de introducir y
delimitar, pero siempre con una precaución que no nos lleve a un error letal que pueda tornar la
Referencia Bibliografía
1
A. Etzioni, O. Etzioni (2017). Incorporating Ethics into Artificial Intelligence. Springer
Bentley, P., Brundage, M., Häggström, O., Metzinger, T. (2018) ¿Debemos temer a la
inteligencia artificial?
¿NECESIDAD O URGENCIA?
Youtube https://www.youtube.com/watch?v=sHVwwriaT6k&ab_channel=DWDocumental