Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Ensayo Pietro Villarroel

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 9

Universidad de La Serena

Facultad de humanidades

Inteligencia artificial y límites éticos: ¿miedo justificado?

Pietro Villarroel
Alfabetización académica
Rubén Castro
6 de julio 2023

1
Introducción

El propósito del siguiente ensayo es justificar la importancia de los límites éticos dentro

de la implentación de la inteligencia artificial, para esto vamos a analizar aquella implementación

desde diferentes perspectivas. Hablaremos de consecuencias tanto positivas como negativas del

uso de IA (inteligencia artificial) en diferentes contextos en los cuales se desenvuelve el ser

humano, también criticaremos ciertos mitos arraigados a esta, para así dar paso a una

comprensión sincera de lo expuesto.

Tal como su nombre lo dice, inteligencia artificial, es lo opuesto a la inteligencia humana.

Esta es capaz de ejecutar tareas simples (busqueda en la red, compras en línea) y tareas

complejas (toma de decisiones respecto a un tópico en específico, redacción de un texto). Su

condición de artificial significa que esta carece de una consciencia, sino que es programada y se

retroalimenta constantemente del pensamiento humano. Ahora, al ser suceptible al errar y error

humano, sí podríamos hablar de resultados indeseados.

V, Daniel. (24 de marzo de 2016) ‘Microsoft creó un robot de twitter para que aprendiera

de los usuarios. Rápidamente se convirtió en un idiota racista’ The New York Times.

https://www.nytimes.com/2016/03/25/technology/microsoft-created-a-twitter-bot-to-learn-from-

users-it-quickly-became-a-racist-jerk.html Esta noticia habla sobre un robot automatizado creado

por microsoft diseñado para tener conversaciones con otros usuarios de twitter. En menos de

veinticuatro horas “TayTweets”, el robot, debió ser eliminado debido a los diferentes tweets

racistas que comenzó a publicar. Muchos usuarios le pedían a Tay que repitiera sus propios

tweets, cosa que el robot obedeció, sin diferenciar cuales tweets eran aptos de reproducir y cuales

no.

1
Este caso es una clara ejemplificación de un dilema ético en cuanto al desarrollo e

implementación de una inteligencia artificial, en este caso en un contexto social. Esto nos hace

cuestionar hasta qué punto es seguro incorporar la nueva tecnología en nuestras vidas, en qué

ámbitos debería ser ocupada y en cuales no, cuales son las consecuencias a largo plazo y qué

futuro nos espera al continuar con su innovación.

A pesar de que al criterio de muchas personas un tweet racista no signifique algo

importante a la hora definir límites éticos, no hay que olvidar que las situaciones escalan y en el

caso de la humanidad las ideas se consideran poderosas, ya que, rápidamente pueden

desencadenar en acciones nefastas y crueles para sectores específicos de la humanidad.

Díaz, J. (2 de junio de 2023) ‘Un robot militar se rebela por primera vez y 'mata' a su

operador en una simulación’ El confidencial.

https://www.elconfidencial.com/tecnologia/novaceno/2023-06-02/dron-inteligencia-artificial-

mata-operador-simulacion_3658110/ Esta noticia habla sobre una simulación de combate que se

llevó a cabo en Londres por la Royal Aeronautical Society, en esta instancia se introdujo un dron

militar autónomo cuya misión era identificar y destruir amenazas enemigas. Su trabajo era

totalmente autónomo, contando únicamente con un operador humano quien sería responsible de

aprobar o rechazar los ataques, pero no influía en su identificación. Aun así esta IA notó que su

operador le decía que no matara a ciertos objetivos, pero esto iba en contra de su propósito, así

que su decisión fue “matar” a su operador. Aunque este incidente ocurrió en un entorno

totalmente simulado y por lo tanto sin un daño real, nos hace cuestionar la verdadera capacidad y

conocimiento de nuestras acciones que poseen las inteligencias artificiales.

1
Mitos y verdades, paradojas del presente

Es común que con innovaciones tecnológicas se cree una resistencia al cambio, el miedo

a lo desconocido crea en el ser humano un conflicto cognitivo que lo lleva, muchas veces, a

razonamientos erróneos que son reproducidos y crean una histeria colectiva. Para ejemplificar

aquel efecto del cual estamos hablando, se entrevistó a Constanza Tapia (Estudiante universitaria

de primer nivel de pedagogía en filosofia y castellano) y se le preguntó acerca de sus principales

miedos en cuanto a lo que es inteligencia artificial. Ella menciona que uno de ellos es que nos

reemplacen en tareas que son vistas como propiamente humanas, más bien, tareas que tengan que

involucrar sentimientos o concepciones del bien y el mal.

“No existe ni una sola IA en el planeta (ni siquiera el «aprendizaje profundo» tan de

moda) que pueda utilizar el mismo método para procesar voz, conducir un coche, aprender cómo

jugar a un videojuego complejo, controlar un robot para que corra a lo largo de una calle deuna

ciudad concurrida, lavar platos en un fregadero y planificar una estrategia de generación de

inversión para una empresa. Cuando un cerebro humano realiza estas tareas, utiliza un sinfín de

distintas estructuras neuronales en distintas combinaciones, cada una diseñada para solucionar un

subproblema diferente.” Bentley et al. (2018) ¿Debemos temer a la inteligencia artificial? doi:

PE 581.948. Estos autores intentan aludir a este mito ejemplificando el uso de ciertas IA, las

cuales no poseen en si mismas la capacidad de realizar todas las funciones que un ser humano

posee. El miedo al reemplazo varias veces viene de una mala concepción de la eficiencia de

inteligencias artificiales, desconociendo que la mayoría (o todas) se dedican a una tarea en

específico, o tareas en ámbitos muy parecidos.

Uno de los ejemplos que puede utilizarse para hablar de este mito es el uso de robots para

asistir a adultos mayores en residencias. Los robots son encargados de darles medicina, darles
1
almuerzo, cambiarles pañal y hasta hacerles compañía. Muchas veces aquellos adultos están

totalmente cómodos con aquella asistencia, pero existe un número de ellos que encuentra que

esta acción es deshumanizante. Aquí existe un dilema ético en cuanto a lo útil y a lo humano,

mientras que la eficiencia de estos robots es innegable no se puede ignorar la posible

deshuminzación que puedan ejercer sobre una población específica.

Otro de los miedos mencionados por la entrevistada es el otorgar responsabilidad a una

máquina que no sea capaz de comprender la gravedad de ciertas situaciones. Este es un miedo

bastante válido, considerando que existe más de un caso donde una persona fue atropellada y

asesinada por un auto que se conducía a si mismo con el uso de inteligencia artificial. Aquí es

donde comenzamos a hablar de ética y límites, sobre todo acerca de lo que es correcto y a lo que

le debemos poner un alto de inmediato. Entonces, cada vez pareciera que la ética es más

importante dentro de todo ámbito, pero la pregunta es ¿quién debería aplicar esta ética? Si la

misma ética humana es defectuosa y muchas veces fácilmente corrompida. Esta es una paradoja

actual que cada vez que es revisada nos devuelve al mismo lugar, al humano y su ética corrupta.

“Idealmente, nos gustaría poder confiar en estas máquinas autónomas para tomar las

decisiones éticas correctas por si mismas, pero esto requiere que creemos una ética para ellas.”

(Anderson & Anderson según se citó en A. Etzioni & O. Etzioni.) Esta cita claramente suena

bien en la teoría, pero en la práctica es diferente. Aquellos límites éticos a implementar no

estarían libres del error humano, de las predispociones e incluso la crueldad.

Thomas Metzinger, filósofo experto en ética cree que estamos en un proceso de

aprendizaje histórico, en el cual debemos consultar aquello que podría resultar cómodo o

degradante en cuanto a robótica y humanidad. Metzinger trata este problema con una visión

pragmática o más bien con una visión que valora lo práctico y útil de las cosas. Metzinger es
1
parte de una comisión de expertos en pautas éticas en cuanto inteligencia artificial y señala que le

preocupa la idea de una carrera armamentista con armamento autónomo dirigido por IA. (DW

Documental, 2019) A pesar de este sentimiento de preocupación que posee Metzinger, es

partidario de la investigación en cuanto a armas e inteligencia artificial, señalando que esto se

podría convertir en una pseuda carerra espacial.

Una idea que contrasta a la de Metzinger sobre que las IA son capaces de tomar

decisiones éticas, es la idea de Max Tegmark. Este cosmólogo habla sobre la crueldad humana,

el cree que es más que posible que una inteligencia como un dron armamentista pueda ser

programado para cometer actos terroristas o crímenes de odio contra minorías étnicas. Al

contrario de Metzinger, él considera que una carrera armamentista sería contraproducente y

potencialmente peligrosa considerando que el ser humano no está libre de utilizar estas

herramientas para producir un mal sobre la misma humanidad.

El sólo hecho de imaginar las posibilidades, posibilidades que están en un plano real de lo

que se puede hacer con las IA, es suficiente para comenzar una discusión ética sobre la

implementación y utilización de esta inteligencia. Incluso la unión europea se dedica activamente

a reunir científicos, filósofos, científicos y otros intelectuales con el fin de discutir los tópicos en

relación de la inteligencia artificial que se pueden investigar de manera ética. Incluso, siguiendo

con el tema armamentista, son varios los científicos que firman en contra de esto y se niegan a

investigar respecto a esto. A pesar de la exitencia de diversas opiniones, se genera la intancia de

diálogo y se valoriza la reflexión consciente respecto a estos temas.

1
Conclusión

1
A pesar de no existir límites concretos en cuanto a la implementación de las inteligencias

artificiales, es obvio la latente y bien justificada preocupación en cuanto a los límites éticos que

deberían presentar estas máquinas.

Es difícil reconocer estas problemáticas sin caer en el miedo y los mitos arraigados a

estas nuevas inteligencias que parecieran abrirse paso cada vez más en el “mundo humano”. Ya

sea la salud, las finanzas, las armas es importante mencionar que estamos en un periodo de

aprendizaje histórico, tal como mencionaba Metzinger. Este periodo es encargado de introducir y

delimitar, pero siempre con una precaución que no nos lleve a un error letal que pueda tornar la

inteligencia artificial en un enemigo de la humanidad, sino más bien en una herramienta de

apoyo para el avance.

Referencia Bibliografía

1
A. Etzioni, O. Etzioni (2017). Incorporating Ethics into Artificial Intelligence. Springer

Science Business Media Dordrecht.

Bentley, P., Brundage, M., Häggström, O., Metzinger, T. (2018) ¿Debemos temer a la

inteligencia artificial?

Castrillón, O. Leyton, J. Rodríguez, M. (s.f.) ÉTICA E INTELIGENCIA ARTIFICIAL

¿NECESIDAD O URGENCIA?

DW Documental (14 de agosto de 2019) Límites éticos para la inteligencia artificial.

Youtube https://www.youtube.com/watch?v=sHVwwriaT6k&ab_channel=DWDocumental

También podría gustarte