LOGO-U25

LOGO-U25
LOGO-U25

Inteligencia Artificial: ¿Será que algo anda mal?

 


En las tendencias actuales de la tecnología se vende como una de las grandes innovaciones del futuro la Inteligencia Artificial. Sin embargo hay proyectos de envergadura que utilizan esta tecnología que están fracasando de manera estrepitosa.

En el año 2016 Microsoft puso en funcionamiento un Bot de inteligencia artificial de sexo femenino llamado Tay que interactuaba con seres humanos a través de Twitter. A las 24 horas de haber sido puesta en funcionamiento fue desconectada. La razón: el bot comenzó a emitir comentarios homofóbicos y racistas. Además demostró afinidad con las ideas de Adolfo Hitler y apoyaba al genocidio.



Este bot fue diseñado por Microsoft y fue entrenada para tener la personalidad de una chica de 19 años. Según algunos especialistas Microsoft desarrolló mal este proyecto y es un marco de referencia importante para el desarrollo de estas tecnologías en el futuro.

A casi cinco años de este evento podríamos establecer que los desarrollos sucesivos tendrían en cuenta los errores ante el fracaso del gigante Microsoft. Sin embargo lo cierto es que recientemente volvió a suceder. Según una publicación del portal vice.com, la Startup coreana Scatter Labs desarrolló un Bot de IA llamada Lee Duda, la cual fue diseñada como una chica de 20 años fanática del grupo de K-Pop Blackpink.



El resultado: al igual que su antecesora de 2016, Lee Duda comenzó a emitir juicios racistas y homofóbicos. Se refirió a la gente de raza negra profiriendoles un insulto característico de Korea del Sur. Por otra parte dijo "Realmente las odio" refiriendose a un comentario de un usuario que le consultó acerca del lesbianismo.

En el caso de Lee Duda el servicio fue lanzado a finales de Diciembre de 2020 y antes de los primeros quince días del mes de Enero fue apagada por la polémica que estaba generando en las redes sociales.

Los datos a través de los cuales aprendió a hablar e interactuar con los usuarios la polémica Bot coreana, fueron extraídos de una antigua plataforma de mensajería que Scatter Labs ofrecía.

¿Cual será la razón por la cual ambos proyectos fracasaron? Si lo pensamos en frío lo primero es que estas reacciones inadecuadas de parte de estos Bots se derivan de lo que aprendieron en la interacción con los seres humanos. 

A pesar de que los algoritmos de inteligencia artificial puedan mapear y cruzar grandes cantidades de datos derivados de las interacciones con los humanos y reflejarlos como un comportamiento, los bots no pueden calcular la diferenciación entre el bien y el mal que nos enseñan desde pequeños, es decir no cuentan con formación moral o ética.

Si bien es cierto que Microsoft estimó en su momento que tal vez el resultado del experimento se alteró por abuso de parte de los usuarios que interactuaron con Tay  durante su funcionamiento para influenciar malas respuestas, la realidad es que en el caso de Lee Duda usuarios con usos y costumbres totalmente opuestos a los usuarios típicos de las sociedades americanas, generaron el mismo resultado.

¿Será que los seres humanos como originadores de los datos de entrada con los cuales alimentaron las  IA referidas en los experimentos somos el problema?

Tal vez tenemos que cuestionarnos más cosas como esta en el futuro antes de seguir impulsando con tanta fuerza el uso de la Inteligencia Artificial.


Publicar un comentario

0 Comentarios