Aseguran que la falta de controles sobre la IA está perjudicando la salud mental de los adolescentes
El suicidio de un adolescente tras enamorarse de un chatbot, que sigue a otro hace un año, abre el debate en torno a la falta de controles sobre los efectos adversos de esta tecnología, y el pedido de que se analice como sucede con los medicamentos
:format(webp):quality(40)/https://cdn.eleco.com.ar/media/2024/11/danos_de_la_ia.jpg)
Sewell Setzer, un estadounidense de 14 años, se pegó un tiro en la cabeza en su casa en febrero. El adolescente, diagnosticado de síndrome de asperger leve, estaba enamorado de Daenerys Targaryen, con quien chateaba cada noche durante horas. No hablaba con alguien, sino con algo: un perfil de la plataforma Character.AI, que ofrece conversaciones con gran variedad de personajes reales o ficticios, como este de Juego de Tronos, creados con inteligencia artificial (IA) generativa, la que está detrás de aplicaciones como ChatGPT.
Recibí las noticias en tu email
Accedé a las últimas noticias desde tu emailLa madre del joven, Megan Garcia, acaba de presentar una demanda contra Character.AI, empresa a la que culpa de la muerte de su hijo por brindar al público tecnología “peligrosa y no probada” que puede “engañar a los clientes para que entreguen sus pensamientos y sentimientos más privados” y que ofrece “experiencias antropomórficas, hipersexualizadas y aterradoramente realistas”. Setzer se obsesionó con su novia virtual e interpretó algunos de sus comentarios como un empujón para apretar el gatillo.
Este caso pone en el foco un asunto incómodo: los efectos de las herramientas de IA generativa en la salud mental de los usuarios no están probados. Eso es precisamente lo que argumenta Garcia en su demanda, la primera que atribuye la responsabilidad de un suicidio a la IA. Y eso es también lo que se desprende de otros ejemplos en los que esta tecnología influyó en el trágico desenlace de sus protagonistas.
