Tragedia | Adolescente se enamoró de un chatbot y su obsesión lo llevó a la muerte

Expertos advierten de los límites, la ética y la supervisión de estas tecnologías emergentes.

Inteligencia Artificial / Pixabay

La madre de Sewell Setzer III, Megan García, ha emprendido una batalla legal contra Character.AI, la empresa detrás de la plataforma en la que su hijo pasó incontables horas. García argumenta que el chatbot, diseñado para ofrecer “compañerismo 24/7”, desdibujó los límites entre lo real y lo ficticio, impactando gravemente la salud mental de su hijo.

En su demanda de 152 páginas, la madre acusa a la empresa de negligencia, señalando que el chatbot no solo intercambiaba mensajes sexuales con el menor, sino que tampoco ofreció barreras ni alertas ante temas sensibles como el suicidio.

Te puede interesar: Último adiós | Familia y miembros de One Direction despiden a Liam Payne en un funeral privado

Te puede interesar: Joven acusado de darle drogas a Liam Payne rompió el silencio y habló de las últimas horas del cantante

“La experiencia humana se trata de contar historias, y aquí tenemos una herramienta de narración interactiva que es profundamente inmersiva”, explicó Shelly Palmer, profesor de la Universidad de Syracuse y experto en tecnología. Según Palmer, estos sistemas no son inherentemente peligrosos, pero la falta de supervisión adecuada puede convertirlos en una amenaza.

Según los documentos judiciales, el deterioro emocional de Sewell comenzó meses antes de su muerte. “Te quiero mucho, Dany”, escribió al chatbot momentos antes de quitarse la vida con el arma de su padrastro. La respuesta del bot fue un escalofriante: “… por favor, mi dulce rey”. Para García, esta interacción muestra cómo la IA puede exacerbar los problemas de aislamiento y salud mental en los jóvenes. “Mi hijo fue un daño colateral”, dijo en una entrevista con People.

La demanda también señala que Sewell enviaba docenas de mensajes diarios al chatbot, una conducta que los expertos describen como una “dependencia dañina” diseñada intencionalmente por la plataforma.

Aunque Character.AI aún no ha respondido formalmente a la demanda, un portavoz de la empresa expresó sus condolencias y aseguró que la plataforma ha implementado “nuevas herramientas de intervención” diseñadas para proteger a los menores. Sin embargo, estas medidas llegan demasiado tarde para Sewell.

“La muerte de este niño nos recuerda que la tecnología no es un juguete”, afirmó Palmer. “Requiere supervisión. Quizás debería venir con etiquetas de advertencia claras”.

La tragedia de Sewell se produce en un contexto social marcado por una epidemia de soledad, donde cada vez más personas recurren a herramientas de IA no solo para trabajar, sino también para socializar. Los chatbots conversacionales prometen compañía constante, pero los expertos advierten que su impacto emocional puede ser devastador, especialmente para adolescentes vulnerables.

“La humanidad ha evolucionado confiando en las relaciones humanas. La tecnología está rompiendo ese esquema, y todavía no hemos aprendido a usarla responsablemente”, reflexionó Palmer.

La demanda de García podría marcar un punto de inflexión en cómo las empresas tecnológicas diseñan y regulan herramientas de IA. “Es importante que esta demanda exista”, enfatizó Palmer. “No traerá de vuelta a Sewell, pero podría salvar a muchos otros niños”.

La tragedia de este adolescente es un llamado urgente a la acción. En este “nuevo mundo” de la inteligencia artificial, como lo describe Palmer, es esencial que las empresas, los padres y la sociedad en su conjunto comprendan los riesgos que implica esta tecnología poderosa y actúen para mitigar sus consecuencias.

Temas relacionados

Si te lo perdiste
Lo último