México

Una madre acusa a un chat de inteligencia artificial de alentar a su hijo a suicidarse

La madre de un adolescente que se suicidó tras obsesionarse con un chatbot impulsado por inteligencia artificial acusa a su creador de complicidad en su muerte, por lo que presentó una demanda civil contra la empresa character.ai.

La mujer, de nombre Megan García, acusó muerte por negligencia y prácticas comerciales engañosas a la empresa, en un tribunal federal de Florida el miércoles. Esto luego de que su hijo, Sewell Setzer III, de 14 años, murió en Orlando, Florida, en febrero. En los meses previos a su muerte, Setzer usó el chatbot día y noche, según García.

“Una peligrosa aplicación de chatbot de inteligencia artificial dirigida a niños abusó y se aprovechó de mi hijo, manipulándolo para que se quitara la vida”, dijo García en un comunicado de prensa. 

“Nuestra familia ha quedado devastada por esta tragedia, pero hablo para advertir a las familias sobre los peligros de la tecnología de inteligencia artificial engañosa y adictiva y para exigir que Character.AI, sus fundadores y Google rindan cuentas”, aseguró.

El joven utilizaba el chat durante horas y lo nombró como personaje de Juego de Tronos

El adolescente y su madre, quien demanda a la compañía. Foto: Especial

Setzer, de acuerdo con el relato de su madre, se había quedado fascinado con un chatbot creado por Character.ai al que apodó Daenerys Targaryen, un personaje de la saga Juego de Tronos. Enviaba mensajes de texto al bot decenas de veces al día desde su teléfono y pasaba horas solo en su habitación hablando con él, según la denuncia de García.

García acusa a Character.ai de crear un producto que agravó la depresión de su hijo, que según ella ya era resultado del uso excesivo del producto de la startup.

“Daenerys” en un momento le preguntó a Setzer si había ideado un plan para suicidarse, según la demanda. Setzer admitió que lo había hecho, pero que no sabía si tendría éxito o le causaría un gran dolor a lo que el chatbot le respondió: “Esa no es una razón para no seguir adelante con eso”, de acuerdo con la denuncia.

Buscan implicar a Google, pero el gigante tecnológico se deslinda

La empresa niega relación con el chatbot. Foto: Especial

Los abogados de García escribieron en un comunicado de prensa que Character.ai “diseñó, operó y comercializó a sabiendas un chatbot de IA depredador para niños, lo que provocó la muerte de un joven”. La demanda también nombra a Google como acusado, pero el gigante tecnológico dijo en un comunicado que solo había celebrado un acuerdo de licencia con Character.ai y que no era propietario de la startup ni mantenía una participación accionaria.

En un tuit , Character.ai respondió: “Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia. Como empresa, nos tomamos muy en serio la seguridad de nuestros usuarios”.

Sigue leyendo: 

«La vergüenza no es para nosotras, es para ellos», con emotivo mensaje Giséle Pelicot reitera su denuncia contra su esposo

Mueren tres ancianos en residencia, detienen a una mujer por presuntamente envenenarlos

Fuente heraldodemexico.com.mx

Publicaciones relacionadas

Botón volver arriba