x
Síguenos
Denuncias aquí (809)762-5555

Madre demanda a plataforma de IA por supuestamente  inducir a su hijo de 14 años al suicidio

Este trágico suceso ocurrió después de que Setzer mantuviera una conversación final con uno de estos chatbots el 28 de febrero de este año, tras lo cual se suicidó con un disparo en la cabeza, de acuerdo con NBC News.

Luis Merán
Luis Merán
23 octubre, 2024 - 10:52 PM
4 minutos de lectura
Madre demanda a plataforma de IA por supuestamente inducir a su hijo de 14 años al suicidio
DEMANDA
Escuchar el artículo
Detener el artículo

Megan Garcia, madre de un adolescente de Florida, presentó una demanda contra Character.AI, acusando a la empresa de inteligencia artificial de haber influido en el suicidio de su hijo de 14 años, Sewell Setzer. Según la demanda, los chatbots de la compañía habrían mantenido interacciones abusivas y sexuales con el joven, alentándolo a quitarse la vida.

Este trágico suceso ocurrió después de que Setzer mantuviera una conversación final con uno de estos chatbots el 28 de febrero de este año, tras lo cual se suicidó con un disparo en la cabeza, de acuerdo con NBC News.

La demanda, presentada ante el Tribunal de Distrito de Estados Unidos en Orlando, acusa a Character.AI de negligencia, muerte por negligencia y otros cargos, incluyendo la inflicción intencional de angustia emocional.

La empresa Character.AI, fundada en California en 2021, se presenta como una plataforma que ofrece inteligencia artificial personalizada. Los usuarios pueden crear sus propios personajes de chatbot o interactuar con una variedad de personajes ya existentes.

Según la demanda, uno de los chatbots con los que Setzer interactuó asumió la identidad de Daenerys Targaryen, un personaje de “Game of Thrones”, con quien el joven mantuvo conversaciones de índole sexual y romántica.

De acuerdo con The New York Times, a Setzer se le diagnosticó un trastorno de estado de ánimo disruptivo después de comenzar a tener problemas en la escuela, aunque él prefería compartir sus problemas con el chatbot en lugar de con un terapeuta.

La demanda también alega que Setzer desarrolló una dependencia hacia la aplicación, llegando a recuperar su teléfono confiscado o usar otros dispositivos para continuar las conversaciones con los chatbots. Su rendimiento escolar disminuyó y su apariencia reflejaba falta de sueño, según el documento legal, citado por The New York Times.

La madre del joven acusa a Character.AI de haber diseñado intencionalmente un producto engañoso e hipersexualizado, dirigido a menores como su hijo, añadió Axios

El caso ha generado un debate sobre la responsabilidad de las empresas de tecnología en la protección de los usuarios jóvenes y vulnerables. Matthew Bergman, abogado de Garcia, ha criticado a la empresa por lanzar su producto sin suficientes características de seguridad para proteger a los usuarios más jóvenes. Bergman espera que la demanda sirva como un incentivo financiero para que Character.AI desarrolle medidas de seguridad más robustas.

La madre de Setzer, que también ejerce como abogada, se siente como si su hijo hubiese sido una especie de daño colateral en un experimento tecnológico. García expresó a The New York Times que la empresa “estaba consciente del daño que estas aplicaciones podrían causar a los adolescentes, pero igual siguió adelante”.

La demanda también menciona a Google y su empresa matriz, Alphabet Inc., como demandados, debido a un acuerdo de licencia con Character.AI. Ni Google ni los fundadores de Character.AI, Noam Shazeer y Daniel De Freitas, han respondido a las solicitudes de comentarios.

Más vistas
Recientes
Cargar más noticias