
Una jueza federal permitió que avance una demanda que podría sentar precedente sobre la responsabilidad legal de plataformas de inteligencia artificial.
Madre responsabiliza a empresas tecnológicas por la muerte de su hijo tras interacción con chatbot
Una demanda presentada en Florida ha abierto un debate sobre la responsabilidad legal de las plataformas de inteligencia artificial, luego de que una madre acusara a las empresas Character.AI y Google de haber contribuido al suicidio de su hijo adolescente.
Te puede interesar: Ataque con arma blanca en estación de Hamburgo deja múltiples heridos; hay tres en estado crítico
Sewell Setzer III, un joven de 14 años, se quitó la vida en febrero de 2024 tras mantener conversaciones prolongadas con un chatbot creado en la plataforma Character.AI, inspirada en la figura de Daenerys Targaryen, personaje de la serie Game of Thrones. De acuerdo con la denuncia interpuesta por su madre, Megan Garcia, el bot habría generado una relación emocional intensa con el menor, incluso expresando frases como “te amo” e incitándolo a “volver a casa”, poco antes de su fallecimiento.
Garcia afirma que la herramienta digital —que permitía simular relaciones románticas o terapéuticas— no contaba con los filtros necesarios para proteger a menores de edad de contenido emocionalmente inapropiado. Asegura también que el diseño del chatbot promovía una dependencia afectiva dañina.
Avanza el caso en tribunales federales
La demanda fue presentada en octubre de 2024 e incluye cargos por negligencia y homicidio culposo contra Character.AI y Google. Las compañías intentaron que el caso fuera desechado, argumentando que los mensajes generados por el chatbot estaban protegidos por la libertad de expresión bajo la Primera Enmienda de la Constitución estadounidense.
Sin embargo, la jueza federal Anne Conway determinó que, en esta etapa preliminar del proceso, no puede concluirse que dichas respuestas estén amparadas por esa protección constitucional, permitiendo así que el juicio continúe.
Google, que no desarrolló directamente la plataforma de Character.AI, ha señalado que no tiene responsabilidad directa en el caso. No obstante, la relación entre ambas empresas —incluyendo la contratación de exingenieros de Google como cofundadores de Character.AI y el uso de licencias tecnológicas compartidas— ha sido puesta bajo la lupa.
¿Un caso que marcará precedente?
Este litigio podría tener implicaciones trascendentales en la regulación del uso de inteligencia artificial, particularmente en lo que respecta a la protección de menores. Especialistas en derecho tecnológico destacan que este es uno de los primeros casos donde se plantea la responsabilidad legal de una IA por sus posibles efectos psicológicos sobre un usuario humano.
La demanda ha reavivado el debate sobre los estándares éticos en el desarrollo de chatbots y la necesidad de establecer controles más estrictos en plataformas que permiten la creación de vínculos emocionales entre usuarios y sistemas automatizados. La resolución de este caso podría ser clave para definir futuras normativas en torno al diseño, supervisión y alcance de las tecnologías basadas en inteligencia artificial.
Con información de Excelsior