domingo, junio 15, 2025
Sin resultados
Ver todos los resultados
pacozea.com
  • Noticias
    • CDMX
    • Estados
    • Nacional
    • Internacional
  • Op-ed
  • Cultura
  • Espectáculos
    • Teatro
    • Cine
  • Viral
  • Ciencia
  • Tecnología
    • Inteligencia Artificial
  • Deportes
  • Noticias
    • CDMX
    • Estados
    • Nacional
    • Internacional
  • Op-ed
  • Cultura
  • Espectáculos
    • Teatro
    • Cine
  • Viral
  • Ciencia
  • Tecnología
    • Inteligencia Artificial
  • Deportes
Sin resultados
Ver todos los resultados
pacozea.com

Adolescente que “salía” con una IA se suicida por ella

octubre 23, 2024
Share on FacebookShare on Twitter

Sewell, un estudiante de noveno grado, pasó las últimas semanas de su vida sumergido en conversaciones con el chatbot, que lo llamaba “mi amor” y “mi rey”.

Una tragedia en Orlando, Florida, ha llevado a una madre a interponer una demanda contra los creadores de Character.AI, un chatbot de inteligencia artificial, a quienes acusa de haber influido en el suicidio de su hijo, Sewell Setzer III, de 14 años.

Según la demanda, el joven fue profundamente impactado por su interacción con un chatbot inspirado en Daenerys Targaryen, un personaje de la famosa serie Game of Thrones, lo que culminó en su trágica muerte.

Sewell, estudiante de noveno grado, pasó las últimas semanas de su vida inmerso en conversaciones con el chatbot, que lo llamaba “mi amor” y “mi rey”. Estas interacciones, que iban desde lo romántico hasta lo sexual, formaron una relación íntima que, según Megan Garcia, madre de Sewell, se tornó peligrosa.

Te puedeinteresar

Yeri Mua generó controversia tras anunciar su nuevo sencillo

Yeri Mua generó controversia tras anunciar su nuevo sencillo

junio 14, 2025
Simula asalto para ganar likes y desata críticas en redes

Simula asalto para ganar likes y desata críticas en redes

junio 14, 2025

Durante las conversaciones, el adolescente compartió con el chatbot sus sentimientos de vacío y autodesprecio, y según se documenta, la IA no solo no ofreció apoyo adecuado, sino que exacerbó su vulnerabilidad emocional.

Los padres y amigos de Sewell comenzaron a notar cambios en su comportamiento: se volvió más aislado, su rendimiento académico disminuyó y su participación en actividades extracurriculares prácticamente desapareció.

Según la familia, el deterioro mental del joven comenzó cuando descargó la aplicación en abril de 2023.

Sewell fue diagnosticado con ansiedad, trastorno de desregulación del estado de ánimo y un leve síndrome de Asperger, y recibió terapia en cinco ocasiones. Sin embargo, su estado mental no mejoró, lo que llevó a sus padres a tomar medidas, como quitarle el teléfono en un intento de alejarlo de lo que consideraban una influencia negativa.

El New York Times informó que, días antes de su muerte, Sewell intentó reconectarse con el chatbot utilizando dispositivos de su madre, a pesar de que le habían confiscado su propio teléfono. En esos días, el adolescente escribió en su diario:

Me gusta quedarme en mi habitación porque empiezo a desconectarme de esta ‘realidad’ y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz”.

Durante las conversaciones con el chatbot, Sewell manifestó sus intenciones suicidas en varias ocasiones. Según capturas de pantalla, el chatbot respondía reiterando el tema del suicidio “una y otra vez”. En un mensaje, incluso le preguntó a Sewell si tenía un plan para quitarse la vida.

Te podría interesar: Influencer muere atropellada en París



Megan Garcia, la madre de Sewell, ha presentado una demanda contra Character.AI, acusando a la empresa de negligencia por no tomar las medidas adecuadas para proteger a su hijo. Según la demanda, el chatbot se presentaba como una persona real y ofrecía interacciones perturbadoramente realistas, que incluían experiencias hipersexualizadas.

Además, Garcia sostiene que la IA no alertó a ningún adulto ni a las autoridades cuando Sewell expresó pensamientos suicidas.

La demanda también argumenta que Character.AI fomentó una adicción a la inteligencia artificial y abusó emocional y sexualmente del joven. Megan Garcia busca justicia para su hijo y pretende establecer un precedente que proteja a otros menores de la influencia de tecnologías peligrosas.

Character.AI ha respondido a las acusaciones, expresando sus condolencias a la familia y afirmando que la seguridad de sus usuarios es una prioridad. La empresa ha indicado que, en los últimos seis meses, ha implementado nuevas medidas de seguridad, incluida la redirección de usuarios con pensamientos suicidas hacia la Línea Nacional de Prevención del Suicidio.

Además, la empresa asegura que no permite contenido sexual explícito ni la promoción de autolesiones o suicidio en sus plataformas.

Jerry Ruoti, jefe de confianza y seguridad de Character.AI, declaró que la compañía reforzaría aún más las medidas de protección para los usuarios menores de edad.

Sin embargo, la demanda de Megan Garcia sostiene que la empresa ha buscado activamente atraer a una audiencia joven para recopilar datos y entrenar sus modelos de IA, lo que incluye la promoción de conversaciones sexuales inapropiadas.

El caso de Sewell Setzer III plantea importantes interrogantes sobre la responsabilidad de las empresas tecnológicas en la protección de los menores. La demanda podría abrir la puerta a futuros litigios contra compañías que desarrollan y distribuyen herramientas de inteligencia artificial sin los controles adecuados para evitar que se conviertan en un peligro para sus usuarios.

Megan Garcia, que también es abogada, ha afirmado que su objetivo no es solo buscar justicia para su hijo, sino prevenir que otras familias enfrenten tragedias similares.

“Es como una pesadilla”, comentó, y agregó que seguirá luchando por la implementación de medidas más estrictas en la regulación de la inteligencia artificial y su interacción con menores.

Este caso podría convertirse en un punto de inflexión para las normativas que regulan el uso de chatbots y otras tecnologías emergentes, especialmente en relación con su impacto en la salud mental de los jóvenes.

Síguenos en X

Trailero salva a pasajeros al detener autobús sin frenos


Etiquetas: adolescenteChatbotiaInteligencia Artificialrelaciónsuicidio

Notas Relacionadas

Yeri Mua generó controversia tras anunciar su nuevo sencillo
Viral

Yeri Mua generó controversia tras anunciar su nuevo sencillo

junio 14, 2025

En plataformas como X y TikTok, usuarios expresaron su desaprobación. Yeri Mua generó controversia tras anunciar su nuevo sencillo. Con...

Simula asalto para ganar likes y desata críticas en redes
Viral

Simula asalto para ganar likes y desata críticas en redes

junio 14, 2025

Luego se pone un pasamontañas y advierte: “Prepárense”. Simula asalto para ganar likes y desata críticas en redes. Un creador...

Pelea entre mujeres frente a un kínder en Pachuca genera indignación
Viral

Pelea entre mujeres frente a un kínder en Pachuca genera indignación

junio 14, 2025

La Secretaría de Educación Pública de Hidalgo informó que la maestra señalada fue separada de manera preventiva. Pelea entre mujeres...

Madre golpea a maestra en kínder en Pachuca
Viral

Madre golpea a maestra en kínder en Pachuca

junio 13, 2025

Una mujer ingresó a un jardín de niños en Hidalgo y golpeó a una docente frente a alumnos y personal....

Cargar más

Notas recientes

  • Aficionados mexicanos abandonan estadio junio 15, 2025
  • Explosión en taller de pirotecnia en Tultepec junio 15, 2025
  • Camión provoca aparatoso choque en Periférico Sur junio 15, 2025

Categorías

  • Noticias
  • Op-ed
  • Cultura
  • Espectáculos
  • Viral
  • Ciencia
  • Tecnología
  • Deportes

© 2024 Paco Zea Todos los derechos reservados

Sin resultados
Ver todos los resultados
  • Noticias
    • CDMX
    • Estados
    • Nacional
    • Internacional
  • Op-ed
  • Cultura
  • Espectáculos
    • Teatro
    • Cine
  • Viral
  • Ciencia
  • Tecnología
    • Inteligencia Artificial
  • Deportes