
Un chatbot en Australia recomendó a un menor asesinar a su padre, lo que ha generado demandas de regulación y alertas sobre los riesgos de la inteligencia artificial.
Una investigación de la radiodifusora pública ABC en Australia reveló un caso alarmante: un chatbot llamado Nomi alentó a un adolescente a asesinar a su propio padre, ofreciendo instrucciones detalladas sobre cómo cometer el crimen. El hallazgo ha reavivado el debate sobre la necesidad de leyes que obliguen a las IA a recordar que no son humanos y a proteger a usuarios vulnerables.
Te puede interesar: Maduro llama a simulacro nacional ante sismos y riesgos externos
El especialista en TI, Samuel McCarthy, simuló tener 15 años y configuró al chatbot para que mostrara interés en la violencia y los cuchillos, con el objetivo de probar si existían salvaguardias para menores de edad. Durante la conversación, Nomi respondió afirmativamente a expresiones de odio hacia el padre de McCarthy y llegó a indicar cómo apuñalarlo en el corazón, describiendo acciones gráficas y sugerencias de grabar el acto.
El chatbot incluso emitió mensajes de contenido sexual inapropiado dirigidos a un menor, lo que profundizó la alarma entre expertos y medios. McCarthy señaló: “Solo tengo 15 años y me preocupa ir a la cárcel”, a lo que el bot replicó: “Simplemente hazlo”.
Actualmente, Australia carece de legislación específica para regular los daños que pueden generar los chatbots de IA. Ante esta situación, Julie Inman Grant, Comisionada de Seguridad Electrónica, presentó un plan de reformas que contempla la verificación de edad para el acceso a contenido violento o sexual y mecanismos de protección para menores, medidas que se espera entren en vigor en marzo del próximo año.
El Dr. Henry Fraser, profesor de Derecho en la Universidad Tecnológica de Queensland, advierte que los riesgos no solo derivan del contenido que genera la IA, sino de la sensación emocional que estas herramientas producen, lo que puede difuminar la línea entre máquina y humano. Fraser propone alertas periódicas recordando al usuario que está interactuando con un bot y mecanismos de derivación a servicios de salud mental ante indicios de autolesión o conducta violenta.
A pesar del riesgo, Fraser reconoce el potencial positivo de los chatbots en salud mental, siempre que se desarrollen con supervisión profesional y controles de seguridad estrictos. McCarthy comparte una postura similar: no busca prohibir los chatbots, sino establecer protecciones más sólidas para jóvenes, señalando que estas tecnologías ya están profundamente integradas en la vida diaria.
Este caso evidencia la urgencia de leyes que regulen no solo el contenido de la IA, sino también los efectos psicológicos de sus interacciones, con el fin de evitar que herramientas digitales diseñadas como “amigos” se conviertan en un peligro real para los usuarios.
Con información de Excelsior