El director ejecutivo de OpenAI, Sam Altman, pidió disculpas a una comunidad de Canadá tras revelarse que sus sistemas de inteligencia artificial detectaron meses antes conductas de riesgo en el autor de un tiroteo escolar, sin que se alertara a las autoridades.
Según los informes, la empresa identificó en junio de 2025 la cuenta del atacante por uso indebido del modelo para promover actividades violentas, procediendo a su suspensión conforme a los protocolos internos.
No obstante, pese a que algunos empleados recomendaron notificar a las fuerzas del orden, la dirección concluyó que no existía un riesgo inminente, por lo que decidió no escalar el caso.
Meses después, el 10 de febrero, el individuo perpetró un tiroteo en una escuela secundaria en Tumbler Ridge, donde murieron cinco estudiantes y una profesora, además de causar múltiples heridos.
El caso ha reavivado el debate sobre el papel de la inteligencia artificial en la prevención de la violencia, evidenciando que los sistemas automatizados funcionaron, pero la decisión humana fue determinante en el desenlace.
Las revelaciones indican que no existía una obligación legal en Canadá ni en Estados Unidos para reportar este tipo de amenazas, dejando la decisión en manos de la empresa.
La controversia se amplía con investigaciones en curso en el estado de Florida por un caso similar, relacionado con el uso de herramientas como ChatGPT por parte de atacantes.
El episodio plantea cuestionamientos sobre la autorregulación de las compañías tecnológicas y la necesidad de establecer marcos legales que obliguen a actuar ante riesgos detectados por inteligencia artificial.

