Las prácticas de seguridad de IA están bajo escrutinio después del caso de tiroteo escolar de openai que involucra a un sospechoso canadiense cuya actividad en línea fue señalada meses antes del ataque.
El creador de ChatGPT, OpenAI, reveló que identificó la cuenta de Jesse Van Rootselaar en junio de 2025 a través de sus sistemas de detección de abuso por "promoción de actividades violentas". Sin embargo, la compañía tecnológica con sede en San Francisco concluyó en ese momento que la actividad no cumplía con su umbral interno para remitir el caso a las fuerzas del orden.
La compañía dijo que específicamente evaluó si alertar a la Policía Montada Real de Canadá (RCMP) sobre la cuenta. Además, decidió no proceder, juzgando que las señales no indicaban un plan inminente y creíble para causar daño físico grave.
OpenAI posteriormente prohibió la cuenta en junio de 2025 por violar su política de uso. Esa decisión llegó meses antes de la tragedia que luego se desarrollaría en una parte remota de Columbia Británica.
El sospechoso de 18 años llevó a cabo posteriormente un ataque escolar en el pequeño pueblo de Tumbler Ridge, matando a ocho personas antes de morir por una herida de bala autoinfligida. El incidente, reportado la semana pasada, es uno de los peores tiroteos escolares en la historia de Canadá y ha intensificado el debate sobre cómo las empresas tecnológicas manejan el comportamiento de usuarios de alto riesgo.
Según la RCMP, Van Rootselaar primero mató a su madre y hermanastro en el hogar familiar antes de atacar la escuela cercana. Además, la policía dijo que el tirador tenía un historial previo de contactos relacionados con la salud mental con las fuerzas del orden, aunque no se detalló la naturaleza específica de esas interacciones.
La policía informó que las víctimas incluían a un asistente de enseñanza de 39 años y cinco estudiantes de entre 12 y 13 años. El pueblo, hogar de aproximadamente 2.700 personas en las Montañas Rocosas Canadienses, se encuentra a más de 1.000 km (600 millas) al noreste de Vancouver, cerca de la frontera con Alberta.
Al explicar su decisión de no contactar a las autoridades antes, OpenAI dijo que su estándar para contactar a las fuerzas del orden se centra en si un caso involucra un riesgo inminente y creíble de daño físico grave a otros. En ese momento, dijo la compañía, no identificó una planificación concreta o inminente que hubiera desencadenado tal remisión.
La compañía señaló que este umbral de remisión está destinado a equilibrar la privacidad del usuario con las obligaciones de seguridad. Sin embargo, la revelación ha provocado nuevas preguntas sobre si los criterios existentes para la escalada son adecuados cuando surgen señales de advertencia tempranas en las interacciones de los usuarios con herramientas de IA como ChatGPT.
Después de que se conociera la noticia del tiroteo escolar, los empleados de OpenAI contactaron a la RCMP con detalles sobre Van Rootselaar y la actividad histórica asociada con la cuenta. El Wall Street Journal fue el primero en informar sobre las deliberaciones internas de la compañía y el contacto posterior.
En una declaración pública, un portavoz de OpenAI dijo: "Nuestros pensamientos están con todos los afectados por la tragedia de Tumbler Ridge. Nos comunicamos proactivamente con la Policía Montada Real de Canadá con información sobre el individuo y su uso de ChatGPT, y continuaremos apoyando su investigación". Además, la compañía enfatizó su cooperación continua con las autoridades canadienses.
Dicho esto, el motivo del tiroteo sigue sin estar claro, y los investigadores aún no han revelado qué vínculo directo, si lo hay, existe entre las interacciones del sospechoso con ChatGPT y el eventual ataque. El caso, sin embargo, ha intensificado el enfoque global sobre cómo las plataformas de IA detectan, evalúan y responden a posibles amenazas.
Las autoridades describieron el ataque de Tumbler Ridge como el alboroto más mortífero de Canadá desde 2020, cuando un pistolero en Nueva Escocia mató a 13 personas e inició incendios que causaron la muerte de otras nueve. Sin embargo, el evento reciente tiene una dimensión adicional porque se cruza con las responsabilidades en evolución de los proveedores de IA.
A medida que los legisladores y las fuerzas del orden revisan las circunstancias, el episodio de tiroteo escolar de openai probablemente alimentará el debate sobre cuándo y cómo las empresas de IA deben escalar el comportamiento preocupante de los usuarios a las autoridades, y si los estándares de remisión existentes abordan suficientemente los riesgos digitales emergentes.
En resumen, la tragedia en Columbia Británica subraya el equilibrio complejo entre privacidad, evaluación de riesgos y seguridad pública a medida que las plataformas de IA se integran profundamente en la vida cotidiana, obligando tanto a los reguladores como a las empresas tecnológicas a reevaluar sus protocolos para manejar amenazas potenciales.


