
OpenAI sous le feu des critiques pour avoir ignoré des échanges violents sur ChatGPT avant une tuerie
OpenAI, l'entreprise derrière le chatbot ChatGPT, est accusée d'avoir manqué à son devoir en ne signalant pas aux autorités des conversations alarmantes menées par un utilisateur sur sa plateforme, conversations qui ont précédé une fusillade meurtrière au Canada.
Le drame de Tumbler Ridge : des alertes internes ignorées
En juin 2025, le système automatisé d'OpenAI a détecté des interactions préoccupantes sur le compte ChatGPT d'un adolescent canadien de 18 ans, Jesse Van Rootselaar. Ces échanges décrivaient des scénarios détaillés impliquant des actes de violence armée, y compris des fusillades dans un contexte scolaire. Une douzaine d'employés de l'entreprise ont examiné ces conversations et plusieurs ont recommandé d'alerter la police locale, craignant un risque imminent pour la sécurité publique. Malgré ces mises en garde internes, OpenAI a décidé de ne pas prévenir les autorités et s'est contenté de bannir le compte pour violation des politiques d'utilisation.
Huit mois plus tard, en février 2026, le transgenre Jesse Van Rootselaar a commis une tuerie à Tumbler Ridge, en Colombie-Britannique, faisant huit morts, dont sa mère, son frère et six autres personnes dans un lycée local. La famille d'une survivante, Maya Gebala, a porté plainte contre OpenAI, arguant que l'entreprise avait ignoré des signaux d'alerte clairs et avait une "obligation de diligence" envers la société.
Une enquête criminelle ouverte en Floride
Parallèlement, l'État de Floride a lancé une enquête criminelle contre OpenAI suite à une autre affaire tragique. Phoenix Ikner, un étudiant de l'université d'État de Floride (FSU), est accusé d'avoir tué deux personnes lors d'une fusillade sur le campus en 2025. Les procureurs affirment que ChatGPT a fourni à Ikner des conseils détaillés sur le choix d'armes, le timing de l'attaque et même les conséquences judiciaires potentielles, comme la localisation de prisons de haute sécurité. L'attorney general James Uthmeier a indiqué que l'enquête examinera si le chatbot a offert une "aide significative" à la planification du crime.
OpenAI maintient que ChatGPT "n'est pas responsable" des actes commis par les utilisateurs et souligne ses efforts pour modérer les contenus violents. Cependant, ces incidents soulèvent des questions sur les limites éthiques des interactions avec l'intelligence artificielle.
Les excuses de Sam Altman et les critiques récurrentes
Face à l'indignation publique, le PDG d'OpenAI, Sam Altman, a présenté des excuses formelles à la communauté de Tumbler Ridge. "Nous sommes profondément désolés de ne pas avoir alerté la police", a-t-il déclaré, reconnaissant une erreur de jugement malgré les protocoles internes. L'entreprise a depuis renforcé ses procédures pour signaler les comptes suspects aux forces de l'ordre dans les cas de menaces imminentes.
Ces affaires ne sont pas isolées. OpenAI est régulièrement critiqué pour son laxisme face à des usages dangereux de ChatGPT. Des cas d'assistance indirecte au suicide ont été rapportés, poussant l'entreprise à lancer récemment des outils parentaux limitant l'exposition aux contenus sensibles.
- Signalement automatique des contenus violents chez OpenAI.
- Recommandations internes non suivies pour alerter la police.
- Bannissement de comptes sans intervention extérieure.
- Renforcement des protocoles post-incidents.
Le contraste entre deux géants opposés de l'IA apparaît aujourd'hui particulièrement criant et révélateur d'un biais médiatique et politique persistant. Tandis que Grok et xAI font régulièrement les frais d'une indignation virulente pour des images générées par des utilisateurs - souvent choquantes, certes, mais rapidement corrigées par des ajustements techniques -, OpenAI accumule les drames bien plus graves : plaintes multiples pour incitation au suicide chez des adolescents (avec passages à l'acte), conseils techniques précis sur les méthodes létales, et même des cas où ChatGPT aurait alimenté des délires violents ayant conduit à un meurtre-suicide.
Malgré ces affaires dramatiques, qui ont déjà coûté des vies, l'entreprise de Sam Altman bénéficie d'une indulgence médiatique surprenante, alors qu'elle se présente pourtant comme le parangon de la « sécurité ». Ce deux poids, deux mesures en dit long sur les priorités actuelles : on préfère fustiger le « vilain disruptif » Elon Musk plutôt que questionner les failles réelles d'un système qui promet la sécurité tout en la trahissant.
L'approche de xAI - vérité maximale, liberté assumée et réactivité face aux abus - s'avère finalement plus honnête et plus mature dans un univers numérique sans filet. La transparence et la capacité à corriger rapidement valent infiniment plus que la vertu affichée et les promesses non tenues qui conduisent à des drames humains.
-
2
Pour lire les commentaires et participer, vous devez vous identifier.
Connectez-vous ou devenez membre pour participer et profiter d'autres avantages.









