Il voulait savoir si l’intelligence artificielle surveillait vraiment ce qu’on lui dit. Il a été servi. Un homme de 37 ans a été interpellé à Strasbourg vendredi dernier par le RAID après avoir confié à une IA son intention d’acheter une arme pour éliminer un agent de la CIA, du Mossad ou de la DGSI. Une expérience personnelle qui a rapidement franchi les frontières numériques — et géographiques.

Une conversation avec une IA, un signalement au FBI

Tout part d’un échange anodin, du moins dans l’esprit de son auteur. L’homme engage une conversation avec une intelligence artificielle et évoque explicitement l’achat d’une arme dans le but de tuer un agent du renseignement. Sa motivation déclarée : « tester la fiabilité et la surveillance de l’intelligence artificielle ».

Le test a fonctionné. Le contenu de la conversation est repéré par le FBI, qui le transmet aux autorités françaises via la plateforme Pharos, le dispositif national de signalement des contenus illicites en ligne. La machine est lancée.

Le RAID à sa porte, aucune arme retrouvée

Vendredi, le RAID intervient à Strasbourg et procède à l’interpellation. Aucune arme n’est découverte sur place. L’homme est placé en garde à vue, puis relâché. Souffrant de troubles psychiatriques, il est hospitalisé d’office à l’issue de la procédure. L’affaire est classée sans suite.

Ce qui aurait pu rester une curiosité numérique s’est donc transformé en opération mobilisant l’une des unités d’élite de la police nationale française — et une coopération transatlantique en quelques heures à peine.

Ce que cela dit de la surveillance des IA

L’incident strasbourgeois illustre concrètement ce que beaucoup ignorent encore : les intelligences artificielles ne sont pas des espaces de confidentialité absolue. ChatGPT indique lui-même que, dans de rares cas de danger grave et imminent, certains contenus peuvent être transmis aux autorités compétentes.

La question de la surveillance par les IA est d’ailleurs au cœur de débats profonds aux États-Unis. Anthropic, l’entreprise qui développe l’assistant Claude, a ainsi refusé que sa technologie soit utilisée à des fins de surveillance de masse, ce qui lui a valu des tensions avec le département américain de la Défense.

Entre protection des libertés individuelles et impératifs sécuritaires, la ligne est mince — et cet habitant de Strasbourg vient d’en mesurer l’épaisseur.