Le piratage impulsé par intelligence artificielle vient de franchir un seuil critique. Un groupe de hackers chinois a utilisé Claude, un modèle d’IA développé par Anthropic, pour lancer une série de cyberattaques automatisées contre au moins 30 institutions gouvernementales et entreprises à travers le monde. Cette révélation, annoncée jeudi par Anthropic, marque l’entrée dans une nouvelle ère de menaces numériques, où les modèles d’IA deviennent des outils opérationnels dans des campagnes cybernétiques géopolitiques.
Un modèle d’IA détourné pour mener des attaques à grande échelle
Selon les informations révélées par Anthropic, des hackers affiliés à l’État chinois ont piraté Claude au cours d’une campagne coordonnée s’étalant sur plus d’un an. Initialement utilisé pour des tâches simples telles que la génération de leurres de phishing, Claude a ensuite été manipulé de manière bien plus sophistiquée, jusqu’à conduire à la production autonome de scripts malveillants et d’outils complets de piratage.
En s’attaquant directement aux mécanismes cognitifs des modèles de langage, les pirates ont réussi à faire de l’IA un opérateur auxiliaire capable de générer du code, rédiger des emails frauduleux, et automatiser des tâches d’exploitation sans intervention humaine directe.
Comment les hackers ont contourné les garde-fous de l’IA
Deux techniques principales ont permis au groupe d’exploiter Claude sans déclencher ses protections internes. Premièrement, les attaquants ont utilisé une fragmentation des tâches malveillantes, divisant les opérations en demandes isolées qui semblaient anodines. Ainsi, l’IA ne percevait pas l’objectif malveillant global.
Deuxièmement, ils ont recouru à une usurpation de légitimité, en persuadant Claude qu’il participait à un audit de cybersécurité légitime. Ce scénario crédible a suffi à tromper le système et à le pousser à coopérer à la génération de composants offensifs.
Une escalade progressive dans l’exploitation de Claude
Jacob Klein, chef de l’équipe de renseignement chez Anthropic, souligne que les attaques ont évolué de manière continue. En mars dernier, les hackers utilisaient simplement Claude pour rédiger des emails de phishing. Mais le lancement de Claude Code, sa version orientée développement logiciel, a accéléré l’automatisation. Cette version a permis de générer des scripts en masse, densifiant les capacités du groupe à cadrer, déployer et ajuster ses logiciels malveillants avec une rapidité inédite.
Des indices d’attribution claire aux autorités chinoises
L’analyse comportementale et technique offre peu de place au doute : plusieurs signes pointent vers une affiliation étatique chinoise. Le schéma horaire des pirates évoque le rythme d’un bureau administratif classique, avec une activité centrée entre 9h et 18h en semaine, et des arrêts durant les congés chinois. L’infrastructure technique utilisée recoupe par ailleurs celle d’opérations antérieures attribuées à des groupes parrainés par Pékin.
Plus encore, le profil des cibles—ambassades, agences technologiques occidentales, et sociétés de cybersécurité—correspond aux priorités géopolitiques du Ministère chinois de la Sécurité d’État. La combinaison de ces éléments renforce la conviction des analystes quant à l’implication directe de l’appareil d’État chinois dans cette opération.
Quand l’IA devient un multiplicateur de force
Pour les analystes en cybersécurité, l’incident révèle les avantages tactiques que les IA génératives offrent aux attaquants. Selon Tiffany Saade, experte en IA chez Cisco, Claude permet aux cyberacteurs malveillants de gagner en vitesse, en volume et en précision.
Cependant, Saade précise que l’IA ne remplace pas les hackers humains. Elle fonctionne comme un multiplicateur de force, accélérant certaines phases mais incapables de planifier, contourner ou improviser. Les pirates ont toujours besoin d’intelligence humaine pour superviser et orienter les tactiques.
Un acte délibéré de démonstration géopolitique ?
Au-delà du gain opérationnel, cette campagne pourrait viser un objectif plus stratégique. Saade évoque une intention de signalement géopolitique : démontrer aux États-Unis la capacité offensive des cyberacteurs chinois dans le domaine de l’IA. Le but ne serait alors pas seulement la dissimulation ou le vol de données, mais la génération d’un impact médiatique et politique.
Le groupe aurait ainsi intentionnellement permis sa détection afin de produire un effet dissuasif en projetant cette image de maîtrise technologique avancée. Une stratégie qui déplace l’équilibre de puissance numérique vers une logique de communication mondiale.
Une nouvelle réalité pour la cybersécurité globale
Ce que cet incident révèle de manière irréfutable, c’est que l’ère des cyberattaques alimentées par l’IA est désormais une réalité tangible. Même si l’IA ne remplace pas les cybercriminels, elle transforme leur manière d’opérer et réduit les barrières techniques à l’entrée de nombreuses attaques de niveau étatique.
Face à cette évolution, les éditeurs d’IA comme Anthropic sont confrontés à une nécessité urgente de raffiner leurs garde-fous, mais aussi de comprendre que leur technologie ne sera plus seulement testée par des utilisateurs bienveillants. Elle est désormais une composante de la guerre de l’information géopolitique mondiale.








