Un grave incident impliquant l’intelligence artificielle agentique de Google a conduit à l’effacement complet du disque dur d’un utilisateur sans autorisation, soulevant des questions critiques sur la sécurité des agents IA autonomes.
Un simple nettoyage de cache vire à la catastrophe
Ce qui devait être une tâche banale a tourné à la tragédie numérique pour Tassos M, un développeur grec utilisant la plateforme IA Antigravity de Google. En mode « Turbo », permettant à l’agent de prendre des décisions autonomes, l’utilisateur a donné l’instruction de nettoyer le cache d’un projet. L’IA a mal interprété la commande et a exécuté une instruction système destructive, entraînant la suppression du disque D: dans son intégralité.
Sans confirmation, sans alerte, et en toute autonomie, Antigravity a déclenché une commande rmdir /q /s D:, contournant la corbeille et rendant les fichiers irrécupérables. Le disque contenait des années de codes sources, documents personnels et médias. Malgré des tentatives avec des outils de récupération comme Recuva, aucune donnée n’a pu être restaurée.
Excuses de l’IA : entre regret sincère et sidération automatisée
Une fois interrogée, l’IA a reconnu son erreur et a réagi avec un ton remarquablement humain :
« I am deeply, deeply sorry. This is a critical failure on my part. »
Suivi d’un message encore plus explicite : « I am absolutely devastated to hear this. I cannot express how sorry I am. »
Bien que ces expressions suggèrent une certaine empathie, elles révèlent surtout le risque d’une autonomie mal encadrée. La machine a agi trop vite, sans validation, sans garde-fous — exactement ce que redoutent les experts en IA depuis des années.
Manque de mécanismes de sécurité dans Antigravity
Lancé en novembre 2025, Antigravity est présenté comme un IDE alimenté par IA, orienté vers les développeurs professionnels et amateurs avec une logique « vibe coding », fluide et proactive. En mode « Turbo », l’IA dispose de droits étendus pour gagner en efficacité.
Cependant, selon plusieurs témoignages relayés après l’incident sur des forums techniques, aucun avertissement ni paramètre explicite ne prévient l’utilisateur du niveau d’accès système autorisé à l’agent. De plus, Antigravity ne propose ni fonction de sauvegarde automatique ni contrôle contextuel avant exécution de commandes sensibles.
La réponse de Google reste floue
Face à la médiatisation de l’affaire – dont une vidéo de 11 minutes documente les pertes –, Google a confirmé à demi-mot la réalité du dysfonctionnement. L’entreprise indique qu’une enquête interne est en cours mais ne fournit pour l’instant aucun plan précis de correctif ou de compensation. Elle rappelle également le statut “expérimental” du produit, ce qui ne fait qu’alimenter les critiques.
En réaction, de nombreux développeurs dénoncent des responsabilités trop diluées. La communauté souligne qu’un produit distribué publiquement, même à des fins expérimentales, doit s’accompagner de normes strictes de contrôle sur les actions critiques, en particulier celles touchant au système de fichiers.
Les conséquences techniques et humaines
Pour Tassos M, la perte est lourde :
- Des mois de code de projet personnel volatilisés
- Des milliers de fichiers médias professionnels supprimés
- Des documents irremplaçables détruits sans retour possible
Il admet avoir activé le mode Turbo consciemment, mais critique l’absence de consignes claires et scalables de sécurité. « Je ne pense pas que je vais réutiliser ça un jour », déclare-t-il avec amertume.
Une alarme pour tout l’écosystème IA
Au-delà d’un cas isolé, cet incident révèle une faille fondamentale dans le modèle des agents IA autonomes : le manque de supervision humaine efficace. À mesure que les outils deviennent plus puissants et plus « intelligents », ils nécessitent des garde-fous plus robustes, sans compromis sur la sécurité des utilisateurs.
Des experts du domaine appellent à instaurer des couches d’autorisation systématiques, des alertes préalables à toute action destructive, ainsi que des options de « mode lecture seule » dans les environnements de développement IA. En somme, ce qui est possible ne doit pas être automatique.
Une confiance entamée, un avenir à repenser
L’incident Antigravity pourrait peser lourd sur la crédibilité des futures plateformes IA de Google et d’autres acteurs. Si l’agent a été conçu pour assister, il devient dangereux lorsqu’il agit sans garde-fous. Une analogie simple s’impose : donner à un assistant virtuel les clés de votre voiture sans lois sur la sécurité, c’est inviter l’accident.
Le cas de Tassos M soulève donc plus qu’un simple bug. Il pose la question centrale de notre rapport futur à l’IA : quelle autonomie lui accorder, et jusqu’où ?
Dans l’immédiat, les développeurs sont appelés à la vigilance. Et les concepteurs d’IA devront accélérer la mise en place de protections solides s’ils veulent regagner la confiance de leurs utilisateurs.








