Mettre de l’IA partout, dans tous les produits, c’est mettre des trous de sécurité partout dans ces produits. Mais on ne les voit pas tout de suite.

Vous avez remarqué comme on constate l’apparition de boutons IA dans toutes nos interfaces ? C’est rarement intéressant, mais les géants de la Tech veulent tellement remporter la bataille de l’IA qu’ils forcent leurs utilisateurs à s’en servir.

Cela n’est pas sans conséquence.

C’est ce que décrit, preuves à l’appui, l’entreprise PromptArmor dans un billet très technique mais passionnant. Je tente de le résumer avec des mots simples, en trois étapes :

  1. Le méchant de l’histoire (et on sait que le Web n’est pas peuplé que de Bisounours) écrit un article de documentation informatique qui intéresse un développeur équipé dans le cas présent du très prometteur Google Antigravity, (éditeur de code IA agentique).
  2. Caché dans le texte de la documentation, affiché à l’écran en taille d’un pixel de haut (autrement dit, à l’oeil nu, ça ressemble à une ligne grisée), un prompt qui demande astucieusement à l’IA de Google de récupérer des informations confidentielles. Ici, des mots de passe permettant l’accès au Cloud de la victime.
  3. Ensuite, le même prompt demande à l’IA de Google de se connecter à un site malveillant pour y livrer ces informations confidentielles.

Détail “amusant” (ou cauchemardesque) : par défaut, l’IA n’a pas accès aux mots de passe, mais elle se montre “créative” pour contourner l’interdiction et y accéder malgré tout. Et elle y arrive ! (voir l’illustration jointe).

Finalement quand les géants de la Tech nous disent que l’IA va tout changer, il ont peut-être raison. Mais curieusement, ils ne mentionnent pas que ça va aussi inclure la cybersécurité, en plus du climat et des conflits d’accès à l’eau et à l’énergie !

Copie d'écran d'ordinateur où l'on voit un dialogue avec une IA qui explique qu'elle n'a pas accès aux mots de passe, mais qui va essayer une méthode alternative pour finalement y arriver (et donner l'info secrète au pirate)