Tech

Les vulnérabilités de l’IA nouvelle génération de Microsoft exposent votre ordinateur à des risques

Microsoft déploie une fonctionnalité d’IA révolutionnaire en reconnaissant publiquement ses failles de sécurité majeures. Copilot Actions représente une nouvelle classe d’assistants numériques capables d’automatiser des tâches quotidiennes : organiser des fichiers, rédiger des messages, planifier des réunions. Actuellement en phase bêta et désactivée par défaut, cette technologie promet une productivité accrue pour les utilisateurs Windows.

Les dangers identifiés par Microsoft ne sont pas des anomalies passagères, mais des problèmes structurels profonds. Les attaques par injection de prompts peuvent détourner les actions de l’IA sans que l’utilisateur ne s’en aperçoive. Des scripts malveillants dissimulés dans des pages web, des documents ou des courriers électroniques peuvent être interprétés par l’agent comme des instructions légitimes, exposant les données sensibles à des fuites.

Les grands modèles de langage souffrent de deux vulnérabilités connues qui alimentent ces risques. D’abord, les hallucinations : ces systèmes génèrent fréquemment des réponses inexactes ou dénuées de sens, même face à des questions élémentaires. Dans un assistant qui manipule des fichiers ou des paramètres système, cette faiblesse devient préoccupante. Ensuite, les injections de prompts exploitent l’incapacité du modèle à distinguer les intentions légitimes des utilisateurs.

Microsoft reconnaît explicitement que ces limitations sont inhérentes aux modèles actuels et ne peuvent être corrigées qu’après découverte des failles. L’entreprise recommande d’activer Copilot Actions uniquement en comprenant les implications sécuritaires. Cependant, elle ne fournit ni conseils précis sur les mesures de protection à adopter, ni définition claire des risques concrets.

L’analogie avec les macros Office s’impose naturellement. Microsoft avertit depuis des décennies des dangers liés à ces automatismes, tout en les maintenant essentiels dans les environnements professionnels. Copilot Actions incarne une version amplifiée de cette dynamique : plus robuste, mieux intégré, mais tout aussi vulnérable aux abus malveillants. L’industrie déploie l’IA générative malgré l’absence de solution aux risques fondamentaux. Le message implicite adressé aux utilisateurs et entreprises demeure : vous avez été avertis.

Articles similaires

Bouton retour en haut de la page
Fermer