Les outils de sécurité de l'IA peuvent renforcer les défenses contre le phishing, les fesses profondes et d'autres cyberattaques. Mais il y a un problème qui empire: l'IA rend les entreprises et les particuliers plus vulnérables aux nouvelles attaques numériques.
« Les modèles d'IA sont maintenant utilisés pour effectuer des cyberattaques sophistiquées, pas seulement des conseils sur la façon de les réaliser », explique un récent rapport de menace de la société AI Anthropic. Les chatbots AI, comme le Claude d'Anthropic, peuvent aider les cybercriminels à profil les victimes, analyser les données volées, voler des informations sur les cartes de crédit et plus encore. Une étude de cas a montré un attaquant ciblant au moins 17 organisations dans les soins de santé, les services d'urgence, les institutions gouvernementales et religieuses pour les attaques de ransomwares.
L'outil d'IA a aidé à automatiser les attaques, de la reconnaissance aux demandes d'extorsion. Anthropic a interdit les comptes lorsqu'ils ont été découverts et essaient maintenant de détecter de manière préventive une telle activité criminelle. Mais ce n'est pas beaucoup de réconfort. «Nous nous attendons à ce que des attaques comme celle-ci deviennent plus courantes», note le rapport.
Pendant ce temps, la façon dont de nombreuses entreprises utilisent l'IA augmente le risque. L'adoption rapide de l'IA par les entreprises soulève des problèmes, car les outils d'IA sont souvent mis en place avec des paramètres de sécurité faibles, laissant les systèmes vulnérables à une violation. Il y a aussi «Shadow AI», les outils utilisés par les travailleurs qui ne sont pas sanctionnés par l'entreprise, ce qui crée un risque de sécurité caché. De nombreuses entreprises n'ont pas de politiques adéquates pour arrêter la pratique.
Le coût d'une violation de données a augmenté à plus de 10 millions de dollars aux États-Unis, en moyenne, selon le récent coût d'IBM d'un rapport de violation de données 2025. Le jeu de chat et de souris s'escalade. «Alors que les entreprises se précipitent pour adopter l'IA pour un avantage concurrentiel, les cybercriminels incorporent tout aussi rapidement ces technologies dans leurs arsenals d'attaque», écrit Limor Kessem, Cyber Crisis Global Lead à IBM.
« Les incidents de sécurité impliquant une IA de l'ombre ont représenté 20% des violations », selon le rapport. Les politiques de société de l'AI, comme ignorer les outils d'IA non autorisés, utilisés sur les réseaux d'entreprise, augmentent considérablement le coût d'une violation de données. Notez que les amendes réglementaires aux États-Unis pour les violations de données sont plus élevées que dans les autres pays, ce qui fait augmenter le coût.
Du bon côté, investir dans l'IA pour les organisations dirigées par la sécurité à détecter les violations beaucoup plus rapidement et à économiser de l'argent, selon IBM. De nouvelles politiques peuvent aider à atténuer le risque, comme la surveillance de l'IA de l'ombre, ayant un plan de réponse de violation de données solide et une formation régulière en matière de sécurité pour les travailleurs.
Un grand objectif devrait être de prévenir les attaques de phishing, l'une des principales causes de violations de données. Les attaques se produisent lorsque des e-mails frauduleux ou d'autres messages sont utilisés pour inciter quelqu'un à cliquer sur un lien malveillant ou à télécharger un fichier malveillant.
Les entreprises devraient également régulièrement faire un inventaire de tous les logiciels utilisés et abandonner les outils sous-utilisés, qui sont sensibles aux attaques. D'autres facteurs qui aident incluent le chiffrement des données et l'utilisation d'outils de surveillance des menaces avancées.
Mais même les outils de détection sont menacés. L'utilisation des outils d'IA par les cybercriminels «peut s'adapter aux mesures défensives, comme les systèmes de détection de logiciels malveillants, en temps réel», note anthropic.