5 choses à savoir sur la querelle Pentagone-Anthropique

Publié le

Le Pentagone interdisant Anthropic de ses systèmes et réseaux de défense est bien plus qu’un différend contractuel. L’approche du gouvernement en matière d’intelligence artificielle pourrait affecter l’ensemble du secteur de l’intelligence artificielle.

La querelle porte sur Anthropic qui demande des restrictions sur les armes entièrement autonomes et une surveillance nationale de masse, invoquant des inquiétudes concernant le manque de fiabilité de l’IA et les droits civils fondamentaux des citoyens. Le Pentagone affirme qu’une entreprise privée dictant les conditions d’utilisation de l’IA militaire est intenable et qu’elle respecte la loi.

L’article continue ci-dessous

Voici cinq points à retenir du différend en cours.

1. L’administration considère l’intelligence artificielle comme une arme puissante plutôt que comme une technologie normale.

De ce point de vue, la technologie s’apparente à une bombe nucléaire et non à un logiciel. Washington considère l’IA comme essentielle à la puissance militaire et est engagé dans une course aux armements avec la Chine. Cela a d’énormes implications sur la façon dont le gouvernement fédéral pourrait traiter à l’avenir les entreprises privées développant l’IA.

L’IA générative est rapidement intégrée à la planification des missions et aux combats, y compris désormais en Iran, à des fins de renseignement, d’évaluation d’objectifs, de wargaming et bien plus encore. L’approche actuelle consiste à accélérer l’adoption de l’IA dans l’armée et à avoir un accès illimité aux meilleurs outils disponibles.

L’entreprise d’IA conteste le fait que le Pentagone la qualifie de risque pour la chaîne d’approvisionnement, une désignation utilisée pour les fournisseurs (principalement des adversaires étrangers) qui constituent un risque pour la sécurité nationale. Anthropic s’oppose également à l’appel du Pentagone à une interdiction plus large dans le secteur privé, ce qui dépasse la portée d’une désignation de risque pour la chaîne d’approvisionnement.

Pour l’instant, le gouvernement affirme que les agences fédérales ont six mois pour cesser d’utiliser Anthropic, tandis que la société, dans un dossier juridique, a déjà souligné les « préjudices irréparables » et les pertes énormes dues à son inscription sur liste noire. D’autres choix d’IA de pointe sont à la disposition du gouvernement, notamment OpenAI, Google et Meta.

3. Les tactiques agressives du gouvernement sont là pour rester et vont secouer les entreprises d’IA.

Même si le gouvernement perd devant les tribunaux, la pression pourrait contraindre d’autres sociétés d’IA à éviter des confrontations similaires. Les dirigeants militaires continueront de pousser les entreprises d’IA à acquiescer, dans le but de supprimer toutes les restrictions d’utilisation intégrées dans leur modèle d’IA ou dans les contrats.

Ces tactiques dures ont irrité la Silicon Valley et au-delà, jetant une ombre sur le développement de l’IA. Et les tensions autour des garde-fous en matière d’IA ne sont pas terminées. Considérez qu’OpenAI, qui a signé un nouveau contrat avec le Pentagone après l’interdiction officielle d’Anthropic, continue de dire qu’il a des lignes rouges et qu’il surveillera son utilisation militaire.

Attendez-vous à des appels plus forts pour que le Congrès intervienne et fixe des règles pour l’IA militaire.

4. Les tentatives de contrôle sur l’IA sont une affaire bipartite.

L’administration Trump a également menacé de forcer Anthropic à développer les outils d’IA qu’elle souhaite en invoquant la loi sur la production de défense, une loi datant de la guerre de Corée et destinée aux aciéries et aux usines de chars. Cela constituerait une escalade majeure et entraînerait des contestations judiciaires rapides.

On ne sait pas exactement comment se déroulera l’affaire juridique. Mais notez que l’administration Biden a également invoqué la DPA pour une collecte rigoureuse d’informations sur les modèles d’IA de pointe. Bien que moins coercitif que d’obliger la création de certains logiciels, il suscite néanmoins des critiques de la part de l’industrie.

Les deux parties considèrent l’IA comme trop importante pour être laissée à elle-même, même si elles diffèrent sur les risques, la surveillance appropriée et les tactiques.

5. Les investisseurs devraient surveiller l’approche du gouvernement alors que des milliards de dollars de contrats sont consacrés à l’IA.

L’interdiction de certaines sociétés d’IA, l’affirmation d’un contrôle sur l’IA ou d’éventuelles réglementations fédérales pourraient bouleverser le marché. Anthropic aurait atteint un taux de ventes annuel de 20 milliards de dollars et aurait une valorisation de 380 milliards de dollars, et envisage une introduction en bourse cette année. Il continue de gagner des utilisateurs, mais certains clients pourraient se méfier et opter pour des concurrents, dans l’espoir d’éviter une confrontation avec l’administration Trump.

Pendant ce temps, les clients d’Anthropic qui ont des contrats militaires se démènent pour savoir si l’interdiction signifie qu’ils doivent abandonner Anthropic. Les contrats fédéraux pour l’IA s’élèveront à des dizaines de milliards de dollars dans les années à venir. En être exclu serait une perte énorme pour une grande entreprise technologique ou une start-up.

Contenu connexe

  • Pourquoi la supériorité de l’IA se mesure en gigawatts
  • Les meilleurs ETF pour l’aérospatiale et la défense à acheter
  • Les meilleurs ETF d’IA et de robotique à acheter en 2026