Anthropic a engagé une action en justice contre le gouvernement des États-Unis, affirmant que ses systèmes d’IA ont été mis sur liste noire dans le cadre des processus d’achat fédéraux. Cette action judiciaire a été déposée le 7 mars 2026 devant la Cour de district des États-Unis pour le district nord de Californie. Les agences fédérales clés citées dans le procès comprennent les départements du Trésor, du Commerce, d’État, de la Santé et des Services sociaux, des Anciens combattants, ainsi que l’Administration des services généraux Source: Provided Content.
Le procès met en lumière l’insistance continue du gouvernement fédéral à intégrer les technologies d’IA, marquant l’une de ses plus importantes campagnes d’adoption de l’histoire. Les contrats fédéraux dans le secteur de l’IA sont importants, couvrant souvent plusieurs années et jouant un rôle clé dans les opérations gouvernementales Source: Provided Content.
La plainte d’Anthropic contre le gouvernement américain repose sur des allégations selon lesquelles ses systèmes d’IA ont été exclus des achats fédéraux sans respect des procédures légales nécessaires. L’entreprise soutient que le gouvernement a contourné des étapes fondamentales telles que l’émission d’une décision officielle, la conduite d’un examen inter-agences, la fourniture de preuves documentées ou l’évaluation d’alternatives moins restrictives à l’exclusion pure et simple Source.
Le procès allègue que les responsables ont justifié ces restrictions en se basant sur des questions de sécurité nationale et de chaîne d’approvisionnement. Malgré ces justifications, il est supposé que les restrictions se sont diffusées de manière informelle à travers les circuits centralisés d’approvisionnement. Cela a conduit à ce qu’Anthropic soit systématiquement exclu des opportunités de contrats fédéraux sans aucune directive officielle ou documentée. En déposant ce procès, Anthropic cherche à obtenir une décision judiciaire déclarant ces restrictions illégales et empêchant les agences de les appliquer à l’avenir. Une telle décision pourrait potentiellement rouvrir les marchés publics fédéraux à l’entreprise et établir un précédent juridique concernant la restriction des fournisseurs d’IA sans respecter les règles procédurales nécessaires Source.
Anthropic demande au tribunal de déclarer illégales les restrictions imposées à son IA et d’interdire aux agences fédérales de les appliquer. L’entreprise sollicite une ordonnance qui bloquerait l’application de la directive informelle qui l’a exclue des marchés publics fédéraux. Anthropic affirme qu’une décision judiciaire en sa faveur rouvrirait l’accès aux marchés publics fédéraux pour l’entreprise et pourrait établir un précédent quant à la restriction des fournisseurs d’IA sans suivre les règles internes. Ces enjeux se présentent dans un contexte de forte adoption de l’IA à grande échelle par le gouvernement fédéral et de prévalence de contrats importants sur plusieurs années dans ce secteur.
Si elle est accordée, la mesure de réparation demandée par Anthropic rétablirait sa capacité à concourir pour les contrats gouvernementaux liés à l’IA. Un jugement favorable pourrait également définir les limites de la manière dont les agences appliquent les restrictions informelles en matière d’approvisionnement. Les demandes de l’entreprise se concentrent donc à la fois sur l’accès immédiat aux contrats et sur les implications plus larges du droit des marchés publics pour les fournisseurs d’IA.
Selon les rapports les plus récents, le gouvernement américain n’a pas publié de réponse officielle à la poursuite judiciaire d’Anthropic concernant l’inscription présumée de ses systèmes d’IA sur une liste noire. Cependant, Axios a rapporté que la Maison Blanche prépare un décret exécutif qui demanderait aux agences fédérales de retirer les technologies d’IA d’Anthropic de leurs opérations. Cette évolution indique une position gouvernementale potentielle en faveur du maintien des restrictions, malgré le recours juridique en cours Source.
Anthropic a intenté une action en justice alléguant que plusieurs agences fédérales ont effectivement mis ses systèmes d’IA sur une liste noire concernant les marchés publics, arguant que ces actions étaient illégales et mal mises en œuvre. La société affirme que les agences ont imposé des restrictions sans une décision formelle, sans examen interinstitutionnel, sans preuves documentées ni considération d’alternatives moins restrictives, une revendication soulevée dans le contexte de la grande adoption de l’IA par le gouvernement fédéral et la prévalence de contrats importants pluriannuels dans ce secteur.


