En bref
- Un juge fédéral a empêché le Pentagone de désigner Anthropic comme un risque pour la chaîne d'approvisionnement, estimant que cette mesure violait probablement les droits du Premier Amendement et de procédure régulière de l'entreprise.
- Le différend découlait d'un contrat d'IA de 200 millions de dollars du Département de la Défense qui s'est effondré après qu'Anthropic a refusé d'autoriser l'utilisation de son modèle pour la surveillance de masse ou la guerre autonome létale.
- La décision rétablit temporairement la position d'Anthropic auprès des contractants fédéraux et pourrait façonner la manière dont les entreprises d'IA fixent des limites d'utilisation dans les accords gouvernementaux.
Un juge fédéral a empêché le Pentagone de désigner Anthropic comme un risque pour la chaîne d'approvisionnement, décidant jeudi que la campagne du gouvernement contre l'entreprise d'IA violait ses droits du Premier Amendement et de procédure régulière.
La juge de district américaine Rita Lin a émis une injonction préliminaire du district nord de Californie deux jours après avoir entendu les arguments oraux des deux parties, dans une affaire que les observateurs disent avoir été rendue inévitable par la propre paperasse du gouvernement.
« Rien dans la loi applicable ne soutient la notion orwellienne qu'une entreprise américaine puisse être qualifiée d'adversaire potentiel et de saboteur des États-Unis pour avoir exprimé un désaccord avec le gouvernement », a écrit la juge Lin.
Le dossier interne a été fatal au cas du gouvernement, selon Andrew Rossow, avocat des affaires publiques et PDG d'AR Media Consulting, qui a déclaré à Decrypt que la désignation avait été « déclenchée par une conduite médiatique, et non par une analyse de sécurité ».
« Le gouvernement a essentiellement écrit son propre motif, et c'était des représailles », a déclaré Rossow.
Le différend porte sur un contrat de deux ans de 200 millions de dollars attribué à Anthropic en juillet 2025 par le Bureau du numérique et de l'intelligence artificielle du Département de la Guerre.
Les négociations pour déployer Claude sur la plateforme GenAI.Mil du département ont échoué après que les deux parties n'ont pas réussi à s'entendre sur les restrictions d'utilisation.
Anthropic a insisté sur deux conditions : que Claude ne soit pas utilisé pour la surveillance de masse des Américains ou pour un usage létal dans une guerre autonome, arguant que le modèle n'était pas encore sûr pour l'un ou l'autre objectif.
Lors d'une réunion du 24 février, le secrétaire à la Guerre Pete Hegseth a dit aux représentants d'Anthropic que si l'entreprise ne levait pas ses restrictions avant le 27 février, le département la désignerait immédiatement comme un risque pour la chaîne d'approvisionnement.
Anthropic a refusé de se conformer.
Le même jour, le président Trump a publié une directive sur Truth Social ordonnant à chaque agence fédérale de « cesser immédiatement » d'utiliser la technologie de l'entreprise, qualifiant Anthropic d'« entreprise radicale de gauche et woke ».
Un peu plus d'une heure plus tard, Hegseth a décrit la position d'Anthropic comme un « cours magistral d'arrogance et de trahison », ordonnant qu'aucun contractant faisant affaire avec l'armée ne puisse mener d'activité commerciale avec l'entreprise. La désignation formelle de risque pour la chaîne d'approvisionnement a suivi par une lettre le 3 mars.
Anthropic a poursuivi le gouvernement le 9 mars, alléguant des violations du Premier Amendement, de la procédure régulière et de la loi sur les procédures administratives.
« Punir Anthropic pour avoir soumis la position contractuelle du gouvernement à l'examen public est une représaille classique et illégale au titre du Premier Amendement », a écrit la juge Lin dans l'ordonnance de jeudi.
L'ordonnance, qui a été suspendue pendant sept jours, bloque les trois actions gouvernementales, exige un rapport de conformité d'ici le 6 avril et rétablit le statu quo avant les événements du 27 février.
Instrumentaliser la loi
La désignation de « risque pour la chaîne d'approvisionnement » a été historiquement réservée aux agences de renseignement étrangères, aux terroristes et à d'autres acteurs hostiles.
Elle n'avait jamais été appliquée à une entreprise nationale avant Anthropic. Les contractants de la Défense ont commencé à évaluer et dans de nombreux cas à mettre fin à leur dépendance à Anthropic dans les semaines qui ont suivi, a noté l'ordonnance de la juge Lin.
Et la posture du gouvernement pourrait avoir des conséquences imprévues, soutiennent les experts.
En effet, la décision de jeudi pourrait pousser les entreprises d'IA « à formaliser des garde-fous éthiques lorsqu'elles travaillent avec les gouvernements », a déclaré Pichapen Prateepavanich, stratège politique et fondatrice de la société d'infrastructure Gather Beyond, à Decrypt.
Dans une certaine mesure, la décision suggère également que les entreprises « peuvent fixer des limites d'utilisation claires sans déclencher automatiquement une action réglementaire punitive », a-t-elle déclaré.
Mais cela « n'élimine pas la tension », a-t-elle ajouté. Ce que la décision limite, c'est « la capacité d'intensifier ce désaccord en une exclusion plus large ou un étiquetage qui semble être des représailles ».
Néanmoins, l'application de l'autorité statutaire actuelle pour désigner une entreprise comme un risque pour la chaîne d'approvisionnement « parce qu'elle a refusé de supprimer des garde-fous de sécurité » n'est pas une extension de la loi sur les risques de la chaîne d'approvisionnement, a expliqué Rossow. Au lieu de cela, elle fonctionne comme une « instrumentalisation » de la loi.
« Cela fait partie d'un schéma de comportement continu de la Maison Blanche chaque fois qu'elle est contestée, entraînant des menaces disproportionnées, émotionnellement motivées et biaisées ainsi que de l'extorsion gouvernementale », a-t-il ajouté.
Si la « théorie » du gouvernement est acceptée, elle créerait un précédent « dangereux » dans lequel les entreprises d'IA peuvent être mises sur liste noire pour des politiques de sécurité que le gouvernement n'aime pas, « avant qu'aucun préjudice ne se produise », sans procédure régulière, sous la bannière de la sécurité nationale, a déclaré Rossow.
Newsletter Daily Debrief
Commencez chaque journée avec les principales nouvelles du moment, plus des contenus originaux, un podcast, des vidéos et plus encore.
Source : https://decrypt.co/362548/judge-blocks-pentagon-anthropic-national-security-threat




