Rechercher sur Ifri.org

À propos de l'Ifri

Recherches fréquentes

Suggestions

Entre sécurité et éthique, le Pentagone fait une clé de bras à Anthropic

Interventions médiatiques |

cité par Arthur CERF dans

  Libération 

 
Accroche

Le département de la Défense américain exige un accès illimité aux modèles d’intelligence artificielle de l’entreprise californienne. Un ultimatum qui traduit la tension entre les principes « éthiques » des acteurs de la tech et la course à l’armement numérique.

Image principale médiatique
WASHINGTON - 14 janvier 2025 : Pete Hegseth, le secrétaire à la Défense, témoigne devant le Comité sénatorial des services armés.
WASHINGTON - 14 janvier 2025 : Pete Hegseth, le secrétaire à la Défense, témoigne devant le Comité sénatorial des services armés.
Joshua Sukoff/Shutterstock.com
Table des matières
Table des matières
body

Le compte à rebours est lancé. Lors d’une réunion à Washington, le 24 février, le secrétaire à la Défense, Pete Hegseth, a posé un ultimatum à la start-up d’intelligence artificielle Anthropic, réclamant la levée de toutes les barrières éthiques de son produit phare, le modèle de langage Claude, afin de l’exploiter à des fins militaires, de surveillance et de prise de décisions tactiques. L’entreprise a jusqu’à vendredi, 23h01, heure française, pour se plier aux exigences du Pentagone, sous peine de mesures de rétorsion inédites. « C’est un tournant, indique Julien Nocetti, chercheur associé à l’institut français des relations internationales et spécialiste de la géopolitique de l’IA. Ce qui se dessine, c’est la question des lignes éthiques dans ce champ de l’IA. »

Titre Edito

Contradictions

body

Derrière ce coup de pression manifeste, un fossé entre l’administration Trump et le fleuron de l’intelligence artificielle, fondé en 2021 par des anciens d’OpenAI autour de la promesse d’une intelligence artificielle dite « éthique », entraînée selon des principes moraux récemment détaillés dans un manifeste publié en ligne. Lors de la réunion au Pentagone, Dario Amodei, son PDG a réclamé des garanties et répété son refus de voir son modèle de langage utilisé par les forces armées, pour la surveillance de masse des citoyens américains, ni dans le cadre de systèmes d’armes létales autonomes, sans aucun garde-fou. Pour sa part, le Pentagone considère que les restrictions éthiques d’Anthropic sont un frein, antidémocratique, dans la course à l’intelligence artificielle contre la Chine. « Dans la stratégie américaine d’être une puissance décomplexée dans l’IA, poursuit Julien Nocetti, les grands acteurs de la tech sont rattrapés par les enjeux régaliens et par leurs propres contradictions. » Cinq ans après sa création, Anthropic est prise en tenaille, entre la quête de contrats publics et la volonté de se distancier du gouvernement américain.

Si aucun accord n’est trouvé, Washington menace d’invoquer le Defense Production Act, une loi remontant à la guerre de Corée, qui permet au gouvernement américain de contraindre une entreprise privée à produire des biens ou des services jugés essentiels pour la défense nationale, mais aussi de classer Anthropic comme « risque pour la chaîne d’approvisionnement », l’excluant de tout contrat public futur, la situant, de fait, sur liste noire. « C’est de la coercition pure et simple, continue Julien Nocetti. D’habitude, la menace de risque pour la chaîne d’approvisionnement est brandie contre des adversaires, comme Huawei ou Kaspersky, mais s’en prendre à un acteur national, c’est inédit. ».

[…]

Titre Edito

Franchir le Rubicon

body

Pendant que l’administration Trump cherche à faire plier Anthropic, les autres acteurs se positionnent. Le gouvernement a confirmé la signature d’un accord avec xAI, l’entreprise d’Elon Musk, pour déployer son modèle Grok. En décembre, le département de la Défense des Etats-Unis a officialisé la création d’une plateforme d’IA à vocation militaire, fondée sur l’assistant Gemini de Google, accessible à tous les soldats américains. Le directeur de la technologie du Pentagone, Emil Michael, un ancien d’Uber, a publiquement enjoint Anthropic à « franchir le Rubicon ». « Aujourd’hui, Claude est considéré comme l’alpha et l’omega à des fins de sécurité et de défense, évalue Julien Nocetti. Anthropic est peut-être un peu seul. A voir, si cette affaire n’aura pas des répercussions sur l’image et la confiance des investisseurs… ». A l’heure où sont écrites ces lignes, il lui reste un peu plus de vingt-quatre heures.

>> Lire l'article complet sur le site de Libération.

Decoration

Média

Nom du journal, revue ou émission
Libération

Journaliste(s):

Journaliste
Arthur Cerf

Format

Catégorie journalistique
Article

Partager

Decoration
Auteurs
Photo
julien_nocetti_ifri.jpg

Julien NOCETTI

Intitulé du poste
Crédits image de la page
WASHINGTON - 14 janvier 2025 : Pete Hegseth, le secrétaire à la Défense, témoigne devant le Comité sénatorial des services armés.
Joshua Sukoff/Shutterstock.com