OpenAI versus Anthropic : l’usage militaire de l’IA peut-il être éthique ?
Le 28 février 2026, Donald Trump a ordonné au Pentagone de cesser toute utilisation de l’intelligence artificielle Claude, développée par l'entreprise Anthropic et qui collaborait jusque-là avec l’armée américaine pour améliorer ses performances militaires.
Cette décision intervient après que le patron d’Anthropic, Dario Amodei, a refusé de céder à l’administration américaine qui réclamait d’utiliser sa solution IA sans restriction technique ni éthique. Alors que des modèles d’IA sont déjà utilisés sur des terrains de guerre comme l’Ukraine ou le Proche-Orient, peut-on déléguer les activités de défense à une entreprise privée ? Pourquoi les patrons de la tech se convertissent-ils au secteur de la défense ? Idéologie ou manne financière ? Enfin, l’usage militaire de l’intelligence artificielle peut-il être éthique, alors même que la mort serait dès lors donnée par une machine ?
Avec :
- Nastasia Hadjadji, journaliste indépendante spécialisée dans l’économie numérique
- Laure de Roucy-Rochegonde, directrice du Centre géopolitique des technologies à l’Institut français des relations internationales (IFRI) et enseignante à Sciences Po Paris et à l’université Paris-II Panthéon-Assas
> Réécouter l'émission sur le site de France culture.
Média
Journaliste(s):
Nom de l'émission
Format
Partager