Les risques de l’IA. Enjeux discursifs d’une technologie stratégique
L’année 2023 aura été marquée par une ruée vers l’intelligence artificielle (IA) générative à tous niveaux – en particulier financier, médiatique et donc politique –, positionnant celle-ci au centre des discussions internationales comme peu de technologies auparavant.
Si la vague d’innovations en cours justifie l’intérêt sans cesse renouvelé pour ce vaste amalgame de techniques, l’engouement et l’effroi qu’il suscite se fondent notamment sur des récits qu’il faut pouvoir décrypter. Ces récits tracent des horizons plus ou moins souhaitables selon les contextes. Entre quête d’une science sans limites, mythe de la singularité et risques d’extinction humaine, course à la puissance et peur du déclassement, nombreux sont les narratifs qui orientent aussi bien le développement de ces technologies que leur régulation balbutiante. Mettant aux prises une pluralité d’acteurs (leaders technologiques, États, organisations internationales, groupes de pression, organisations non gouvernementales, etc.), ils prennent le risque de faire naître des attentes disproportionnées et traduisent les profonds clivages de nos sociétés.
Cette étude se propose donc de retracer les principaux débats entourant l’IA aujourd’hui et d’en dégager les grandes lignes de force, afin d’identifier ce qui se joue derrière les discours et positionnements des uns et des autres. Les stratégies déployées sont multiples, allant de l’agitation de la menace géopolitique pour encourager les investissements au détournement de l’attention des régulateurs vers des risques à long terme, en passant par la condamnation ou la promotion de l’IA open source face à la concentration du marché. Il s’agit également d’analyser les risques communément associés au déploiement de ces technologies, qui sont au fondement des récits et des perceptions collectives. Ces risques menacent l’intégrité démocratique, l’environnement, la conduite de la guerre et la cybersécurité.
Cette étude suggère enfin que la bataille de la gouvernance à venir est déjà et continuera d’être profondément orientée par le rôle prescriptif de narratifs permettant de contrôler pour partie les débats politiques. Les États, tiraillés entre ces récits et leurs propres ambitions technologiques, rivalisent d’initiatives mais peinent à faire converger leurs visions. Dès lors, le risque serait de voir cette gouvernance internationale de l’IA réduite à une pure injonction collective et remise sans cesse au lendemain. La politique de sommets d’ampleur mondiale initiée notamment par le Royaume-Uni semble vouloir apporter un début de réponse, dont l’avenir permettra de déterminer si elle sera suivie d’effets.
Contenu disponible en :
Régions et thématiques
ISBN / ISSN
Utilisation
Comment citer cette publicationPartager
Téléchargez l'analyse complète
Cette page ne contient qu'un résumé de notre travail. Si vous souhaitez avoir accès à toutes les informations de notre recherche sur le sujet, vous pouvez télécharger la version complète au format PDF.
Les risques de l’IA. Enjeux discursifs d’une technologie stratégique
Centres et programmes liés
Découvrez nos autres centres et programmes de rechercheEn savoir plus
Découvrir toutes nos analysesTrump II contre la gouvernance du numérique : une croisade aux États-Unis et en Europe
Depuis son arrivée à la Maison-Blanche, l’administration Trump II mène une campagne systématique de déréglementation des secteurs technologiques, tant aux États-Unis qu’en Europe. Comment l'Europe peut-elle maintenir le dialogue tout en préservant son cadre de gouvernance ?
(Extra)territorialité des données : quelle souveraineté pour l'Europe ?
L’expansion de l’extraterritorialité aux données numériques traduit l’émergence de nouveaux rapports de pouvoir autour du contrôle des flux de données mondiaux. Dans ce contexte, la localisation des données s’est imposée progressivement comme un instrument stratégique mobilisé par différents États à des fins de contrôle politique et idéologique, de protection des intérêts industriels et de la sécurité nationale, ou encore de soutien à l’innovation et à la protection des données.
South by Southwest 2026. Le festival texan au carrefour des visions de l’intelligence artificielle
Fin février 2026, l’administration Trump exige d’Anthropic, l’un des leaders mondiaux de l’intelligence artificielle (IA), créateur de Claude, un accès sans restrictions à ses modèles pour le Pentagone. Son P.-D. G., Dario Amodei, refuse au nom de « lignes rouges » éthiques – pas de surveillance de masse, pas d’armes totalement autonomes. Après l’échec de négociations, Anthropic se voit exclu des agences fédérales. Dans la foulée, OpenAI, son principal concurrent, signe avec le département de la Défense, tout en promettant de ne pas permettre un usage létal autonome.
L'Europe face au tournant de la DefTech. Repenser l'écosystème européen d'innovation de défense
« La façon dont je vois Iron Dome, c’est l’expression ultime de ce que sera le rôle des États-Unis dans les conflits futurs : non pas être les gendarmes du monde, mais en être l’armurerie », estimait en novembre 2023 Palmer Luckey, le fondateur d’Anduril, l’une des entreprises les plus en vue de la DefTech. L’ambition est claire : participer au réarmement mondial en capitalisant sur la qualité des innovations américaines et dominer le marché de l’armement, au moins occidental, par la maîtrise technologique.