Les risques de l’IA. Enjeux discursifs d’une technologie stratégique
L’année 2023 aura été marquée par une ruée vers l’intelligence artificielle (IA) générative à tous niveaux – en particulier financier, médiatique et donc politique –, positionnant celle-ci au centre des discussions internationales comme peu de technologies auparavant.
Si la vague d’innovations en cours justifie l’intérêt sans cesse renouvelé pour ce vaste amalgame de techniques, l’engouement et l’effroi qu’il suscite se fondent notamment sur des récits qu’il faut pouvoir décrypter. Ces récits tracent des horizons plus ou moins souhaitables selon les contextes. Entre quête d’une science sans limites, mythe de la singularité et risques d’extinction humaine, course à la puissance et peur du déclassement, nombreux sont les narratifs qui orientent aussi bien le développement de ces technologies que leur régulation balbutiante. Mettant aux prises une pluralité d’acteurs (leaders technologiques, États, organisations internationales, groupes de pression, organisations non gouvernementales, etc.), ils prennent le risque de faire naître des attentes disproportionnées et traduisent les profonds clivages de nos sociétés.
Cette étude se propose donc de retracer les principaux débats entourant l’IA aujourd’hui et d’en dégager les grandes lignes de force, afin d’identifier ce qui se joue derrière les discours et positionnements des uns et des autres. Les stratégies déployées sont multiples, allant de l’agitation de la menace géopolitique pour encourager les investissements au détournement de l’attention des régulateurs vers des risques à long terme, en passant par la condamnation ou la promotion de l’IA open source face à la concentration du marché. Il s’agit également d’analyser les risques communément associés au déploiement de ces technologies, qui sont au fondement des récits et des perceptions collectives. Ces risques menacent l’intégrité démocratique, l’environnement, la conduite de la guerre et la cybersécurité.
Cette étude suggère enfin que la bataille de la gouvernance à venir est déjà et continuera d’être profondément orientée par le rôle prescriptif de narratifs permettant de contrôler pour partie les débats politiques. Les États, tiraillés entre ces récits et leurs propres ambitions technologiques, rivalisent d’initiatives mais peinent à faire converger leurs visions. Dès lors, le risque serait de voir cette gouvernance internationale de l’IA réduite à une pure injonction collective et remise sans cesse au lendemain. La politique de sommets d’ampleur mondiale initiée notamment par le Royaume-Uni semble vouloir apporter un début de réponse, dont l’avenir permettra de déterminer si elle sera suivie d’effets.
Contenu disponible en :
Régions et thématiques
ISBN / ISSN
Utilisation
Comment citer cette publicationPartager
Téléchargez l'analyse complète
Cette page ne contient qu'un résumé de notre travail. Si vous souhaitez avoir accès à toutes les informations de notre recherche sur le sujet, vous pouvez télécharger la version complète au format PDF.
Les risques de l’IA. Enjeux discursifs d’une technologie stratégique
Centres et programmes liés
Découvrez nos autres centres et programmes de rechercheEn savoir plus
Découvrir toutes nos analysesMobilité des chercheurs et restrictions américaines. Un levier pour la recherche technologique française
Une atteinte sans précédent à la liberté académique est observée aux États-Unis, sous l’impulsion de l’administration Trump, affectant simultanément les universités, les agences fédérales et les étudiants internationaux. La France et l'Europe sauront-elles en faire une chance pour attirer et retenir les talents de la tech sur leur territoire ?
Le robot est-il un adversaire comme un autre ?
Chapitre d'ouvrage rédigé par Laure de Roucy-Rochegonde, paru dans l'essai "Jamais sans mon ennemi?" de Gallimard (2025).
La guerre sans consentement démocratique : comment assurer un contrôle politique de la force à l’ère des armes autonomes ?
Chapitre d'ouvrage rédigé par Laure de Roucy-Rochegonde, paru dans l'ouvrage collectif "IA : Enjeux et responsabilités" de la CNRS (2025).
L’IA dans sa bulle : qui paiera la note ?
Affirmer que l’intelligence artificielle générative (IA) est en proie à une bulle relève aujourd’hui du lieu commun. Les valorisations boursières stratosphériques des entreprises du secteur, dont la rentabilité demeure un horizon lointain et plus qu’incertain, peuvent suffire à s’en convaincre. Toutefois, le véritable enjeu est moins de nature économique que politique, à mesure que les choix opérés par une minorité s’imposent à nos sociétés, dans un contexte géopolitique encourageant de fait un développement technologique débridé.