Mots. Langage du politique

Discours relatifs à l’intelligence artificielle

Mis en ligne le

Réponse attendue pour le 15/05/2024

Type de réponse Résumé

Type de contribution attendue Article

Nom de la publication Mots. Langage du politique

Coordinateurs

Quels discours accompagnent le développement de l’intelligence artificielle (IA) et quels en sont les usages dans l’espace public médiatisé contemporain ? Ce numéro de Mots. Les langages du politique entend répondre à ces questions et ainsi contribuer aux débats autour de l’IA dont le déploiement s’impose désormais comme une évidence, notamment dans les mondes politique et journalistique.

Le premier usage du nom composé « intelligence artificielle » est attesté en 1956 (Georges, 2019). En Europe, son usage ne se développe largement qu’à partir des années 2010 sous l’effet notamment de sa promotion par les institutions de l’Union européenne (Russell, 2002 ; Raus, 2021). « Intelligence artificielle » (et le sigle associé « IA ») s’impose aujourd’hui par sa fréquence d’usage dans le discours social et les débats publics (Unesco, 2023). Il souffre pourtant d’un flou référentiel qui en fait « un terme un peu fourre-tout » (Dierickx, 2021) et un « concept flottant » (Byk et Piana, 2021) servant à désigner indistinctement les innombrables possibilités que les nouvelles capacités d’analyse automatique des données offrent (notamment dans le cas de données volumineuses – le big data). « La catégorie IA occulte [ainsi] la multiplicité des dispositifs, des pratiques et des contextes d’usages » (Velkovska et Relieu, 2021). Le syntagme ne cesse finalement de s’enrichir de nouveaux sens au gré des progrès informatiques (découverte de la « convolution », développement de l’« apprentissage profond » [Le Cun, 2019], etc.). Ce que désigne « IA », « entre apparence de consensus normatif et controverse cachée sur le projet de société » (Byk et Piana, 2021), constitue déjà une piste d’étude intéressante, éventuellement dans une orientation diachronique.

Discours et imaginaires relatifs à l’IA

L’évolution des dispositifs techniques, notamment communicationnels, a toujours stimulé un ensemble de discours qui décrit l’innovation dans des imaginaires aussi bien utopiques que dystopiques (Breton, 2004). C’est le cas avec l’IA qui semble cristalliser autant les craintes que les espoirs quant à l’avenir de sociétés pleinement inscrites dans le complexe et vaste processus de « numérisation du monde » (Flipo, 2021). Dès lors, les auteurs sont encouragés à analyser aussi bien les discours de promotion de l’IA que les discours critiques qui en pointent les limites et les risques (Elliott, 2019).

Les quelques travaux portant sur les discours de promotion de l’IA relèvent le rôle que l’IA aurait dans la légitimation des acteurs privés (Bellon et Velkovska, 2023b), dans la généralisation d’un « capitalisme de surveillance » (Zuboff, 2020), dans la légitimation des pratiques néo-libérales (Raus, 2022). La diffusion de discours experts, institutionnels ou politiques qui déconstruisent la dichotomie humain-machine et la nécessité de faire confiance à l’IA (Raus, 2023) indiquent la présence de « programmes de sens » (Siblot et Détrie, 2017, p. 317) qui essaient de légitimer un « discours éthique » (Beer, 2019 ; Tafani, 2022) ou économique, comme la narration des « technologies à usage général » (Le Cun, 2019, p. 340), l’IA étant justement la plus récente de celles-ci. Il s’agit donc, dans cette perspective, d’analyser ensemble idéologie, utopie et « imaginaires socio-discursifs » (Charaudeau, 2005) sur lesquels reposent les discours de promotion des potentialités de l’IA.

Quant aux discours de condamnation de l’IA et de prudence par rapport à ses effets socio-politiques, ils se retrouvent parfois sous l’égide de la pensée de Jacques Ellul qui n’eut de cesse d’interroger « la Technique » et son autonomisation vis-à-vis du politique, de l’économique et du culturel (Elull, 1954). Ces discours expriment « un droit de vigilance et de critique » (Cardon, 2018) sur les applications de l’IA. Les algorithmes, comme « nouvelle figure du pouvoir » (Cardon, 2018), sont notamment interrogés dans le cadre du droit à accéder à une information fiable en démocratie (Crépal et Cardon, 2022). En outre, la diffusion de discours de pouvoir fondés sur des langages automatisés non supervisés alimente la discrimination algorithmique et renforce les systèmes d’inégalités sociales (Gerards et Xenidis, 2021 ; Kılıç et Bozkuş Kahyaoğlu, 2023).

La manière dont ces discours puisent d’éventuelles références, métaphores, mythes, paratopies (Maingueneau, 1993) dans des imaginaires fictionnels (Michaud, 2023) pour légitimer l’objet IA (Raus, 2021) est par ailleurs un sujet de réflexion sans doute pertinent.

Un troisième faisceau de discours mérite d’être traité : ceux dont la finalité est la régulation du recours à l’IA (Gu, 2023). L’objet technique est un pharmakon selon Bernard Stiegler, à la fois remède et poison. C’est ainsi, par exemple, que l’IA s’affirme autant comme problème que comme solution face à la désinformation (Teyssou, 2022). La régulation vise à encadrer les pratiques pour atténuer les risques associés à l’IA tout en en favorisant un développement raisonné. Pensons par exemple à l’ensemble des chartes signées en 2023 dans le monde médiatique (« Charte de Paris sur l’IA et le journalisme » initiée par Reporters sans frontières ; « Charte sur l’usage de l’IA générative proposée par Le Figaro, etc.), aux textes réglementaires et législatifs nationaux ou communautaires comme l’Artificial Intelligence Act adopté par l’Union européenne en fin d’année 2023 ou encore aux nombreux rapports produits sur le sujet (par exemple, le « Rapport sur l’IA » rendu public en 2018 par le mathématicien et député Cédric Villani (Robert, 2021) ou le « Rapport sur les conséquences de l’IA, de l’internet des objets et de la robotique sur la sécurité et la responsabilité » de la Commission européenne diffusé en 2020). Il convient de rappeler à ce sujet que l’accord récent trouvé par les institutions européennes ouvre une nouvelle phase de tensions réglementaires et de résistance du marché européen.

Dans le dialogisme généralisé du discours social, ces trois faisceaux de discours se rencontrent et contribuent, dans des dynamiques d’opposition, de convergence ou d’hybridation, à constituer l’IA comme un « problème public » sur lequel un nombre grandissant d’acteurs sociaux se positionne (Bellon et Velkovska, 2023a, 2023b). Les dynamiques de la controverse méritent d’être interrogées en croisant l’étude des stratégies d’acteurs et l’analyse des discours, notamment dans leur dimension argumentative (Chateauraynaud, 2011 ; Rennes, 2016). Des travaux ont déjà ouvert la voie à une cartographie de la controverse dans le cadre du recours à l’IA dans le journalisme (Whittaker, 2019 ; Crépel et Cardon, 2022 ; Biswal et Jayant Kulkarni, 2024).

L’IA générative et l’essor des agents conversationnels dans l’espace politique et médiatique

Le second axe de réflexion ouvert concerne les usages présents et à venir de l’IA générative dans l’espace politique et médiatique. Celle-ci constitue une branche de l’IA qui se concentre sur la création de contenus pouvant être aussi bien des textes que des images. Cette capacité à générer du texte possiblement destiné à être publiquement diffusé ouvre le champ à de nombreuses applications dont on peine encore à évaluer la portée aussi bien dans le champ de la communication politique – dans l’acception large que lui donne Dominique Wolton (1989) – que dans celui de la production de l’information journalistique (St-Germain et White, 2021 ; Diakopoulos, 2019).

Les travaux sur l’écriture en contexte numérique ont rappelé la nécessité de repenser les circuits de l’énonciation au regard du « caractère composite inhérent aux discours natifs du web » (Paveau, 2017). Ces interrogations sont encore renouvelées dans le cadre de l’IA générative. « Qui parle ? » reste la question posée. Mais y répondre exige sans doute de renouveler encore les conceptions – longtemps privilégiées par l’analyse de discours – du sujet comme source de sens. Au-delà d’une question épistémologique, le recours à l’IA générative rejoint le questionnement éthique sur la responsabilité dans la production des discours politiques et médiatiques (Chauvin-Vileno et Rabatel éd., 2006 ; Thurman et al., 2021).

Cet axe encourage les travaux qui évaluent l’usage de l’IA générative. Si, dans l’espace journalistique, l’IA bouscule à la fois la collecte et l’analyse de l’information, et la production et la diffusion des nouvelles (St-Germain et White, 2021), le dossier privilégiera les études relatives à la production des discours médiatiques assistés par l’IA et les agents conversationnels (comme ChatGPT). Dès 2016, le Washington Post innove en proposant des articles rédigés par une IA nommée Heliograf. En 2020, c’est The Guardian qui propose un éditorial entièrement rédigé par GPT-3, application de la société américaine Open AI. Depuis, les expérimentations se sont multipliées et de nouvelles pratiques commencent à apparaître dans les rédactions. La figure du « journaliste augmenté » (Lindén, 2020) comme la métaphore du « journaliste robot » (pour une critique de la métaphore, voir Lindén et Dierick, 2019) illustrent une conception renouvelée du journalisme qui interroge aussi bien les fondements éthiques des pratiques professionnelles que le rôle du journalisme en démocratie (Diakopoulos, 2019).

De nombreux travaux ont analysé l’exploitation des données dans le cadre du marketing politique. La maîtrise des bases de données personnelles et de leur exploitation systématique a profondément transformé les stratégies de segmentation de l’électorat (micro-ciblage). La prétention du marketing politique évolue : il ne s’agit plus seulement de décrire les attentes de l’électorat, mais de peser sur les intentions de vote (Barquissau et Schlenker, 2017). Les récents développements de l’IA générative offrent aux acteurs de la communication politique de nouvelles potentialités, dont les contours restent encore à définir. Les agents conversationnels, l’utilisation de ChatGPT, les chatbots basés sur l’IA peuvent ainsi constituer une ressource pour renouveler le dialogue entretenu avec les citoyens ou stimuler l’engagement civique. Mettre l’IA générative au service de l’intérêt général et du débat public constitue un défi à l’ère des flux d’information personnalisés.

Le dossier pourra aussi accueillir des propositions relatives aux usages politiques manipulatoires de l’IA générative. Pensons à la création d’images. Culture visuelle et culture politique s’interpellent depuis l’avènement de l’espace public médiatisé contemporain (Veyrat-Masson et al., 2019). Si l’histoire offre de nombreux exemples de falsification d’images politiques, le réalisme troublant des images générées aujourd’hui par l’IA encourage à repenser « les formes contemporaines de la méfiance à l’égard de la communication » (Durham Peters et al., 1994). L’actualité récente a offert plusieurs exemples de création d’images (arrestation de Donald Trump, Emmanuel Macron en éboueur, etc.) dont la diffusion virale sur le web et les réseaux sociaux illustre les risques sur « l’énonciation publique du “vrai” » (Bodin et Chambru, 2019).

Les articles porteront sur des corpus et des études de cas multilingues divers. Les approches méthodologiques pourront varier selon les disciplines sollicitées, pourvu qu’on choisisse le discours et/ou la dimension symbolique du politique comme observatoire privilégié. Les études empiriques des cas seront particulièrement bienvenues.

Références bibliographiques

Barquissau Éric et Schlenker Lee, 2017, « Chapitre 5. E-marketing politique : état des lieux et opportunités », dans F. Dosquet éd., Marketing et communication politique, Caen, EMS Éditions, p. 257-292.

Bellon Anne et Velkovska Julia, 2023a, « Enquêter sur “l’éthique de l’IA” », Réseaux, no 240, p. 9-27.

Bellon Anne et Velkovska Julia, 2023b, « L’intelligence artificielle dans l’espace public : du domaine scientifique au problème public. Enquête sur un processus de publicisation controversé », Réseaux, no 240, p. 31-70.

Biswal Santosh Kumar et Jayant Kulkarni Anand, 2024, Exploring the Intersection of Artificial Intelligence and Journalism : The Emergence of a New Journalistic Paradigm, Londres, Taylor & Francis.

Bodin Cyrille et Chambru Mikaël, 2019, « Fake-News ! Pouvoirs et conflits autour de l’énonciation publique du “vrai” », Études de communication, no 53, p. 7-14.

Breton Philippe, 2004, L’utopie de la communication. Le mythe du « village planétaire », Paris, La Découverte.

Byk Christian et Piana Daniela, 2021, « L’intelligence artificielle : un “concept flottant” entre apparence de consensus normatif et controverse cachée sur le projet de société », Droit, Santé et Société, no 3, p. 76-98.

Cardon Dominique, 2018, « Le pouvoir des algorithmes », Pouvoirs, no 164, p. 63-73.

Charaudeau Patrick, 2005, Le discours politique. Les masques du pouvoir, Paris, Vuibert.

Chateauraynaud Francis, 2011, « Sociologie argumentative et dynamique des controverses : l’exemple de l’argument climatique dans la relance de l’énergie nucléaire en Europe », A contrario, no 16, p. 131-150.

Chauvin-Vileno André et Rabatel Alain éd., 2006, « Énonciation et responsabilité dans les médias », Semen, n° 22, https://doi.org/10.4000/semen.2776 SMASH

Crépel Maxime et Cardon Dominique, 2022, « Robots vs algorithmes. Prophétie et critique dans la représentation médiatique des controverses de l’IA », Réseaux, no 232-233, p. 129-167.

Diakopoulos Nicholas, 2019, Automating the News. How Algorithms Are Rewriting the Media, Harvard, Harvard University Press.

Durham Peters John, Rothenbuhler Eric W., Mandelsaft Germaine et Dayan Daniel, 1994, « Au-delà de la peur des images. La réalité de la construction », Hermès, no 13-14, p. 27-43.

Elliott Anthony, 2019, The Culture of AI : Everyday Life and the Digital Revolution, Londres-New York, Routledge.

Ellul Jacques, 1954, La Technique, ou lenjeu du siècle, Paris, Armand Colin.

Flipo Fabrice, 2021, La numérisation du monde. Un désastre écologique, Paris, L’Échappée.

Ganay Claude de et Gillot Dominique, 2017, Pour une intelligence artificielle maîtrisée, utile et démystifiée, Rapport d’information no 464, 15 mars 2017, https://www.senat.fr/rap/r16-464-1/r16-464-1-syn.pdf (consulté le 8 février 2024).

Georges Benoît, 2019, « Intelligence artificielle : de quoi parle-t-on ? », Constructif, no 54, p. 5-10, https://doi.org/10.3917/const.054.0005 SMASH

Gerards Janneke et Xenidis Raphaële, 2021, Algorithmic Discrimination in Europe : Challenges and Opportunities for Gender Equality and Non-Discrimination Law : a Special Report, Luxembourg, Office des publications de l’union européenne.

Gobin Corinne et Cussó Roser, 2008, « Du discours politique au discours expert : le changement politique mis hors débat ? », Mots. Les langages du politique, no 88, p. 5-11.

Gu Feng, 2023, « Corpus-based critical discourse analysis on AI policy : A comparison between North America and developing countries in East Asia », Asian Journal of Social Studies, vol. 8, no 3, p. 14-25.

Kılıç Muharrem et Bozkuş Kahyaoğlu Sezer éd., 2023, Algorithmic Discrimination and Ethical Perspective of Artificial Intelligence, Singapour, Springer Nature Singapore.

Le Cun Yann, 2019, Quand la machine apprend : la révolution des neurones artificiels et de l’apprentissage profond, Paris, Odile Jacob.

Lindén Carl-Gustav, 2020, « What makes a reporter human ? », Questions de communication, no 37, p. 337-351.

Lindén Carl-Gustav et Dierickx Laurence, 2019, « Robot Journalism : The damage done by a metaphor  », Unmediated : Journal of Politics and Communication, no 2, p. 152-155.

Maingueneau Dominique, 1993, Le contexte de l’œuvre littéraire. Énonciation, écrivain, société, Paris, Dunod.

Michaud Thomas, 2023, La science-fiction institutionnelle, Paris, L’Harmattan.

Munier Brigitte, 2014, « Homme et machine : la phase du miroir », Hermès, no 68, p. 143-148.

Paveau Marie-Anne, 2017, L’Analyse du discours numérique. Dictionnaire des formes et des pratiques, Paris, Hermann.

Raus Rachele, 2023, « Robotics and artificial intelligence », dans M.C. Caimotto et R. Raus éd., Lifestyle Politics in Translation. The Shaping and Re-shaping of Ideological Discourse, New York-Londres, Routledge, p. 61-92.

Raus Rachele, 2022, « La traduction des discours européens sur l’IA entre effets de sens et “capitalisme de surveillance” », Mots. Les langages du politique, no 128, p. 65-84.

Raus Rachele, 2021, « Les documents français de l’Union européenne sur la robotique et l’intelligence artificielle entre discours, positionnements et… littérature », dans L. Norci Cagiano éd., L’Europe des écrivains. Des Lumières à la crise actuelle, Rome, TAB-Edizioni, p. 137-154.

Rennes Juliette, 2016, « Les controverses politiques et leurs frontières », Études de communication, no 47, p. 21-48.

Robert Pascal, 2021, « Le rapport Villani sur l’IA. Récit d’innovation ou impensé ? », Études digitales, no 11, p. 171-185.

Russell Stuart Jonathan et Norvig Peter, 2002, Artificial Intelligence : A Modern Approach, New Jersey, Prentice Hall.

St-Germain Nicolas et White Patrick, 2021, « Intégration des outils liés à l’intelligence artificielle en journalisme : usages et initiatives », Les Cahiers du journalisme, no 7, p. 111-122.

Siblot Paul et Détrie Catherine, 2017, « Programme de sens », dans C. Détrie, P. Siblot et al. éd., Termes et concepts pour l’analyse du discours : une approche praxématique, Paris, Honoré Champion, p. 317-318.

Tafani Daniela, 2022, « What’s wrong with “AI ethics” narratives », Bollettino telematico di filosofia politica, p. 1-22, https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/ (consulté le 8 février 2024).

Teyssou, Denis, 2022, « L’intelligence artificielle face à la désinformation : problème autant que solution ? », I2D – Information, données & documents, vol. 1, no 1, p. 66-72.

Thurman Neil et al. éd., 2021, Algorithms, Automation, and News : New Directions in the Study of Computation and Journalism, Londres, Routledge.

Unesco, 2023, Reporting on Artificial Intelligence : A Handbook for Journalism Educators, Paris, Unesco Publishing.

Velkovska Julia et Relieu Marc, 2021, « Pour une conception “située” de l’intelligence artificielle. Des interactions hybrides aux configurations socio-techniques », Réseaux, no 229, p. 215-229.

Veyrat-Masson Isabelle, Denis Sébastien et Secail Claire éd., 2019, Sous les images, la politique… Presse, cinéma, télévision, nouveaux médias (xxexxie siècle), Paris, CNRS Éditions.

Whittaker Jason Paul, 2019, Tech Giants, Artificial Intelligence, and the Future of Journalism, Londres, Routledge.

Zuboff Shoshana, 2020, L’âge du capitalisme de surveillance. Le combat pour un avenir humain face aux nouvelles frontières du pouvoir, Paris, Éditions Zulma.

Modalités de soumission

Les auteures et auteurs devront soumettre aux coordinatrices et coordinateur, avant le 15 mai 2024, un avant-projet (3 000 signes maximum tout compris), dont l’acceptation vaudra encouragement, mais non pas engagement de publication.

Les articles, originaux, devront être adressés aux coordinatrices et coordinateurs avant le 15 septembre 2024 (maximum 45 000 signes tout compris). Conformément aux règles habituelles de la revue, elles seront préalablement examinées par les coordinatrices et coordinateur du dossier, puis soumises à l’évaluation doublement anonyme de trois lecteurs français ou étrangers de différentes disciplines. Les réponses aux propositions de contributions seront données à leurs auteurs au plus tard au début du mois de février 2025, après délibération du comité éditorial. La version définitive des articles devra être remise aux coordinatrices et coordinateurs avant le 15 mars 2025.

Les textes devront respecter les règles de présentation habituellement appliquées par la revue (voir https://journals.openedition.org/mots/76). Ils devront être accompagnés d’un résumé de cinq lignes et de cinq mots-clés qui, comme le titre de l’article, devront également être traduits en anglais et en espagnol.

Coordinatrices et coordinateur