Depuis la mise en ligne gratuite de ChatGPT en novembre 2022, nous assistons à de nombreux débats médiatiques et prises à parti publiques passionnées de la part de tous types d’experts et chercheurs, informaticiens, linguistes, biologistes, statisticiens, éthiciens, juristes, etc. Chacun se sent concerné, et convoqué, face à la diffusion des technologies d’intelligence artificielle dite “générative”, qui s’appuient sur des techniques connexionnistes d’apprentissage profond. Le phénomène de prolifération de ces artefacts couramment nommés IA, par métonymie de sous-discipline qu’ils représentent, tend à invisibiliser les conditions matérielles et sociotechniques de leur production. Car les artefacts d’IA procèdent d’un assemblage souvent invisibilisé de différentes techniques et ingénieries informatiques, allant de l’informatique des systèmes et des réseaux, la robotique, le logiciel, les systèmes experts ou informatique symbolique, jusqu’à l’apprentissage automatique et l’apprentissage profond.
L’intention de ce numéro se situe précisément dans la volonté d’analyser l’aspect composite ou disparate des artefacts d’IA, de tenir compte des dynamiques sociales et organisationnelles qui président à leur existence, et ce faisant, d’interroger l’existence et le régime de “communs” de l’IA (i.e. des jeux de données d’entraînement, des modèles ou des poids dits “ouverts”).
Réduire l’IA à des objets généraux (comme lorsque l’on parle d’IA générale ; Julia, 2019), des artefacts intelligents (Agostinelli et Riccio, 2023) ou décrire ces artefacts comme des objets procédant d’un nominalisme (Bachimont, 2014), vient masquer leurs aspects composites ainsi que les dynamiques collectives et les rapports de pouvoir qui les font advenir. À l’inverse, s’intéresser à leur dimension sociotechnique (Flichy, 2008), c’est comprendre que l’élaboration d’un artefact d’IA repose sur au moins trois efforts et représentations, généralement concomitants : 1) l’élaboration et la perspective globale de l’application, 2) les opérations de collecte, de classement et de traitement des données et 3) les usages. L’analyse du “cadre d’usage” oblige à prêter une attention particulière aux phases d’alignement des artefacts d’IA, puisqu’il s’agit précisément du moment où sont opérés des choix d’ajustement en vue d’une meilleure acceptabilité sociale ou “permis d’opérer” (Alcantara et Charest, 2023). L’approche sociotechnique s’attache à révéler ou à déplier la double dimension indissolublement sociale et technique, matérielle et discursive des dispositifs d’information et de communication.
Ce numéro d’ATIC incite à questionner les organisations collectives – entreprises, laboratoires de recherche, organismes publics ou associatifs, indépendants – responsables de la conception et du développement des artefacts d’IA. Dans la continuité des travaux de Taylor (2011) et dans une perspective pragmatique, il s’agit de s’intéresser à la constitution des formes organisationnelles qui construisent l’IA : les opérations matérielles et concrètes, les produits, les sites web, les énoncés, les actes de langage, rendus présents dans une situation donnée (Cooren, Brummans et Charrieras, 2008, Coreen, 2024).
Une telle approche invite également à observer les asymétries résultant de la centralisation de la conception et du développement de ces artefacts aux mains de quelques acteurs et leurs conséquences les pratiques info-communicationnelles (Ertzscheid,, 2023). Le narratif du type : “bigger is better”, pourtant fragile scientifiquement, a soumis l’organisation des IA à une prétendue “loi de l’échelle” (Varoquaux et al., 2024). C’est-à-dire que la taille des architectures algorithmiques, caractérisées par des trilliards de paramètres a conditionné l’utilité et la performance des systèmes d’IA. De même, la conception, l’entraînement et le déploiement des modèles d’IA, aujourd’hui largement dominés par un petit nombre d’acteurs privés, vient limiter les capacités d’appropriation collective. Cette hyper-concentration entre en tension directe avec la logique des communs numériques, qui repose sur des principes d’ouverture, de partage, de gouvernance distribuée et d’autonomisation des communautés d’usage. L’IA, telle qu’elle est actuellement organisée, tend ainsi à consolider des régimes de propriété exclusive et de surveillance unilatérale (Zuboff, 2019), plutôt qu’à favoriser des formes de co-production et de circulation des savoirs et des outils technologiques.
Ce numéro d’ATIC invite donc à analyser les communs de l’IA et leur(s) régime(s) de partage, un espace de négociation où l’IA doit être mise au service d’un projet collectif (Pene, 2017) pour mieux appréhender interroger les dynamiques collaboratives, y compris les formes de collaboration émergentes ou les méthodologies participatives permises par des approches transdisciplinaires et collaboratives. Les communs numériques désignent toutes ressources numériques produites et entretenues collectivement par une communauté et gouvernées par des règles qui lui assurent son caractère collectif et partagé (Baudoin, 2023) ; ils engagent à la fois des chercheurs, citoyens et institutions publiques, face aux enjeux complexes des communs de l’IA (Fitzpatrick, 2019). L’approche par les communs permet ainsi de considérer les artefacts d’IA comme une production humaine dépendante de ressources et de méthodologies collectives au service d’une économie plus collaborative (Benkler, 2011) basée sur des écosystèmes ouverts (Bauwens, 2005) dont il a été démontré que ces dispositifs collectifs et diversifiés pouvaient produire et réguler des technologies dans une logique de bien commun selon différentes formes de gouvernance partagée. Si les recherches sur l’importance des grandes firmes dans le développement de l’open-source tel que Linux ont déjà été menées (Broca, 2013), se réactive aujourd’hui l’importance et l’ambiguïté des artefacts open-source (corpus de données, modèles, architectures algorithmiques, poids…) dans la conception et le développement des IA génératives.
Mobiliser la notion de communs, c’est aussi mettre en évidence les enjeux éthiques de l’IA : à rebours des visions utilitaristes et accélérationnistes très présentes dans les discours actuels sur l’IA axés sur la performance et la rentabilité pour le plus grand nombre (Bostrom 2014 ; Tegmark 2017) – au risque d’ignorer la justice distributive et de léser les plus vulnérables (Rawls, 1987) –, une éthique des communs, inscrite dans la continuité des travaux d’Haraway (1988) ; Star (1999) ; Zacklad & Rouvroy (2022) insistent sur les rapports de pouvoir et les asymétries sociales, élargissant le débat à l’équité, la justice sociale et l’inclusion. Les recherches de Noble (2018) montrent ainsi que les biais algorithmiques reflètent des inégalités historiques inscrites dans les données et les choix de conception, tandis qu’une démarche participative, propre à la recherche ouverte, permet de réduire ces biais systémiques (Fitzpatrick 2019). Les collectifs open-source fournissent ainsi des exemples concrets pour examiner les potentialités et limites de cette approche. Dans le même esprit, Floridi (2013) propose des processus délibératifs où citoyens, développeurs, régulateurs et utilisateurs co-élaborent des normes éthiques adaptées aux défis contemporains.
Enfin, ce numéro d’ATIC, en interrogeant la sociotechnique de l’IA par la collaboration et par les communs invite à reconsidérer le statut des connaissances, contenus et interactions produites par l’IA. Dans quelle mesure et à quelles conditions peut-on penser les artefacts d’IA – modèles de langage, applications génératives, jeux de données… – comme des espaces de création ou d’intelligence collective, et d’expérimentation basés sur des dynamiques de co-construction, de mutualisation et de régulation ?
Ce numéro invite chercheuses et chercheurs de toutes disciplines, sciences de l’information et de la communication, sociologie, anthropologie, droit, informatique, design, mais aussi des communs numériques et de leurs communautés, à proposer des articles s’inscrivant dans ces approches et ces interrogations. Les contributions pourront être aussi bien théoriques qu’empiriques, dès lors qu’elles interrogent la manière dont la logique des communs et la collaboration redessine le paysage de l’IA.
Les propositions d’article pourront être soumises en fonction de 3 axes :
Axe 1 – Approches sociotechniques des dispositifs d’IA :
Cet axe invite à interroger l’IA comme un dispositif sociotechnique, en analysant les artefacts, les infrastructures et les conditions de leur mise en œuvre. Il conviendra notamment d’étudier la matérialité des dispositifs d’IA, leurs inscriptions techniques, ainsi que les agencements collectifs et collaboratifs qui les rendent opérants, en tenant compte également des inégalités d’accès, des modalités d’invisibilisation du travail, des phénomènes de traduction, de verrouillage technique, etc. Les propositions pourront porter, entre autres, sur les processus de design des IA, les pratiques de constitution des corpus de données, la conception et l’usage des modèles de langage, les formes d’interaction avec des agents dits “ouverts” ou experts, ou encore sur les dynamiques d’infrastructures partagées et collaboratives telles que celles d’Hugging Face, de GitHub ou d’autres plateformes en questionnant les discours d’ouverture, de transparence et de réutilisabilité qu’elles sont censées incarner. Une attention particulière pourra être portée aux effets d’opacité, aux logiques de standardisation ou de modularité qui favorisent la collaboration à grande échelle, notamment dans les projets open source ou communautaires mais aussi aux tensions entre innovation communautaire et dépendance aux modèles dominants qui structurent ces écosystèmes sociotechniques.
Axe 2 : Dynamiques collaboratives & organisationnelles de l’IA :
Ce second axe explore l’IA comme fait organisationnel, collectif et expérimental. Il s’agit d’analyser les formes de coordination, de coopération, et de gouvernance associée à la conception, au développement et aux usages des technologies d’IA. Les contributions pourront porter sur l’analyse des usages, des coopérations, des configurations distribuées de travail dans les organisations y compris en termes de compétences et de littéracies. Les contributions pourront porter sur les modes d’organisation institutionnel, entrepreneurial mais aussi comme ceux concernant les projets de recherche relevant du domaine des interactions humains-machines dans les projets de robotique collaborative par exemple. On s’intéressera aussi aux méthodologies, et aux initiatives en matière d’IA collaborative telles que les expériences de “participatory AI” ainsi qu’aux formes émergentes de gouvernance des communs numériques, des plateformes ou des données. Les travaux documentant des usages, des terrains d’expérimentation ou des formes d’innovations organisationnelles seront particulièrement bienvenus. On pourra également interroger les dimensions organisationnelles de la prise de décision algorithmique dans des contextes hybrides (santé, éducation, industrie), et les modalités de pilotage, d’accountability et d’appropriation collective de ces technologies.
Axe 3 – Enjeux épistémologiques, éthiques et politiques :
Ce dernier axe propose une lecture critique et réflexive des régimes de connaissances de l’IA à travers le prisme de ses épistémologies, et des questions éthiques qu’elle soulève. Les propositions pourront porter sur les enjeux info-communicationnels liés aux pratiques et aux discours autour de la gouvernance, et de la souveraineté numérique. Il s’agit de questionner les savoirs, les normes et les régimes de connaissances qui structurent les artefacts d’IA, tout en mettant en lumière les asymétries de pouvoir produites par l’économie des données, les infrastructures de calcul ou les cadres réglementaires. Outre les aspects éthiques normatives et réglementaires, cet axe ouvre également à l’étude des résistances, des formes de contre-expertise ou des mobilisations citoyennes, qui contestent les dynamiques dominantes de production et de diffusion des systèmes d’IA (voir les initiatives telles que “Slow AI”, ou Data Detox) qui constituent des terrains propices à l’analyse de nouvelles formes d’éthique située. Les problématiques liées à la limitation des dépendances technologiques, à la confidentialité des données, ou à la construction d’une “IA de confiance” pourront être explorées, tout comme les implications politiques des dispositifs d’automatisation, des régimes de vérité algorithmique ou des modèles dits “ouverts”. Enfin, cet axe invite à penser l’IA dans ses dimensions géopolitiques, environnementales et épistémiques : souveraineté numérique, empreinte écologique des infrastructures, et inclusion des savoirs marginalisés afin d’interroger les conditions de possibilité d’une intelligence artificielle basé sur les communs, obligeant à revisiter les équilibres entre technologie, pouvoir et société, et, peut-être, à repenser les communs numériques.
Modalités de soumission
Les intentions de publication doivent inclure :
- Identité des auteurs, appartenance institutionnelle, titre sur une première page et titre / texte sur la / les pages suivantes, format doc / odt anonymisé ;
- Un titre clair et explicite ;
- Un résumé (3000 mots maximum, hors bibliographie) exposant la problématique, le cadre théorique mobilisé, la méthode employée et les principaux résultats ou pistes de recherche envisagées ;
- Une liste de références bibliographiques.
Calendrier
- Envoi des intentions de publications (1500 signes max) : 30/10/2025
- Date limite de soumission des résumés : 01/10/2025
- Retour aux auteurs sur intention de publication : 30/10/2025
- Remise des articles longs (30000 à 50000 signes) : 01/04/2026
- Publication du numéro prévue à l’été 2026
Consignes aux auteurs : https://www.dicen-idf.org/revue-atic/
Contact :
- Béa Arruabarrena, CNAM – Laboratoire DICEN – beatrice.arruabarrena@lecnam.net
- Stéphan-Eloïse Gras, CNAM – Laboratoire DICEN – stephan-eloise@lecnam.net
- Revue@revue-atic.fr
Bibliographie indicative
Agostinelli, S., & Riccio, P. M. (2023). La nécessaire création d’une relation persistante aux objets. Les Forces d’Innovation de la Subversion Numérique.
Alcantara, C., Charest,F., Lavigne, A., & Saglietto, L. (2023). L’acceptabilité sociale : enjeux de société et controverses scientifiques. Presses des Mines.
Bachimont, B. (2014). Le nominalisme et la culture : questions posées par les enjeux du numérique. Digital Studies. Organologie des savoirs et technologies de la connaissance, 63-78.
Broca, S. (2013). Utopie du logiciel libre. Du bricolage informatique à la réinvention sociale. Passager clandestin (Le).
Baudoin, V. (2023). Enquêter sur l’« éthique de l’IA ». Réseaux : communication, technologie, société, 2023, N° 240 (4), pp.9-27.
Bauwens, M. (2005). The political economy of peer production. CTheory.
Benkler, Y. (2011). The Penguin and the Leviathan : How Cooperation Triumphs Over Self-Interest. Crown Business.
Broca, S. (2013). Utopie du logiciel libre. Du bricolage informatique à la réinvention sociale. Passager clandestin (Le).
Bonney, R., Cooper, C., Dickinson, J., Kelling, S., Phillips, T., Rosenberg, K., & Shirk, J. (2009). Citizen Science : A developing tool for expanding science knowledge and scientific literacy. BioScience, 59(11), 977–984.
Bostrom, N. (2014). Superintelligence : Paths, Dangers, Strategies. Oxford University Press.
Cooren, F. (2024). Comment l’organisation se matérialise et se constitue dans la communication ? : Le cas d’un processus d’idéation. Approches Théoriques en Information-Communication (ATIC), 8(1), 163-181.
Cooren, F., Brummans, B. H., & Charrieras, D. (2008). The coproduction of organizational presence : A study of Médecins Sans Frontières in action. Human relations, 61(10), 1339-1370.Fitzpatrick, K. (2019). Generous Thinking : A Radical Approach to Saving the University. Johns Hopkins University Press.
Ertzscheid, O. (2023). Les IA génératives et leurs impacts sur les mondes informationnels. Questions de communication, 44(2), 143-168.
Flichy, P. (2008). Technique, usage et représentations. Réseaux, 148149(2), 147-174.
Floridi, L. (2013). The ethics of information. Oxford University Press.
Julia, L. (2019). L’intelligence artificielle n’existe pas. First.
Haraway, D. J. (1988). Situated knowledges : The science question in feminism and the privilege of partial perspective. Feminist Studies, 14(3), 575-599. https://doi.org/10.2307/3178066
Noble, S. U. (2018). Algorithms of Oppression : How Search Engines Reinforce Racism. New York University Press..
Pène, S. (2017). « La promesse organisationnelle de l’intelligence artificielle ». I2D – Information, données & documents, 54(3), 28-29.
Rawls, J., & Audard, C. (1987). Théorie de la justice. Ed. du Seuil. Taylor, J. R., & Van Every, E. (2011). The situated organization : Case studies in the pragmatics of communication. London & New York : Routledge.
Star, S. L. (1999). The ethnography of infrastructure. American behavioral scientist, 43(3), 377-391.
Tegmark, M. (2017). Life 3.0 : Being Human in the Age of Artificial Intelligence. Knopf.
Varoquaux, G., Luccioni, A. S., & Whittaker, M. (2024). Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI. arXiv preprint arXiv:2409.14160.
Zacklad, M., & Rouvroy, A. (2022). L’éthique située de l’IA et ses controverses. Revue française des sciences de l’information et de la communication, 25, Article 25.
Zuboff, S. (2019, January). Surveillance capitalism and the challenge of collective action. In New labor forum (Vol. 28, No. 1, pp. 10-29). Sage CA : Los Angeles, CA : sage Publications.