Société française des sciences de l'information
et de la communication
Liste des thématiques > Epistémologie des SIC : émergences, opportunités, (...) > L’intermédiation sur internet : un objet de questionnement

L’intermédiation sur internet : un objet de questionnement pour les industries culturelles

par COMBES Yolande, KOCERGIN Sofia, « yolande.combes@wanadoo.fr, skocergin@gmail.com, »
LabSic, BPG Digital - Université Paris Nord

Notre article étudie la fonction d’intermédiation sur internet en interrogeant la pertinence de ce concept. La médiatisation cristallisant et objectivant déterminations techniques et dimension symbolique, on questionne le rôle joué par les fonctions d’intermédiation dans les re-configurations qui s’opèrent et l’évolution actuelle des processus de marchandisation et d’industrialisation. Internet qui s’est construit autour des échanges interpersonnels, pour inclure ensuite les possibilités d’un média de consultation ou même de masse se distingue des médias classiques. De même, les filières propres aux industries du contenu ne sont plus déterminées par l’articulation simple et a priori d’un type de contenant avec un type de contenu. Ces évolutions modifient les lignes de fracture entre acteurs, entre secteurs et entre métiers. Notre approche nous conduit à définir l’intermédiation comme un méta-modèle socio-économique capable de coexister avec les précédents et de les articuler en son sein. Les facteurs qui ont présidé à l’instauration de ce modèle sont relatifs à l’importance des fonctions d’interface nécessaires entre secteurs d’activités, entre ressources pléthoriques et usages démunis face à ce foisonnement, à l’accentuation de la personnalisation des relations avec les usagers qui favorise l’enregistrement de leurs préférences, la création de lieux d’échange et développe toutes sortes d’applications susceptibles d’ajouter de la valeur à l’activité et de justifier la rémunération en termes de publicité et de marketing relationnel.

Mots-clés : Théorie des Industries Culturelles, modèle socio-économique, intermédiation, réseau numérique interactif, portail, stratégies d’acteurs sur Internet, personnalisation, servuction, web2.0

The present article examines intermediation function on the internet and its relevance for analysing strategies of Internet players, market’s organization and evolutions, creation and distribution of the value, its business models, as well as how the intermediation participates in commodification and industrialization process. Our approach considers intermediation as a meta-model that coexist and bundles with pre-existing Cultural Industries socio-economic organizational models.

Keywords : Cultural Industries Theory, socio-economic organizational model, interactive digital networks, portal, customisation, marketing of Internet services, web2.0

Les mutations actuelles, en particulier la tendance à la numérisation des échanges communicationnels, impliquent de questionner les concepts pour saisir les nouveaux enjeux propres à la médiatisation des instances de médiation (Miège, 2004 : 128). Notre article s’attachera à cette problématique en se centrant sur certains concepts des industries culturelles et en étudiant plus spécifiquement la fonction d’intermédiation sur internet.

La médiatisation renvoie à l’idée de mises en relation à distance que favorise la mise en média, ces « tiers inclus » que représentent les artefacts techniques conduisent à chosifier certains types de pratiques et de formes de relation, ils « cristallisent et objectivent déterminations techniques et dimension symbolique » (Moeglin, 2004 : 24). Dans quelle mesure la théorie des industries culturelles peut aider à aborder le sujet de l’intermédiation ? En quoi cette approche qui a déjà était appréhendée de manière différente depuis son origine peut permettre d’élucider les changements actuels ? Quelles nouvelles questions se posent aujourd’hui ?

Les chercheurs en industries culturelles ont le souci d’élucider les processus de marchandisation, d’internationalisation et d’analyser de façon concrète la façon dont chacune de ses composantes (cinéma, musique, presse, radio, etc.) mène à terme, à partir de sa spécificité, ce processus d’industrialisation (Mattelart, 1992 : 231). De ce fait ces chercheurs avancent que « devrait être considérée comme une industrie culturelle toute activité de production, distribution et diffusion de produits culturels, symboliques (dont intégrant du travail culturel ou intellectuel), organisée selon les principes de séparation producteur-produit et conception-exécution et de division technologique du travail (parcellisation des tâches) » (Lacroix, 1986 : 9).

Pourquoi choisir pour étudier internet et donc les réseaux et services numériques interactifs l’approche des industries culturelles alors que se mêlent sur ces supports tant l’échange de produits culturels (vidéo à la demande par exemple) que des modes de communication et du commerce en ligne, tant diffusion verticale qu’échanges horizontaux, productions professionnelles et productions amateurs, biens culturels ou informationnels et services de relation, gratuité et logique marchande ? Quels rôles jouent les fonctions d’intermédiation dans les re-configurations qui s’opèrent ? Comment cette fonction d’intermédiation évolue dans le temps et suit l’évolution d’usages d’Internet ? Comment crée-t-elle de la valeur ? Comment les acteurs des médias numériques en réseaux s’approprient-ils l’intermédiation dans leurs stratégies ? Comment l’intermédiation participe à l’organisation du marché, à la création et à la distribution de la valeur ?

L’étude de la fonction centrale sur Internet lors de l’analyse et le suivi entre 1999-2004 de la stratégie des sites web et portails majeurs tels que Aol, Yahoo, Wanadoo, Free, TF1, Amazon, PagesJaunes, Ebay et Google, poursuivie en 2007 par la mise à jour des cas et l’étude supplémentaire de quelques principaux acteurs du Web2.0, notamment Facebook, Wikipedia, Digg, Yet2Com, Netvibes, ont servi de source à cet article.

Pour aborder les questions posées, nous avons privilégié une double approche afin de prendre la mesure, d’une part, des phénomènes qui ont permis progressivement la construction sociale de l’intermédiation, c’est-à-dire l’élaboration complexe des différents éléments qui participent à son avènement (approche diachronique), et d’autre part, des différentes articulations sous-jacentes que recouvre cette notion : entre modes de diffusion, échanges inter-personnels et thésaurisation informatique de données, entre fonction de publication et fonction de communication, entre médiation éditoriale et maillage relationnel (approche synchronique).

L’intermédiation au cœur d’un système de ressources pléthoriques

La notion d’intermédiation renvoie aux fonctions communicationnelles d’interface entre des ressources pléthoriques et des usagers démunis face à ce foisonnement. La confusion liée à la surabondance d’informations ouvre la voie à des projets adaptés au monde connexionniste pour reprendre une expression des sociologues Boltanski et Chiapello (1999), projets intégrant davantage de dimensions collaboratives et médiatrices et s’attachant à repérer et identifier, sélectionner l’offre, à en évaluer l’utilité et voire à fixer la valeur et le prix par rapport à la demande. L’analyse de la stratégie des sites web et portails puis des principaux acteurs du Web2.0 sur un temps assez long (1999-2008) permet de mettre en évidence comment internet innove en fournissant un appareillage qui autorise des modalités d’interactions plus variées et plus abouties que celles offertes par les médias antérieurs. En élargissant les potentialités des règles de conception, de production, d’accessibilité et de circulation des produits culturels, communicationnels et informationnels, internet permet d’inventer d’autres circuits de production-distribution. Ainsi des pratiques jusqu’ici informelles comme l’archivage de données, le copiage, le traitement des informations, les relations interpersonnelles sont incarnées et amplifiées grâce au processus de médiatisation par des logiciels puissants. L’analyse menée révèle que les acteurs se positionnent comme fonction centrale entre l’amont et l’aval et se valorisent par des outils de mise en relation, des fonctions de médiations et par l’audience qu’ils génèrent à travers des campagnes publicitaires ou de marketing direct. La poursuite de cette logique d’intermédiation initiée par les portails et les moteurs de recherche, ouvrant vers plus de services, conduit à intégrer les usagers dans la production en leur offrant des outils à cet effet.

De nombreux exemples de plateformes et services issus de ce qu’on nomme Web2.0 impliquent donc davantage la fonction d’intermédiation que la fonction d’édition stricto sensu. Par exemple :

Ø Les plateformes agrégent des médias (Netvibes, Google Reader), ou proposent à l’internaute de qualifier l’information (Digg, Wikio), ou mutualisent des connaissances (Wikipédia, Freebase) ;

Ø les plateformes d’e-commerce tels que Amazon, Zlio, Yahoo ! Shopping proposent à ses acheteurs de commenter, recommander et créer des listes de produits en les rémunérant parfois via un système d’affiliation ;

Ø les plateformes d’emplois « jobblogs », se spécialisent par secteur, ou s’appuient sur des sites « networking social » tels que Viadeo, Linkedin, Xing ;

Ø les plateformes bureautique en ligne permettent de créer, modifier, partager ou publier en ligne des documents (agendas, tableurs, textes) sur un espace de stockage chez Google, Zoho Office, Thinkfree Office ;

Ø des dispositifs favorisent la localisation géographique de services de proximité, de photos ou d’individus tels Google maps, Google Earth, Yahoo ! Maps, Live local, Flickr ;

Ø des plates-formes de partage de documents multimédias permettent de diffuser auprès d’un large public favoris, photos, vidéos, musiques, et podcasts offerts par Del.ico.us, Youtube, Flickr, Radioblogclub, Podemus etc.

Quels éléments structurent progressivement la fonction d’intermédiation ?

Le fait de se construire autour des échanges interpersonnels, pour inclure ensuite les possibilités d’un média de consultation ou même de masse, constitue la principale différence entre Internet en tant que média et d’autres technologies de communication existantes. C’est aussi son point commun avec la télématique française. Internet est une norme de communication, permettant la transmission d’information numérique d’un terminal à l’autre à partir de n’importe quel réseau physique de télécommunication. La technologie World-Wide Web est à l’origine de déploiement d’Internet grand public. Il agit donc en tant que support virtuel pour les contenus numériques dans un contexte de dissociation possible du contenant et du contenu, différence avec les médias classiques qui conçoivent des contenus spécifiquement élaboré et exclusif pour leur propre moyen de distribution.

Les concepts clés de cette infrastructure reposent sur les bases de données, la modularisation et la multimédiatisation des contenus et des services. La participation ou apports d’utilisateurs, les processus industriels d’automatisation et la personnalisation jouent un grand rôle dans son développement et son essor. Les différents acteurs économiques qui s’investissent progressivement proviennent principalement des industries de télécommunications, d’informatique et des contenus. Leur mobilisation par rapport à Internet s’effectue dans un contexte de dérégulation (contrairement à la télématique qui s’est développé dans un contexte de monopole) et de convergence limitée de ces secteurs, commencées dès années 1970.

Pour comprendre les étapes de structuration, nous distinguerons trois phases :

§ Une première phase de lancement entre 1991 et 2000, caractérisée par une ouverture des réseaux, des normes, des formes de régulation, des confusions et une profusion d’acteurs. Outre la norme WWW, deux autres catégories de technologies et d’acteurs déterminants oeuvrent au développement du nouveau secteur. Il s’agit d’agents intelligents appelés moteurs de recherche apparus en 1993, suivis de la commercialisation des logiciels de navigation, dont notamment Netscape Navigator de la société Mosaic. On assiste progressivement à une certaine stabilisation et structuration autour du modèle publicitaire et des portails, concept apparu aux Etats-Unis au début de l’année 1998.

§ Une deuxième phase débute par la crise boursière des valeurs du « nouveau marché » commencé en mars 2000. Elle se caractérise par une forte rationalisation des activités, donc la disparition de nombreux acteurs, l’intérêt porté à l’Internet haut débit (comprenant fourniture de services Internet par câble, ADSL (Asymmetric Digital Subscriber Line).

§ Une troisième phase qui commence vers 2004 est déterminée par le rapprochement conflictuel entre les industriels du contenu et les industriels de la communication qui tentent chacun de s’imposer dans des nouveaux marchés tels services à destination de terminaux mobiles, musique en ligne, VOD, TV sur mobiles, etc. rendant la fonction d’intermédiation de plus en plus stratégique. Le développement d’une logique multisupport réclamant une accentuation de l’interopérabilité et de l’intermodalité appuie l’importance de cette fonction centrale.

Parmi les premiers services d’intermédiation sur Internet, on peut citer les logiciels de navigation tels que Netscape de Mosaic. Pendant cette période de démarrage, il s’agit de devenir, en tant que propriétaire de l’interface installée sur les ordinateurs des utilisateurs, l’intermédiaire incontournable et pivot central entre les utilisateurs et les différents offreurs de services et produits. D’une manière plus globale, le succès du Web et de Mosaic, le premier logiciel de navigation, profilent une nouvelle orientation d’Internet, son passage d’un média de communication interpersonnelle à un média de consultation (Flichy, 2001 : 122). Cette nouvelle orientation l’amène également dans l’affiliation de médias de masse et de leur modèle socio-économique, avec des financements indirects, provenant de la publicité, ou du sponsoring etc.

A la fin de la première période structurante pour les acteurs d’internet qui a précédé la crise de 2000, commencent à se dessiner deux approches qui guident le choix des divers industriels : l’une visant prioritairement la structuration du contenu, l’autre les modalités d’accès à celui-ci. Dans le premier cas on s’inscrit dans une logique d’éditorialisation des contenus et dans l’autre de développement de ressources outillées. Les ressources outillées sont l’ensemble d’outils logiciels, de BDD, des modes d’accès, des messageries, générés par le système de l’offreur de service sur internet et mis à la disposition de l’internaute. Elles permettent la mise en relation, l’accès et l’apprentissage du média, ainsi que des transactions. Elles ont la spécificité d’articuler de manière très particulière contenant et contenu, obligeant à questionner cette distinction. La notion de ressources outillées interroge également les nouvelles formes de coopération entre les acteurs et les nouvelles formes d’industrialisation. Ce sont en effet des ressources outillées qui permettent le regroupement et la coopération d’un grand nombre d’acteurs au sein d’un même service et la multiplication de ses formes de marchandisation et de rémunération. Que celles-ci soient des ressources de navigation, de gestion, ou de communication, elles participent à la reproduction élargie de relations simulées et instrumentalisées.

Au premier abord ces deux approches sont plus complémentaires que contradictoires, l’une visant le stade de la production de contenu, l’autre celui de la diffusion et de l’accès, soit l’amont et l’aval du processus pris dans sa globalité. Cependant, selon qu’est privilégié l’approche structuration du contenu ou l’approche « ressources outillées », les modalités de rationalisation envisagées ne sont pas du même type. Dans un cas, l’optique visée s’inscrit d’abord dans une approche propriétaire avec un souci de fermeture pour favoriser certains formes de valorisation (vente à l’unité de livre ou disque), dans l’autre cas, au contraire l’approche privilégié est une structuration ouverte, type contenus libres de droit.

Dans l’univers inconnu et désorganisé d’internet, au départ, un système propriétaire de fournisseur de services en ligne, tel que l’a conçu AOL apporte pour le public non initié une valeur ajoutée, celle de la hiérarchisation et de la classification de l’information, en plus de contenus divertissants, des moyens de navigation guidés et assistés, et des interfaces plus conviviales, en tout, un média plus simple et plus semblable à des médias grand public existants. Ces services en lignes propriétaires sont très différents de ceux offerts par des fournisseurs d’accès à Internet tel que Free, qui se spécialisent dans l’offre de connexion au réseau, sans services éditoriaux et proposent grâce aux partenariats établis avec des fournisseurs de services spécialisés, des ressources outillées de haute valeur ajoutée. A cette distinction entre types d’acteurs qui a cours pendant la première phase, va suivre une intégration, par tous les acteurs des fonctions relatives à l’éditorialisation (prospection des contenus, édition) et des fonctions de prescription et d’agrégation. Cependant il faut noter que le plus souvent les productions émanent des médias classiques, des institutions productrices ou d’autoproductions et qu’elles sont simplement agrégées dans les plates-formes.

La course à l’intégration selon un modèle éditorial a signé la fin de nombreux services internet phares de cette première période de commercialisation comme Altavista, Nomade et Voilà parmi d’autres. En parallèle, les offreurs de services, davantage centrés sur des ressources outillées spécialisées tel Google, investissent progressivement le marché. Les acteurs apparus pendant la première période qui conservent leur part de marchés tels que Amazon et Ebay ont également investi ce type de moyens.

L’autre point commun entre Google, Ebay et Amazon est d’avoir pour une grande partie de leur service, organisé l’ensemble de leurs ressources outillées autour d’un ou de plusieurs éléments issus de traitement de données d’utilisateurs et de clients. Il s’agit de trouver des critères statistiquement traitables permettant d’inclure les apports d’une grande quantité d’utilisateurs. Pour Google, il s’agit de l’algorithme qui permet, à un moment donné, d’objectiver mieux que ses concurrents la fonction de la prescription dans le domaine de la recherche. L’algorithme en question combine deux indices constitutifs du référencement naturel : l’indice de densité de mot (méta-données, mots clés) et l’indice de popularité de page (page rank). Pour Ebay, il s’agit de construire une réputation, une confiance autoproduite par la communauté des usagers. A cet effet, eBay offre un espace de rencontre entre l’offre et la demande et dans une moindre mesure à travers PayPal, des modalités de tiers payant. Cette société propose surtout un système d’autorégulation entre les participants aux enchères, qui permet de distinguer les bons partenaires en affaires des mauvais. Quant à Amazon, elle tente de réaliser des ventes grâce à un profilage précis des clients, réalisé grâce à l’agrégation de nombreuses bases de données, dont un grand nombre est fournie ou générée automatiquement par les visites des clients sur le site.

Le succès obtenu grâce à la spécialisation et la complexification de leurs ressources outillées s’accompagne d’une affirmation de leurs modèles économiques. Ils sont chacun spécifiques et assez différents les uns des autres : Amazon réalise son modèle d’affaire sur la vente des produits réels, mais les ressource outillées ont transformé le processus de vente lui-même, Ebay confirme son statut de garant virtuel et se valorise sur la mise en relation, Google adapte la publicité et le marketing pour les services numériques en réseaux. Deux services servent cet objectif.

Ø AdWords permet à n’importe qui d’acheter par un système d’enchères des mots clés, la publicité de chacun des annonceurs sera par la suite affichée lorsque les utilisateurs effectuent les recherches par le mot-clé en question. Le prix déterminé à l’enchère est celui de coup par clic (CPC) pour le mot concerné. Plusieurs annonceurs peuvent apparaître pour un même mot clé. L’ordre d’apparition sur la page est déterminé par une combinaison de CPC avec le nombre de clics sur l’annonce. Plus le lien d’une annonce est visité par les utilisateurs, plus haut l’annonce apparaîtra sur la page de résultats.

Ø AdSens combine la publicité et la recherche sur les pages de contenus extérieures à Google. Les sites tels que USATODAY.com, ABC.com, Forbes.com emploient AdSens pour afficher dynamiquement les publicités sur leurs pages, se servant des mots clés recherchés par les utilisateurs.

Ainsi, Google se trouve au centre de cette économie de réseau construite autour des services gratuits financés par la publicité et l’exploitation des données et traces laissées par les utilisateurs.

Les enjeux de la personnalisation et de l’exploitation des échanges pour l’intermédiation

L’évolution des ressources outillées au cours de la troisième et dernière période évoquée correspond à la dissociation de la structure du contenu et sa customization (adaptation sur mesure) permises par des interfaces fondées sur les nouveaux standards et protocoles (Ajax, XML, API). Ceux-ci soutiennent la syndication, contribuent à la décentralisation du contenu sur la toile, à des formes d’inscription du sur-mesure dans le cadre d’une véritable chaîne de reproduction et à l’inscription plus concrète d’une logique de personnalisation. De plus en plus les processus sont moins conduits par l’amont (et par le souci a priori de définir un programme) et davantage déterminés en fonction de l’aval (requête des visiteurs). Des formes de réflexivité inédites se développent fondées entre autres sur la remontée de l’usager dans le processus de conception (You Tube, MySpace, Dailymotion, etc.). Cette logique de personnalisation repose sur la granularité des contenus, sur des processus de construction des liens et de visualisation de configurations d’usagers. En effet, ces sites de partage offrent aux internautes la possibilité d’indexer eux-mêmes des contenus qu’ils déposent (folksonomy avec choix individualisé des mots-clés –tags- sans référence à une taxinomie normative) et d’établir des relations entre des contenus publiés sur les blogs en pointant des liens hypertextuels vers des contenus publiés sur des blogs (trackback), ou en les agrégeant (fil RSS). (Rebillard, 2007 : 121-123) Le découpage du contenu, son archivage, catalogage ou indexation sont de fait ré-interrogés.

Progressivement les sites du Web 2.0 peuvent être apparentés à des intermédiaires ouverts du Web traditionnel (Kocergin 2004). Ils sont principalement développés selon deux axes :

1. L’utilisation massive des plateformes ouvertes, se basant sur des systèmes de gestion de contenu servant des pages Web dynamiques, créées à la volée à partir de plusieurs bases de données en constant changement. La création d’espaces privées ouverts, centrés sur l’activité de l’utilisateur, peut favoriser la personnalisation des pages avec le suivi des actions propres à l’utilisateur (divers services de Google par exemple) ou encore une personnalisation d’un site avec des modules crées par d’autres éditeurs (ex. Facebook) et auto-organisés par l’utilisateur

2. L’exploitation des échanges, des interactions et des contenus créés par les utilisateurs, le « crowdsourcing ». Les données de ces exploitations peuvent être obtenus avec l’accord de l’utilisateur comme dans le cas de récupération d’avis sur les ouvrages d’Amazon ou à son insu comme la récupération des traces exploitée par Google dans le traitement des résultats de recherches sur son moteur. La production par peering participe ainsi à la création de contenus, à sa labellisation, et à la qualification des contenus/ prestations/fournisseurs.

D’autres signe significatifs apparaissent, tel que l’automatisation des interactions (cf. Facebook, Wikipedia), la redistribution de l’administration du service selon différents critères d’engagement et de participation – recherche des outils statistiques permettant la définition de l’expertise et de l’engagement (cf. Google, Digg, Wikipedia) – la modification dans la production, édition, promotion, animation et labellisation des contenus : le simple fait de lire, consommer, naviguer devient un acte de création (chercher sur Google, consulter sur Scribd, YouTube, tagger avec Delicous ou Digg). En effet, les traces laissées peuvent changer l’ordre d’apparition des contenus par la suite.

Les entreprises comme Ebay et Amazon ont dès la fin de la première période exploité les « communautés virtuelles » afin d’établir et enrichir leur modèle d’affaire respectif construit autour des plateforme d’e-commerce et la vente réelle des produits. Cependant, la principale évolution de l’exploitation de services Web2.0, comme dans l’exemple de Facebook, consiste à utiliser au maximum la participation des utilisateurs et des développeurs et à exploiter les « réseaux sociaux » réels et non virtuels. Facebook établit une plateforme de « réseaux sociaux » au départ réservé à des étudiants et des lycéens. Les membres de ces divers réseaux sociaux existants et captifs commencent à échanger sur la nouvelle plateforme en utilisant une grande quantité d’outils ludiques à des fins de partage entre connaissances appartenant à de réels réseaux sociaux.

Alors qu’en faisant produire une partie de service par les utilisateurs, Ebay et Amazon cherchent à valoriser un système de production qui allège les coûts de main d’œuvre et améliore ainsi la rentabilité et la productivité du processus en évitant de gérer des fonctions inhérentes au modèle éditorial, Facebook se contente d’ouvrir sa plateforme à des développeurs externes qui produisent des services facilement personnalisables et pouvant être enrichis par les utilisateurs, de sorte le consommateur devient le producteur, le client devient le prestataire. En tant qu’intermédiaire ce site orchestre la circulation des informations et les modalités de leur structuration en vue de leur customization en donnant la main aux internautes. Ils se valorisant par l’exploitation des échanges. « Le web 2.0 tend à substituer la popularité à l’autorité et l’influence à la pertinence. Cependant, il faut noter la dérive liée à cette production bénévole d’information, qui dans une société mettant l’information au centre des rapports de production, peut s’apparenter à une forme de travail gratuit (« free labor ») (Terranova, 2003), certains blogueurs évoquent même une forme d’esclavage (Dubost, 2006).

Il est par contre aisé de constater l’intérêt commercial de ces « réseaux sociaux ». Peu coûteux, ils permettent à la plateforme centrale de recueillir les informations de consommations et pratiques réelles des utilisateurs et de proposer par la suite de nouveaux modes de publicité plus personnalisés. Ce « marketing de réseau » est « devenu une composante essentielle de l’activité publicitaire qui se fonde sur la ‘mesurabilité’ » des comportements. Comme le souligne Bernard Miège (2000 : 88) « ce croisement de données de toutes sortes auquel ce marketing donne lieu pour affiner les stratégies d’influence sur les consommateurs, doit être tenu pour l’une des conditions premières de la néo-industrie des services (au rang desquels on trouve évidemment les produits des industries du contenus) ». Ce qui est susceptible d’être valorisé concerne moins les contenus eux-mêmes que des traces ou avis pris en compte par le système technique développé par les infomédiaires, qui favorisent la mesurabilité des comportements ou l’intégration dans l’offre de statistiques concernant les choix des acheteurs et leurs commentaires. Le marketing, la promotion et la prescription se trouvent allégées sur le réseau car tenues par les consommateurs eux-mêmes, ce processus contribue à confirmer l’importance accrue des acteurs développant des activités d’intermédiation.

L’exploitation des « réseaux sociaux » par les sites, comme Wikipedia, Digg et Facebook, interroge le processus d’auto-production et d’auto-organisation à travers une répartition horizontale et non plus verticale. Les nouveaux outils de labellisation et de qualification des contenus et des utilisateurs-auteurs sont constamment recherchés. Les collectifs apportent plus de factualité, d’informations et de vérifications dans une logique d’auto-régulation collective. « C’est en effet un nouveau modèle éditorial[1] qui se fait jour, dans lequel le contrôle de la qualité de l’information n’est pas réalisé a priori par un système de sélection éditorial pyramidal et certifié mais par un contrôle a posteriori dans lequel la qualité des informations est principalement une conséquence du travail des lecteurs. » (Cardon, 2006).

Conclusion

Le travail mené concernant les fonctions d’intermédiation analysées permet d’interroger des concepts comme ceux de média, de filière, de logiques socio-économiques et de préciser celui d’intermédiation :

Un média a été défini par Patrice Flichy comme « un système à trois composantes : un contenant, un contenu et un dispositif de commercialisation qui […] constitue la base du contrat qui unit les différents partenaires » (1991 : 112). Nos développements ont montré que les liens entre ces trois termes se complexifient et que la notion de média doit être reconsidéré comme celle de filière pour expliquer les articulations en cours et les nouvelles modalités de production des biens symboliques et leur insertion et valorisation dans l’économie des supports émergents. Celles-ci ne sont plus déterminées par l’articulation a priori d’un type de contenant et avec un type de contenu, des liens complexes lient des supports émergents et les médias classiques, les contenus prennent une place désormais centrale dans la valorisation des nouveaux entrants, car ils concourent à distinguer leur offre respective. La prise en compte des évolutions, en particulier des rencontres entre industries culturelles et communicationnelles, permet de définir l’intermédiation comme un méta-modèle socio-économique capable de coexister avec les précédents comme la vente de produits à l’unité - « modèle éditorial »-, le financement par la publicité - « modèle de flot » -, la fourniture d’accès à des clubs payants - « modèle du club »- et la facturation au compteur ou à la commission - « modèle du compteur » et « modèle du courtage » - et de les articuler en son sein. Il se distingue par la centralité qu’il accorde à l’intermédiation. Les facteurs qui ont présidé à l’instauration de ce modèle sont relatifs à l’importance des fonctions d’interface nécessaires entre ressources pléthoriques et usages démunis face à ce foisonnement, à l’accentuation de la personnalisation des relations avec les usagers qui favorise l’enregistrement de leurs préférences, la création de lieux d’échange et développe toutes sortes d’applications susceptibles d’ajouter de la valeur à l’activité et de justifier sa rémunération. L’intermédiaire joue ce rôle, comme le souligne Dominique Boullier (1995 : 124) « d’“instituteur” du lien de consommation personnalisé et intégré » et profite des dimensions collaboratives et médiatrices. Positionné en « bout de chaîne », en aval, il occupe la fonction centrale. Ayant moins vocation à intervenir dans la production des contenus, il est mandaté par l’usager, lui fournit des informations à la demande et souvent sur mesure et se valorise par l’exploitation des échanges au sein de « réseaux sociaux ». On a pu constater que des différences de stratégies se traduisent principalement par la valorisation directe ou indirecte des outils d’accès et outils connexes auprès des abonnées (1), la valorisation indirecte de l’audience à travers les campagnes publicitaires de marketing direct, etc. (2). La valorisation des outils de mise en relation (3) commence à prendre une certaine ampleur, elle a été dès le départ capitale en terme de réputation et de construction d’image de marque pour les diverses plates-formes ouvertes, la construction de la confiance restant indispensable pour assurer les deux premières catégories de valorisation.

 

Bibliographie

Boltanski L., Chiapello É. (1999) : Le nouvel esprit du capitalisme, NRF essais Gallimard, 843 p.

Boullier D., (1995) : L’usager, l’utilisateur et le récepteur. 12 ans d’exploration dans les machines à communiquer, HDR, Bordeaux, Université Bordeaux III.

Cardon D. (2006) : « La blogosphère est-elle un espace public comme les autres ? » dans Transversales Sciences Culture, 26 mai 2006. En ligne : http://grit-transversales.org/dossier_article.php3 ?id_article=100

Duboscq P. (2006) : « Esclavage 2.0 : Eux, nous et moi » publié sur blog de l’auteur le 29 mars 2006. En ligne : http://www.la-grange.net/2006/03/29.html#web20

Flichy P. (1991) : Une histoire de la communication moderne. Espace public et vie privée, Paris, La Découverte.

Kocergin S. (2004) : Internet à la recherche d’un modèle socio-économique. Portail : une perspective viable ?, Thèse, Université Paris 13, Sciences de la communication et de l’information, 493 p.

Lacroix J.G. (1986) : « Pour une théorie des industries culturelles », Cahiers de recherche sociologique vol.4 n°2, automne.

Mattelart A. (1992) : La communication-monde Histoire des idées et des stratégies, Paris, La Découverte, 356 p.

Moeglin P. (2004) : Outils et médias éducatifs. Une approche communicationnelle, Grenoble, PUG, 296 p.

Miège B. (2004) : L’information – communication, objet de connaissance, Bruxelles, de Boeck, INA, collection médias, recherches, études, 248 p.

Miège B. (2000) : Les industries du contenu face à l’ordre informationnel, PUG, la communication en plus, 120 p.

Rebillard F. (2007) : Le web 2.0 en perspective. Une analyse socio-économique de l’internet, Paris, L’Harmattan, questions contemporaines, série les industries de la culture et de la communication, 158 p.



[1] Pour cet auteur il ne s’agit pas du modèle socio-économique de l’édition, tel que défini par les industries culturelles.



[version imprimable]