« Ce chapitre doit beaucoup aux années passées au sein de Costech avec tous mes collègues, grâce à leur expertise en sciences cognitives et en philosophie. Il est donc juste qu’il soit publié dans ces cahiers de Costech. La question de l’économie de l’attention constitue le point clé des mutations contemporaines marquées du sceau du capitalisme financier numérique. Ces dimensions économiques sont présentées et discutées dans un autre chapitre de l’ouvrage. Les enjeux anthropologiques de constitution d’une enveloppe numérique que nous pourrions enfin habiter pour en faire notre »habitèle« nécessitent une pensée du couplage homme-machine qui a toujours été au coeur du travail collectif de Costech et aussi de Lutin User Lab que j’ai créé à la Cité des Sciences. Ces questions sont abordées en partie dans un autre chapitre mais plus souvent (par exemple, dans le cas du design des interfaces), elles sortent du champ habituel de la sociologie, ce qu’on peut regretter. Enfin les questions de philosophie des techniques qui prolongent ou sous-tendent tous ces travaux sont traitées dans la conclusion qui fait largement appel à des travaux de chercheurs de l’UTC. » Dominique Boullier - 22 juin 2017


Réédition en accès ouvert, avec l’aimable autorisation de l’éditeur, du chapitre 3 de : Dominique Boullier, Sociologie du numérique, Paris : Ed. Armand Collin, 2016, 352 p.

  • EAN : 9782200291655
  • Format : 160 x 240 mm
  • Pages : 352
  • Prix du livre papier : 32.00 €
  • Prix du livre numérique : 24.99 €

Auteur(s)

Professeur des Universités en France 19e section CNU (Sociologie). Chercheur senior au Digital Humanities Institute à l’Ecole Polytechnique Fédérale de Lausanne (EPFL) depuis le 1er Décembre 2015. Affilié au Collège des Humanités A été professeur à Sciences Po. Paris jusqu’en novembre 2015 chercheur au CEE puis au médialab de Sciences Po (ex coordonnateur scientifique avec Bruno Latour de 2009 à 2013). Ancien directeur exécutif du projet FORCCAST (Formation par la cartographie des controverses à l’analyse des sciences et des techniques), projet IDEFI (grand emprunt) 2012-2015

Plan

Que le numérique soit une technologie, personne ne le contesterait, pas plus que l’idée selon laquelle il possède une dimension cognitive, puisqu’il traite de symboles et de signes, au point de nous faire confondre parfois allègrement langage (humain) et langage (code informatique). Mais cela ne permettrait pas de prendre la mesure de cette dimension propre des « technologies cognitives » que le numérique amplifie lui aussi. Nous ne reviendrons guère sur le calcul, déjà abondamment traité, mais il conviendra de garder cette dimension en permanence à l’esprit : toutes les manipulations des signes et des symboles permises par le numérique sont nouvelles et perturbatrices car elles reposent sur du calcul, et du calcul dynamique en un temps non perceptible à l’humain, le plus souvent, comme dans le cas de l’affichage sur un écran qui suppose un rafraîchissement constant et calculé pour maintenir l’effet de permanence (BACHIMONT, 1999).

Cependant, grâce à ce calcul, à cette puissance propre du calcul, augmenté lui-même de la mise en réseaux généralisée, ce sont bien certaines technologies cognitives qui sont particulièrement amplifiées et qui méritent de ce fait notre attention. Goody (1979) a fourni les bases de la pensée anthropologique des technologies cognitives et d’autres comme Hutchins (1995) l’ont prolongé pour des systèmes plus complexes. Nous nous focaliserons sur les listes, les tableaux et les cartes, qui se trouvent chacun amplifiés en tant que programmes, bases de données et systèmes d’information géographiques, car ils constituent à eux trois la plus grande partie des changements dans nos façons de pensée et ils peuvent pénétrer quantité de domaines.

Qu’est-ce qu’une technologie cognitive ?

Le concept repose sur une observation empirique héritée des anthropologues, prolongées par les ergonomes et mise en forme théorique systématique dans des approches comme celle de la sociologie des sciences (AKRICH, CALLON et LATOUR, 2006) : il n’existe pas de savoirs sans support matériel, que ce soit pour leur élaboration, leur mémorisation, leur discussion ou leur circulation. Cette simple règle méthodologique change beaucoup de choses dans toutes les approches des représentations qui envahissent la sociologie en exploitant abusivement souvent les approches de Durkheim (1912) : les « catégories » par exemple sont ancrées dans des dispositifs techniques et ne peuvent en être détachées sous peine de perdre la compréhension de leur genèse et de leur pouvoir d’agir. Ce principe qui prend au sérieux ce que font les artefacts contredit ainsi une vision de « la société » dont les catégories s’imposeraient aux humains sans médiations, mais il contredit aussi les visions positivistes du cerveau qui serait le seul centre de commandes de nos activités cognitives.

En effet, comme l’a amplement démontré Hutchins (1994), notre activité cognitive est distribuée entre diverses entités, que sont d’autres parties du corps, d’autres cerveaux humains et des dispositifs techniques : c’est la circulation entre ces éléments qui produit la connaissance comme « le cockpit se souvient de ses vitesses » (pour l’atterrissage) grâce à des échanges constants entre pilotes, manuels, indications externes et automatismes. Si Hutchins nous a permis de comprendre que la connaissance (et non seulement les savoirs) n’est pas seulement « dans la tête des gens », il prolongeait ainsi une approche fondée par Goody pour qui l’écriture n’était pas avant tout une transcription de la parole (comme si la technique ne faisait « que » reproduire ce qui était né dans le cerveau). La « raison graphique » qu’il mettait en évidence croisait habilement, dans cette expression proposée par son traducteur, l’amplification de rationalité et sa spécificité apportée par l’écriture, dès lors qu’on observait sa genèse d’un peu plus près. Les traits de cette histoire de l’écriture sont si parlants pour le numérique qu’il nous faut en rappeler quelques éléments clés.

L’écriture, technologie cognitive

Si on date l’apparition de l’écriture de l’ère mésopotamienne aux environs de 3400 avant J.-C., ses formats initiaux sont très instructifs sur cette technologie cognitive qui a produit ce changement décisif dans l’existence des humains. Les « calculi », ces cailloux rassemblés dans des bulles en terre, ont été la première forme de combinatoire qui a fait émerger l’écriture : ce sont des formes de comptabilité des biens et plus particulièrement des têtes de bétail, que l’on pouvait encapsuler dans une bulle et labelliser selon le nom du propriétaire. Le calcul est déjà là, la propriété aussi et l’état lui-même fait son apparition avec la gestion des surplus agricoles possibles dans cette riche région qu’est la Mésopotamie. Pourtant, au-delà de ces analogies trop tentantes, J. Goody indique plusieurs marques fondatrices de l’écriture. Dès ses origines, cette activité comptable produit des formats de présentation de l’information qui ont persisté jusqu’à nos jours : la liste et le tableau. L’histoire de l’écriture ne peut ainsi être réduite à la transcription de l’oral, même si cette dimension jouera un rôle essentiel dans la formalisation des langues elles-mêmes puisqu’elle permettra une réflexivité sur la langue jusqu’ici inédite, comme l’a montré S. Auroux (1994). Les traces écrites, les inscriptions rendent visibles et manipulables les règles de la langue elle-même, la grammaire.

La liste présente plusieurs propriétés cognitives essentielles particulièrement productives :

  • Discontinuité
  • Suppression de la phrase
  • Mise en ordre
  • Catégorisation
  • Navigation (rapide de haut en bas).

Mieux même, la liste tend à l’exhaustivité, tout au moins dans l’esprit du lecteur dès lors qu’un titre prétend annoncer ce que contient la liste. Chacun s’attend à y voir figurer tout ce qui compose l’entité affichée en titre : tous les membres de la classe, toutes les pièces à réunir pour un dossier, toutes les conditions à remplir pour atteindre l’étape suivante, etc. Ce qui ne se vérifie pas toujours mais qui donne le pouvoir de synthèse perceptive propre à la liste qui permet d’un seul coup d’œil parfois la saisie d’un tout et de ses parties. Un tout qui serait de plus ordonné, selon un principe que le lecteur supposera toujours présent, selon des critères d’antériorité, d’importance, de procédure, ou par défaut d’ordre alphabétique. Les procédures sont elles-mêmes des listes, organisées visuellement comme telles et leur ordre importe au plus haut point. Or, de quoi se constitue un programme informatique si ce n’est de listes d’instructions qui doivent être répétées dans un ordre strict ? L’algorithme et ses lignes de codes repose ainsi sur une technologie cognitive fort ancienne, la liste, et démontre ainsi sa puissance durable.

Pour les experts, lire des lignes de code, c’est immédiatement repérer des règles d’enchaînement, des hiérarchies, car des sous-listes sont visibles qui indiquent que l’on a affaire à des opérations encapsulées dans le code, dont on pourra faire des « objets » dans des langages de plus haut niveau. La moindre faute dans la présentation de la liste rend le code inopérant. Lorsque l’on propose de former tous les élèves au code, on dit finalement qu’il faut leur apprendre à lire et à écrire des procédures et à utiliser et à repérer les formats graphiques pertinents, ce qui pourrait se faire indépendamment de l’informatique par ailleurs. L’algorithmique comme écriture et comme logique est sans doute la clé, bien plus que le code. Le numérique amplifie donc de façon considérable notre tendance à mettre le monde en listes, en procédures et nous force d’une certaine façon à respecter leurs prescriptions.

Le tableau n’a rien d’extraordinaire lorsque le principe de la liste est établi. En effet, comme le dit Goody, un tableau n’est rien d’autre que des listes en relation (sous forme de colonnes et de lignes). Mais ce seul rapprochement produit un nouveau cadre cognitif qui a une puissance propre. Ainsi, selon Goody toujours, un tableau entraîne notamment une catégorisation plus forte car chaque ligne et chaque colonne doivent être clairement distinctes de leurs voisines : une notion ne peut pas chevaucher plusieurs colonnes alors que comme pour la tomate, la discussion est pourtant permanente sur son statut de fruit ou de légume. Forcer la catégorisation tranchée, cela constitue une réduction par rapport au fonctionnement du langage qui autorise en permanence l’ambiguïté ou les frontières floues mais cela constitue un avantage lorsqu’il faut ordonner le monde ou plus encore lorsqu’il faut le calculer. Mieux même, le tableau permet de rendre visible une infinité de relations entre catégories parce qu’elles sont spatialement placées en voisinage et pourtant bien distinctes.

La cohérence d’un tableau peut alors être rapidement mise à l’épreuve en comparant les catégories des lignes et les entités placées dans les cases correspondantes. Les catégories elles-mêmes peuvent alors être questionnées et c’est pour cela que le tableau constitue un outil heuristique de premier plan. Le schème organisateur est rendu perceptible, le tout apparaît comme structuré en relations constitutives que l’on peut tester en vérifiant si les parties (les inscriptions dans les cases) sont bien adéquates à ces relations. Or, celui qui pratique un peu le code HTML a pu remarquer comment les structures des pages produites ressemblent à des tableaux. Aux débuts de l’HTML, il était encore possible de penser qu’il s’agissait seulement d’artefact de présentation visuelle de l’information, alors qu’il s’agissait déjà, à travers le balisage, de catégorisation des espaces et des informations.

Désormais, avec les CMS (Content Management Systems) qui sont au cœur de la production des sites web, c’est bien dans une base de données que sont saisies les informations, qui, selon les catégories (balises) qui correspondent à leur statut, se retrouveront publiées sous un certain format. La base de données constitue la version amplifiée numériquement du tableau, comme l’ont montré G. Bowker (2006) et Bowker et Star (1999) et constitue de ce fait un dispositif de classement et de catégorisation qui œuvre en propre. En effet, l’architecture de la base de données fait l’objet d’une analyse préalable qui permet de discuter de la validité de toutes les catégories (les colonnes et les lignes du tableau) et de toutes les relations possibles (les calculs entre les entités ainsi produites) (BELTRAME et JUNGEN, 2013). Mais une fois qu’elle est produite, la base de données ne peut être remise en cause en permanence et elle finit par imposer son cadre de pensée à chaque opérateur à tel point que, par effet de l’habitude, on finira par considérer comme allant de soi, comme naturelles, les catégories que l’on manipule, qui finissent en fait par nous manipuler. Ces techniques d’écriture sont ainsi au cœur du numérique et C. Herrenschmidt (2007) a considéré que le numérique devait même être pensé comme technique d’écriture comme le furent l’imprimé et la monnaie. Le rapprochement avec la monnaie est intéressant car elle permet et entraîne aussi l’extension du calcul, ce qui évite de réduire l’écriture à l’oral.

Cependant, avec le numérique en réseaux, un nouveau mode de visualisation s’impose qui pourrait remettre en cause la puissance de la liste et du tableau comme modèle organisateur de nos façons de penser augmentées par le numérique. En effet, les liens disponibles sur toute « page » (un terme issu de l’imprimé et sans grand sens, rappelons-le) depuis l’avènement du web produisent un effet de réseau qui ne se réduit ni à la liste ni au tableau. Ces liens permettent notamment la navigation par serendipity qui pourrait représenter une amplification d’une autre modalité cognitive. Le terme fut forgé par Horace Walpole en 1754 inspiré par un conte persan parlant des princes de Serendip (ancien nom de Ceylan). Leur capacité à induire l’existence et le parcours d’un chameau qu’ils n’avaient jamais vu à partir d’indices faiblement reliés fut ainsi désignée comme un équivalent d’une découverte au hasard ou de sagacité accidentelle. Pour notre époque numérique, c’est la puissance propre du lien qui est mise en évidence, plus que celle du calcul. La pensée en réseaux doit être considérée comme une des technologies cognitives qui n’a pas encore donné toute sa puissance mais qui s’avère très prometteuse. Les visualisations de réseaux sont devenues centrales pour observer le web, comme l’a montré l’un des pionniers de ces méthodes en France, Franck Ghitalla (2004), mais aussi tout ensemble de documents.

La sociologie des réseaux voit ainsi ses catégories reprises dans des environnements plus ouverts et non complets (ponts, trous structuraux de Burt, 2004, 2005, par exemple). Les conventions cognitives ne sont pas encore vraiment stabilisées et produisent ainsi cette effervescence créative qui désoriente le lecteur ou le navigateur, lorsque des formes plus molles en sont proposées comme les nuages de tags (BOULLIER et CREPEL, 2009) ou lorsque la hiérarchie des catégorisations n’est pas assez perceptible. Mais l’exigence de traitement de masses de données en liaison avec le Big Data ne peut que renforcer cette demande de conventions pour entrer et naviguer dans les données par des formats de réseaux, quel que soit par ailleurs le calcul effectué en arrière-plan (toutes ces visualisations de réseaux ne sont pas nécessairement issues de graphes au sens mathématique).

La carte comme technologie cognitive

L’omniprésence des cartes dans l’univers numérique constitue une évolution marquante que Google a largement contribué à favoriser avec ses Google Maps, mais qui suscite aussi l’engouement des développeurs en open source comme le montre l’essor de Open Street Maps (OSM). Nous parlons ici de cartes à caractère topographique, c’est-à-dire mobilisant des références et un ancrage dans des coordonnées topographiques et non de toutes les cartes du web, cartes sémantiques ou cartes des controverses qui relèvent plus du mapping en général que de la carte au sens strict en français. Nous présenterons les points importants de ces technologies dans le chapitre 5 où nous analysons les SIG, systèmes d’information géographique et du GPS, carte orientée action et non mémoire ni analyse.

Reprenons uniquement pour l’instant ce qu’il faut pour faire une carte, pour mieux mesurer l’écart avec les cartes ordinaires qui sont proposées sur le web actuellement et pour observer ce que les SIG font gagner. Pour faire une carte, il faut un espace de référence (géoréférencement), une échelle, un principe de transposition espace/carte, une métrique, un thème, une légende (une sémiologie graphique). Mais sur la base de ces principes, la carte permet de faire et surtout de penser ou mieux encore de faire faire. La carte offre la simultanéité cognitive entre informations hétérogènes et pourtant rendues compatibles et interprétables car ancrées dans les mêmes références topographiques. Les points de vue proposés traditionnellement sont le plus souvent zénithal (en surplomb) ou en élévation mais sans vue subjective qui, par définition, supposerait une cinématique et ferait perdre de vue la simultanéité. N’oublions pas non plus qu’implicitement, l’espace ainsi représenté est supposé euclidien et donc continu. Or, une carte dynamique permise par les technologies numériques et notamment les SIG permet non seulement de reproduire les mêmes principes et de les amplifier mais aussi d’exploiter d’autres principes. La séquentialité des affichages et les effets cinématiques mobilisent le temps, soit comme objet de représentation reproduit dynamiquement (là où il fallait plusieurs cartes juxtaposées auparavant) soit comme processus d’exploration à travers des « zooms » et des « pans » notamment. Les échelles et les proximités sont ainsi redéfinies par les parcours, ce qui rend la construction du regard plus apparente et non plus soumise à celle du cartographe uniquement.

Plus important encore, la sélection des informations en couches, chacune porteuse d’un type particulier d’informations, permet de circuler entre points de vue selon les informations choisies et de les combiner à volonté. La carte n’est plus une représentation donnée qui s’impose, elle se propose à l’exploration, voire à la contribution dans certains cas comme dans OSM. La capacité d’un tel dispositif à faire penser à la fois de façon analytique (les couches) tout en produisant des synthèses (la simultanéité de la carte) constitue une ressource très attractive pour tous les systèmes d’information urbains. Ces dispositifs et leur présentation en 3D sont directement utilisés dans les présentations de projets urbains ou dans les débats publics et contribuent à mettre en forme les cadres (frames) de pensée des problèmes (issues) discutés. Il est souvent difficile de s’affranchir de leur puissance de naturalisation lorsque les visualisations deviennent « plus vraies que nature ». La carte ainsi amplifiée, même si elle s’en trouve souvent simplifiée, n’a donc rien d’anodin et constitue une des ressources fondamentales de tout le numérique en réseau.

Cadres de perception et conventions sémiotiques et esthétiques

Certaines des mutations que nous expérimentons sont plus difficiles à penser que d’autres car elles sont la forme même de notre pensée, ce qui nous fait penser sans qu’on puisse même l’observer tant ces postures sont devenues naturelles. Les conventions portées par le numérique peuvent être encore instables, il n’en reste pas moins que nos cadres de perception, nos guides sémiotiques et nos jugements esthétiques sont déjà affectés, déstabilisés, voire déjà emportés par de nouveaux cadres concurrents. Penser la grammaire d’une langue supposait l’écriture, disions-nous. Sans doute, fallait-il le numérique pour penser au niveau le plus élémentaire nos perceptions et nos cadres esthétiques. La rupture introduite par le numérique porte sur une supposée continuité entre nos représentations et le monde. Tous les constructivistes de tout temps n’ont eu de cesse de montrer que nos cadres de pensée, depuis le langage lui-même, n’opéraient que dans une rupture, dans une analyse ou à travers des médiations (GAGNEPAIN, 1994 ; LATOUR, 1994). Pourtant l’évidence restait d’une continuité, d’une adéquation miraculeuse dont on évitait de questionner les fondements pour pouvoir se reposer sur un garant, le monde. Or, avec le numérique, l’utilisateur le plus ordinaire peut faire l’expérience d’un trucage sur Photoshop, d’une distorsion des sons et de toute perception, d’une décomposition élémentaire qui permet recombinaison à l’infini, d’un test de paramètres d’une application quelconque qui change totalement la vision du monde que l’on supposait « reproduit » par nos instruments analogiques.

Le langage des nouveaux médias

Manovich (2001) a bien mis en évidence toutes les ruptures qu’introduisent les nouveaux médias dont il étudie l’équivalent d’un langage. Selon lui, la représentation numérique provoque plusieurs glissements qui peuvent entraîner des ruptures perceptives et esthétiques :

  • le numérique fait passer toute représentation du continu au discret (c’est le principe même du codage binaire en 0/1),
  • le numérique étend la modularité à tous les objets (la structure fractale des nouveaux médias : chaque objet est fait de parties qui gardent leur indépendance),
  • le numérique développe l’automatisation, grâce à l’utilisation d’agents qui permettent la réutilisation d’objets médias plutôt que la création,
  • le numérique développe aussi la variabilité (qui produit cet effet de média liquide ou mutant) lorsqu’un même site peut varier selon la vitesse de connexion.

Enfin le transcodage devient la règle entre médias, la séparation entre algorithmes et structure de données permet d’appliquer des traitements similaires à des objets très différents. À tel point que, selon lui, les bases de données média constituent une forme culturelle en tant que telle (une forme symbolique au sens de Panofsky), ce qui le conduit désormais à explorer ces bases grâce à des techniques de Big Data pour y repérer des patterns, des tendances comme sur des millions de mangas ou de clichés instagram de la place Taksim (MANOVICH et HOCHMAN, 2013). C’est donc dans le code même, dans les propriétés techniques du numérique que s’amplifient des possibles qui vont affecter nos traditions culturelles. Cependant, Manovich n’est pas un gourou qui prétendrait que le numérique fait table rase du passé. Au contraire, il a cherché à produire une archéologie du numérique en identifiant trois traditions qui sont amplifiées par le numérique et qui persistent dans le langage des nouveaux médias.

  • L’imprimé : plusieurs indices en attestent : la page rectangulaire verticale (alors que l’écran est horizontal et issu du tableau et des conventions de représentation du paysage), les colonnes, les illustrations, les graphiques dans le texte, les pages qui se suivent en séquence, les tables des matières, les index, etc.
  • L’audiovisuel (et le cinéma en particulier) : la caméra mobile, la représentation dans l’espace, les techniques d’édition (tables de montage), les conventions narratives, l’activité du spectateur.
  • L’interface homme-machine (ou la tradition du panneau de commande) : les manipulations d’objets sur un écran, les fenêtres qui se recouvrent, la représentation iconique, les menus dynamiques, toutes choses qui ont été inventées bien avant les usages ordinaires du numérique dans des panneaux de commande analogiques puis numériques pour des machines.

Reprenons quelques traces de cette influence de l’imprimé sur le numérique. La « page » web est issue de l’imprimé mais lorsque le scroll est aussi utilisé, il reprend alors la tradition du volumen, du rouleau qui précédait le codex, notre livre avec ces pages reliées. Les notes de bas de page ainsi que toutes les citations doivent être considérées comme les précurseurs des hyperliens qui connectent des documents entre eux, ainsi que l’a bien compris la scientométrie qui réalisait des études de citations et de références bien avant le numérique contemporain et qui a même servi de base à toute la science du web avec Kleinberg. Cependant, la dépendance stricte de la note de bas de page vis-à-vis du texte de la page montre en même temps ce que le numérique amplifie car il rend cette interconnexion extra-documentaire. De même, l’influence du cinéma sur le numérique se repère dans toutes les techniques de spatialisation : les zooms, pan, tilt, track sont tous utilisés dès que des documents dynamiques sont exploités. Les métaphores du cadre, de la fenêtre ou du miroir étaient déjà utilisées pour penser l’écran du cinéma et continuent à faire sens dans les environnements numériques. Les contrôles de caméra reprennent tous ces éléments dans les consoles de jeu et font désormais partie du « hard » de leur conception, d’un pré-requis. L’influence des interfaces homme-machine sur le numérique se repère dans l’emprunt de métaphores issus de l’environnement physique de travail comme le « bureau » ou les contrôles de commande du magnétoscope transposés tels quels sur les visionneuses de vidéos sur le web.

Enfin, lorsque Manovich évoque le transcodage, il fait précisément référence à des modes d’opération qui sont transversaux à tous les médias numérisés au point de passer parfois dans le langage courant : couper/copier/coller/chercher/monter/transformer/filtrer, auxquels nous pourrions ajouter mixer, poster, encapsuler, etc. Ces cadres de manipulation de tous types de documents constituent nos conventions cognitives partagées, les moins explicites car les plus quotidiennes et surtout loin de concepts ou de procédures sophistiquées : ce sont des opérations élémentaires tout aussi puissantes que la liste et le tableau qui sont considérés comme allant de soi. Ces conventions existaient souvent auparavant mais ont désormais migré sur tous les supports car le numérique les a unifiées comme produits d’un même principe d’encodage/décodage.

B. Bachimont (1999) signale cependant une différence majeure entre l’écriture papier et l’écriture numérique : les conventions de lecture qui ont été établies grâce à l’alphabétisation ont été très coûteuses si l’on songe aux siècles nécessaires et aux investissements scolaires réalisés. Mais l’imprimé garantissait une immédiateté de l’accès au support car le support d’enregistrement (l’imprimé, le livre qu’on imprime) était en même temps un support d’appropriation (la page, le livre qu’on lit). Or, avec le numérique, un appareillage très lourd et coûteux devient indispensable pour s’approprier ces contenus produits avec d’autres outils. La garantie de l’accès ainsi que sa pérennité ne sont plus assurées, que l’on songe à l’obsolescence des supports numériques, à leur dépendance énergétique ainsi qu’à la multiplication des versions de codec pour visionner une vidéo par exemple. Nous ajouterons que l’alphabétisation réalisée grâce à l’imprimé semble seulement en apparence avoir été transférée sur le numérique. Les modes de publication dominants que sont la vidéo ou le site web par exemple relèvent en fait d’une autre alphabétisation qui est essentielle dans la « computer literacy » sans être résumée à l’apprentissage du code. Les supports semblent certes identiques aujourd’hui et certaines conventions de manipulation se transposent aisément alors que les supports analogiques étaient différents selon les formats sémiotiques. Pour autant, cela ne signifie pas que lire une image ait beaucoup progressé dans la culture de masse et l’école n’a guère pris cet élément en considération dans ses programmes.

Enfin, Jeanneret et Souchier (2005) ont aussi posé des bases différentes, plus nettement sémiotiques, pour une analyse de cette spécificité d’une écriture et d’une lecture sur écran en forgeant un concept pour les différencier, les « écrits d’écran », où la transition avec l’image est plus nette.

Le règne de l’image et de l’immersion

L’omniprésence de l’image grâce à la puissance de circulation des réseaux pourrait à elle seule constituer une des mutations majeures de nos représentations communes. Quel support de publication (média, blog, formation en ligne, etc.) pourrait se priver de vidéos dès lors qu’elles deviennent le mode dominant de captation de l’attention ? Pourtant, leur effet de ralentissement sur la prise de connaissance est indéniable puisque l’expérience du spectateur est alignée sur la durée de projection du contenu, contrairement à une page écrite que l’on peut apprendre à scanner en lecture rapide. Nous reviendrons sur ce point dans le chapitre sur l’écriture et la publication car l’avenir du livre est en jeu dans ce basculement général vers l’image animée. Cependant, une autre mutation plus radicale encore nous paraît devoir être soulignée, celui des cadres de perception eux-mêmes, qui ont été forgés pendant six siècles avec la perspective et qui se trouvent concurrencés par l’immersion.

Comme souvent, un changement technique radical nous oblige à revisiter ce qui était devenu quasiment naturel au moment même où il va sans doute affronter sa plus grave crise. Pourtant, cette perspective a été pensée et théorisée par Alberti dès le XVe siècle au moment même où elle s’imposait dans les pratiques et d’autres auteurs ont continué à penser cette « forme symbolique » comme l’appelle Panofsky (1991). L’auteur distingue en effet « l’espace agrégat » du Moyen Âge (qui repose plus sur une narration qui guide le parcours dans l’espace du tableau dont tous les éléments sont présentés sur un même plan et sans profondeur organisée) et « l’espace analytique » de la perspective. Pour J.-L. Déotte (2001, 2007), la perspective est un « appareil » et constitue une « époque ».

Les expériences de Brunelleschi en 1415 sur le baptistère devant le Duomo de Firenze sont fondatrices et établissent les principes perceptifs qui président à la construction de cet « appareil de projection ». L’espace ainsi représenté est un espace rationnel, quantifiable, homogène, isotopique qui reste centré sur un sujet situé hors champ mais qui, par son point de vue idéal, ordonne toute la représentation. Ce modèle du sujet hors champ est archétypique de la vision moderne du monde qui va prendre son essor avec la révolution scientifique qui naît quelque temps plus tard : le monde s’ordonne et se plie à ce sujet en surplomb et son magnifique ordonnancement est alors rendu visible soit dans les lois de la science soit dans les formes de la perspective. Certes, la perspective s’inscrit dans une lignée d’appareils de projection que sont la « camera obscura » puis la photo et le cinéma.

Pourtant, le numérique ne se contente pas d’amplifier la perspective et les pouvoirs du sujet hors champ, même si la puissance analytique des SIG qui décompose les plans eux-mêmes adopte cette orientation. Car dans le même temps, c’est toute la filiation de remise en cause de la perspective déjà présente dans l’art moderne et dans l’art contemporain qui se trouve amplifiée puissamment. L’art moderne peut être considéré comme une entreprise de destruction massive de la perspective qui continue à jouer avec elle, en permettant plusieurs points de vue à la fois, ce qui oriente vers des navigations en surface qui sautent de point de vue en point de vue de façon assez analogique aux espaces documentaires hypertextuels. Mais l’art contemporain signe les adieux à la perspective comme appareil de projection pour multiplier des « appareils d’inclusion ou de simulation » (DEOTTE, 2001) dans ses installations, dans ses performances. Selon nous, l’immersion devient le nouvel appareil de l’époque sous une forme ou sous une autre (l’absolue couleur ou le monumental que l’on peut pénétrer et activer par exemple). Cette rupture avec l’existence à l’extérieur et le point de vue hors champ est non-moderne par excellence comme le rappelle Sloterdijk (2005) : « est moderne celui qui croit n’avoir jamais été à l’intérieur ». L’immersion que toutes les techniques numériques amplifient nous introduit ainsi à un nouveau cadre de perception dont on ne mesure pas encore tous les effets et dont le jeu vidéo constitue le parangon.

De nombreuses techniques partielles peuvent être considérées comme des tentatives orientées vers l’immersion sans être toutes dépendantes du numérique à l’origine : l’image 3D, l’image stéréoscopique, l’image en relief anaglyphe pour séparer les couleurs (lunettes nécessaires), l’holographie, le cinéma 360, l’Imax, l’Imax Dome, l’Imax 3D, le cinéma 3D avec lunettes, le cinéma numérique (au-delà des effets spéciaux), l’image de synthèse, les simulateurs de vol grand public (Flight Simulator dès 1977) et professionnel, etc. Les algorithmes de calcul des images passent de l’industrie (les courbes de Bézier dans l’industrie mécanique) aux logiciels de jeu vidéo et aux applications pour amateurs (un modeleur comme Blender). La perception multisensorielle est équipée avec les accéléromètres (que le grand public expérimente avec la Wii de Nintendo puis sur tous les portables), les commandes à retour de force, les caméras infrarouges (la Kinect de Microsoft), les écrans tactiles généralisés qui doivent amplifier le couplage avec les interfaces, mais aussi le son, décisif pour produire les effets immersifs (depuis le Dolby jusqu’au 5.0 en passant par le THX) ce qui modifie profondément l’expérience esthétique ou opérationnelle puisqu’on ne contrôle pas spontanément son exposition sonore. Ces équipements partiels de la « représentation-en-action » sont le terreau sur lequel un nouveau cadre commun supposé partagé se construit.

Cependant, l’industrie du jeu vidéo a pris en main l’élaboration des conventions futures (PERENY, 2013) et finit par irriguer de ses modèles des générations de joueurs mais aussi de spectateurs car le cinéma reprend ses codes et d’autres applications ordinaires de réalité augmentée commencent à en exploiter les principes. Dans la deuxième moitié des années 2000, la mode de Second Life (BOELLSTORFF, 2010) pouvait laisser penser que ces mondes virtuels (il en existe des centaines, toujours actifs) seraient l’espace privilégié pour expérimenter l’immersion à venir. En réalité, la qualité de la 3D n’était pas forcément au rendez-vous et le fait de disposer d’un avatar (LUCAS et AMATO, 2013) relève plus de l’immersion narrative que de l’immersion perceptive, bien que le choix de la vision en première personne facilite l’expérience de l’immersion. C’est en effet la faiblesse de l’offre narrative dans ces mondes virtuels qui explique selon nous le désengouement actuel. Les jeux vidéo qui connaissent le succès, en dehors des casual games qui occupent le temps par des actions répétitives (Candy Crush), reposent tous sur un gameplay dans lequel la scénarisation permet des formes d’immersion narrative, soit en raison de la qualité des mondes reconstitués, soit par les propositions de missions et de niveaux, soit même désormais par la qualité du design des personnages auxquels on peut s’identifier.

C’est pourquoi nous avons proposé (BOULLIER, 2008) de penser l’immersion comme appareil d’inclusion à condition de prendre en compte une immersion étendue qui dépasse la seule immersion perceptive dont nous venons de voir la filiation esthétique et technique. L’immersion narrative n’est pas réservée à la seule littérature numérique qui possède ses propres codes (BOUCHARDON, 2009) et qui a donné lieu à des œuvres fascinantes qui ont été théorisées très tôt (BALPE, 2000). Elle se trouve déjà présente dans la vogue du storytelling (SALMON, 2007) qui montre bien la puissance de captation de l’attention, des imaginaires et du désir. Grâce aux réseaux, ces histoires commencées sur un support peuvent être poursuivies sur tout autre support (on l’appelle alors le transmedia storytelling, Jenkins, 2003) dans cet espoir de réseau sans couture qui est désormais accessible et qui provoque une pervasivité des histoires (que les marques savent déjà exploiter). Les alertes permanentes que les marques, les médias ou les réseaux sociaux répercutent sur nos appareils portables favorisent encore cette immersion narrative, qui se vit alors comme une pulsation du monde auquel on participe. Mais il faudrait aussi être attentif dans cette évolution à l’immersion sociale, qui constitue un ressort bien connu des joueurs en réseaux qui s’organisent en guildes, en « teams » car le jeu est lui-même fondé sur ces jeux d’équipe (l’un des plus célèbres étant WoW, World of Warcraft) (BOUTET, 2008).

Cette socialisation compétitive mais aussi solidaire modifie profondément l’expérience du jeu lui-même. Elle ne peut qu’être amplifiée par l’extension des appartenances aux réseaux sociaux qui captent et captivent des membres qui s’immergent dans ces collectifs, dans ces amis et ces publications, d’autant plus lorsqu’elle est associée à une offre d’immersion narrative bien construite (ce qui n’est pas le cas des réseaux sociaux ni des univers virtuels où l’expérience de la solitude constitue un des plus forts arguments d’abandon). Enfin, nous pourrions ajouter (pour compléter le tableau selon le modèle de Gagnepain des quatre plans de médiation) une immersion désirante, qui repose sur une excitation permanente, diffusée aussi bien dans les alertes, comme nous l’avons indiqué, que dans la course à la réputation (via les likes et les followers) ou dans l’omniprésence des paris et du sexe sous des formes diverses. C’est ce que Sloterdijk (2005) désigne sous le nom de gâterie et qui garantit un « état de tension permanente dans la chambre intérieure ».

Nous ne faisons ici qu’effleurer la puissante mutation qui est en cours dans nos schèmes perceptifs et esthétiques, car elle est encore trop peu étudiée. Mais les auteurs qui s’emploient à restituer ces époques historiques méritent d’être interrogés pour mieux comprendre ce qui se passe sous et dans nos yeux. Le jeu vidéo est sans doute l’expérience qui mérite le plus d’attention sur ce plan et qui a été étudiée par S. Genvo (2009) qui a, comme il se doit, produit une chaîne YouTube consacrée à la théorie du jeu vidéo ou par S. Craipeau (2011), qui se focalise sur les jeux en ligne.

Architectures des savoirs

La révolution numérique a commencé par les activités scientifiques, ses publications, ses échanges entre chercheurs, il n’est guère étonnant qu’elle ait touché profondément l’organisation même des savoirs, de leur hiérarchie et de leur légitimation. Mais ce changement affecte non plus seulement la dite communauté scientifique mais tout internaute c’est-à-dire la part de plus en plus importante de l’humanité connectée. Un internaute ordinaire doit en effet affronter un syndrome de désorientation qui n’avait encore jamais été expérimenté et qui met en évidence un travail invisible mais pourtant essentiel pour mettre en ordre les références communes de groupes sociaux voire de civilisations entières. La prolifération des sites constitue un phénomène constant, qui fut certes amplifié un instant par la vogue de blogs (173 millions en 2011, le comptage s’est arrêté depuis !) mais qui rend vital toute orientation correcte pour la recherche d’information (« RI » qui constitue une discipline à part entière en informatique).

Avant cette abondance et cette accessibilité, un travail invisible des utilisateurs ordinaires se faisait dans plusieurs cercles sociaux : les médias, les activités scientifiques, l’enseignement et les bibliothèques. Ainsi chacun de ces cercles reposait (et repose toujours) sur des médiateurs (journalistes, chercheurs, enseignants, documentalistes), sur des procédures de stockage et de référencement (sources, citations, notices, etc.), sur des espaces de publication dédiés et bien distincts (journaux, revues, classes, bibliothèques) et sur des hiérarchies parfois explicites mais toujours présentes (notoriété, fiabilité, tirage, évaluation par le public et par les pairs, etc.). Tous contribuaient ainsi à dire l’ordre du monde et l’ordre des catégories pour penser le monde comme les clercs l’avaient fait avant eux. Le journal fixait l’agenda des problèmes (issues) et les sciences politiques étudient en détail ces effets d’agenda setting qui formatent l’opinion en mettant en avant les questions qu’il convient de se poser. Les chercheurs étaient sommés de dire la vérité du monde bien que leur travail réel consistât avant tout à discuter et à tester des hypothèses (« la science faite » vs « la science en train de se faire », LATOUR, 1990). Les enseignants formaient les cadres de pensée de générations entières selon des filtres disciplinaires qui découpaient les questions et ordonnaient la qualité des réponses, les bibliothèques organisaient les savoirs selon leur méthode de classification Dewey devenue standard.

Tout cela constituait ainsi une architecture des savoirs, qui, par cet entrelacement des médiateurs qui circulaient d’un monde à l’autre, finissait par être difficilement discutable et qui avait l’avantage d’orienter toute exploration

Politique d’orientation dans les savoirs

C’est pourquoi le numérique fut perçu et pensé à ses débuts comme une simple amplification des potentiels des bibliothèques : le web ne semblait être en fait qu’une immense bibliothèque rendant accessible tous les savoirs et la même analogie est désormais produite pour les MOOC (Massive Online Open Courses) par exemple. Or, un détail échappait à ces thuriféraires du numérique : sur le web, il n’existe ni notice documentaire pour une page ou un site donné, ni documentalistes chargés de les indexer selon un format standard. Le dépôt légal du web qui fut institué progressivement dans plusieurs pays (loi DADVSI en France en 2006) n’est en rien un travail de catalogage, qui supposerait notices rédigées par des professionnels de la documentation et conservation avec des numéros ISBN uniques. Or, ce travail très ordinaire constituait pourtant un vecteur d’orientation particulièrement puissant et utile pour chaque société.

Les limites des classifications Dewey sont connues tout autant que leur efficacité. Elles supposent un découpage total du monde en catégories définies par des autorités qui imposent alors cette même organisation logique à tous les producteurs de documents comme aux lecteurs cherchant à avoir accès à ces documents. Les bibliothèques reposent sur des ontologies c’est-à-dire des réseaux sémantiques qui regroupent un ensemble de concepts décrivant complètement un domaine. Ces concepts sont liés les uns aux autres par des relations taxonomiques (hiérarchisation des concepts) et sémantiques. Clay Shirky (2010) a établi les conditions de félicité des ontologies. Elles peuvent être opérationnelles lorsque le domaine à organiser possède les traits suivants  : petit corpus, catégories formelles, entités stables, entités restreintes, frontières claires et que les participants-utilisateurs sont des catalogueurs experts, font office de source de jugement officielle, sont coordonnés et sont experts du domaine. Il est aisé de comprendre non seulement la nécessité mais la possibilité d’une ontologie dans des projets de l’industrie aéronautique par exemple, qui est l’une des plus normalisées à l’échelle mondiale. Il est tout aussi aisé de comprendre que cela suppose une discipline qui ne se trouvera jamais sur le web et sur les réseaux numériques en général.

L’utopie disciplinaire du web sémantique, première offre d’orientation

Et pourtant, ce principe des ontologies fut à la base de la première version du web sémantique que T. Berners-Lee, le créateur du web, conçut en 1998. Devant le désordre généralisé qu’il observait sur le web, qui était à l’origine pensé dans un monde plutôt scientifique et donc auto-contrôlé, il formula le vœu de voir une forme d’autodiscipline s’installer chez les producteurs de contenus du web, qui se traduirait par le respect de certains formalismes documentaires, permettant d’organiser les informations sur le web selon une ontologie. Les formalismes documentaires ne sont pas nés avec le numérique et l’on peut considérer que toute règle de mise en page, toute convention de positionnement des notes de bas de page, des titres, etc., qui se sont installées très progressivement à partir de la naissance de l’imprimé, constituaient les ancêtres de ces formalismes. Une table des matières apporte une aide considérable à l’orientation, à la navigation mais n’est pas née d’emblée avec l’imprimerie. Les principes des ML ou Markup Language (langages de balisage) avaient été développés dès les années 1980 pour la documentation technique dont le SGML (Standard Generalized Markup Language) qui permettait de catégoriser des types d’information et de leur attribuer ensuite un format identique de présentation (un titre, un sous-titre, une définition), ce qui passerait désormais pour une feuille de style correctement construite.

Mais bien au-delà des enjeux de présentation, certes importants car permettant d’automatiser avec le numérique des changements de style par exemple, c’est un enjeu d’ingénierie des connaissances qu’il convient de percevoir dans ces opérations liées aux formalismes documentaires. C’est ainsi que désormais, un ensemble de couches sont identifiées, grâce à T. Berners-Lee, qui traitent toutes les propriétés des informations pour les structurer selon des formalismes spécifiques. XML, lancé à partir de 1998, constitue la clé de l’interopérabilité ainsi créée mais en réalité introduit à des couches différentes qui peuvent porter sur les définitions de types de documents, sur le vocabulaire ontologique et même sur sa logique, son niveau de fiabilité (selon les preuves qui peuvent être apportées) et de confiance. Ces dernières couches constituent en fait des formalismes pour décrire les qualités des émetteurs et faciliter ainsi les échanges non seulement entre humains mais surtout entre machines, entre agents intelligents qui réalisent désormais la plupart des transactions qui sont enfouies sous nos actions humaines de requêtes.

Figure 3.1 Le cake de Berners-Lee : les différentes couches du web sémantique

Figure 3.1 Le cake de Berners-Lee : les différentes couches du web sémantique


Source : https://fr.wikipedia.org/wiki/Semantic_Web_Stack

Ce « cake de Berners-Lee » semble être totalisant et prétendre tout formaliser mais il est essentiel pour rendre calculables ces échanges de données. Dès lors, il suppose une véritable discipline que l’on peut trouver dans des bases de données professionnelles mais qui n’a aucune chance de voir le jour dans un environnement web qui fait proliférer les auteurs autant que les documents et sans aucune référence partagée a priori. On le voit, le projet originel du web sémantique qui suppose cette formalisation de toutes les couches documentaires représente une visée politique particulière de l’avenir des réseaux numériques et du web en particulier : ce schéma est en tant que tel un programme normatif et donc sociologique que les sciences sociales doivent considérer au même titre que toute organisation. Ce schéma repose même sur une théorie implicite du langage et donc des catégories comme autant d’étiquettes qu’il suffit d’apposer « correctement » sur le monde. Toute l’efficacité des méthodes numériques se lit dans cette réduction du processus langagier à un étiquetage, niant ainsi toute l’ambiguïté et l’impropriété qui font la puissance créative du langage humain.

L’effet contributif des folksonomies, deuxième politique d’orientation

Tim Berners-Lee admit son échec dès 2007 et contribua à proposer d’autres approches moins disciplinaires pour soutenir l’effort de structuration documentaire. Désormais, le web sémantique se construit par apprentissage, par machine learning, qui se nourrit des corrections faites par les experts ou par les utilisateurs ordinaires d’un système d’information sans leur demander de respecter a priori, dès la publication, un formalisme déterminé. Cette approche, qui est dite bottom-up, peut même désormais s’appuyer sur l’activité de tagging spontanée réalisée par les internautes pour l’enrichir, la réviser, la tester et proposer des suggestions de tags qui suscitent une catégorisation plus systématique. Ces approches sont nées au même moment que le projet de web sémantique, dans des sites comme del.icio.us qui permettait le partage des favoris ou bookmarks. Le tagging ainsi réalisé relève de ce que l’on nomme par opposition aux topologies, les folksonomies1. Des sites et des services comme Flickr se sont reposés sur ce travail de catégorisation ordinaire, souvent très idiosyncrasique et apparemment non pertinent pour les autres utilisateurs, mais pourtant efficace, par approximation, pour s’orienter (CREPEL, 2013).

Comme on le voit à nouveau, plusieurs politiques sont possibles pour orienter les utilisateurs et leurs principes sont parfois diamétralement opposés : cependant, de nouvelles solutions comme celle des suggestionneurs peuvent aussi émerger et constituer de véritables innovations, qui sont autant de compositions entre principes différents.

Puissance des moteurs de recherche, troisième politique d’orientation

Nous avons donc traité jusqu’ici de plusieurs politiques d’orientation dans les savoirs (les ontologies du web sémantique et les folksonomies du tagging social collaboratif) sans mentionner encore les dispositifs devenus incontournables de cette orientation, les moteurs de recherche. Il serait plus juste de préciser aussitôt, LE moteur de recherche, tant Google assure désormais une domination sans partage dans la plupart des pays. Il est parfois tentant de traiter directement le débat politique de la position dominante de Google, ou plus exactement sub-politique pour l’instant selon le terme de U. Beck, car l’arène proprement politique peine à s’emparer de la question du monopole même si le Parlement européen a commencé à le faire en 2014.

Figure 3.2 Part de marché des moteurs de recherche dans le monde en mars 2015


Source : Net applications.

Ce débat mérite d’être tenu mais, comme souvent en matière de technologies, il resterait vain s’il ne s’appuyait pas sur une connaissance approfondie des processus techniques mobilisés par la firme californienne et sur une analyse de l’« agency » propre de l’algorithme de recherche de Google. Par la puissance de son algorithme, Google est devenu l’instance d’orientation dans le monde des savoirs et mieux encore, par son souci d’excellence technique et d’objectivité des résultats, comme l’a montré Dominique Cardon (2012), il est parvenu à devenir quasi indiscutable, à forger comme une évidence des hiérarchies qu’il propose ainsi. La critique du monopole est ainsi engagée par certains sous l’angle de la domination économique anticoncurrentielle, approche finalement classique, par d’autres sous l’angle de la pratique de prédation des données personnelles analogue à toutes les plates-formes de l’Internet et de l’optimisation fiscale, c’est-à-dire d’un équivalent d’une fraude pour les états concernés, par d’autres enfin sous l’angle du projet politique sous-tendant la vision et les acquisitions systématiques de la firme de Mountain View et qui se résume dans le concept de transhumanisme. Toutes ces approches ne sont pas contradictoires mais il faut noter cependant qu’elles s’adressent à une firme née en 1998 et qui a conquis une position mondialement dominante à une vitesse extrême en gagnant l’adhésion des utilisateurs dans leurs pratiques quotidiennes. Car les revenus considérables de Google proviennent avant tout de sa régie publicitaire qui fonctionne à partir des requêtes faites à son moteur de recherche. Or, c’est bien cette performance remarquable des résultats de Google qui finit par constituer un cadre de pensée et d’orientation quasi indiscutable pour tout utilisateur voire pour les institutions.

Comprendre comment Google parvient à ce succès commercial suppose avant tout de comprendre comment l’orientation dans les savoirs contemporains est désormais entre ses mains, ce qui change tout dans nos cadres collectifs politiques et cognitifs. En l’occurrence, ce n’est pas le numérique en soi qui a joué un rôle décisif mais certains choix techniques et commerciaux d’une firme qui l’ont conduit à devenir dominante en gagnant des parts de marché… ou plutôt d’un marché qui ne dit pas son nom car il se veut service gratuit d’abord et objectif ensuite, c’est-à-dire légitime dans d’autres ordres que ceux des firmes les plus performantes habituellement. On pourrait même ajouter que Google finit par diffuser un modèle de management apparemment horizontal, « cool » et en prise avec des générations les plus jeunes, et par devenir ainsi le parangon de la culture numérique dans l’esprit du public et des investisseurs, au même titre qu’Apple mais avec d’autres atouts. Mais cette extension infinie du domaine de Google repose sur son algorithme et sa fiabilité. Or, cet algorithme constitue à lui seul une politique d’orientation dans les savoirs. Car Google s’est bien gardé de faire de la sémantique, et d’adopter une quelconque politique « ontologique » pour optimiser les réponses qui orientent les internautes. On peut comprendre que toutes les autorités qui avaient construit leur légitimité sur leur pouvoir de hiérarchisation des savoirs se sentent dépossédées d’autant plus que Google ne prétend en aucun cas contester leur compétence et l’excellence de leurs méthodes, puisqu’il procède totalement autrement. Voici donc une troisième politique d’orientation, celle qui repose sur le calcul de la hiérarchie des liens entre pages qui permet d’inférer la pertinence des pages, indexées en permanence et comparées avec les requêtes des internautes.

Les internautes sont apparemment une pièce essentielle du rouage mais seulement sous la forme des masses de clics et de requêtes dont Google peut extraire des scores et des hiérarchies. Mais pourtant, aucune participation réelle, aucun avis, aucune discussion comme on le voit sur Wikipédia ne contribuent à forger ces hiérarchies. Le moteur de recherche de Google n’est pas distribué entre les internautes contributeurs. Il n’est pas non plus techniquement distribué car les quelques fermes de serveurs qu’il a dû répartir dans le monde pour se rapprocher des consommateurs et réduire la latence des réponses après requêtes, fonctionnent toutes comme systèmes centralisés de calcul, ce qui explique d’ailleurs leur consommation d’énergie phénoménale. De ces deux points de vue, Google n’a donc rien à voir avec une certaine « culture numérique », avec cet esprit coopératif et distribué qui a toujours constitué un moteur d’innovation technique et sociale. D’autant moins que cet algorithme tout puissant est secret, protégé par des brevets et que nul ne parvient à savoir exactement la composition des critères de calcul du Page Rank (qui contribue au calcul du Google score attribué à une page ou à un site).

En effet, Google n’est pas seulement obsédé par la vitesse comme le rappelle son PDG Eric Schmidt, pour créer cet effet d’immédiateté qui rend le service indiscutable, il est aussi obsédé par l’objectivité comme nous venons de le dire, c’est-à-dire par l’impossibilité de manipuler ses résultats. Or, toute une industrie est née de ces moteurs de recherche, qu’on appelle « search engine optimization » (SEO) qui permet de vendre des solutions pour remonter dans les Google scores en produisant par exemple du « jus de lien ». En effet, un site très relié sera mieux référencé et aura plus de chance d’être présent sur la première page de résultats à une quelconque requête, car au-delà, les internautes abandonnent leur recherche (la première page draine 69 % des clics, la page 2 11 %, et la page 3 5 % et les 5 premiers résultats drainent à eux seuls 22 % en moyenne mais 36 % pour la première position, selon une étude Synodiance, 2013).

Google modifie donc sans cesse son algorithme pour parvenir à semer ses poursuivants que sont les SEO et autres sites de « content farming » (qui ne produisent pas de contenus en propre mais se contentent de les indexer) et pour ainsi maintenir son statut de hiérarchie « objective ». Google invente ainsi une « objectivité algorithmique » (GILLESPIE, 2012) qui prétend se substituer aux légitimités qui présidaient avant aux hiérarchies dans les savoirs (sciences, médias et institutions politiques principalement). Cette mutation fondamentale n’a jamais été discutée dans aucune arène politique car elle est précisément algorithmique (et à vrai dire commerciale et financière !). Il n’existait pourtant aucune fatalité pour ce dispositif, au sens de Foucault, soit gagnant.

La défaite des annuaires, quatrième politique d’orientation

En effet, la puissance de Google s’est construite contre une autre politique d’orientation qui apparaissait prometteuse dans les années 1990, celle des annuaires. L’opposition moteur-annuaire peut se résumer à ce choix entre s’orienter par mots-clés (les moteurs) ou s’orienter par progression dans des catégories toujours plus fines (les annuaires). Avant le web, le choix existait déjà entre Gopher (un annuaire) et WAIS (une recherche par mots-clés). La bataille s’est transposée sur le web avec l’opposition entre l’annuaire Yahoo et le moteur Alta Vista puis Google. Raymond (2001) a synthétisé cette opposition comme étant celle de la cathédrale et du bazar. Car malgré leur puissance de calcul numérique, les annuaires reposaient massivement sur des experts capables d’explorer un domaine et de le catégoriser de façon logique, ce qui n’était en fait qu’une version numérique de ces ontologies déjà décrites qui reposent sur des autorités analogues à ces cathédrales du christianisme. Les moteurs de recherche faisaient disparaître les étagères car ce sont les liens hypertextes et leur orientation qui créent les scores de hub (un site pointe vers beaucoup d’autres sites, out-degree) ou d’autorité (beaucoup de sites pointent vers un même site, in-degree). Ces scores issus de la scientométrie et de ses études de citations ont été transposés par Kleinberg (1998) au web et à ses liens hypertextes pour produire ces scores qui sont toujours au cœur de l’algorithme de Google. Et cette approche par les moteurs, les mots-clés (les requêtes) et les scores de hub et d’autorité a définitivement gagné la bataille : c’est elle qui gouverne notre orientation dans les savoirs.

Usages des moteurs de recherche et composition des scores de Google
 
Plus de 93 % des requêtes faites sur Google en France, Royaume-Uni, Allemagne et Espagne (AT Internet décembre 2014), et 33 % des utilisateurs emploient le navigateur Chrome (de Google), 78 % Baidu en Chine, 63 % Google aux États-Unis (2014).
 
Indicateurs pour calculer les scores de Google d’après le brevet de 2007 (modifié depuis à plusieurs reprises)
 
● La date du document
● Modification du contenu
● Analyse des requêtes et des clics sur les résultats
● Le critère des liens sur la page
● Le texte des ancres
● Le trafic
● Comportement des visiteurs
● Information sur le nom de domaine
● Les rangs précédents
● Bookmarks
● Mots uniques et ancres
● Liens non pertinents
● Sujet du document
● Enrichi avec filtres de la Sandbox (contre le spamdexing) et Trust Rank

Les scores ainsi calculés par Google sont d’une efficacité redoutable (par leur vitesse et leur volume notamment) parce que Google a choisi d’ignorer toute analyse sémantique pour ne traiter toutes les requêtes que comme des chaînes de caractères. De plus, il n’a construit aucun modèle ni hiérarchie des savoirs, contrairement à Yahoo, il aide les actions les plus élémentaires des internautes (leurs requêtes et leurs clics lorsqu’ils choisissent dans la liste des réponses) à produire ces hiérarchies. Plus massives sont ces requêtes et ces clics, meilleurs sont les résultats. On retrouve cet atout du volume dans les critères de performance du Big Data, qui se passe ici du sens pour produire des approximations suffisamment fines dans les réponses pour qu’elles deviennent pertinentes la plupart du temps. Modèle simple voire simpliste qui reflète bien toute la philosophie de l’Internet, bâti sur des éléments de base recombinables, produisant une robustesse et des formes d’auto-organisation.

Il devient dès lors difficile d’attribuer à Google une responsabilité directe dans cette orientation dans les savoirs puisqu’il fait tout pour que seuls ses algorithmes et les activités des internautes produisent ces hiérarchies. Ce faisant, Google accepte de renforcer une forme de doxa qui serait celle produite par les clics sur les réponses les plus populaires, qui les rendent ainsi plus pertinentes (même si bien d’autres critères doivent être remplis). La confiance attribuée à Google pour s’orienter dans les savoirs ne ferait ainsi que renforcer les lieux communs, placés hauts dans la hiérarchie des savoirs parce que placés dans la liste de Google et parce que leur réputation les a rendus grands parmi le public de masse des internautes.

On comprend dès lors les critiques qui visaient Google parce qu’ils nous rendraient stupides. Là encore, la firme a su répondre en produisant des algorithmes de personnalisation très performants. Puisqu’on lui reproche une orientation dans les savoirs qui favoriserait le suivisme de la masse, elle utilise désormais Hummingbird, un algorithme qui permet d’exploiter les requêtes précédentes d’un internaute (voire sans doute ses autres activités sur son Gmail sans parler de la géolocalisation de son adresse IP qui est désormais standard) pour lui proposer des réponses uniques et à chaque fois différentes de celles des autres internautes. La critique est alors aisée pour montrer que cela revient à réduire l’univers d’exploration du web de chacun à son passé, à ses traces, à son héritage ou à ses habitudes, en l’empêchant dès lors d’être surpris par des rencontres, des découvertes.

Lieux communs ou personnalisation, mais sans politique ni débat

Soit la masse soit les habitudes personnelles, il reste ainsi difficile d’inventer les dispositifs d’orientation dans les savoirs contemporains. Il semble bien que Google oublie deux éléments-clés dans cette orientation : les savoirs supposés communs et leur hiérarchie sont à la fois partagés (ce ne sont pas des habitudes individuelles) et même débattus (ce n’est pas un effet de masse). Cela constitue en réalité la toile de fond de tout espace public et de ce point de vue Google fait tout pour éviter d’assumer cette responsabilité en la déléguant à une objectivité algorithmique. On peut mesurer les choix politiques ainsi effectués lorsqu’on compare avec l’espace contributif créé par Wikipédia : les savoirs sont ordonnés, et cette fois-ci catégorisés par des experts ou quasi experts et en même temps discutés, puisqu’on peut même suivre les traces de cette discussion. Cela suppose toute une procédure de validation et des modes de rétribution et de reconnaissance des différents cercles de membres de Wikipédia déjà évoqués (CARDON et LEVREL, 2009).

Mais la politique d’orientation dans les savoirs y est totalement différente de celle de Google et garde sa place aux contributions explicites (et non aux seuls clics) et aux débats. Il n’est pas anodin que désormais, parmi les premières pages référencées par Google, Wikipédia apparaisse systématiquement en tête sur la liste, ce qui voudrait dire que les internautes eux-mêmes (ou ce que l’algorithme de Google traduit de leur activité) valorisent un site collaboratif qui ordonne les savoirs non plus du tout par les mots-clés seulement mais avec une catégorisation contrôlée par les experts. Retour paradoxal à une hybridation des modèles qui aboutit cependant à une asymétrie de puissance économique considérable.

Pratiques personnelles d’orientation, mode d’emploi

Il est alors possible de dresser le tableau des pratiques plurielles de l’orientation sur le web sans oublier les pratiques les plus ordinaires et les plus émergentes :

– Se créer des habitudes, en produisant « chacun son Web » (grâce à ses bookmarks habituels par exemple). Ce modèle peut être équipé par les algorithmes de personnalisation comme Hummingbird comme nous l’avons indiqué pour transformer le moteur de recherche en moteur d’habitudes. Cela rappellera le régime de la familiarité (du proche) en pragmatique (THEVENOT, 2006).

– À l’inverse, ne pas chercher mais se laisser porter par les liens : le surf et la serendipity peuvent devenir un principe de recherche très productif selon les situations, et parfois à l’insu des internautes qui se perdent dans des liens par goût de l’exploration. Ce régime de l’exploration a d’ailleurs été thématisé par Nicolas Auray (2013) qui l’associe explicitement au numérique et notamment au jeu.

– Chercher dans les catégories d’un annuaire (Yahoo) ou dans Wikipédia constitue une des solutions les plus structurées, opposée à la serendipity mais aussi aux simples requêtes sur des moteurs. On entre alors dans la « Recherche d’Information », qui est théorisée à la fois par l’informatique et les sciences cognitives qui valorisent ainsi un régime d’engagement pragmatique particulier, le régime du plan selon Boltanski et Thévenot (1991), qui est souvent associé aux démarches savantes et aux bibliothèques.

– Saisir des mots clés dans un moteur de recherche est cependant devenu l’activité la plus courante, qui repose sur une confiance gagnée avec le temps et par Google en particulier sur la pertinence des résultats obtenus à partir de requêtes vagues ou mal formulées. Le Page Rank et les Google Scores hiérarchisent les réponses mais d’une façon qui semble associer de la serendipity et de la personnalisation, ce qui permet de trouver toujours par approximation une réponse quasi pertinente (ce qui est très loin des critères de la RI). Cependant, comme nous l’avons vu, les algorithmes des moteurs de recherche valorisent de fait des réponses appuyées sur des sites encyclopédiques comme Wikipédia, ce qui aboutit à une composition nouvelle dans les formes d’orientation.

– Faire confiance à ses amis et à leurs tags (comme sur Delicious) constitue cependant une cinquième pratique d’orientation qui repose sur la « navigation sociale » (DIEBERGER et al., 2000) ou sur ce que nous avions appelé en 1998 une « indexation subjective » : les catégories ordinaires produites (ou folksonomies), comme l’avait bien décrit M. de Certeau (1983), sont tout aussi pertinentes que les catégories savantes et gagnent même à être combinées. Mais cette vertu des contributions ordinaires pour l’orientation s’est désormais démultipliée avec l’apport des réseaux sociaux. Ce ne sont plus seulement les tags centrés sur les contenus qui servent à l’orientation mais les profils eux-mêmes, pour nous conduire vers ce que Zacklad (2005) appelle le « web sociosémantique ». On s’oriente en suivant quelqu’un, expert ou expert ordinaire d’un domaine, sur Twitter, sur son blog, ou en devenant ami avec lui sur Facebook ou sur LinkedIn. D’autres prises sur le monde des savoirs sont ainsi offertes qui peuvent fort bien se réduire à des effets de réputation assez voisins de ceux critiqués à propos de l’algorithme de Google car cette loi de l’opinion semble s’imposer partout dans les réseaux numériques.

Cependant, s’introduisent ici des effets de leaders d’opinion d’un genre nouveau, car ceux qui font le buzz ne sont plus les leaders institués ou les experts mais d’autres qui savent donner les avis qui comptent au bon moment et dans le bon format. Ainsi le web social et les profils contribuent à créer de nouveaux médiateurs qui déstabilisent les autorités instituées comme le font les moteurs de recherche. Les médiateurs en question ne sont d’ailleurs pas nécessairement des personnes dans toute leur diversité mais bien une dimension de leurs intérêts déclarés dans leurs profils qui les rendent attractifs (leur métier, leur expérience, leur goût spécifique, etc.). Car leurs parties sont bien plus grandes que leur tout comme le rappellent LATOUR et al. (2012) qui font référence à cette question des profils. Il devient alors possible de « matcher » ces attributs de leurs profils avec ceux d’autres identiques, opposés ou complémentaires pour produire d’autres principes d’orientation. Les réseaux de rencontre ont su mettre en œuvre de façon très efficace ces potentiels des attributs des profils et du matching.

L’époque du (Big) data mining

Une autre stratégie d’orientation, pour l’instant réservée aux professionnels ou aux chercheurs, se fait jour cependant. Elle constitue une forme de métanavigation et se désigne souvent sous le terme de « data mining », qui a pris depuis quelques années une ampleur considérable pour devenir le Big Data. La fouille de données débouche souvent sur de l’extraction de connaissances qui peuvent avoir des statuts très différents, depuis la veille concurrentielle jusqu’au CRM (Consumer Relationship Management) qui permet de suivre les traces des activités des clients pour y adapter des offres pertinentes. L’extraction de connaissances dans des ensembles de données structurées comme des bases de données scientifiques ou des bases privées à accès contrôlé (ce qu’on appelle le Deep Web) peut exploiter une structuration en ontologies, fréquente dans ces univers disciplinés. Ce n’est pas le cas pour les informations non structurées telles qu’on peut les recueillir sur le web ouvert que pratiquent les internautes ordinaires et dont on peut extraire quantité d’informations, de traces et de connaissances lorsqu’on dispose des outils et des architectures adaptées (certains services le permettent de façon systématique avec des UIMA, Unstructured Information Management Infrastructure).

Nous verrons dans la partie sur les enjeux pour les sciences sociales que toutes les méthodes proposées par les techniques de Big Data et principalement le « machine learning » constituent des remises en cause parfois radicales du rôle des sciences sociales mais aussi des remises en cause des formes de raisonnement par causalité au profit d’approximations obtenues par des méthodes de corrélation massives. Le changement d’échelle, comme le disait Mc Luhan (1968), suffit à produire un nouvel état de l’orientation dans les connaissances qui peut même affecter la domination d’un mode de raisonnement, comme l’affirmait Chris Anderson (2008) qui annonce « la fin de la théorie ».

Des approches intermédiaires peuvent offrir des solutions de visualisation des réseaux et plus largement des datascapes du web (des paysages de données) qui sont désormais utilisables aussi par des non-experts. Les topologies du web (dont KLEINBERG, 2001, a établi les fondements) sont en effet générées par des logiciels de calcul de graphes (ex. : Gephi) à partir de moissonnage de données et de liens (avec des robots comme IssueCrawler). La visualisation des liens selon leurs scores (in-degree et out-degree ainsi que betweenness centrality notamment) reprend des classiques des analyses de réseaux comme nous l’avons dit (Burt, Granovetter, White, etc.) pour les mettre à disposition des internautes sous forme dynamique : les internautes peuvent explorer un cluster après un autre, et repérer des associations (dites parfois communautés) imprévues ou éclairantes sur un problème particulier. Malgré la faiblesse de la culture visuelle et de la formation à ces méthodes, il est probable que des interfaces standards et des conventions vont se stabiliser qui permettront de reconnaître les informations pertinentes et de s’orienter dans des images de graphes comme les lecteurs ordinaires de la presse ont appris à le faire avec des courbes et des histogrammes, au prix de malentendus qui restent encore fréquents (BOULLIER et LEVY, 2016).

L’attente d’une forme d’immédiateté de la donnée (« les chiffres parlent d’eux-mêmes ») reste difficile à combattre mais peut être dépassée par ces visualisations dynamiques qui permettent de faire des choix en tant que lecteur et de voir les effets sur les résultats, dans un apprentissage constructiviste de bon aloi.

Éducation numérique

Lire des listes, des tableaux, des cartes suppose un apprentissage élémentaire mais lire un programme, une base de données ou des réseaux constitue un effort bien plus grand car ce sont des conventions précédemment ancrées qu’il faut déstabiliser voire désapprendre pour percevoir et manipuler mais aussi pour s’orienter dans les savoirs. Il ne suffit pas de se reposer sur la qualité du design et de l’ergonomie, depuis les interfaces « user-friendly » des années 1990 jusqu’à la « user experience » des années 2010. Les sciences sociales se sont peu intéressées aux enjeux d’appropriation de type ergonomique car leurs outils d’exploration sont souvent inadaptés à première vue et pourtant les travaux de L. Suchman (1987) sur la cognition située ont permis de relier étroitement activité de manipulation et activité sociale. L. Thévenot, B. Conein et C. Licoppe notamment ont produit une version pragmatique de cette sociologie cognitive qui s’intéresse à ces ajustements fins en situation. Plusieurs régimes d’engagement ont été mis en évidence qui ont toute leur pertinence dans le contexte numérique comme nous l’avons vu précédemment.

La place des objets, largement mise en avant par la théorie de l’acteur-réseau, a elle aussi été reconsidérée en combinant bien les différentes médiations, sans se laisser fasciner par la transparence, l’immédiateté et l’intuition sans cesse vantées par les promoteurs des technologies qui oublient rapidement tout le travail d’apprentissage caché et surtout de désapprentissage nécessaire pour ces appropriations. Les situations de travail décrites par C. Licoppe (2008) et les savoir-faire de multi-activité qui apparaissent exigent des apprentissages qui ne sont pas toujours formalisés mais qui changent les façons de travailler et de penser. Ainsi, cette multi-activité est souvent considérée comme catastrophique pour les tenants d’une forme de centrage sur une tâche unique notamment pour les apprenants. Or, C. Licoppe montre bien aussi ce qui est gagné dans cette capacité à exploiter des ressources et des canaux différents, à savoir une veille à plusieurs niveaux qui était déjà observable dans nombre de postes de travail non numériques (l’attention périphérique que des ethnométhodologues (HEATH et al., 2000) ont étudiée) mais qui se trouve amplifiée et est devenue indispensable pour des internautes ordinaires.

Ce couplage des corps engagés dans l’action avec les dispositifs techniques qui les équipent constitue une des clés d’une appropriation satisfaisante et les sciences sociales ne peuvent ignorer ces enjeux, sous peine d’en rester à des généralités critiques ou enthousiastes. Repérer notamment les modes de constitution de ces couplages, par des apprentissages formels, par des entraides, par des expériences parfois douloureuses (échecs, pannes) ou par des habitudes gagnées avec le temps, constitue une tâche indispensable pour comprendre comment l’orientation dans les savoirs est désormais couplée avec l’action, avec une action équipée, et équipée par des dispositifs qui formatent les façons de faire et de penser.

Au-delà de ces micro-apprentissages et ajustements, l’éducation représente un enjeu essentiel pour mesurer la transformation numérique en cours. De nombreuses disciplines s’y consacrent depuis des décennies, pour tous les âges, pour tous les métiers ou domaines de connaissance. Tout s’est passé jusqu’ici comme si les techniques numériques pouvaient constituer soit un domaine à part réservé à quelques formations d’ingénieurs ou de techniciens, soit un équipement de base équivalent à un mode d’écriture plus performant. Le code comme savoir-faire central, la remise en cause radicale de la pédagogie et du rôle de l’enseignant et des apprenants, ou encore la déstabilisation des frontières entre savoirs étaient certes portés par quelques innovateurs mais n’avaient jamais atteint les systèmes éducatifs en profondeur. Il semble que les temps soient mûrs pour cela, en raison avant tout de l’arrivée de nouveaux entrants qui sont prêts à déstabiliser tous les principes de diffusion et d’appropriation des connaissances à leur profit.

Des âges de l’éducation numérique

Les années 1980 et 90 furent ainsi des années d’équipement progressif des établissements d’enseignement depuis la micro-informatique du « plan informatique pour tous » en France en 1985 jusqu’aux tableaux interactifs et aux tablettes distribuées par les conseils généraux dans les collèges des années 2010 en passant par tous les avatars du cartable électronique des années 2000. L’absence de compréhension des enjeux du numérique se lisait bien dans cette course aux équipements, certes visibles et valorisables par le politique, mais à peu près inutiles sans un long processus de formation des enseignants, de changements de méthodes pédagogiques, de production de ressources adaptées et de compréhension de ce qui devenait possible pour les apprentissages. De même, pour l’enseignement supérieur, le développement du e-learning de la fin des années 1990 a été suivi voire remplacé par celui des Universités Numériques Thématiques (UNT) en France au milieu des années 2000 puis par celui des MOOC depuis 2012. Dans cette lignée cependant, se construit une accumulation de savoir-faire qui peuvent petit à petit se combiner :

– systèmes de LMS à partir du e-learning. Les Learning Management Systems comme Moodle permettent d’organiser le suivi personnalisé d’une promotion, étudiant par étudiant, les aspects administratifs, les travaux et les contenus étant structurés sur la même plate-forme,

– productions de contenus multimédias avec les UNT : corpus de documents, de parcours, domaine par domaine, avec des médias riches en vidéos et en visualisation, mutualisables entre établissements,

– diffusion de masse avec format commun pour les MOOC : plates-formes performantes pour traiter des milliers de connexions simultanées à haut débit pour des contenus faits de vidéos, de quiz et de forums, selon des scénarios et des interfaces standardisés.

Chacun de ces maillons constitue ainsi une base pour une rénovation pédagogique qui, à tous les niveaux de formation, se fait attendre cependant et particulièrement en France. Mais ces mêmes briques technologiques peuvent être exploitées pour maintenir une tradition du cours face-à-face, unidirectionnel, seulement agrémenté par quelques ornementations participatives de-ci de-là. Nombreux sont les travaux qui se contentent de suivre à la trace les usages de ces nouveaux outils, génération après génération et mode après mode, sans apporter autre chose qu’un verdict sur les retards comparés entre pays, régions, groupes sociaux, etc. dans le sens de cette supposée « fracture numérique » qui n’apprend rien. Des outils plus ordinaires et pourtant diffusés massivement dans l’enseignement passent ainsi sous le radar, comme c’est le cas pour Powerpoint, qui a modifié considérablement les présentations et les modes attentionnels, pour le pire et pour le meilleur, mais qui mérite en tout cas d’être étudié et considéré comme l’un des supports essentiels de la mutation numérique des apprentissages, ainsi que le montre V. Beaudoin (2008) dans le contexte professionnel.

À l’opposé de ces travaux nécessaires sur les pratiques les plus ordinaires et les plus diffusées (dans la lignée des approches pragmatiques et de cognition située déjà évoquées), il manque encore souvent de travaux qui mettent en perspective les mutations des structures mêmes de l’éducation au niveau mondial provoquées par le numérique mais surtout par de nouveaux entrants puissamment équipés par le numérique. Les travaux de P. Moeglin (2010) le font cependant depuis longtemps et rendent compte de ces évolutions en termes « d’industries éducatives » ce qui dit bien la division du travail et l’apparition de nouveaux entrants au moment de l’émergence de ces nouveaux formats. Malgré la tendance très nette à un effet « techno-push », des innovations pédagogiques réelles sont proposées dans certains pays ou certains établissements, telles que les xMOOC (ou Mooc connexionnistes qu’avaient initiés les Québecois en 2008).

Le pluralisme des politiques éducatives à travers les plates-formes numériques

Plusieurs politiques des apprentissages numérisés sont en effet disponibles mais aussi en conflit. Pour résumer rapidement cet état des lieux en se limitant à l’enseignement supérieur (RAFFAGHELLI et al., 2015), les plates-formes des MOOC constituent le front avancé de la prédation des contenus et des expertises des universités par des entités (plates-formes) qui visent à centraliser tous les accès à des blocs de savoirs déjà constitués, peu sujets à discussion et reproductibles à faible coût marginal (c’est-à-dire sans encadrement pédagogique personnalisé) (BOULLIER, 2014). Les enseignements ainsi dispensés deviennent des labels validés sous formes de certificats aisément repérables par les recruteurs car reposant sur la réputation des marques des grandes universités puis des plates-formes (Coursera, Udacity et EdX sont les plus connues à l’échelle mondiale, cf. POMEROL et al., 2014) qui visent à capter cette réputation. La remise en cause des diplômes est ainsi engagée, ces formations associant des contenus variés utiles professionnellement mais aussi nécessaires pour l’honnête homme pour des objectifs personnels, citoyens et de long terme. Le contexte économique de financiarisation des formations et d’endettement massif des étudiants que l’on connaît aux États-Unis explique en grande partie cette tendance mais s’étend partout dans le monde sous la pression de politiques libérales de réduction des dépenses publiques.

Cette mutation n’est donc pas provoquée par le numérique, le numérique est capté par les dynamiques capitalistiques actuelles pour pousser à une financiarisation de l’enseignement supérieur avant de pouvoir s’attaquer aux autres niveaux. Et cela suppose une certaine organisation des savoirs : des savoirs bien formatés, aisément découpés en éléments recombinables, à coût marginal nul, supposés univoques quels que soient les pays, les cultures ou les métiers, et mis en scène pour une captation d’une durée d’attention brève ou tout au moins segmentée en unités brèves, pour rester compatibles avec les exigences d’audience. Mais cette politique ne constitue qu’un des possibles comme le montrent les MOOC connexionnistes (MOEGLIN, 2014) qui s’inspirent de théories de l’apprentissage du XXe siècle comme celle de Vygotski (1985). Ici, c’est la position active et collaborative de l’apprenant qui prétend favoriser l’appropriation des connaissances, qui ne sont plus des « savoirs en boite » mais bien des connaissances en action et en collectif. Les qualités multimédias des supports sont les bienvenues sans nul doute mais les plates-formes doivent avant tout valoriser les qualités coopératives avec des forums évolués, des activités collectives créatives sans rapport avec des quiz, un accompagnement par les pairs et par les tuteurs qui assure le soutien dans les phases de décrochage toujours très fréquentes dans l’enseignement en ligne.

Des visées pédagogiques différentes, pour des valeurs différentes s’appuient ainsi sur une structuration des connaissances différente et des techniques de plates-formes différentes. La difficulté à préserver le pluralisme de ces offres pédagogiques n’est pas le fait du numérique, qui permet tous ces choix différents, mais bien des captations de ses ressources par quelques entrants puissamment financés qui captent l’attention et les peurs de tous les décideurs qui s’empressent de suivre les leaders autoproclamés que sont les plates-formes, américaines en l’occurrence. Le processus des plates-formes et de centralisation de fait des réseaux numériques déjà observé avec Google est donc encore en train de se rejouer et c’est lui qui dessine une sub-politique des savoirs, que personne n’a délibérément choisie mais qui devient à chaque fois plus difficile à réviser, car les investissements comme les audiences s’installent durablement. Dans cette affaire, il est certain que les médiateurs institués des savoirs que sont les enseignants et leurs institutions peuvent se faire du souci car ces métiers sont déjà mis en cause par ces nouveaux entrants comme c’est le cas dans tous les secteurs. Les positions défensives souvent adoptées pour préserver les situations acquises sont condamnées à l’impuissance face à la force de frappe et de séduction de ces nouvelles offres.

À l’opposé, la focalisation sur la mise en place d’une nouvelle matière que serait le code ou tout au moins l’algorithmique ne remet pas en cause les modèles pédagogiques si elle se traduit par la diffusion de masse de recettes et de procédures comme le font souvent les MOOC informatiques.

En revanche, l’esprit et la culture numérique, celle des hackers et du logiciel libre, peuvent constituer les bases d’un nouveau modèle de formation. La culture projet, la formation par l’immersion dans la conception de services ou de logiciels, la participation à des hackathons ou des bar camps, les partages de connaissances et de compétences sur des plates-formes de l’économie collaborative, toutes ces méthodes privilégient l’action et l’exploration par rapport aux concepts, le collectif contre l’individuel, les savoirs complexes contre les disciplines, la créativité contre la mémoire et la répétition. Cette effervescence possède au moins une vertu : apprendre à apprendre en situation d’incertitude puisque le numérique offre au moins cette certitude, la disqualification rapide des savoirs anciens ou tout au moins leur moindre pertinence pour éclairer l’avenir. Ce ne sont plus les institutions ni les médiateurs qui sont ici questionnés mais la possibilité même d’apprentissages durables qui sont toujours un pari sur l’avenir.

Écrire/publier

La remise en cause des médiateurs de l’éducation ne fait que suivre celle qui a atteint bien plus sévèrement les professions établies des journalistes, des éditeurs, des médias et des industries culturelles en général. Les évolutions techniques semblent parfois décisives dans cette mutation mais là encore ce sont avant tout leur mise en forme organisationnelle et économique qui donne l’orientation précise du changement. Ainsi, la prolifération des blogs a été permise par l’offre de plates-formes de publication, aussi diverses que Wordpress ou Skyblog, exploitant les principes des CMS. Leur suivi possible via des flux RSS a créé les conditions d’une captation d’audience. Lorsque le micro-blogging, comme on appelait Twitter à ses débuts, s’est développé, les principes du suivi par des « followers » ont été institués et ont produit une réputation toute nouvelle pour des auteurs qui s’ignoraient.

Pourtant, ce n’est pas cette prolifération des auteurs qui a vraiment déstabilisé les journaux en premier. Ce sont avant tout les succès des petites annonces de Craigslist qui ont menacé les journaux américains, qui ont perdu ainsi une source de revenus essentielle et qui restaient pourtant masqués par l’affichage des ambitions éditoriales et de contenus supposés attractifs. Le modèle économique des journaux était fragile et jouait sur la combinaison de fonctions (service annonces et publication de contenus) qui masquait l’impossibilité de faire financer les contenus en tant que tels pour équilibrer un journal. Plus généralement, le financement de l’Internet par la publicité depuis que le réseau a quitté le giron de la NSF en 1995, a produit une concurrence féroce pour attirer ces budgets des marques sur des supports toujours plus nombreux, notamment depuis que les réseaux sociaux ont pris leur essor à partir de 2005.

Les oppositions stéréotypées entre nouveaux médias et anciens médias ont cependant été largement remises en cause par l’observation de leur combinaison voire de leur coopération dans un écosystème que Y. Benkler (2006) a désigné sous le nom de « attention backbone », la colonne vertébrale de l’attention. Les médias de masse traditionnels (et notamment la télévision qui reste insubmersible en matière d’audience) reprennent des blogs et des tweets pour amorcer leur traitement de l’actualité et ces derniers font une large place à la citation des médias sous diverses formes dans leurs posts. Ce chaînage permet à Benkler de rappeler que « everyone a pamphleter » n’est pas un slogan aussi aisé à vérifier à l’observation. Rebillard (2012) a examiné en détail cette question de la place d’Internet dans la chaîne d’information, du point de vue du pluralisme, renforcé ou non, des médias et des opinions, qui sont deux questions différentes, sans oublier la diversité sociale représentée dans les médias (MACE, 2013). Le bilan de l’enquête conduite autour de 2010 (MARTY et al., 2012) est résumé de la façon suivante : « La multiplication des sites est certes synonyme de redondance de l’information, mais elle ouvre aussi des espaces pour des nouvelles plus originales. Les sites moteurs du “matraquage médiatique” sont principalement les infomédiaires, et les médias en ligne dans une moindre mesure, tandis que certains blogs et sites natifs de l’Internet sont plutôt les artisans de l’originalité éditoriale. »

On mesure ainsi la parenté avec le principe des oligopoles à frange de toute l’industrie culturelle, où la diversité et la création sont générées à la périphérie des grands majors. La diversité des offres rejoint et entretient ou non la diversité des modes attentionnels du public, sur lesquels nous reviendrons à la fin de ce chapitre.

L’information proliférante et en temps réel

La presse et les médias en général sont contraints à une réorganisation sévère comme l’a montré le début des fermetures de journaux aux États-Unis dès lors que les petites annonces étaient proposées par Craigslist : il est alors apparu que le modèle économique des médias n’était pas directement lié à la qualité des contenus qu’ils proposaient et à la capacité à capter l’attention des publics mais bien à des services annexes mais rémunérateurs, comme les petites annonces, la publicité ou même… les obsèques. Un modèle d’orientation dans les savoirs et de contribution à la vitalité de l’espace public était en réalité fondé sur une autre transaction qui s’est trouvée attaquée par de nouveaux entrants. Pire encore, de nouveaux entrants producteurs de contenus concurrents ont fait leur apparition, des pure players, fournissant uniquement des contenus et des services en ligne et évitant ainsi les charges de la fabrication et de la diffusion sur d’autres supports. Il est même possible de considérer les lecteurs eux-mêmes comme de nouveaux entrants, car leur faible contribution sous forme de « courrier des lecteurs » a été remplacée par une production massive de commentaires, de blogs, de posts dans les réseaux sociaux, etc. Face à une telle prolifération de sources d’information, l’espoir s’est maintenu de jouer encore de l’autorité des médias pour orienter l’attention du public et fournir les grilles de lecture nécessaire. Mais force fut de constater que les services numériques nouveaux ne permettaient pas de compenser les pertes des recettes de la presse papier ou des médias en général aussi rapidement que prévu.

L’étude de ces bouleversements a été faite par Pablo Boczkowski (2004, 2010) ou encore Alice Antheaume (2013), en prenant le parti pris de comprendre de l’intérieur les transformations du travail des journalistes. Leurs observations montrent que les journalistes tentent de garder cette distance et cette capacité d’analyse qui a fait leur réputation mais se sentent de plus en plus sous pression du temps réel. Une division du travail s’installe entre ce temps réel « chaud », fort bien équipé et amplifié par Twitter, le temps « tiède », de l’actualité éclairée et le temps « froid » des enquêtes de longue durée et des dossiers. Ce temps froid trouve aussi un renfort grâce au numérique et à cette absence de contrainte de longueur qui était le propre des journaux papier notamment (au point de promouvoir désormais un « slow web » parfois, et d’atteindre aussi une prolifération de liens difficilement gérable).

Cependant, ce temps réel se traduit, comme le montre Alice Antheaume, par un changement de posture du journaliste. Son travail de veille devient considérable jusqu’à nécessiter le suivi de 1 000 comptes Twitter en permanence, la présence sur le « live » sur les sites de presse comme sur Facebook devient impérative dès qu’un événement capte l’attention, la course à la primeur de l’annonce constitue désormais un critère de qualité (« Tweet first, verify later ») qui déclasse tout le reste en « old ». On le voit, la mise en forme des connaissances produite par ces conditions de production n’est pas anodine, en particulier dans le domaine de l’information supposée contribuer à la construction de l’opinion publique et à la vie démocratique. Les promesses du « data journalism » ne sont pas négligeables mais elles se limitent souvent pour l’instant à un « fact checking » qui doit lui aussi répondre dans l’urgence face à toutes les annonces des politiques ou d’autres responsables. Mais, comme le dit Alice Antheaume, la posture du journaliste est aussi affectée par la possibilité de connaître son audience, et cela en temps réel, avec les tableaux de suivi analytique ouverts en permanence sur l’activité du site et sur la performance de chaque post.

S’adapter aux contraintes des moteurs de recherche pour assurer la meilleure visibilité de sa publication fait partie désormais d’une seconde nature qui modifie l’écriture elle-même, sa titraille, ses liens, le nombre de mots liés à la thématique, etc., toutes contraintes que les SEO (Search Engine Optimizer) savent prendre en compte. Entre temps réel et adaptation aux publics et aux contraintes de visibilité fixée par les moteurs et surtout Google en Europe, le temps n’est plus éloigné (et en partie déjà arrivé) où des algorithmes pourront repérer les sujets porteurs et les adapter à l’audience du journal en sélectionnant les termes les plus pertinents pour les moteurs de recherche. A. Antheaume (2013) utilise l’expression suivante qui vaut programme de recherche très tardien : « À l’ère numérique, ce sont les informations qui trouvent les lecteurs plutôt que l’inverse » (p. 43). Ce qui devrait modifier à terme considérablement les programmes de recherche en sciences sociales qui tentent de comprendre la réception.

Josiane Jouët et Rémy Rieffel (2013) ont tenté de garder le cap sur les lecteurs ou les récepteurs et leurs pratiques, comme l’avait fait A. Vitalis deux décennies avant (1994), en rendant compte d’une enquête importante Médiapolis (2008-2010) qui permettait de combiner enfin tous les supports médiatiques, dont Internet, dans l’analyse des pratiques informationnelles des Français. T. Vedel (2011) a dirigé une enquête quantitative sur ce sujet dans le cadre du même programme où il apparaissait que la télévision et la radio restent les sources d’information dominantes en 2010. L’âge, le niveau d’études mais aussi le degré d’engagement dans l’activité politique permettent de rendre compte des écarts dans ces pratiques. Mais les auteurs proposent une typologie des pratiques assez éclairante du point de l’orientation dans les savoirs. Ils distinguent des pratiques unimodales (la télévision dans les classes populaires, Internet chez les moins de 34 ans), une pratique bimodale (presse + télévision) plus fréquente dans les populations âgées, et une pratique multimodale (presse, Internet, tous autres médias) dans les catégories les plus diplômées. Les enquêtes régulières du Pew Research Center confirment ces profils. On peut ainsi mesurer que les publics captés par chacune des sources d’information sont en réalité dans une configuration médiatique toujours particulière et d’autant plus ouverte que le numérique peut y trouver sa place.

Dès lors, les modalités attentionnelles déjà repérées sont aussi observées dans cette enquête mais variables selon les supports : le zapping (pour les médias mais aussi pour les agrégateurs d’information), la recherche opportuniste (en sérendipité en partie), ou la consultation approfondie (qui a toujours sa place notamment sur Internet). Dans tous les cas, tous les travaux que rassemblent J. Jouët et R. Reiffel, en France ou à l’étranger (comme l’ont fait F. Granjon et A. Le Foulgoc (2011) de leur côté), indiquent bien le nécessaire abandon du modèle habermassien de l’espace public très délibératif face à la prolifération des espaces de conversation et d’expression. Ce que fait le numérique en propre dans cette chaîne de production et de réception de l’information est pour l’instant encore une ouverture et une amplification des possibles assez variés mais certaines des tendances observées (temps réel, prolifération, centrage audience) indiquent que quelques-unes gagnent plus nettement avec les risques que cela peut comporter sur l’espace partagé de connaissances.

Nous avons évoqué dans les approches économiques les enjeux de l’édition électronique (en dehors de la presse) et des mutations qu’elle doit affronter. Les pratiques de lecture et d’orientations dans ces savoirs (SOUCHIER et al., 2003) publiés sur imprimé ou en numérique mais accessibles en ligne dans les deux cas, voient quantité d’expériences, de tentatives, d’essais-erreurs, sur les terminaux (tablettes ou phablettes, téléphones-tablettes ?) ou sur les formats : le livre numérique (BENHAMOU, 2014) reste largement homothétique, c’est-à-dire qu’il reproduit les propriétés de l’imprimé au point de simuler le bruit de la page qui se tourne, alors qu’il est déjà possible d’inventer non seulement un livre multimédia mais en même temps une nouvelle forme d’écriture pour les créateurs (BOULLIER, 2011) qui peut conduire les humanités à la « dé-livrance » comme le proposent Vinck et Clivaz (2014). C’est aussi ce que F. Kaplan (2012) propose en annonçant la transformation du livre en machine.

Les formats

Il est un point commun à toutes les industries culturelles qui mérite une investigation particulière car il est au cœur de l’économie de l’attention qui nous gouverne. L’orientation dans les savoirs dépend largement des formats qui permettent l’accès à ces contenus. Or, ces formats sont tous issus d’une histoire dans la longue durée, car il faut que les conventions de lecture se construisent dans la longue durée en miroir des conventions d’écriture. Ce principe est valable dans tous les domaines de production de contenus culturels. Et le numérique a tendance à proposer une révision de tous ces formats qui prend appui sur le caractère décomposable du code informatique qui met en forme tous les contenus, décomposable mais aussi recomposable à volonté par l’effet de standards ou de normes qui assurent l’interopérabilité. Bolter et Grusin (2001) avaient appelé ce processus à la fois technique, social et sémiotique, la « remédiation » dans un ouvrage du même nom et ce terme nous parait très juste car il prend au sérieux le pouvoir d’agir de chacune de ces médiations. Prenons l’histoire des formats musicaux, largement documentée, notamment par Tournés (2008) et Flichy (1991).

Nous ne reviendrons pas sur l’histoire pré-numérique que nous avons déjà présentée dans le chapitre historique. Le numérique a semblé pendant un temps maintenir la dualité des formats entre longue durée (les albums 33 tours) et courte durée (les singles 45 tours). Le CD à gravure laser agrège des morceaux courts, mais malgré cette force et ce succès du CD, considéré comme le format de longue vie, l’effondrement du chiffre d’affaires de 50 % entre 2002 et 2007 va marquer les esprits dans toutes les industries culturelles. Cette faillite est le prototype de ce que toutes les autres industries de contenus et les institutions culturelles peuvent désormais craindre (BENHAMOU, 2011). Que s’est-il passé ? Nous l’avons déjà indiqué précédemment, toute la faute sera attribuée au MP3. En fait, ce n’est pas là non plus le numérique qui est en cause (le CD était aussi numérique) mais un changement radical de médiateurs, de plates-formes et de formats.

En effet, Napster, lancé en 1999 et fermé en 2001, inaugure l’ère des téléchargements massifs qui s’étendent désormais à tous les biens culturels. Les plates-formes deviennent dans ce cas des médiateurs très modestes qui s’effacent au profit de la « foule » des internautes. Mais ce faisant, elles changent la nature des formats qui circulent : les albums qui faisaient la loi pour la diffusion des CD sont remplacés par les morceaux de quelques minutes (l’ancien format défini par le gramophone et la radio à la fois) qui circulent plus vite et sont largement diffusés sur les radios, qui bouclent ainsi cet « attention backbone ». Seul Apple, un nouvel entrant, réagit rapidement en 2003 avec iTunes qui change la donne radicalement et lui permet d’étendre son influence dans l’industrie musicale à partir de son point d’entrée original qu’était le terminal iPod. La plate-forme iTunes présente une innovation qui va devenir le standard pour tout le marché, le micropaiement au morceau (et non plus à l’album) et à un prix acceptable (0,99 cts le morceau). Le format change tout, tant du point de vue l’attention, de la circulation et de la monétisation, dès lors qu’on adapte la plate-forme pour cela et non pour continuer à vendre un format d’album obsolète où le consommateur avait vite compris que les deux tiers des morceaux étaient de moindre qualité par rapport aux titres phares. Depuis, les majors ont dû accepter les conditions d’Apple qui doit lui-même absorber désormais le choc d’un nouveau mode de diffusion, le streaming, porté par Spotify et Deezer notamment.

Car l’innovation numérique n’a pas de fin, rappelons-le et la partie n’est jamais terminée. Mieux même, d’anciens formats peuvent revivre, car au fond, le streaming reproduit la radio, sur un mode personnalisé en playlists de son choix. Tout ce processus a certes reposé sur une production de normes internationales avec des groupes d’experts (le « format » MP3) qui permet à la fois la compression avec des compromis sur la qualité, l’exploitation de métadonnées, et ainsi la description pour la recherche et enfin l’interopérabilité entre supports avec des niveaux de résolution différents mais avec la même source de travail (« edit once, publish many »). Mais les formats cognitifs et commerciaux sont, eux, issus d’une histoire plus longue et plus conflictuelle qui produit les conventions qui vont affecter en profondeur les comportements. Notons cependant que dans ce processus, les utilisateurs ordinaires ou les geeks ont joué un rôle non négligeable par les plates-formes de téléchargement qu’ils ont installées et approvisionnées. Ce changement constitue un point de non-retour dans toutes les politiques des formats. Le rôle des lecteurs, auditeurs, spectateurs, etc. est désormais incontournable pour l’orientation, pour la production, pour la diffusion et pour la recombinaison.

À la lumière de cette histoire, il devient aisé de mieux comprendre ce qui est arrivé aux journaux, les plus fragiles des médias. Les formats socio-techniques sont des conventions et celle du journal constituait une transaction à double fond. Comme nous l’avons rappelé, le journal attirait des lecteurs pour ses petites annonces et ses pages de sports et ne prétendait se valoriser que par les contenus d’actualité qui légitimait son rôle dans l’espace public et justifiait éventuellement les subventions de l’État pour sa survie en France. Or, le format même du journal constituait un choix très réducteur de l’actualité qui était le travail éditorial assumé et même valorisé par les journalistes et les autres institutions. Ce qui revient au constat fait pour la diffusion de la musique : on contraint le public à acheter non seulement plus que ce qu’il veut mais de plus en le sélectionnant de façon arbitraire. C. Anderson (2006) citait un humoriste qui plaisantait sur ce phénomène étonnant : « le nombre d’événements du monde correspond exactement à la taille d’un journal ». Le journal est en effet un agrégat forcé contraint par la taille même du format technique. Cela présente l’avantage de créer une convention qui fait habitude pour le lecteur qui sait ainsi s’orienter et qui bénéficie de ce travail de sélection préalable par des médiateurs.

Tous les supports comportent ces limites et ces découpages arbitraires comme les morceaux d’un album, les chapitres d’un livre, les plans-séquences d’un film. La convention permet de naviguer dans cet univers pré-arrangé à l’aide des numéros de page de l’imprimé et de la table des matières, des numéros de morceaux ou de chapitres de films. Tous ces composants organisent l’expérience des utilisateurs à travers cette combinaison esthétique/technique/réseau de diffusion sociale/modèle économique/droit/régime cognitif d’attention (LE GUERN, 2011). Lorsqu’une convention s’installe, après un investissement de forme parfois considérable, disparaît alors tout l’alignement de médiations (HENNION, 1993) qu’il a fallu réaliser.

L’extension des formats courts

Or, avec le numérique, tout se passe comme si l’on ne cessait d’expérimenter la décomposition de ces conventions, pour tester plusieurs possibilités, sans garantie aucune mais aussi sans processus de formation disciplinaire qu’on avait pu exploiter pour le livre, grâce à l’école notamment. Cela n’est pas sans rappeler la critique de Bourdieu (1996) vis-à-vis de la télévision déjà évoquée, qui était une critique du format réduit des émissions qui empêchait de développer des arguments sur le mode scientifique. Il en avait administré le contre-exemple en produisant des vidéos de deux heures face caméra, considérant que ce mode asymétrique, univoque et de longue durée était le seul susceptible de servir la cause de ses arguments. En réalité, il défendait le format du cours magistral discipliné de l’école face au format télévisuel porté par de nouveaux médiateurs, les journalistes, qui prenaient la place des intellectuels dans l’espace public. Il avait cependant raison de mettre en cause la tendance au monopole d’un seul format, celui de l’émission de télé, alors que l’extension du débat public devrait favoriser le pluralisme des formats, des plus longs aux plus courts, des plus asymétriques aux plus coopératifs, par exemple. Or, Bourdieu se serait sans doute étranglé en observant l’extension permanente des formats courts dans tous les domaines culturels, formats beaucoup plus courts que ceux de la télévision qu’il connaissait et critiquait.

On pourrait ainsi tracer une ligne d’évolution parallèle dans tous les supports culturels : le CD album est passé au morceau puis à la sonnerie de téléphone qui, pendant plus de 5 ans, a généré la plus grande partie des revenus des majors de la musique, rappelons-le. Le journal s’est réduit à un flash info et à la dépêche d’agence puis au tweet. Le livre s’est standardisé pour proposer, en sciences sociales par exemple, des formats courts en 128 pages, qui se résument en quatrième de couverture utilisées sur les sites de vente, puis en citations voire même en avis sommaires de lecteurs. L’émission de TV elle-même s’est réduite au « spot », au « flash » et au « clip » que les chaînes permanentes accumulent ainsi qu’aux séries courtes humoristiques. Les films se font une réputation à travers leurs trailers (bandes annonces) qui circulent sur YouTube, les sites web se sont réduits à des blogs qui eux-mêmes sont devenus du « microblogging » (Twitter), et les jeux vidéo, pour toucher un nouveau public, ont dû se transformer en « casual games » qui sur téléphone sont devenus des jeux de patience comme Candy Crush, avec des engagements de l’attention très courts mais répétés.

Voilà en effet la clé de toute cette transformation : la rareté de l’attention et la compétition pour la capter entraînent une transformation des formats orientés vers le court. Il est alors difficile de parler de société de connaissance, mais bien plutôt de société de connivence, où l’on donne des signes de re-connaissance, d’alerte à partir de saillances cognitives déjà repérées. Nous reviendrons plus longuement sur ces enjeux dans notre conclusion car ce sont bien des régimes d’attention nouveaux qui émergent et qui déstabilisent les médiateurs établis, les formats de contenus et l’orientation dans cette prolifération de signaux que l’on nomme le « buzz ».

Décomposer et recomposer

Mais comme Bolter et Grusin (2001) l’avaient indiqué, il convient de ne pas oublier que dans le même temps, les formats numériques sont aussi faits de recomposition. Le numérique désagrège, segmente et réduit tout à des éléments plus courts qui circulent plus vite, mais il amplifie aussi la recomposition en permettant de remixer tous ces éléments. Le montage était une tradition ancienne dans beaucoup de métiers de la culture, y compris l’impression qui mobilisait une « casse » faite de caractères de plomb élémentaires pour les recomposer en texte. Le numérique a amplifié ce processus en permettant de recombiner des unités de signification très différentes (texte, image, image animée, etc.) puisqu’elles sont désormais identiques en tant qu’unités de manipulation (du code). Le copier-coller et de nombreuses procédures que nous avons évoquées permettent toutes ces recompositions. L’unité phénoménale du document, connue depuis la tradition de l’imprimé, se dissout car ses liens et ses composants en font de fait un document augmenté. Les journaux en ligne peuvent mettre en avant des dépêches ou des alertes mais dans le même temps, ils peuvent composer des dossiers à partir de sources différentes au point de perdre toute notion de finitude du format, qui était imposée par les contraintes de l’imprimé.

Mieux encore, cette recomposition mobilise des dispositifs utilisables par des internautes ordinaires : les blogs sont des agrégats de contenus repris, commentés, mis en page ; les « mash-ups » ou les GIF (Graphic Interchange Format) réalisés en vidéo peuvent agréger des sources diverses et produire un contenu nouveau, les reprises des morceaux de musique avec du « lip-dub » (doublage avec les lèvres) se multiplient et aboutissent à des succès d’audience sur YouTube, en ajoutant des annotations, des incrustations, etc. Les wikis sont eux-mêmes des œuvres collectives permettant cette agrégation de contenus dont les sources peuvent être très diverses et qui seront plus ou moins contrôlées collectivement, du point de vue de leur fiabilité comme de leur statut juridique. L’ère du « Remix », titre d’un documentaire fameux sur le sujet, indique clairement que l’intertextualité n’est pas seulement un concept savant ou une pratique réservée aux grands auteurs, elle est la source majeure de la création dans tous les domaines. C’est pourquoi le numérique, en amplifiant cette tendance au copier-coller généralisé (à commencer par Disney et son Steamboat Willie qui vit en 1928 la naissance de Mickey et qui devait beaucoup au film de Buster Keaton, Steamboat Bill Junior), a favorisé l’émergence d’un mouvement de « culture libre » (du nom d’un livre de Lawrence Lessig, 2004) en conflit ouvert avec la tendance au renforcement du copyright jusqu’à 90 ans désormais après la mort de l’auteur.

Le numérique a clairement amplifié les formats courts autoproduits, leur recomposition infinie et leur propagation imitative à une échelle inconnue jusqu’alors. On peut considérer que c’est toute l’expérience culturelle qui est ainsi transformée et les relations établies aux connaissances qui sont remises en cause (sur les plans techniques, sémiotiques, légaux, économiques et sociaux de façon indissociable). Les médias de masse du XXe siècle ont pu faire croire que l’évolution générale de la consommation culturelle tendait vers la domination des flux (les programmes) par opposition aux stocks que constituaient les œuvres auparavant. Or, un mixage dans la production comme dans la diffusion est apparu avec le numérique pour produire ce que B. Stiegler (1994) avait identifié très tôt comme des « flux délinéarisés », accessibles en tous points mais aussi recombinables. L’expérience collective n’est pas nécessairement désynchronisée (comme on pouvait la penser avec les grands-messes des journaux télévisés) mais son échelle s’est étendue (au monde entier), son rythme s’est accéléré (les alertes et notifications de toutes sortes) et la continuité s’est reconstituée de façon plus personnalisée (chacun suivant ses séries, ses chaînes, ses thèmes, ses flux, ses comptes Twitter préférés).

La rareté de l’attention

Ces remises en cause des médiations existantes pour orienter un public dans les savoirs et dans les contenus culturels en général reposent sur une ressource clé que l’on a souvent sous-estimée avant les années 2000, l’attention. Il est impossible de comprendre les enjeux de cette économie de l’attention sans entrer plus en détail dans les connexions qu’elle crée avec des publics grâce à certains formats, et cela au niveau le plus individuel. Ces cerveaux qui échangent à distance comme les percevait Tarde (1901) parlant de la lecture des journaux dans une communauté nationale sont de fait connectés désormais par le numérique. Cependant, il existe plusieurs façons de se connecter, plusieurs médiations et plusieurs régimes attentionnels. Les théories cognitives de l’attention datent de la fin du XIXe siècle. William James (1904) considérait l’attention comme « une énergie qui nous permet de nous rassembler ». Mais il existe plusieurs façons de se rassembler.

Ainsi, T. Ribot (1889) identifiait deux critères différents constitutifs de l’attention, la durée et l’intensité. Nous en avons tiré deux régimes attentionnels, la fidélisation et l’alerte (BOULLIER, 2009, 2014 ; CITTON, 2014). La fidélisation (ou « loyalty »), qui s’appuie sur la durée, fonctionne à l’attention automatique (analysée par SCHNEIDER et SCHIFFRIN, 1977). La répétition est favorisée par la sélection de saillances habituelles (la même chaîne de télévision, les mêmes auteurs, la même marque, les mêmes centres d’intérêt, les mêmes goûts) et cela représente une économie cognitive de premier ordre, puisqu’il n’existe plus d’hésitation ni de délibération mais seulement une re-connaissance de ce qui avait été déjà sélectionné précédemment. Ce régime n’est pas nécessairement celui de la concentration volontaire et focalisée mais elle suppose comme elle une forme « d’inhibition des activités concurrentes » (JAMES, 1904). En revanche, elle peut dériver rapidement en habitude endormie. Ce régime de la fidélité n’a pas disparu avec le numérique, au contraire. S’orienter dans cette prolifération de savoirs conduit nécessairement à économiser son énergie cognitive et à retrouver son univers web habituel, ses amis ou comptes que l’on suit, ses rituels d’information qui évitent de s’égarer.

Mais il est vrai, comme nous l’avons indiqué, que par l’intermédiaire des formats courts mais aussi de la vitesse de circulation des réseaux numériques, un autre régime concurrent a largement plus bénéficié de l’amplification par le numérique, le régime de l’alerte. Il a été thématisé par les sciences cognitives sous le terme de « priming », qui décrit comment une information vient devant les autres, prend la place d’une attention qui est toujours occupée, ne l’oublions pas. Or, l’intensité des stimuli est essentielle pour briser les habitudes. Le numérique en réseaux, sous la forme du « buzz » que nous avons évoqué, est largement occupé par les flux d’alerte et de notifications qui trouvent leurs destinataires en permanence dans toutes les situations grâce aux dispositifs mobiles. Le risque de nivellement de ces signaux lorsqu’ils deviennent trop abondants n’est pas à négliger. Il a été étudié comme COS (Cognitive Overflow Syndrom) qui se traduit par un hachage de l’attention ponctuée d’alertes permanentes (LAHLOU et al., 1997). Ces deux régimes attentionnels peuvent être complétés par celui de la projection, pour lequel le numérique peut jouer un rôle aussi puissant notamment dans la recherche d’information puisqu’il s’agit alors d’explorer les offres informationnelles en fonction d’un point de vue unique, qui se projette sur le monde et évite ainsi toute surprise. Le paramétrage des algorithmes de RSS ou de personnalisation favorise ce régime. Mais un dernier régime d’attention semble encore plus renforcé par le numérique voire même créé par lui, le régime de l’immersion.

Nous l’avons évoqué (BOULLIER, 2008, 2014) en le comparant historiquement à la perspective dans son pouvoir organisateur. Ce sont les jeux vidéo qui lui ont donné la force d’attraction que l’on connaît auprès d’un public large en obtenant des durées d’attention inédites de plusieurs dizaines d’heures combinées à une intensité forte, modulée selon les ressorts du gameplay. La gamification de toutes les activités culturelles, éditoriales, éducatives tente ainsi d’étendre ce pouvoir de l’immersion à des domaines jusqu’ici soumis à d’autres régimes d’attention. Dans la mesure où le temps de cerveau disponible n’a pas évolué, il est certain que la concurrence pour capter l’attention des publics s’est accentuée. Et cela non seulement de la part des principaux producteurs de contenus, mais aussi de ceux qui servent de médiateurs et qui se voient concurrencés par exemple par les moteurs de recherche. Et enfin à l’échelle des personnes et des réseaux relationnels qui semblent désormais pouvoir se gérer comme des publics, avec les mêmes ressources de réputation et de stimulation attentionnelle que l’on observe dans les industries culturelles.

Ce n’est pas la moindre des surprises que de voir des propriétés cognitives aussi difficiles à cerner que l’attention devenir les ressorts de toute une économie. Toute l’approche de sociologie économique devra nécessairement rendre compte de cette dimension pour penser l’économie (du) numérique.


1 Définition restreinte : « Classifications personnelles des utilisateurs du web produites dans des sites permettant le tagging collaboratif » (Van der Wal, 2005, repris sur son site : www.vanderwal.net/folksonomy.html).

Citer cet article

Boullier, Dominique. "Le numérique, technologie cognitive. Chapitre 3 de l’ouvrage Sociologie du numérique © Armand Colin, 2016", 23 juin 2017, Cahiers Costech, numéro 1.

URL https://www.costech.utc.fr/CahiersCostech/spip.php?article46