Thèse en ligne :


Résumé

Cette thèse entend proposer un concept technologique – c’est-à-dire non anthropocentré – de trace numérique. Il s’agit de rappeler que l’informatique exigeant des objets et des actes qu’ils passent par l’inscription pour exister, les machines computationnelles sont parties prenantes des processus de production des traces numériques, qu’une « sémiotique technologique » permettrait de décrire. L’enjeu d’un tel concept est de mettre en circulation une narration qui ne soit pas de l’ordre de ces discours de fin de monde décrits par Déborah Danowski et Eduardo Viveiros de Castro. Ces discours racontent la vie d’humains réduits à habiter un environnement ontologiquement dévitalisé et artificialisé, comme cela semble être le cas lorsque la valorisation technique et économique des traces numériques débouche sur une « délégation machinique de nos relations » (Louise Merzeau) ou encore sur une « gouvernementalité algorithmique » (Antoinette Rouvroy et Thomas Berns). À partir du moment où il y a des discours de fin de monde cependant, c’est qu’une tentative est à l’oeuvre : celle qui consiste à inventer une mythologie adéquate à notre présent, celle qui essaie de dire quelque chose de la fin d’une certaine aventure anthropologique. Et c’est pour participer à cette tentative, tout en cherchant à éviter de contribuer aux discours de fin de monde, qu’une approche technologique des traces numériques à même de faire compter les machines computationnelles est proposée.

Auteur(s)

Cléo Collomb est Attachée temporaire d’enseignement et de recherche, Docteure en Philosophie (des techniques, politique, contemporaine), éthique, Sciences de l’Information et de la Communication. Sa thèse a été réalisée dans le cadre d’une co-tutelle de thèse entre l’Université de Technologie de Compiègne et l’Université Libre de Bruxelles (PHI) sous la direction de François Sebbah (Paris X Nanterre) et Thomas Berns (ULB).

Plan

Introduction

“I describe why film directors and authors are inflicting a tsunami of despairing tales upon us… not because any but a few of them actually believe it, but out of storytelling laziness, pure and simple […] I’ve spoken elsewhere of the tedious obsession with dystopia that allows so many writers of producer/directors to be plot lazy. It also spreads a poison, undermining our confidence that dystopia can be avoided, through hard work, good will and innovation.” David Brin1

Qu’attend-on de la philosophie lorsqu’on la finance dans le cadre d’un projet de recherche et lorsqu’on l’accueille dans un environnement technologique qui a pour slogan « donnons un sens à l’innovation » ? Le risque est qu’on attende d’elle qu’elle réfléchisse sur un problème reconnu. Or non seulement personne « n’a besoin de philosophie pour réfléchir sur quoi que ce soit », comme l’expliquaient Gilles Deleuze et Félix Guattari, « on croit donner beaucoup à la philosophie en en faisant l’art de la réflexion, mais on lui retire tout »2. Mais en plus, les problèmes reconnus ne sont pas tellement intéressants au-delà des exigences d’évaluation auxquelles ils se conforment3. Au-delà du risque cependant, il y a une chance : celle qui consiste, pour la chercheuse, à avoir la place de bien travailler et la possibilité de découvrir quelles sont ses questions – même si cela doit prendre du temps, impliquer des hésitations et des zigzags, parfois des ratés, et ce d’autant plus qu’elle se retrouve dans un milieu tel que sa présence et ses problèmes n’ont rien d’une évidence.

Le présent texte entend rendre compte de ce cheminement sur lequel m’ont mises ces questions que j’ai du apprendre à poser – parce qu’elles se posaient à moi. Un cheminement, ou plutôt une traque, qui a pu aller jusqu’à impliquer le passage de barrières disciplinaires. Car en effet, si cette thèse a été initiée en philosophie, elle a beaucoup évolué au contact des sciences de l’information et de la communication (SIC), une discipline qui connaît les « médias informatisés »4 et qui a déjà toute une histoire de recherche sur ces objets-là. Elle en connaît les enjeux techniques mais aussi communicationnels, elle sait qu’ils sont accompagnés de discours technicistes et commerciaux qui peuvent parfois pré-construire idéologiquement les questions de recherche. Et c’est ce savoir-faire et cette habileté qu’ont développées les SIC dans le côtoiement de tels objets qui ont fait de cette discipline une alliée aussi intéressante qu’incontournable pour la philosophie. Cette codisciplinarité n’aurait cependant pas pu se réaliser sans le laboratoire Costech de l’Université de Technologie de Compiègne, résolument pluri et interdisciplinaire, qui a accueilli cette recherche doctorale avec le Phi – centre de recherche en philosophie de l’Université Libre de Bruxelles. Le Costech en effet a une réelle culture de l’interdisciplinarité, ce qui a permis à la jeune chercheuse que je suis, de découvrir les SIC, de les côtoyer régulièrement, d’apprendre de leurs questions jusqu’à participer à leur fabrication – une participation qui a pris la forme de collaboration avec des chercheurs en SIC, de communications dans différents colloques et séminaires en SIC et même d’enseignements dans la discipline. Cette rencontre entre la philosophie et les SIC est tout à fait centrale dans l’expérience doctorale dont cette thèse constitue l’un des aspects. Et elle est l’un des lieux où m’a menée la tentative de penser cet objet que sont les traces numériques.

Ce sont en effet les traces numériques qui sont au cœur de ce travail, développé dans le cadre d’un projet dont j’étais la seule participante et intitulé TAHEN – acronyme pour « les Traces des Activités Humaines à l’Époque du Numérique » –, financé par ce qu’on appelait encore la « Région de Picardie », désormais fusionnée et rebaptisée Hauts-de-France. Mais au-delà du financement, cette recherche s’inscrit dans une co-tutelle entre l’Université Libre de Bruxelles et l’Université de Technologie de Compiègne, c’est-à-dire dans un double environnement : un département de philosophie d’un côté, un laboratoire interdisciplinaire en milieu technologique de l’autre. Il en va donc d’une hybridation entre deux cultures de recherche différentes, qui n’impliquent pas les mêmes attendus sociétaux, pas les mêmes impératifs ni les mêmes exigences. Cela a sans doute compliqué un peu le processus de fabrication d’une question de recherche, mais c’est une chance.

Le présent texte est construit autour d’une introduction et trois parties. Vient d’abord le moment introductif en lequel consiste un premier travail de définition des « traces numériques », très rapide parce que l’objectif est simplement de circonscrire la zone de l’enquête ainsi que de faire comprendre pourquoi certaines références théoriques auront initialement été choisies plutôt que d’autres. Il faut tout de même annoncer que, comme souvent d’ailleurs, ce chapitre introductif est en avance sur les premiers développements du texte. La définition proposée des traces numériques n’a pu être formulée qu’à la fin du présent effort doctoral, elle pourrait en être l’aboutisement. S’ensuit la première partie, à savoir une présentation des travaux de chercheuses et de chercheurs qui ont fait exister les traces numériques d’une façon qui m’a intéressée, notamment parce que, sensibles aux propriétés du support numérique, ils n’ont pas réduit les enjeux de la traçabilité aux seules questions de surveillance et de vie privée tout en nourrissant un regard critique sur les jeux de pouvoir qui circulent avec le développement des technologies de l’information et de la communication (TIC). Les TIC – du moins, s’il y en a vraiment5 – peuvent recouvrir des réalités très variées, elles sont ici comprises comme l’ensemble des applications et extensions de la technique informatique, à savoir l’ordinateur et son intégration au réseau.

La deuxième partie de ce texte est une fausse piste, mais une fausse piste réussie en ce qu’elle a été nécessaire à la précision de mon problème. Elle héberge une tentative, celle qui consiste à explorer les effets positifs de la déliaison des traces – là où la première partie a plutôt consisté à donner à voir les appropriations abusives et néfastes dont elle fait l’objet.

La troisième partie quant à elle est une bifurcation, précédée d’un temps d’arrêt qui s’est imposé lorsque la question de savoir à quoi j’étais en train de participer se faisait de plus en plus insistante. Les thèses dont je me faisais l’héritière en arrivant à des conclusions désespérantes, il fallait que je trouve le moyen d’en hériter sans propager le poison de la dystopie. Il fallait que je comprenne comment nous en étions arrivés à de telles conclusions, que je comprenne ce qu’il s’était passé et que je trouve le moyen de raconter d’autres histoires. Grâce à Déborah Danowski et Eduardo Viveiros de Castro6, j’ai compris que les conclusions désespérantes auxquelles nous en étions arrivés étaient liées au fait qu’il manquait un acteur dans nos descriptions. Un acteur non-humain : la machine computationnelle. Le travail a alors pu reprendre : localiser ces machines, les comprendre, les décrire, les donner à voir – grâce à une sémiotique attentive aux modes d’écriture des machines. Tout l’enjeu du concept technologique de trace numérique que j’essaie de fabriquer consiste précisément à faire exister ces machines parmi nous et à le faire participer au monde que nous partageons.

Des traces d’interaction

La notion de « trace numérique » circule beaucoup en contexte francophone et elle est chargée d’attentes, tant d’ailleurs sociales que politiques ou économiques. La traçabilité des corps est tantôt revendiquée au nom de la transparence que stigmatisée comme symptôme d’une société de surveillance ou de contrôle7. Mais les traces numériques portent aussi les promesses d’un accès supposément direct au social voire au réel, et cela au plus grand bénéfice – certes contestable – des sciences humaines et sociales aussi bien d’ailleurs que des acteurs économiques, comme le laissent entendre certains discours qui accompagnent le développement des digital humanities ou du big data. Le succès de cette notion tient sans doute au moins en partie à son caractère non-spécifique8. Puisqu’elle semble évidente et qu’elle « paraît échapper à tout effort pour la circonscrire comme un concept »9, elle circule d’autant plus facilement. Mais cette non-spécificité n’est pas qu’une difficulté, elle est aussi une occasion pour le chercheur qui peut alors se saisir du mot pour mettre en mouvement une narration qui puisse être adéquate à ce qu’il essaie de faire voir.

Il y a trace numérique dans la mesure où toute action dans un environnement informatisé est aussi une interaction avec des machines. Toute action volontaire comme écrire un courrier électronique, naviguer sur le web ou préparer un diaporama se fait sur un support numérique et avec des outils numériques, elle est médiée par un système technique, « par l’interposition d’un programme informatique »10. Elle passe par un codage qui en rend certains aspects manipulables. Autrement dit, les activités dont la forme est socialement partageable (poster un commentaire, partager une photographie, enregistrer un son, etc.) se doublent « toujours d’un code traductible en données calculables »11. Ainsi, un nombre croissant d’activités laisse des traces – numériques – car « l’informatique exige que les objets et les actes passent par l’inscription pour exister »12. Ces traces répondent donc à des impératifs techniques et sont inaccessibles à l’humain sans textualisation, contrairement aux textes affichés sur les écrans. Les traces numériques ne sont donc pas des textes numériques. Elles sont inaccessibles sans médiatisation, simplement parce que l’anthropos ne dispose pas de l’appareil perceptif adéquat pour faire la différence entre 0 et 5 volts, différence de potentiel pourtant parfaitement significative pour la machine puisqu’il s’agit du binaire structurant la façon dont elle stocke et traite les données. Mais elles sont aussi inaccessibles à l’humain parce que l’activité électrique d’inscription se déroule à une échelle spatio-temporelle sur laquelle il n’a pas prise. En effet et à titre informatif, avec un processeur contemporain, une instruction s’effectue en un dimilliardième de seconde et ce dans un espace de moins de 100mm2. Il s’agit donc bien d’ordres de grandeur non appréhendables – sans médiatisation – par les humains.

Les traces numériques sont donc ces inscriptions qui doublent toujours les activités ayant lieu dans des environnements informatisés parce que ces activités sont des interactions avec des machines computationnelles. Par machines computationnelles, il s’agit d’entendre l’ensemble des objets techniques dont le fonctionnement repose sur du calcul binaire intégré dans une machinerie électronique13. Mais parler d’interaction avec des machines n’est-ce pas un abus de langage au service de mythes technico-commerciaux, la machine n’étant pas douée d’intention ? C’est en tout cas ce que laissent entendre Yves Jeanneret et Emmanuël Souchier dans leur article de 1999 « Pour une poétique de "l’écrit d’écran" »14. Ils y déconstruisent en effet l’idée d’interactivité, selon eux chère à un certain « messianisme technique » qui ne fait que voiler la matérialité des médiations tout en cultivant un certain « mythe de la machine humaine ». Pour eux, un outil ne peut pas agir comme un homme :

« La question liminaire est simple : un outil peut-il agir à l’égal de l’homme ? La réponse est tout aussi claire : non, il ne le peut pas […] On comprend donc qu’il n’y ait pas, au sens propre du terme, d’interaction possible entre l’homme et la machine. »15

Et d’ajouter : « dire que la machine "agit" est une tournure rhétorique : l’homme agit, la machine fonctionne. »16 La machine n’agit pas puisque l’action est, aux yeux d’Yves Jeanneret et d’Emmanuël Souchier, « un déploiement d’énergie doté de sens par un sujet dans un contexte social, historique et culturel »17. Ce à quoi ne peut – bien sûr – pas prétendre la machine. Il n’y a donc pas d’interaction entre l’homme et la machine.

Si leur définition de l’action est restrictive, c’est qu’elle s’inscrit dans un contexte : en 1999, Yves Jeanneret et Emmanuël Souchier ont ouvert le développement de tout un pan de la recherche en SIC en offrant aux chercheurs et praticiens du web, de façon totalement pionnière, des outils conceptuels et opérationnels permettant de saisir et de comprendre les enjeux communicationnels, économiques, symboliques des médias informatisés. Ils ont réinséré l’informatique dans le temps long de l’écrit, dégrisant au passage l’euphorie marketing de la « révolution technologique » et de la « machine humaine ». Déconstruire la rhétorique de l’interactivité était parfaitement bienvenu en 1999, comme contre-pouvoir communicationnel, au moment où le développement des « nouvelles technologies de l’information et de la communication » était accompagné de discours technicistes et commerciaux – qui se retrouvaient à circuler dans les médias et dont le vocabulaire a fini par être repris par les chercheurs eux-mêmes, et ce jusqu’à empêcher « la formulation de questions qui n’[étaient] pas pré-construites idéologiquement »18.

Mais ce rejet de la rhétorique de l’interactivité a amené Yves Jeanneret & Emmanuël Souchier a fournir aux SIC un des concepts les plus opérants et qui a depuis très largement circulé, celui d’architexte. « Nous nommons architextes (de archè, origine et commandement), les outils qui permettent l’existence de l’écrit à l’écran et qui, non contents de représenter la structure du texte, en commandent l’exécution et la réalisation. »19 Cela veut dire par exemple qu’une page web n’est pas interactive si, lorsqu’un utilisateur clique sur un bouton, quelque chose se passe (redirection vers une autre page, apparition d’une image, etc.) Mais qu’il y a des architextes qui ont rendus la production d’un certain texte possible – et même une image peut être comprise comme un texte. L’usage de la machine n’est pas interactif, mais l’utilisateur peut agir selon des architextes qui ont en amont rendus certaines actions possibles. Si quelque chose est donné à lire à l’écran suite au geste d’un utilisateur, c’est que des architextes ont été produits pour que le geste en question soit reçu comme une écriture qu’il va à nouveau falloir donner à lire – c’est-à-dire afficher à l’écran, processus qui nécessite bien sûr une machine.

Un autre exemple intéressant pour donner à voir les liens entre architexte et interaction est celui du coockie. Le cookie est un petit fichier texte stocké sur le terminal d’un utilisateur qui peut être retourné à un serveur à chaque fois qu’ils entrent en communication. Une préférence individuelle peut ainsi être stockée sur le navigateur web d’un individu et être renvoyée au serveur à chaque fois qu’il visite son site. Ainsi en va-t-il des préférences de langue ou du contenu d’un panier d’achat : à chaque fois que l’utilisateur se rend sur un même site, ce dernier peut afficher une page web qui tient compte des informations stockées dans le navigateur et qui traduisent les choix et préférences de l’utilisateur. Il existe des cookies de pistage qui servent à suivre les comportements en ligne des internautes.

« Si l’utilisateur fait appel à une page d’un site, et que la requête ne contient pas de cookie, le serveur présume que c’est la première page visitée par l’utilisateur. Le serveur crée alors une chaine aléatoire et l’envoie au navigateur en même temps que la page demandée. À partir de ce moment, le cookie sera automatiquement envoyé par le navigateur à chaque fois qu’une nouvelle page du site sera appelée. Le serveur enverra la page comme d’habitude, mais enregistrera aussi l’URL de la page appelée, la date, l’heure de la requête et le cookie dans un fichier de journalisation. »20

Ces cookies de pistage peuvent notamment permettre au webmaster de personnaliser la présentation de son site pour chaque internaute, à partir des habitudes récoltées. Un cookie peut donc être compris comme architexte. Peut-être un cas limite, mais on peut soutenir qu’il est un architexte : il a été écrit par un individu et il rend possible une écriture par l’internaute. Le cookie a été produit pour que le comportement de l’internaute – et non pas le fait qu’il entre des lettres avec son clavier ou clique avec sa souris – soit reçu comme une écriture. Une écriture qui va ensuite pouvoir être donnée à lire à l’écran sous la forme d’une page web personnalisée par exemple. Mais s’il est possible d’écrire un architexte pour que le comportement de l’internaute soit saisi comme une écriture, cette dernière peut très bien n’être donnée à lire que de manière très différée (voire pas du tout). C’est par exemple ce qu’il se passe si un webmaster utilise les cookies – qui sont des architextes produits pour qu’un comportement tel que passer du temps sur une page web soit saisi comme une écriture – pour ajuster le nombre d’articles à afficher sur la page d’accueil de son site. Le webmaster aura alors utilisé les écritures de différents internautes pour les leur redonner à lire plus tard et de manière très indirecte sous forme d’un nombre d’articles ajusté. Bien que cas limite, le cookie est un architexte, comme le laisse d’ailleurs entendre l’extrait suivant :

« Un traitement de texte qui intègre des outils d’écriture, des polices typographiques, des mises en page automatique, ou des correcteurs de texte, un navigateur qui structure les modalités d’accès à des ressources documentaires, un "logiciel auteur" multimédia qui gère les rapports de l’image et du texte, les "cookies" qui enregistrent les choix du lecteur pour lui proposer préférentiellement certains textes... autant d’architextes qui régissent les niveaux les plus divers du circuit de l’écrit : rédaction, édition, documentation, lecture... »21

Le concept d’architexte déconstruit ainsi la rhétorique marketing de l’interactivité pour donner à voir l’importance des couches textuelles médiatrices qui permettent l’existence de l’écrit à l’écran et conditionnent les possibilités d’action des utilisateurs. Mais s’il y a besoin d’architextes, c’est bien qu’une traduction doit être opérée entre ce qui relève de l’espace humain de l’échange social et ce qui relève de l’espace technique de la machine. Yves Jeanneret et Emmanuël Souchier22 mettent en évidence la « rupture de la chaine de production de l’écriture et de sa restitution lors de la lecture » par l’informatique qui introduit une rupture dans « l’intime et pérenne » relation qui unit le signe à son support.

« Toute écriture postulait jusqu’à présent la présence concomitante du support et du signe d’écriture dans sa réalité physique, matérielle et iconique […] aussi la mémoire du signe était-elle liée à la mémoire du support. La disparition de celui-ci entraînant irrémédiablement la disparition du signe, de l’écriture, du texte… »23

Mais l’informatique rompt cette relation intime et pérenne du signe et de son support : lorsque que quelqu’un écrit avec un ordinateur, il y a bien sûr la dimension sémiotique des signes lisibles sur l’écran, mais il y a aussi la dimension technique des traces qui ne sont appréhendables que par la machine. Si les architextes sont nécessaires pour permettre l’existence de l’écrit à l’écran, c’est bien qu’il faut jeter des ponts entre les exigences techniques et celles de la langue. Toute action dans un environnement numérique, comme par exemple cliquer, doit en passer par des couches de textes successives « qui opèrent la transition entre les exigences de la machine et celles de l’échange social. »24 De la « trace mémorielle technique inaccessible à l’homme » au « texte affiché à l’écran » et vice-versa s’insèrent différentes couches textuelles : les architextes.

C’est donc bien parce que l’humain est en relation avec une entité dont les exigences communicationnelles ne sont pas les mêmes qu’il faut jeter des ponts entre son espace et celui de l’autre. Si cette entité n’est cependant pas dite agissante sous la plume des concepteurs de l’architexte, au-delà du refus très situé de participer à la rhétorique techniciste de l’interactivité qui nourrit le mythe de la machine humaine, c’est que Yves Jeanneret et Emmanuël Souchier ont – au moins à l’époque – une définition très restrictive de l’action. Elle y est comprise comme « un déploiement d’énergie doté de sens par un sujet dans un contexte social, historique et culturel »25. Ce à quoi ne peut bien sûr pas prétendre la machine. Mais cela ne veut pas dire que la machine ne fait rien. Les auteurs pourraient au moins reconnaître une forme d’inertie machinique, celle qui fait que lorsque l’humain agit dans des environnements numériques, un certain espace est ouvert : ce qu’il fait (écrit) n’est pas immédiatement visible sur l’écran. Il y a en effet tout un espace fait de couches textuelles médiatrices qui opèrent des traductions entre les exigences techniques des machines et celles de l’échange social interhumain. Dès lors, l’utilisateur – qui est une forme d’écrivain puisque toutes ses actions, pour être effectives, doivent en passer par une inscription servant d’input à la machine – n’est jamais le seul auteur du texte qui est donné à lire, jamais l’unique producteur de l’organisation des signes affichée l’écran. Or cet écart entre le « ce que je fais » et le « ce qui est donné à voir » est précisément ce que permet de penser la notion d’interactivité selon Serge Bouchardon26.

Le terme d’interactivité permet en effet à ses yeux de penser l’inertie machinique dans la mesure où « ce que je fais ne correspond pas exactement à ce qui se passe » et ce que je vois n’est pas seulement ma production ou celle de l’autre qui me parle. Si l’action machinique est peut-être plus celle d’un ça que celle d’un je, explique-t-il27, il n’en reste pas moins que je ne suis pas le seul auteur de mes actions dès lors qu’elles en passent par des médias informatisés (il est de toute manière assez douteux que je puisse être le seul auteur de mes actions même sans ordinateur). S’il s’agit de maintenir une définition restrictive de l’interactivité, au sens où l’entend Serge Bouchardon, au point de ne rien lui faire dire d’autre que la présence d’un écart, d’une inertie machinique, les notions d’architexte et d’interaction peuvent alors être rendues non exclusives. Au contraire, c’est bien parce que les architextes sont nécessaires qu’il y a inertie machinique.

Cette compréhension de la trace numérique comme rendue nécessaire par l’interaction avec des machines computationnelles s’inscrit d’ailleurs en porte-à-faux avec la compréhension naturalisante qui suggère une adhésion directe de l’action à la marque qu’elle imprime et donc, sur le plan numérique, une contiguïté physique entre ce qu’un individu fait avec un ordinateur et ce qui se retrouve dans une base de données ou à l’écran. Cette conception naturalisante est pourtant implicite dans nombre de discours et d’applications, comme par exemple Google Analytics. Ce service offert par Google propose à l’utilisateur des statistiques détaillées sur le trafic lié à son site, en rendant visibles ce que la firme elle-même appelle précisément des « traces » de navigation des visiteurs (de quel autre site ou plateforme ils viennent, en ayant tapé quel mot-clé, etc.) Ainsi, dans la rubrique « Why Google Analytics ? » de Google, on trouve la description suivante :

« Trace the customer path. Where customers are can be as critical as who they are. Tools like Traffic Sources and Visitor Flow help you track the routes people take to reach you, and the devices they use to get there, so you can meet them where they are and improve the visitor experience. »28

Google Analytics se présente donc comme un outil capable de montrer ce que font et qui sont les visiteurs d’un site et ce à partir de traces numériques que leurs discours tendent à présenter comme des adhésions directes du réel aux empreintes qui sont affichées à l’écran. Mais en réalité, l’action numérique est une interaction qui engage plutôt une superposition très complexe de strates d’écritures, cristallisant des jeux de pouvoir économiques autant que symboliques, et que permet d’analyser le concept d’architexte.

Loin de cette conception naturalisante des traces numériques, il y a donc celle basée sur l’idée d’interaction qui cherche à mettre en évidence la matérialité des médias informatisés : ce que fait le concept d’architexte et ce qu’explore le champ de la littérature numérique d’où vient Serge Bouchardon avec son idée d’inertie machinique. La littérature numérique (qui n’est pas simplement de la littérature numérisée) renvoie aux œuvres conçues spécifiquement pour le support numérique tout en cherchant à en exploiter les propriétés et à éprouver l’interactivité, c’est-à-dire la relation avec l’ordinateur. Dans leur création « Déprise »29, une œuvre de littérature numérique en ligne en 2010 construite autour de six tableaux interactifs donnant à expérimenter la prise et la perte de contrôle à partir du récit d’un homme sentant sa vie s’effondrer ce qui se traduirat par une perte de maîtrise de l’interface, Serge Bouchardon et Vincent Volckaert jouent avec l’interactivité. Lorsque le lecteur s’engage dans l’œuvre, il a le sentiment de devoir agir pour que l’histoire se déploie : il doit cliquer, parcourir l’écran avec la souris, essayer de poser diverses actions pour que des choses se passent et ce jusqu’au moment où il n’arrive plus à rien faire. Il a beau chercher, cliquer, taper des lettres au clavier : rien ne se passe. Même lorsque la souris, effleurant un pixel, passe du pointeur au doigt, donnant ainsi l’impression au pixel d’être cliquable, rien ne se passe, l’intrigue d’après n’arrive pas. À un autre moment, le lecteur découvre à l’écran une boîte de dialogue sur laquelle il semble invité à écrire ce qu’il souhaite : mais au fur et à mesure qu’il tape des lettres, il se rend compte que ce n’est pas ce qu’il souhaite écrire qui s’affiche, mais bien un autre texte. Un texte écrit par la machine ? Par le concepteur de l’œuvre ? La question reste ouverte pour que le lecteur prenne conscience de l’espace qui existe entre lui et l’écran, un espace peuplé de diverses médiations, un espace qui lui échappe en partie, qui ne lui appartient pas complètement. Il expérimente ainsi l’interactivité propre à toute action numérique.

La trace numérique est donc l’inscription répondant aux impératifs techniques des machines computationnelles qui double l’activité humaine inscrite dans l’échange symbolique et social dès lors que celle-ci a lieu dans des environnements numériques. Elle échappe toujours au moins en partie à l’intentionnalité de l’agent dans la mesure où son action engage d’emblée une interaction. Autrement dit, il y a trace numérique parce que toute action dans des environnements numériques est une interaction avec des machines computationnelles. Ces traces imperceptibles pour les humains peuvent être textualisées, c’est-à-dire mise en signes – par exemple sous la forme d’une écriture binaire faite de 0 et de 1, sous celle d’un tableau Excel structurant une base de données ou encore indirectement comme organisation particulière d’une page web. Il est important de noter que ces traces numériques doublent l’activité dans des environnements informatisés. Nous sommes dans une logique de supplément, non de translation – cette dernière véhiculant une conception naturalisante de la trace numérique, comme c’est le cas dans certains discours qui accompagnent le big data ou les digital humanities, laissant supposer qu’il suffirait de déployer un gigantesque dispositif de collecte de traces pour parvenir à produire des « représentations vraiment représentatives  »30 du réel. Si donc le terme d’interaction est ici maintenu, ce n’est pas pour alimenter le mythe de la « machine humaine », mais bien – tout comme les concepteurs de l’architexte cherchent à le faire – pour donner à voir la matérialité des médias informatisés. Les traces numériques s’inscrivent dans une logique de supplément, qu’il s’agisse de rappeler les couches textuelles médiatrices nécessaires à la collecte et la mise en signes de ces traces comme permet de le faire une approche par l’architexte, ou qu’il s’agisse de faire compter ces acteurs non-humains que sont les machines computationnelles dans les processus de production des traces numériques tel que permet de le faire une approche par l’interaction. Si ces deux approches sont différentes, elles se rejoignent en ceci qu’elles compliquent la question de savoir ce que sont les traces numériques.

Si les traces numériques sont ces inscriptions qui doublent toujours les activités ayant lieu dans des environnements informatisés et qui répondent aux exigences techniques des machines computationnelles, quelles en sont les caractéristiques ? Elles peuvent circuler très largement et être traitables à grande échelle car elles endossent les propriétés du numérique. Quelles sont ces propriétés ?

Les propriétés du numérique

Pour mettre en évidence les propriétés du numérique, il est intéressant d’en passer par une brève histoire de l’informatique. À la suite de Bruno Bachimont31, on peut noter que l’informatique est le fruit de deux étapes fondamentales : la cybernétique et le formalisme hilbertien. La cybernétique a permis de comprendre les systèmes physiques en termes d’information et d’autorégulation plutôt que simplement en termes de transformation d’énergie. On fait souvent remonter la cybernétique au governor de Watt qui est un dispositif de rétroaction permettant de réguler le fonctionnement d’une machine à vapeur. Pendant plus d’un siècle, « les théoriciens du régulateur ont cherché à expliquer son fonctionnement dans le langage de la thermodynamique »32, ce n’est que plus tard qu’est apparue l’idée que ce qui était échangé entre la sortie et l’entrée du système, ce n’était pas de l’énergie, mais de l’information.

« Passer d’une transformation d’énergie à une transformation d’information introduit une nouvelle intelligibilité dans la compréhension des systèmes physiques : cela permet en particulier de comprendre comment des systèmes structurellement différents peuvent néanmoins être fonctionnellement identiques, c’est-à-dire faire la même chose, poursuivre les mêmes buts, posséder les mêmes fonctions. »33

Cette théorisation est très puissante, fait remarquer Bruno Bachimont, parce qu’elle peut aller jusqu’à proposer une explication du comportement cognitif : « C’est ainsi qu’il devient possible d’expliquer de manière identique les machines, le vivant et le connaissant. »34

La seconde mutation qui a rendu possible l’émergence de l’informatique est le formalisme hilbertien. À la fin du XIXe siècle et face aux paradoxes de la théorie des ensembles,

« Hilbert entreprit de fonder les mathématiques sur une base sûre et une méthodologie sans faille. La solution qu’il proposa, géniale, est pourtant fort simple. Il suffit de remarquer que, quand on est mathématicien, on manipule des symboles sur un support matériel d’écriture. »35

Faire des mathématiques, c’est ainsi revenir

« à coucher des traces noires sur la feuille blanche, et à manipuler ces traces, c’est-à-dire les réécrire, en fonction de leur type. Ainsi doit-on traiter toutes les traces représentant la lettre "a" comme pouvant être soumises aux mêmes manipulations puisqu’elles possèdent le même type. »36

Quel que soit le degré de complexité des significations associées aux symboles, il suffit de considérer qu’il s’agit simplement d’une manipulation simple et calculatoire, aussi élémentaire que l’arithmétique.

« Mais, pour cela, il faut dissocier la manipulation des symboles de la compréhension qu’on en a. Et c’est là l’essence du "formalisme" hilbertien : considérer que l’on peut manipuler les symboles mathématiques de manière purement formelle, c’est-à-dire uniquement en fonction de leur forme syntaxique et indépendamment de leur signification sémantique. »37

Ainsi, qu’on mobilise des principes abstraits comme l’infini ou des constructions plus simples revient au même : il s’agit à chaque fois de « constructions purement formelles de symboles vides de sens. »38 Dès lors, démontrer revient simplement à manipuler des symboles, qu’il s’agisse de l’infini ou du chiffre 1, tout en respectant des règles d’écriture et à partir de leur forme.

Si l’idée existe déjà au moins depuis Leibniz, il revient à Hilbert d’avoir posé pour la première fois une théorie des systèmes formels. « Systèmes » puisqu’il y est question d’une description systématique de toutes les manipulations et transformations possibles, et « formels » dans la mesure où il s’agit de manipulations mais indépendamment du sens véhiculé par les symboles. Le formalisme scelle donc la possibilité de raisonner non pas à partir du contenu des symboles mais à partir de leur forme, ce sont les premiers pas de l’informatique. Car en effet, même si Gödel a – selon Bruno Bachimont – montré qu’il est

« impossible de réduire la vérité mathématique à la sûreté du calcul arithmétique (…) le principe d’arithmétiser le raisonnement mathématique était acquis : une partie de l’activité mathématique pouvait être réduite à celle de compter sur ses doigts. Or, il existe des machines permettant de compter. Autrement dit, l’arithmétisation du raisonnement mathématique ouvrait la perspective d’obtenir une machine effectuant ces raisonnements. Si le raisonnement peut être réduit à un calcul sans intelligence, alors une machine peut le prendre en charge. C’est cette dernière étape que propose la machine de Turing »39.

Pour le dire autrement, à partir du moment où le raisonnement peut être arithmétisé et ramené à de la pure manipulation de symboles vides de sens, alors il peut très bien être mécanisé. La naissance de l’informatique se sera donc faite en trois grandes étapes. D’abord, la formalisation du raisonnement, qui – faisant suite à la logique classique – a ouvert la possibilité de ne raisonner que sur la forme d’un signe, indépendamment de son contenu. Ensuite, l’arithmétisation du raisonnement puisque, une fois le caractère purement manipulatoire du raisonnement acquis, il devient possible d’envisager une machine abstraite universelle capable de réaliser tous les calculs : c’est la machine de Turing universelle. Les manipulations de symboles sur la bande mémoire sont en effet purement formelles, la machine n’a pas à chercher la signification associée aux symboles dont elle traite la forme. Enfin, la matérialisation du raisonnement vient inscrire la matérialité abstraite du mécanisme de la machine de Turing dans une matérialité concrète et effective : d’abord celle imaginée du cerveau, McCulloch et Pitts proposant de voir dans le cerveau humain une réalisation matérielle de la machine de Turing, puis beaucoup plus concrètement celle de l’ordinateur, « cette machine concrète réalisant dans l’effectivité physique le principe abstrait de la calculabilité turingienne »40. Si Alan Turing en 1936 donne le modèle théorique de ce qu’on appelle aujourd’hui les « ordinateurs », ce sont Von Neumann et ses collègues qui ont décrit en 1945 l’organisation matérielle d’un ordinateur électronique binaire, connue alors sous le nom d’« architecture de Von Neumann ». Finalement, ce que certains appellent la « révolution numérique » ne repose sur rien d’autre que sur ce principe de manipulation de symboles vides de sens dans le cadre d’opérations syntaxiques où seule la forme compte et qui peuvent être exécutées mécaniquement.

Ce bref détour par l’histoire de l’informatique est essentiel pour comprendre les propriétés du numérique dont sont dotées les traces numériques. On peut en relever au moins quatre. D’abord, tout signe informatique « n’existe pas en vue de sa signification mais en vue de sa manipulation »41, d’où une « ascèse du signe », une expulsion de la signification. Le signe informatique n’est donc pas le signe de la sémiotique puisqu’on y a « suspendu le processus d’interprétation sémiotique […] Le signe ininterprété de l’informatique s’oppose au signifiant de la sémiotique. »42. Stricto sensu, la donnée numérique ne représente donc rien, il y a rupture sémantique, mais elle se prête au calcul et à la manipulation combinatoire. Elle a été travaillée pour devenir homogène et comparable aux autres données numériques. On comprend dès lors que cette asignifiance essentielle est solidaire de la seconde propriété : la manipulabilité. En effet, ce n’est qu’à partir du moment où l’on ne tient compte que de la forme indépendamment du sens que l’on peut traiter les symboles dans le cadre d’un calcul formel. Le numérique, explique Bruno Bachimont « est une fantastique machine à dé-sémantiser les données pour les rendre calculables »43, tout en soulevant par là même la difficulté d’une réappropriation sémantique et le risque d’une désorientation. Le numérique, ajoute-t-il :

« est par définition constitué de symboles arbitraires formels et vides de sens, que l’on peut manipuler mécaniquement de manière aveugle. Les 0 et les 1 de notre codage binaire ne signifient rien. Des textes, sons, mesures, enregistrements que l’on effectue, on obtient des 0 et des 1 que l’on peut manipuler de manière totalement décorrélée du fait qu’il s’agisse de sons, vidéos, mesures, etc. Si bien que l’on peut tout faire à leur endroit, mais qu’on ne sait pas très bien ce qu’on leur fait ni ce que cela veut dire. »44

Pour bien faire saisir l’idée, il ajoute un exemple parlant :

« On apprend à l’école qu’il ne faut pas additionner des choux et des carottes. Mais pourquoi faut-il l’apprendre ? Précisément parce que, par définition, on peut le faire : l’arithmétique permet d’additionner les nombres 2 et 3, que ces derniers représentent des choux ou des carottes. »45

Si manipulabilité et asignifiance vont de pair, elles ne peuvent être séparées d’une troisième propriété du numérique : la discrétisation. On ne peut « désolidariser le calcul du discret : il n’y a de calcul que sur du discret, et du discret que pour du calcul »46. On ne peut en effet calculer que sur des unités discrètes et ces unités discrètes ne prennent de valeur que dans leur combinatoire, c’est-à-dire par calcul. Le signe informatique asignifiant est une valeur relationnelle, non pas dans un réseau de significations, « mais dans un réseau d’unités discrètes »47. Et par discrétisation, il faut entendre

« l’opération selon laquelle un contenu est inscrit en un langage constitué d’unités discrètes indépendantes les unes des autres pouvant être manipulées dans le cadre d’opérations strictement syntaxiques, c’est-à-dire de manière algorithmique ou numérique. »48

Numériser un contenu, c’est le discrétiser et donc le rendre manipulable. Pensons par exemple à la numérisation d’un film qui permet de discrétiser l’écoulement temporel en unités indépendantes les unes des autres de manière par exemple à pouvoir le soumettre au protocole BitTorrent49. Est numérique ce qui repose sur un geste de décomposition de contenu en unités formelles qu’il est possible de recombiner librement. « Décomposition et recombinaison constituent la tendance technique du numérique »50. Et cette discrétisation de l’information

« assure sa reproductibilité à l’identique et sa transmissibilité exacte. Réalisée sur des supports matériels électroniques de grande rapidité physique, l’information dématérialisée reçoit par sa numérisation une ubiquité permettant d’accéder à la même information en différents temps et différents lieux. »51

Après l’asignifiance, la manipulabilité et la discrétisation, l’on peut mettre en évidence la quatrième propriété du numérique, à savoir son authotéticité. Le signe informatique ne renvoyant à rien d’autre que lui-même – puisque, ne comptant que pour sa forme, il ne représente rien – il est autothétique, c’est-à-dire qu’il ne pose rien d’autre que lui-même52. Et c’est d’ailleurs pour cette raison que les ordinateurs peuvent exister.

« Si le symbole informatique sortait de l’autothétique pour acquérir une signification, un sens, une intentionnalité, les lois auxquelles il serait soumis en tant que signe ne permettraient pas de concevoir une machine physique dont la description au niveau informationnel prendrait la forme d’un algorithme. »53

L’autothéticité s’oppose à l’orthothéticité que Bruno Bachimont résume de la manière suivante. L’écriture alphabétique est orthothétique car elle est une écriture de mots et non de choses. Cela veut dire que les traces écrites ne renvoient pas à des choses du monde mais aux mots qui permettent de désigner ces choses du monde. « Cela permet en particulier de conserver tous les aspects non référentiels de la parole, qui sont perdus si l’on réduit l’écriture à une fonction de désignation symbolique. »54 Pensons à un hiéroglyphe représentant un homme qui marche, comment comprendre s’il s’agit de la description d’un homme qui marche ou de l’ordre « marche ! » ? Et c’est précisément ce type de distinction que permet l’orthothèse puisqu’elle pose exactement ce qui a un sens. Ainsi en va-t-il de l’écriture alphabétique qui permet de poser exactement la parole dont elle est l’inscription. Or, le numérique ne renvoyant à rien d’autre que lui-même et ne posant rien d’autre que sa propre effectivité calculatoire, n’est pas orthothétique mais autothétique.


1 Brin D. (2014). Science Fiction and our Dreams of the Future. In David Brin [blogspot], 11 octobre.

2 Deleuze G. et Guattari et F. (2005 [1991]). Qu’est-ce que la philosophie ?. Paris, Les Éditions de Minuit, p. 11.

3 Stengers I. (S.d.). En ligne sur : https://www.ulb.ac.be/recherche/presentation/docs/archivs/PortraitStengers.pdf. Les citations dont les numéros de page sont omis renvoient à des références électroniques non paginées. Tous les sites web qui sont cités ont été consultés pour la dernière fois le 22 mai 2016. « Aujourd’hui, je crains qu’on ne produise des copies parfaitement conformes aux exigences d’évaluation, c’est-à-dire aux problèmes « reconnus ». Or, en recherche, il faut des gens capables de prendre des risques, de prendre des voies minoritaires. S’il faut une évaluation, elle devrait porter sur l’engagement et la capacité de faire passer le sens et les enjeux de ce qui engage. »

4 Jeanneret Y. (2000). Y’a-t-il (vraiment) des technologies de l’information ?. Lille, Presses Universitaires du Septentrion.

5 Ibid.

6 Danowski D. & Viveiros de Castro E. (2014). L’arrêt de monde. In E. Hache (dir.), De l’univers clos au monde infini. Bellevaux, Editions Dehors, p. 221-339.

7 Y. Jeanneret (2011). Complexité de la notion de trace. De la traque au tracé. In B. Galinon-Mélénec (dir.) L’homme trace. Paris, CNRS Editions, p. 63.

8 Ibid., p. 60.

9 Ibid., p. 59.

10 Bouchardon S. (2014). L’écriture numérique : objet de recherche et objet d’enseignement. Cahiers de la SFSIC, p. 225-235.

11 Jeanneret Y. (2011), op. cit., p. 68.

12 Ibid.

13 Collomb C. & Goyet S. (2015). Meeting the machine halfway : towards a semiopolitical approach of computational action. In colloque international Reconfiguring Human and Non Human : Images, Texts, and Beyond. Université de Jyväskylä, 29-30 octobre.

14 Jeanneret Y. & Souchier E. (1999). Pour une poétique de « l’écrit d’écran ». Xoana, n°6, p. 97-107.

15 Ibid., p 97-98.

16 Ibid., p. 98.

17 Ibid.

18 Le Marec J. (2001). Dialogue interdisciplinaire sur l’« interactivité ». Communication & langages.

19 Jeanneret Y. et Souchier E. (1999), op. cit., p. 103.

20 Cet extrait est issu de la page wikipédia de l’entrée « coockie ». En ligne : http://fr.wikipedia.org/wiki/Cookie_%28informatique%29.

21 Souchier E., Jeanneret Y. & Le Marec J. (2003), op. cit., p. 24.

22 Souchier E. & Jeanneret Y. (2002), op cit.

23 Ibid., p 100.

24 Ibid., p. 102.

25 Jeanneret Y. et Souchier E. (1999), op. cit., p. 98.

26 Bouchardon S. (2014), op. cit.

27 Ibid.

28 Why Google analytics ? Google [blog] http://www.google.com/analytics/why/.

30 Jeanneret Y. (2011), p. 65.

31 Bachimont B. (2004). Arts et Sciences du numérique : ingénierie des connaissances et critique de la raison computationnelle (Mémoire d’Habilitation à diriger les Recherches). UTC, Compiègne. Bachimont B. (1999). De l’hypertexte à l’hypotexte : les parcours de la mémoire documentaire. In C. Lenay & V. Havelange (dir.), Mémoire de la technique et techniques de la mémoire. Toulouse, Érès, p. 195-225.

32 Bachimont B. (2004), op. cit., p. 93.

33 Ibid., p. 94.

34 Ibid.

35 Ibid., p. 95.

36 Bachimont B. (1999), op. cit., p. 4.

37 Bachimont B. (2004), op. cit., p. 95.

38 Ibid.

39 Bachimont B. (1999), op. cit., p. 4.

40 Ibid.

41 Bachimont B. (2004), op. cit., p. 101.

42 Bachimont B. (2012). Pour une critique phénoménologique de la raison computationnelle. In D. Frau-Meigs, É. Bruillard & É. Delamotte (dir.), E-dossier de l’audiovisuel : L’éducation aux cultures de l’information.

43 Ibid.

44 Ibid.

45 Ibid.

46 Bachimont B. (2004), op. cit., p. 102.

47 Ibid., p. 101.

48 Bachimont B. (2012), op. cit.

49 Le BitTorrent est un protocole de transfert de données à travers un réseau informatique qui permet de découper l’information à partager en segments puis de les distribuer à différents interlocuteurs. Chaque personne intéressée par ladite information pourra alors la télécharger mais en passera pour ce faire par différents interlocuteurs qui en détiennent chacun un segment. L’avantage de cette distribution des données est de répartir la charge en termes de bande passante, d’hébergement, de matériel tout en procurant de la redondance. Chaque fichier est morcellé et puis chacun peut le télécharger de « pairs à pairs ». Fait intéressant, les blocs peuvent arriver chez le client dans un ordre parfaitement quelconque et depuis des sources multiples – cela n’a pas d’effet néfaste sur la lisibilité future, une fois tout le fichier téléchargé.

50 Bachimont B. (2004), op. cit., p. 102.

51 Bachimont B. (1999), op. cit., p. 3.

52 Bachimont B. (2004) (2012), op. cit.

53 Bachimont B. (1999), op. cit., p. 6.

54 Ibid., p. 7.