Résumé

Il existe dans nos comportements en ligne un paradoxe de la vie privée : alors que nous disons accorder une grande valeur à la protection de notre vie privée, ce sont nos comportements même qui, d’apparence librement consentis, la mettent en péril. Gloria Origgi nous propose dans l’un de ses articles un autre paradoxe : celui de la confiance en ligne. Pourquoi, alors que nous sommes si peu confiants en nos démocraties libérales, accordons-nous autant notre confiance aux contenus en ligne ?

Son étude minutieuse des mécanismes de la confiance épistémique en ligne nous amène à nous interroger sur un troisième paradoxe, celui de la surveillance. En effet, si la surveillance en ligne crée de la défiance, n’est-ce pas sur cette même surveillance de nos données personnelles qu’est fondée une nouvelle forme de confiance, la confiance calculée algorithmiquement, qui pourrait bien être nécessaire au fonctionnement de nos sociétés en modernité liquide ? Existe-t-il des alternatives à cette confiance basée sur la surveillance ?

Auteur(s)

Julien Rossi est ATER à l’Université Rennes 2 et doctorant à l’Université de technologie de Compiègne. Ses recherches et ses publications portent principalement sur une étude communicationnelle des politiques publiques de protection des données à caractère personnel, et sur la généalogie d’un droit à la protection des données juridiquement distinct du droit à la vie privée.

Le texte qui suit n’est pas directement le résultat de travaux de recherche, et n’a pas l’ambition d’être un article scientifique à proprement parler. Il n’est qu’une version retravaillée de mes notes lues lors d’une journée de séminaire de l’axe « Coopérer en milieu numérique » du COSTECH, intitulée « Le numérique en confiance ? », en commentaire d’un article de Gloria Origgi intitulé « Democracy and Trust in the Age of the Social Web »1.

Son article est texte riche qui invite à un grand nombre de réflexions. L’ayant lu il y a plusieurs années, j’en avais gardé le souvenir d’un texte portant sur ce privacy paradox qui résulte du contraste entre l’affirmation commune d’un fort attachement à la protection de sa vie privée et de comportements observés qui mettent en danger cette même protection.

Gloria Origgi évoque d’ailleurs bel et bien le terme de privacy paradox dans son article. Mais elle ne cite pas les principaux papiers publiés sur le sujet et généralement cités dans tout travail sur ce sujet2. Le temps faisant son affaire et s’ajoutant à la déformation professionnelle, née de ma propre focale sur les problématiques de vie privée, j’avais oublié nombre d’aspects pourtant centraux de cet article. Car, en réalité, son article ne parle pas tant du paradoxe de la vie privée, qu’elle n’insère ce premier paradoxe dans un « mystère central » (« central puzzle ») tout aussi déroutant : pourquoi est-on si peu confiant dans notre modernité démocratique libérale, caractérisée par une forme désenchantée de confiance en société, alors qu’on semble avoir une confiance naïve et aveugle dans l’information lue en ligne ?

Une des grandes qualités de l’article de Gloria Origgi est de ne pas se contenter de constater ou de déplorer ni le paradoxe de la vie privée, ni le paradoxe de la confiance, comme nombre d’articles académiques sur ce sujet qui vont jusqu’à parler, sur un ton résolument paternaliste, d’ « attentisme », de « naïveté », de « comportements pathologiques » d’internautes à qui, selon par exemple Anita Allen, il faudrait « imposer » la protection de leur vie privée (pour leur bien et/ou celui de la communauté)3. Au contraire, dès que le constat du paradoxe de la confiance est posé, elle consacre l’essentiel de son article à essayer de le comprendre et de l’expliquer.

Si elle aborde finalement peu les questions de vie privée, ou de protection des données à caractère personnel, son article, publié en 2013, nous rappelle aujourd’hui un autre débat d’actualité : celui sur les « fakes news », ces fausses informations et autres discours de manipulation qui, parce qu’ils sont diffusés sous format numérique, auraient les caractéristiques d’une radicale nouveauté. La fake news du Protocole des Sages de Sion ou encore la fake news sur la robustesse hors du commun de nos frontières françaises face aux radiations de la centrale de Tchernobyl n’ont pas attendu l’avènement du Web et des réseaux sociaux … Mais de fait, le crédit accordé à certains propos diffusés sur des réseaux sociaux ravive la discussion, dans le contexte des usages numériques, sur les modalités de construction de la confiance en des contenus médiatiques.

Qu’est-ce qui fait que nous accordons de la confiance à l’information affichée sur notre écran, quelle qu’elle soit ?

La thèse centrale de Gloria Origgi dans ce texte de 2013 est en effet que, sur Internet, il ne faut pas aborder la question de la confiance sous l’angle de la confiance relationnelle, mais sous l’angle de la confiance épistémique.

La confiance épistémique diffère de la confiance relationnelle en ce que la confiance épistémique n’est pas une confiance relationnelle mais déférentielle. Il y a une asymétrie entre celui qui fait confiance et l’objet de la confiance. On ne transfère pas le pouvoir à autrui d’agir selon notre intérêt (comme quand je fais une procuration de vote, par exemple, ou quand je monte dans un taxi et que je fais confiance pour qu’il conduise de façon à ne pas me tuer), on soumet notre raison à son autorité épistémique. Ainsi, si je demande à Bachar Al-Assad comment nouer ma cravate, je ferai confiance à l’information qui m’est fournie, mais sans me fier à ce sinistre criminel pour autant. C’est une forme de confiance épistémique, qui n’est pas relationnelle.

Cette confiance épistémique, qui est ce qui permet de faire confiance à l’information (ou en le savoir) que me confie un tiers est nécessaire à l’acquisition de connaissances, car une personne ne peut produire pour elle-même la totalité de la connaissance dont elle a besoin, ne serait-ce que pour survivre.

Dans un autre article, de 2004, Gloria Origgi s’était demandé (c’est le titre de son article) : Is Trust an Epistemological Notion ?. Elle y rappelait déjà en propos liminaire que :

« Knowledge is a collective good. Only a small part of our knowledge of the world is generated by our own personal experience. Relying on what others say is one of the most fundamental ways to acquire knowledge, not only about the external world, but also about who we are, for instance about when and where we were born. To use Mary Douglas’ words : “Our colonisation of each others’ minds is the price we pay for thought” » (Origgi, 2004, p. 61)

Toujours dans cet article de 2004, elle construit une réfutation d’une idée répandue en épistémologie classique selon laquelle une connaissance valide, par opposition à l’opinion courante, ne peut être fondée sur la simple confiance en autrui. Elle oppose à cette vision individualiste du savoir son contexte social d’émergence par interactions entre personnes se faisant mutuellement et épistémiquement confiance. La tradition des citations et références scientifiques, à des articles revus par les pairs (et qui remonte d’ailleurs justement à la révolution scientifique du XVIIe siècle avec le Journal des savants – en tout cas pour l’aspect revue) est justement un contre-exemple pratique à la théorie qu’elle attribue tant à René Descartes (idées claires formées en son propre esprit) qu’à David Hume (confrontation à sa propre expérience sensible) d’une vérité construite individuellement

La relation entre savoir et confiance est donc très forte dans la vie quotidienne. Et dans son article de 2013 qui nous intéresse ici, elle cite et semble reprendre à son compte les thèses de Bernard Williams4 qui souhaitait, à partir d’une méthode généalogique inspirée de Friedrich Nietzsche et différente, selon Colin Koopman5, de celle (non-normative mais problématisante) de Michel Foucault : rétablir la valeur morale de ce qu’il appelle « Truthfulness », ou véracité. Celle-ci, qui est une forme de vérité socialement construite, est un élément qu’il juge indispensable à tout bon fonctionnement d’une société. Cette véracité suppose ainsi une dose de confiance épistémique.

Pour revenir à nos moutons numériques, Google et Twitter sont aujourd’hui des exemples de sources d’informations. Nous octroyons notre confiance épistémique à ces outils lorsque nous les utilisons pour accéder à des informations vraies. Et ils ont pris aujourd’hui un rôle important dans la circulation de l’information.

En effet, selon Gloria Origgi, nous confions en milieu numérique à des algorithmes et aux programmes qui les exécutent des fonctions métamnésiques comme l’indexation, la recherche, ou encore la classification de l’information selon des échelles de valeur prédéterminées.

Ces algorithmes ont été notamment étudiés par Dominique Cardon6 (qu’elle cite) et Benjamin Loveluck7 (dans article postérieur à celui de Gloria Origgi). Chaque modalité de classement dépend de certaines conceptions initiales du bon classement de l’information : est-ce que la citation est l’argument d’autorité, comme dans le PageRank de Google ? Ou bien est-ce que c’est les recommandations par des amis (comme dans Twitter et Facebook) ? Ou encore la communauté (comme dans Wikipedia) ?

Gloria Origgi évoque encore dans son article le caractère de monopole naturel qu’acquièrent les nœuds d’information qui ont de l’autorité. Elle appelle ça l’effet aristocratique. Par exemple : les personnes influentes sur Twitter (elle aurait aussi pu parler des influencers sur Youtube), ou encore Google, Twitter et Facebook eux-mêmes. Or, ces acteurs, qu’ils soient influencers sous Youtube ou qu’il s’agisse des plate-formes qui diffusent (et trient) les contenus qu’ils et elles produisent, peuvent agir selon des logiques commerciales et pas exclusivement dans l’intérêt des personnes qui leur font épistémiquement confiance.

La critique qu’adresse Gloria Origgi à une confiance épistémique « étonnamment naïve » n’est pas sans rappeler la critique par Adorno et Horkheimer de l’industrie culturelle8. Elle rappelle qu’il y a des biais, et des manipulations, et que cette industrie est soumise à des logiques de marché. A travers la confiance épistémique en la bonne performance de fonctions métamnésiques par des outils comme Google ou Twitter, c’est aussi une partie de notre cognition que nous déléguons à l’industrie culturelle numérique.

C’est là que la confiance relationnelle et la confiance épistémique se rejoignent finalement au moins en partie : celui à qui j’accorde ma confiance épistémique va-t-il agir dans mon intérêt ? Pas forcément …

Cela ne poserait pas de problème si Gloria Origgi adoptait la thèse anthropologique de l’homo economicus chère aux économistes néoclassiques et aux néolibéraux. En effet, elle rappelle dans son article que les tenants du rational choice posent le problème de la façon suivante : qu’est-ce qui m’assure qu’autrui va agir dans mon intérêt parce qu’il y a un intérêt propre (et peu importe si ce n’est pas le même que le mien) ?

En effet, Origgi rappelle qu’il y a une dimension psychologique, émotionnelle et affective, non-instrumentale, qui est en jeu dans la confiance (comme dans toute relation sociale). Nous sommes des êtres de raison, mais aussi d’affect. Nous acceptons, par la relation de confiance, de nous mettre en position de vulnérabilité. Et ainsi, nous pouvons donc nous rendre vulnérables par notre confiance en les réseaux épistémiques du Web.

Or, à une autre époque, les penseurs libéraux (comme John Locke, David Hume et George Madison) ont théorisé la nécessité d’une défiance envers le pouvoir étatique comme fondement des institutions publiques. C’est la période du passage, selon Benjamin Constant, à la Liberté des Modernes9, qu’Isaiah Berlin10 qualifierait de liberté négative : l’État doit nous laisser tranquille. Pour rétablir la confiance en l’action publique, il faut des lois. La Déclaration des droits de l’Homme et du citoyen rappelle que tout ce qui n’est pas expressément interdit est autorisé11. Et à l’époque moderne, Max Weber, dans Economie et société12,, relève que nous sommes passés à des formes de domination légale-rationnelle, sur la légitimité de laquelle s’appuie une bureaucratie rationnelle.

Une autre caractéristique de la modernité démocratique, qui semble présente implicitement dans le texte de Gloria Origgi, c’est la notion de société organique d’Emile Durkheim : dans un monde de division du travail, les solidarités traditionnelles mécaniques se dissolvent dans des solidarités bureaucratiques organiques13. Dans les termes de Gloria Origgi, nous sommes alors passés de relations de confiance « chaudes » à des relations de confiance « froides », et ce notamment dans nos relations avec l’autorité politique.

Cet exercice critique envers l’autorité doit aussi se faire, nous dit-elle en conclusion, face aux autorités épistémiques du Web à qui nous confions une confiance aveugle. Finalement, c’est probablement la seule recette valable contre les « fake news », si nous souhaitons intégrer le texte de Gloria Origgi à des débats d’actualité : l’éducation critique aux médias, en incluant donc une éducation critique aux autorités épistémiques numériques en réseau. Pour en comprendre les biais et les éventuelles manipulations. Une telle critique devrait aboutir, nous dit-elle, à une remise en cause du caractère impérialiste (devons-nous entendre ici une référence au léninime ou à l’hégémonie gramscienne ?) de ces autorités épistémiques artistocratiques en réseau, et à une redécentralisation du web pour éviter de créer des monopoles ou des oligopoles marchands de la connaissance, et donc, redémocratiser à la fois la connaissance et sa production.

L’élément de la thèse centrale de l’article, selon lequel il faut comprendre le rôle joué par la confiance épistémique en ligne, pour comprendre ce qui s’y joue en termes de confiance, est valide, et tout à fait riche d’enseignement. Nous ne pouvons pas nous contenter de réfléchir à des problèmes de confiance relationnelle pour comprendre le rôle de la confiance dans les usages d’Internet et plus particulièrement du Web.

En effet, le fait de comprendre que la distinction théorique entre opinion (sociale) et connaissance (individuellement vérifiée par construction rationnelle) s’efface devant la réalité pratique d’une construction sociale au quotidien de la connaissance et de la « truthfulness », permet de comprendre pourquoi il est nécessaire aujourd’hui de « faire confiance » à Internet, étant donné le rôle incontournable joué par cet outil (dont on pourra se demander dans quelle mesure il n’est pas, dans certains cas ou pour certaines informations, comme les horaires des trains, un monopole absolu au sens d’Ivan Illich14).

Pour autant, je ne suis pas convaincu par le fait de mettre totalement de côté le rôle de la confiance relationnelle.

Dans des chapitres d’un ouvrage récemment publié par la Chaire « Valeurs et Politiques des Informations Personnelles » de l’Institut Mines-Telecom, qui s’inspire fortement de l’approche de Niklas Luhmann sur la confiance15, Armen Katchatourov rappelle comment la collecte de données à caractère personnel sert à créer de la confiance décidée calculée pour venir à la rescousse d’une confiance assurée mise à mal par notre modernité numérique16.

Cette confiance est calculée sur la base d’un traitement algorithmique de traces numériques. Il peut s’agir de traces intentionnelles d’évaluations par les utilisateurs (sur Uber, Airbnb, eBay, Couchsurfing, Tripadvisor…) ou encore de traces non-intentionnelles (comme dans le cas de credit scoring, ou du crédit social en Chine, ou des algorithmes de monitoring des flux d’activité en ligne comme sqreen.io … ).

Or, comme nous le rappelle Patrick Waelbroeck dans le même ouvrage (intitulé Signes de confiance – l’impact des labels sur la gestion des données personnelles), un acteur économique en qui on a confiance va pouvoir vendre ses biens, et les vendre plus cher17. Dans un autre chapitre du même livre, qu’il a co-écrit avec Antoine Dubus, il rappelle également la théorie sur les tacots (lemons) de l’économiste George Akerlof, publié en 197018 : sur le marché de l’automobile d’occasion, si un vendeur vend à bas prix des voitures qui ne marchent pas ou qui sont dangereuses, il tirera quand même les prix à la baisse sur l’ensemble du marché, à un niveau auquel il pourra ne plus demeurer rentable d’être honnête. Au bout d’un moment, c’est l’ensemble du marché des automobiles d’occasion qui risque de disparaître, car plus personne n’aura confiance dans aucun vendeur. Il faut donc créer des mécanismes qui assurent que la confiance des consommateurs dans les véhicules vendus sur le marché de l’occasion, sous peine de voir ce marché disparaître.

Le besoin, pour qu’un marché existe, qu’il y ait un minimum de confiance entre les acteurs économiques explique une part de l’économie des données personnelles en ligne. En effet, ces données, en particulier lorsqu’il s’agit de données d’évaluation, sont utiles pour calculer des indices de confiance, comme la note d’un chauffeur de VTC, ou d’un hôte sur Couchsurfing. C’est cette note, calculée à partir de la moyenne de toutes les évaluations entrées par les utilisateurs de ces plateformes, qui permet de construire la confiance sur certains marchés en ligne. Dans un tel système, chaque utilisateur devient le surveillant de l’autre.

Si la note d’un utilisateur sur Couchsurfing, qu’il soit hôte ou couchsurfeur, est calculée à partir de données entrées à la main et volontairement par des évaluateurs, selon un processus finalement assez transparent, la cote de crédit calculée par une banque ou des organismes spécialisés dans ce type de calcul pour déterminer si une banque peut vous faire confiance pour rembourser un prêt résulte, elle, d’un processus beaucoup moins transparent, qui peut intégrer au calcul des traces comportementales non-intentionnelles. Nous pouvons sans trop de difficulté imaginer que des systèmes de fouille de données comportementales utilisées par des services de renseignement pour profiler la population aboutisse également à un système de notation de la dangerosité des individus composant une population, et ce, de façon on ne peut moins transparente.

Nous pouvons alors formuler à ce stade l’hypothèse que c’est justement parce que nous vivons dans une forme de modernité, que Zygmunt Bauman qualifie de liquide, que de tels systèmes se développent. Cette modernité liquide s’inscrit dans la continuité du mouvement qui nous a conduit au XIXe siècle de la société de solidarité mécanique à la société de solidarité organique19.

Nous avons dans un premier temps délaissé, globalement, les solidarités familiales, paroissiales, villageoises, fondées sur la proximité géographique, au profit de solidarités organiques, qui encouragent la spécialisation du travail et l’interdépendance régie par des règles rationnelles et bureaucratiques. Le paradoxe de la modernité, selon Zygmunt Bauman, était qu’on tentait de maîtriser l’incertitude par la rigueur bureaucratique, et que dans le même temps, notre modernité détruisait les traditions et les continuités, créant ainsi de nouvelles incertitudes. La liquidité de relations sociales instables et en recomposition permanente aurait triomphé dans la période post-moderne qui s’ouvrirait aujourd’hui.

Selon Zygmunt Bauman et David Lyon, qui ont publié leurs échanges dans un livre intitulé Liquid Surveillance20, la société de la surveillance dans laquelle nous vivons doit être comprise et replacée dans le contexte de cette modernité liquide. La surveillance devient une forme de stabilisation des relations sociales. Elle est une nouvelle forme de régulation séparée de la sphère politique, qui a par ailleurs fait l’objet d’analyses par Antoinette Rouvroy et Thomas Berns dans leur définition du concept de gouvernance algorithmique.

Si ainsi, pour Zygmunt Bauman et David Lyon, la surveillance est avant tout une forme liquide de contrôle social qui transgresse les frontières et les espaces la modernité « solide » (ils étudient beaucoup l’exemple des recommandations Amazon, par exemple, en lien avec la nécessité pour le capitalisme moderne de perpétuer la croissance économique par la création de nouveaux besoins), ils auraient aussi pu rappeler que, en milieu numérique (qui est co-constitutif de la modernité liquide) la confiance assurée relationnelle n’est pas assurée. D’où la nécessité d’exploiter des traces numériques pour construire des confiances calculées.

C’est à ce stade qu’après le paradoxe de la vie privée, puis le paradoxe de la confiance, nous rencontrons un nouveau paradoxe. La modernité numérique (et/ou liquide) créée des interactions sociales où il faut faire confiance à autrui sans le connaître, disposer d’assurance sur lui, ou partager de quelconque rapport de proximité. Il peut être très loin, et rien ne nous assure qu’il a intérêt à nous faire confiance. Qui nous assure que notre prochain hôte Couchsurfing n’est pas un tueur en série ? Rien, sinon l’aspect disciplinaire de la note qui lui sera assignée, avec une moyenne calculée par le site web. Idem pour Airbnb, ou Blablacar. Mais c’est aussi la même chose pour le banquier qui doit ou non octroyer un crédit sur la base d’un credit score.

Une partie de la surveillance en ligne est donc légitimée par la théorie d’Akerlof, que cela soit conscient ou non. La surveillance crée de la confiance. Mais en même temps, ce même argument reposant sur la théorie des tacots d’Akerlof est retourné contre une surveillance cadrée comme source de défiance. Car sans confiance en l’informatique, il n’y aura pas de marchés en ligne, ni de participation des gens à ce dispositif socio-technique, à la fameuse « révolution numérique ».

Ce discours sur la nécessité d’une construction de la confiance en l’informatique est presque aussi ancien que l’informatique électronique elle-même. Il était déjà formulé dans les années 1960 et 1970 par Spiros Simitis, l’inventeur du terme de protection des données, et rédacteur de la première loi de protection des données au monde. Il est aujourd’hui utilisé par nombre d’ « avocats de la vie privée » (privacy advocates), comme il ressort des entretiens que j’ai pu mener au cours de mes recherches. La « confiance », dont un des ingénieurs que j’ai interrogés regrettait d’ailleurs qu’elle ne fasse pas l’objet d’une définition rigoureuse et consensuelle, est l’argument qui, si l’on adopte le point de vue des théories cognitives des politiques publiques de Pierre Müller21, fait l’articulation entre le référentiel sectoriel de la « privacy community » pro-protection-des-données, et le référentiel global (keynésien puis néolibéral) favorable à l’exploitation informatisée des données à caractère personnel. En d’autres termes, cela veut dire que pour convaincre des décideurs publics convaincus de l’utilité d’exploiter les données à caractère personnel d’adopter des lois qui encadrent cette pratique, il leur est opposé depuis les années 1960 que cela ne marchera qu’à condition que les usagers de l’informatique aient confiance en ce dispositif technique informatique, et puissent ainsi y prendre part.

Cet argument a fait mouche. Y compris les principaux lobbies qui ont œuvré pour tenter de faire adopter une réglementation plus souple, en Europe, en matière de protection des données à caractère personnel, y adhèrent. Ainsi, l’un des lobbyistes les plus actifs sur le dossier du RGPD me disait en entretien :

« I think if you ask our membership there is a fundamental understanding that privacy is top priority. It is obviously… that’s how you build your credibility, your trust, you know, that all builds into this trust. So if you don’t have that in place, you don’t have a business. So I think that fundamentally there is an understanding of that. »

En conclusion, Gloria Origgi attire dans son article notre attention sur le rôle de la confiance épistémique dans la compréhension de la « question centrale » (central puzzle) du paradoxe de notre confiance en Internet, et en particulier en l’information que l’on y trouve. Mais il ne faut pas pour autant mettre entièrement de côté les problématiques de la confiance relationnelle en ligne. En effet, le milieu numérique est un canal de communication (et donc d’interactions sociales) qui n’est en réalité pas dissociable du « monde réel ». Nous avons des relations en ligne avec notre banque, notre libraire, nos vendeurs d’objets d’occasion, un futur couchsurfeur … Dans ce milieu numérique, où se nouent des relations si caractéristiques de notre modernité liquide, la confiance assurée luhmannienne n’est justement pas (ou plus) assurée. Une part des informations personnelles que nous divulguons sert donc à s’assurer notre propre réputation en ligne : nous nous construisons, notamment en semant à bon escient les bonnes traces numériques, une « réputation de fiabilité » pour gagner la confiance d’autrui et exister sur certains marchés (ex : la vente d’objets d’occasion sur eBay, la location d’appartement sur Airbnb, la possibilité de prendre un VTC sur Uber…).

Mais cette confiance calculée se fonde sur des formes de surveillance, qui fragilise la confiance dans le système technique informatisé dans son ensemble, puisque nous ne sommes plus certains que les outils numériques que nous utilisons à la fois pour nous informer (confiance épistémique) et pour communiquer avec parfois des inconnus (confiance relationnelle) soient utilisés dans notre intérêt. Et si la surveillance était disproportionnée, utilisée pour nous manipuler cognitivement (bulles informationnelles, scandale Cambridge Analytica…) et, pour utiliser un vocabulaire stieglerien, libidinalement (manipulation de nos désirs par exemple par la publicité comportementale) ?

La confiance, et sa nécessité, y compris pour que puissent fonctionner des marchés en milieu numérique, se retrouve ainsi au cœur de ce nouveau paradoxe : elle légitime à la fois une part de la surveillance ancrée dans une liquidité moderne en panne de confiance assurée et une part des politiques publiques de protection des données à caractère personnel présentées comme indispensable au maintien d’un climat de confiance du public envers l’infrastructure informatique.

Ce paradoxe de la surveillance en contexte de modernité liquide amène à son tour de nouvelles questions de recherche. Peut-on par exemple imaginer d’autres façons de construire de la confiance relationnelle en ligne que par la surveillance ? Ou encore : le droit à la protection des données personnelles comme le droit de la protection des données à caractère personnelle qui en est la traduction opérationnelle, peuvent-ils véritablement permettre de se désinscrire de ces logiques de surveillance palliatives au défaut de confiance de nos modernités liquides, ou n’est-ce qu’un outil de gestion de réputation tout à fait compatible avec un régime de gouvernementalité par la surveillance algorithmiquement outillée ? Voire s’agit-il tout au plus d’une façon d’usurper la confiance des utilisateurs de l’informatique en réseau ?

Je n’ai en tout cas à ce stade absolument aucune réponse, voire début de réponse, à formuler à ces multiples questions.


Bibliographie

Acquisti, Alessandro, et Ralph Gross. 2006. « Imagined Communities : Awareness, Information Sharing, and Privacy on the Facebook ». Proceedings of the 6th International Conference on Privacy Enhancing Technologies. p. 36‑58.

Acquisti, Alessandro, Michèle Francine MBo’o Ida, et Fabrice Rochelandet. 2011. « Les comportements de vie privée face au commerce électronique ». Réseaux. n°167, p. 105‑130.

Akerlof, George A. 1970. « The Market for “Lemons” : Quality Uncertainty and the Market Mechanism ». The Quarterly Journal of Economics. Vol. 84, n°3, p. 488‑500.

Bauman, Zygmunt, et David Lyon. 2013. Liquid surveillance : a conversation. Cambridge, UK ; Malden, MA : Polity Press, 182 p.(Polity conversations series).

Cardon, Dominique. 2015. A quoi rêvent les algorithmes : nos vies à l’heure des big data. Paris : La République des idées  : Seuil, 105 p.(La République des idées).

Illich, Ivan. 2014 [1973]. La convivialité. Paris:Seuil

Khatchatourov, Armen. 2018. « La confiance dans le numérique. Des signes extérieurs vers la régulation de soi. » Dans : Levallois-Barth C (éd.). Signes de confiance, l’impact des labels sur la gestion des données personnelles. Paris : Telecom ParisTech, p. 5‑20.

Koopman, Colin. 2013. Genealogy as Critique : Foucault and the Problems of Modernity. Bloomington : Indiana University Press.

Loveluck, Benjamin. 2015. « Internet, une société contre l’État  ? » Réseaux. n°192, p. 235‑270.

Luhmann, Niklas. 2001. « Confiance et familiarité ». Réseaux. Vol. no 108, n°4, p. 15‑35.

Müller, Pierre. 2000. « L’analyse cognitive des politiques publiques  : vers une sociologie politique de l’action publique ». Revue française de science politique. Vol. 50, n°50, p. 189‑208.

Norberg, Patricia A., Daniel R. Home, et David A. Home. 2007. « The Privacy Paradox : Personal Information Disclosure Intentions versus Behaviors ». Journal of Consumer Affairs. n°41, p. 100‑126.

Origgi, Gloria. 2013. « Democracy and Trust in the Age of the Social Web ». Dans : Bovero M (éd.). Teoria Politica - Nuova Serie - Annali III. Madrid : Marcial Pons, p. 23‑38.

Origgi, Gloria. 2004. « Is Trust an Epistemological Notion ? » Episteme. Vol. 1, n°1, p. 61–72.

Waelbroeck, Patrick. 2018. « Les impacts économiques des labels ». Dans : Levallois-Barth C (éd.). Signes de confiance, l’impact des labels sur la gestion des données personnelles. Paris : Telecom ParisTech, p. 168‑178.

Waelbroeck, Patrick, et Antoine Dubus. 2018. « Analyse économique des marques de confiance ». Dans : Levallois-Barth C (éd.). Signes de confiance, l’impact des labels sur la gestion des données personnelles. Paris : Telecom ParisTech, p. 153‑166.

Williams, Bernard. 2004 [2002]. Truth & truthfulness : an essay in genealogy. Princeton, NJ : Princeton Univ. Press.(Princeton paperbacks).



1 Origgi, Gloria. 2013. « Democracy and Trust in the Age of the Social Web ». Dans : Bovero M (éd.). Teoria Politica -Nuova Serie - Annali III. Madrid : Marcial Pons, p. 23‑38.

2 Acquisti, Alessandro, et Ralph Gross. 2006. « Imagined Communities : Awareness, Information Sharing, and Privacy on the Facebook ». Proceedings of the 6th International Conference on Privacy Enhancing Technologies. p. 36‑58.
Norberg, Patricia A., Daniel R. Home, et David A. Home. 2007. « The Privacy Paradox : Personal Information Disclosure Intentions versus Behaviors ». Journal of Consumer Affairs. n°41, p. 100‑126.
Acquisti, Alessandro, Michèle Francine MBo’o Ida, et Fabrice Rochelandet. 2011. « Les comportements de vie privée face au commerce électronique ». Réseaux. n°167, p. 105‑130.

3 Voir par exemple : Allen, Anita. 1999. « Coercing Privacy ». Faculty Scholarship [En ligne]. Disponible sur : < http://scholarship.law.upenn.edu/faculty_scholarship/803 >

4 Williams, Bernard Arthur Owen. 2004. Truth & truthfulness : an essay in genealogy. Princeton, NJ : Princeton Univ. Press

5 Koopman, Colin. 2013. Genealogy as Critique : Foucault and the Problems of Modernity. Bloomington : Indiana University Press.

6 Cardon, Dominique. 2015. A quoi rêvent les algorithmes : nos vies à l’heure des big data. Paris : La République des idées  : Seuil, 105 p.(La République des idées).

7 Loveluck, Benjamin. 2015. « Internet, une société contre l’État  ? » Réseaux. n°192, p. 235‑270.

8 Adorno, Theodor Wiesengrund, et Max Horkheimer. 2011 [1944]. Kulturindustrie : raison et mystification des masses. Paris : Éd. Allia.

9 Constant, Benjamin. 2010 [1819]. De la liberté des anciens comparée à celle des modernes. Paris : Mille et une nuits

10 Berlin, Isaiah. 1969. Four Essays on Liberty. Oxford : Oxford University Press.

11 Article 4 de la Déclaration universelle des droits de l’Homme et du citoyen : « La liberté consiste à pouvoir faire tout ce qui ne nuit pas à autrui : ainsi, l’exercice des droits naturels de chaque homme n’a de bornes que celles qui assurent aux autres membres de la société la jouissance de ces mêmes droits. Ces bornes ne peuvent être déterminées que par la loi. »

12 Max Weber, Économie et Société, Paris, Plon, [1921] 1971

13 Durkheim, Emile. 1893. De la division du travail social. Paris : Félix Alcan,

14 Illich, Ivan. 2014 [1973]. La convivialité. Paris : Seuil.

15 Luhmann, Niklas. 2001. « Confiance et familiarite ». Réseaux. N° 108, p. 15‑35.

16 Khatchatourov, Armen. 2018. « La confiance dans le numérique. Des signes extérieurs vers la régulation de soi. » Dans : Levallois-Barth C (éd.). Signes de confiance, l’impact des labels sur la gestion des données personnelles. Paris : Telecom ParisTech, p. 5‑20.

17 Waelbroeck, Patrick, et Antoine Dubus. 2018. « Analyse économique des marques de confiance ». Dans : Levallois-Barth C (éd.). Signes de confiance, l’impact des labels sur la gestion des données personnelles. Paris : Telecom ParisTech, p. 153‑166.

18 Akerlof, George A. 1970. « The Market for “Lemons” : Quality Uncertainty and the Market Mechanism ». The Quarterly Journal of Economics. Vol. 84, n°3, p. 488‑500.

19 Durkheim, Emile. 1893. De la division du travail social. Paris : Félix Alcan,

20 Bauman, Zygmunt, et David Lyon. 2013. Liquid surveillance : a conversation. Cambridge, Royaume-Uni  ; Malden, MA : Polity Press, 182 p.(Polity conversations series).

21 Müller, Pierre. 2011. Les politiques publiques. Paris : Presses universitaires de France