La personnalisation du web nous enferme-t-elle dans notre bulle?

Living in a Bubble quatro.sinko via Flickr CC  License by

Living in a Bubble quatro.sinko via Flickr CC License by

À force d’adapter son contenu à nos goûts personnels, Internet nous conforterait dans nos certitudes. Mon expérience est toute autre.

Ma toute première conversation au sujet d’Internet eut lieu en 1993. C’était avec Robert Wright, qui était à l’époque mon collègue à la New Republic. Je me souviens de Bob me disant que ce bidule, le «Net,» allait vraiment prendre des proportions gigantesques, mais que ça pourrait provoquer quelques problèmes.

Notamment que ça allait donner un nouveau pouvoir aux dingues, vu que des tarés géographiquement éparpillés allaient pouvoir se retrouver en ligne. Également que cela pourrait nuire à la culture de la démocratie en encourageant des gens étroits d’esprit à s’enfoncer encore davantage dans leurs trous. Wright énonçait ces inquiétudes dans un article qui est un véritable modèle de prescience et une délicieuse capsule témoin (je cite: «Les gens qui “postent” sur les différents panneaux d’affichage du Net —ses “newsgroups”— savent que ce qu’ils écrivent peut être vu de n’importe quel bout de territoire habité de la planète»).

Dix-huit ans plus tard, notre jargon a évolué mais les inquiétudes sont toujours à peu près les mêmes. La première préoccupation de Wright, angoissé à l’idée que des terroristes et des fanatiques puissent gagner en puissance grâce à la technologie numérique, s’est clairement confirmée.

Nous et nos petits intérêts

La seconde, sur le fait qu’Internet génère des garennes mentales, reste un sujet ouvert. Dans son nouvel ouvrage, The Filter Bubble, Eli Pariser, ancien directeur du groupe activiste libéral Moveon.org, annonce l’avènement d’une contre-utopie de l’information. Grâce aux progrès de la personnalisation, nous recevons tous de plus en plus de ce qui nous plaît et qui concorde avec nos idées, et de moins en moins de contenu qui mette en doute nos convictions. Pour Pariser, ces outils sapent le discours civique. «Cette bulle de filtrage nous pousse dans la direction opposée, écrit-il. Elle crée l’impression que notre petit intérêt personnel est la seule chose qui existe.»

La disparition d’une base commune d’informations, craint-il, nous rend étroits d’esprit, moins aventureux intellectuellement et plus vulnérables à la propagande et à la manipulation. Les appréhensions de Pariser font écho à celles exprimées par Nicholas Negroponte et Cass Sunstein, qui s’alarment à l’idée que le Web pourrait se transformer en «Daily Me» [quotidien au contenu customisé en fonction des goûts du lecteur] narcissiste adapté à chacun d’entre nous.

Le côté obscur de la personnalisation est particulièrement intéressant pour ceux d’entre nous qui travaillent au carrefour du journalisme et de la technologie. Si le Web donne aux consommateurs un moyen d’individualiser leurs choix relationnels et leurs loisirs, jusqu’à une période récente, il n’y était pas encore parvenu avec l’actualité en elle-même.

Mais les investissements se déversent à flot justement vers ce type de filtrage. Le Washington Post, propriétaire de Slate.com, vient de lancer Trove, «un moteur personnalisé d’informations et d’actualité» dans lequel j’ai été vaguement impliqué. Le New York Times a News.me, un «service d’informations sur abonnement». Flipboard et Zite, qui créent des «magazines» personnalisés pour tablettes basés sur vos fils d’actualité Facebook et Twitter, sont les derniers chouchous en date de la Silicon Valley.

En extrapolant à partir de toute cette activité et des efforts toujours plus intenses pour customiser les recherches et les expériences des médias sociaux en ligne, il est désormais possible d’imaginer un monde dans lequel chacun crée sa propre forteresse mentale et appréhende le monde extérieur au travers de meurtrières numériques.

La personnalisation de Google en pratique

Cette peur théorique qui sévit depuis si longtemps est-elle en passe de devenir un problème réel dans notre société? La pseudo-vérité préférée de Pariser, avec laquelle il ouvre son ouvrage, est que Google personnalise aujourd’hui les résultats de recherches en fonction de 57 signaux différents, même si vous n’êtes pas connecté par le biais d’un compte Gmail. On aurait tendance à croire que quelqu’un préoccupé à ce point par les périls de la personnalisation prêterait davantage d’attention à Facebook, mais Pariser croit que les 57 signaux de Google comprennent, ou équivalent à des cadres idéologiques.

Il raconte avoir demandé l’année dernière à deux amies partageant des points de vue politiques libéraux de rechercher le mot «BP». L’une d’entre elle a obtenu des informations sur les investissements de la compagnie. L’autre, des informations sur la marée noire. Curieusement, cette unique anecdote est tout ce qu’il avance pour soutenir la thèse centrale de son livre.

Doutant de l’exactitude de l’affirmation de Pariser, j’ai demandé à quelques-uns de mes abonnés Twitter et de mes amis Facebook de rechercher quatre mots susceptibles de faire l’objet d’une fragmentation idéologique: «John Boehner,» «Barney Frank,» «projet Ryan» [projet républicain de restriction de la couverture sociale] et «Obamacare». Mes cinq volontaires étaient:

  • Tom, mon cousin par alliance, républicain, qui travaille à Wall Street
  • Jake, qui affirme être indépendant politiquement, conseiller en assurances à Dubuque, dans l’Iowa
  • Steven, démocrate modéré qui possède une PME à Royal Oak, dans le Michigan.
  • Pat, ancien développeur de Slate.com, politiquement libéral, qui habite à Chicago
  • Fred, ancien colocataire de la fac, qui travaille dans les transports et se proclame «démocrate de gauche, quasi-socialiste».

Les captures d’écran qu’ils m’ont renvoyées pour ces recherches ne présentaient que de très légères différences. Le conseiller en assurances de Dubuque est tombé sur des entrées Wikipedia des deux élus du Congrès avant leurs propres sites officiels, tandis que tous les autres ont d’abord obtenu les sites officiels. Mais apparemment, aucune de ces légères variations ne s’alignait avec les points de vue politiques de quiconque. Pour Boehner, par exemple, tous les cobayes —et moi aussi— sont tombés sur le même site hostile en cinquième position.

Quand je lui ai posé la question, Google m’a répondu en évoquant la nécessité d’équilibrer intérêts personnels et diversité. «En réalité nous avons des algorithmes spécifiquement conçus pour limiter la personnalisation et promouvoir la variété dans les pages de résultats», m’a affirmé par mail un porte-parole.

Les analystes indépendants n’y voient pas un problème eux non plus. Jonathan Zittrain, professeur de droit et d’informatique à Harvard, qui étudie la censure du Web, pense également que Google ne fait pas du tout ce que Pariser affirme. «Mon expérience me laisse croire que les effets de la personnalisation des recherches sont légers», m’a-t-il confié.

Évidemment, si vous cliquez constamment sur les résultats de recherche venant de la même source d’informations —que ce soit Fox News ou le New York Times— cette source va monter dans le classement de vos recherches, tout comme «aimer» quelque chose ou cliquer sur des éléments de votre fil d’actualité Facebook augmente la probabilité d’en voir apparaître davantage du même tonneau. Mais au cours des 15 dernières années, les craintes que nous mangions tous à l’auge d’un «Daily Me» ne se sont pas franchement concrétisées.

Un red chef reste meilleur qu'un algorithme

Comment se fait-il que les génies du Web n’aient pas trouvé comment personnaliser l’actualité? La réponse est que c’est un problème très difficile. Lorsqu’il s’agit de films ou de chansons, les algorithmes peuvent comparer mes préférences à une immense base de données qui reste à peu près constante d’un jour à l’autre.

Mais l’actualité, elle, change constamment. Pour prédire quelles informations vont m’intéresser, un algorithme devra évaluer mon intérêt pour des événements qui ne se sont pas encore produits. Pour l’instant, les rédacteurs en chef restent bien meilleurs que les machines pour cette tâche, et je ne pense pas que Watson soit prêt à battre Jill Abramson dans un avenir proche. Une meilleure personnalisation algorithmique pourra compléter l’organisation humaine des bases de données, mais je doute sérieusement qu’elle sera capable de la supplanter.

Il me semble aussi que Pariser se trompe complètement en disant que la personnalisation rétrécit nos perspectives au lieu de les élargir. Les bulles sont imposées involontairement depuis toujours. Il n’y a pas si longtemps, la plupart des Américains ne recevaient leurs informations que par le biais de trois réseaux télévisés semblables et de journaux locaux qui reflétaient un consensus étroit.

Ce que le web a changé pour moi

Avec le Web, où les choix sont proches de l’infini, personne n’est obligé d’être limité ainsi. Pourquoi déduire que quand les gens ont davantage de choix, ils choisissent de vivre dans une chambre d’écho? Certaines études ont montré par exemple que les blogueurs conservateurs et libéraux sont étonnamment interconnectés. Si vous voulez recevoir toutes vos informations de Glenn Beck et de radios orientées à droite, libre à vous. Mais mon expérience est que la personnalisation, là où elle fonctionne avec efficacité, est synonyme de plus grande diversité de sources et de points de vue. Grâce à Twitter, j’ai vu les révolutions du Proche-Orient par les yeux d’activistes arabes et d’écrivains, et pas seulement de correspondants américains à l’étranger.

S’il existe une bulle qui filtre quelque chose dans notre société, il s’agit sans doute davantage d’une bulle financière qu’intellectuelle, car trop d’investissements sont dirigés vers les outils destinés à manipuler les contenus, et pas assez vers les éditeurs qui les créent. Mais si l’idée que Google ne vous offre qu’une perspective faussée et partielle du monde vous empêche de dormir, il existe une solution toute simple. Désactivez la fonction de personnalisation en suivant ce mode d'emploi.

Jacob Weisberg

Traduit par Bérengère Viennot

 

Partager cet article