Tech & internet

Notre manque de connaissances des algorithmes nous nuit

 <a href="https://www.flickr.com/photos/riebart/4466482623">Code</a> / Michael Himbeault via Flickr CC <a href="https://creativecommons.org/licenses/by/2.0/">Licence By</a>
Code / Michael Himbeault via Flickr CC Licence By

Temps de lecture: 2 minutes - Repéré sur The Washington Post, Nienman Lab, The Huffington Post

Dans un article du 20 mars, le réseau social Pinterest expliquait sur son blog qu'il peaufine l’algorithme qui gère sa page d'accueil et décide quels sont les posts à montrer à tel ou tel abonné. 

Le Washington Post rappelle que Pinterest n’est pas le seul site à décider de ce que vous pouvez voir et ne pas voir: Google et Facebook aussi. Sur ces sites, les algorithmes (des bouts de code qui prennent des décisions ou font des recommandations) programmés peuvent nous isoler de tout ce qui pourrait aller à l’encontre de notre point de vue, voire perpétuer des biais sur les races ou les genres. Ils sont si courants que certains sociologues s’inquiètent qu’ils puissent devenir une forme de «contrôle social».

En essayant de prédire ce que nous allons aimer pour personnaliser notre page d’accueil, les sites ont tendance à ne laisser émerger que ce qui nous conforte dans nos préférences. La journaliste du Washington Post Caitlin Dewey résume: 

«Au fil du temps, à travers beaucoup de clics, vous vous enfoncez graduellement dans un monde où tous les articles d’actualité sont très libéraux, ou dans lequel toutes les recettes de cuisine contiennent du choux de Bruxelles.»

Le militant d’Internet Eli Pariser avait d’ailleurs mis en garde les internautes contre ce phénomène qu’il appelle la «bulle de filtres». Selon Pariser, chacun accède à une version différente du web et cette bulle s’avérera mauvaise pour nous et pour la démocratie sur le long terme. Elle peut aussi influer sur les relations sociales: moins on interagit avec un ami, moins ses posts sont visibles sur notre mur Facebook. 

Pire encore, de plus en plus d’études, comme celle de l'Université de Cornell, montrent que les algorithmes eux-mêmes contiennent des biais dans leur code. Parfois explicitement, comme la version US de Google qui propose des annonces personnalisées sur des recherches de casier judiciaire lorsqu’on tape un nom à consonance noire. Parfois de manière détournée, comme lorsque Facebook affirme que son algorithme est personnalisé pour notre profit alors qu’il est surtout personnalisé pour les annonceurs. 

Il est quasiment impossible de connaître ces biais, puisque Facebook, Google ou Pinterest n’expliquent pas les subtilités de leur code. Mais des fissures commencent à apparaître, rappelle le Washington Post. En février, une étude révélait que les changements dans l’algorithme du site pouvaient manipuler les sentiments des utilisateurs à leur insu. Peu après, la sociologue Zeynep Tufekci a accusé Facebook de favoriser les contenus plus légers face aux articles sur Ferguson.

Zeynep Tufekci a aussi prédit que 2015 serait l’année où nous commencerions à avoir peur des algorithmes. Sur Nieman Lab elle explique:

«Nous sommes en train d’assister à la naissance d’une nouvelle ère, l’ère du jugement par les machines: des machines qui ne calculent pas seulement comment  trier rapidement une base de données ou effectuer un calcul mathématique, mais décident ce qui est "meilleur", "pertinent", "approprié", ou "dangereux".»

Sur le Huffington Post, Miguel Milano, directeur de vente pour l’EMA, estime que nous sommes dans l’âge des algorithmes. Il rapporte que l’entreprise Cisco estime qu’environ 50 milliards d’appareils seront reliés à Internet en 2020 et que ces derniers pourront communiquer entre eux et agir en se fondant sur les informations dérivées d’algorithmes, comme les voitures sans conducteur

Peu de personnes sont conscientes de la présence de ces algorithmes. Selon une étude de l’université de l’Illinois, moins de 40% des utilisateurs de Facebook réalisent qu’ils ne voient pas tout ce que leurs amis postent sur le site. 

cover
-
/
cover

Liste de lecture