Partager cet article

YouTube et la difficile question de la censure

Un visiteur au stand YouTube lors du Mipcom, le marché international des programmes audiovisuels, qui se tient tous les ans à Cannes. REUTERS / Eric Gaillard

Un visiteur au stand YouTube lors du Mipcom, le marché international des programmes audiovisuels, qui se tient tous les ans à Cannes. REUTERS / Eric Gaillard

«Ce contenu n’est pas disponible dans votre pays»: tel est le message brut, sans autre forme de justification, qui s’affiche parfois sur votre écran d’ordinateur. Autant dire que les critères de censure des géants du Web ne sont pas très nets!

En 2006, le militant des droits de l’homme et blogueur Wael Abbas a posté une vidéo sur le Web montrant deux policiers en train de sodomiser un chauffeur de bus avec une matraque. Le film a entraîné des poursuites contre les policiers-violeurs, chose rare en Egypte. Peu après, Wael Abbas a vu son compte YouTube suspendu au motif qu’il avait enfreint le Règlement de la communauté YouTube, qui interdit les «images violentes ou la violence gratuite».

Google, la société mère du site de partage de vidéos, a fini par débloquer le compte du blogueur suite à une demande fondée de la part d’associations de défense des droits humains: la vidéo publiée par Wael Abbas constituait un élément de preuve de la brutalité policière en Egypte et était, à ce titre, un outil essentiel à la réforme. Après cette affaire, Google en a conclu que certaines images sont trop précieuses pour qu’on les supprime, même lorsqu’elles risquent fort de choquer.

A la mi-septembre, le film The Innocence of Muslims a fait scandale, poussant Google à appliquer, cette fois, tout le contraire de ce principe. La vidéo a été temporairement bloquée en Egypte et en Libye en raison de «la situation extrêmement sensible dans ces deux pays»: c’est ce qu’ont déclaré des représentants de YouTube. Pourtant, les gouvernements de ces deux pays n’avaient pas demandé à ce que ce film soit censuré.

Par ailleurs, ses images ne sont pas stricto sensu en violation du Règlement de YouTube, qui proscrit toute image de violence gratuite et tout discours incitant à la haine. (Depuis, The Innocence of Muslims est tranquillement redevenu accessible en Egypte et en Libye). Dès le départ, Google avait autorisé ce film dans la plupart des pays, refusant même une demande de la Maison Blanche de le retirer de la Toile. Mais dans certains pays, dont l’Inde et l’Indonésie, où le film a été jugé illégal, le géant du Web a décidé de le bloquer. Car outre d’appliquer sa propre politique, Google veille aussi à se conformer aux lois nationales.

Les géants du Web sont amenés à «faire leur loi»

Surpris par l’enchaînement des événements, Google a pris la meilleure décision possible. On peut cependant lui reprocher de ne pas proposer aux utilisateurs de YouTube un accès direct à la logique qui sous-tend ses décisions en matière de censure. L’entreprise s’est engagée publiquement à promouvoir la liberté d’expression. Dans ce but, elle rend compte de la manière dont elle traite les exigences émanant du sommet de l’Etat dans le monde entier. Tout ce qu’il y a de plus louable. Etant donné son immense influence et son pouvoir de création d’un «discours public mondial» sur Internet, elle devrait faire preuve de la même transparence sur sa gestion privée d’un discours accessible à l’international.

Les souverains du cyberespace, à l’image de Google, Facebook ou Twitter, ne disposent ni de corps législatif, ni de tribunaux. Pourtant, ils doivent bien poser un cadre, constitué de règles qu’ils instaurent eux-mêmes, à des propos privés accessibles dans le monde entier. Parfois pour répondre aux exigences des gouvernements, parfois pour faire respecter les principes de base et conditions d’utilisation de leurs sites.

Dans les climats sociopolitiques modernes, encadrer efficacement les contenus du Web relève de l’exploit. Inévitablement, les sociétés du Web seront confrontées à des dilemmes pas possibles. Alors, elles seront tentées d’adapter leur «règlement de la communauté», censé s’appliquer à tous les pays, à des circonstances imprévisibles.

Avec tant de populations prêtes à créer une émeute, tant de provocateurs à l’affût de prétextes et tant de moyens de communication entre tous ces gens, on ne peut pas attendre d’une entreprise qu’elle empêche la violence provoquée par des contenus publiés sur ses supports ou qu’elle en prenne la responsabilité. En revanche, elle contribuerait largement à la liberté d’expression et à la civilité si elle présentait au public la «jurisprudence» sur laquelle reposent ses décisions.

Des justifications bidon

Même si Google propose un message explicatif lorsqu’une vidéo fait l’objet d’une restriction, conformément à la demande d’un Etat, celui affiché en Libye et en Egypte aux internautes qui tentaient de visionner The Innocence of Muslims était totalement inexact. Durant les premières 24 heures, YouTube affichait aux Egyptiens ce message: «Ce contenu n’est pas disponible dans votre pays en raison d’une plainte portée en justice.» Un peu plus tard, un nouveau message indiquait: «Vidéo inaccessible depuis votre pays.»

La diffusion de The Innocence of Muslims est un cas de censure ad hoc exceptionnel qui doit le rester si YouTube a vocation à rester une plateforme pour la liberté d’expression. Mais il est évident que d’autres cas de figure au caractère aussi urgent et complexe se présenteront. Alors, au moment où les décisionnaires de la société concernée choisiront une ligne de conduite qui s’écarte de leur règlement standard – ce qui est le cas ici –, l’entreprise aurait intérêt à publier des messages plus précis, adaptés à la situation. Une telle démarche aurait permis à Google de promouvoir les valeurs qu’elle a tenté de préserver. Ce message aurait pu être:

«Cette vidéo est temporairement bloquée dans votre pays en raison d’une situation de violence critique. Les contenus postés sur YouTube, qu’importent leur(s) auteur(s) ou leur nature, ne justifient en aucun cas le recours à la violence.»

Dans les autres pays du monde, où le film est et a toujours été accessible, il pourrait être précédé de cet avis:

«Certains publics pourraient préférer ne pas visionner cette vidéo au contenu potentiellement offensant, bien qu’il ne constitue pas de violation au Règlement de la communauté YouTube interdisant les discours incitant à la haine et les images de violence gratuite.»

Ce ne serait pas une première. En 2009, Google a déjà publié un démenti ainsi que des excuses: les recherches de Michelle Obama dans Google Images affichaient dans les premiers résultats une caricature raciste de la première dame. De plus amples explications seraient un gage de transparence et enrichiraient le débat sur les limites de la liberté d’expression, en particulier dans des pays qui, en passe d’embrasser la démocratie dans des contextes d’instabilité, sont en train de créer leurs propres règles en la matière.

Une base solide pour plus de transparence

Google a déjà mis en place une série de politiques et de pratiques efficaces de gestion des exigences gouvernementales en matière de censure et d’information destinée aux internautes. Ces principes sont réunis dans le Transparency Report de Google, qui répertorie les demandes de blocage de contenus de la part des Etats, y compris, sans que ce soit limitatif, des vidéos YouTube, et consigne les mesures prises par la société.

Une lecture fort intéressante, qui s’avère tout à tour amusante et édifiante. A titre d’exemple, en 2011, le service des passeports du Canada a demandé à Google de supprimer «une vidéo YouTube dans laquelle un citoyen canadien urinait sur son passeport avant de le jeter aux toilettes. Nous n’avons pas accédé à cette demande.» Google dit aussi avoir reçu, l’an dernier, «une demande de l'Association of Police Officers (association britannique des agents de police) pour la suppression de cinq comptes utilisateur suspectés de faire la promotion du terrorisme. Nous avons fermé ces comptes, car ils ne respectaient pas les Règles de la communauté YouTube. De ce fait, environ 640 vidéos ont été supprimées.»

Google pourrait élargir le cadre de son rapport de transparence afin d’y inclure les décisions de suppression/blocage de contenus sujets à controverse qu’elle prend elle-même. Et les autres sociétés du Web pourraient en faire autant… Tim Wu, professeur de droit à la Columbia Law School et grand spécialiste du droit d’Internet, propose que l’on crée une communauté d’experts ou d’utilisateurs de YouTube, chargée de donner son avis sur les contenus/propos litigieux publiés en ligne et méritant d’être réglementés.

L’idée est intéressante, mais les décisions de blocage de contenus doivent être prises et appliquées très rapidement, sans quoi elles risquent de perdre de leur force. Dans la pratique, les sociétés du Net continueront vraisemblablement de prendre elles-mêmes ce type de décisions. Et les observateurs extérieurs et les experts se contenteront de les critiquer a posteriori.

Ce qui n’empêche pas ces sociétés d’ouvrir un espace de discussion en ligne autour de ces décisions. Un espace qui soit relié à leur rapport (ou autre outil) de transparence et au contenu précis qui est à l’origine d’une polémique. Dans la mesure où cela implique un nouveau genre de plateforme communautaire et des fonctions éditoriales pouvant être incompatibles avec le rôle de l’entreprise, les discussions pourraient être hébergées par un tiers, absolument neutre.

Là encore, rien de nouveau. Google et Twitter sont désormais en lien avec le site Web indépendant et sans but lucratif Chilling Effects, qui héberge des exemplaires d’ordonnance de cessation et d’abstention et d’autres injonctions de retrait de contenus de leurs sites.

Un site Web indépendant, administré par une communauté internationale de cyber-citoyens partageant des valeurs fondamentales de liberté d’expression, de non-violence et d’empathie entre cultures, pourrait gérer – voire traduire – les réactions au sujet des contenus litigieux. Qu’elles viennent des réseaux sociaux ou d’ailleurs. Ces médiateurs interculturels pourraient ainsi modérer une conversation «mondialisée» et juger quelles solutions sont raisonnables et adaptées en adoptant différents points de vue culturels.

Un tel espace pourrait se transformer en forum salutaire pour le débat international. Une sorte de salle de sport destinée à une activité qui mérite encore de l’entraînement: l’exercice civique de la liberté d’expression.

Rebecca Mackinnon, membre de la New America Foundation et co-fondatrice de Global Voices, et Susan Benesh, membre de la World Policy Institute.

Traduit par Micha Cziffra

Vous devez être membre de Slate+ et connecté pour pouvoir commenter.
Pour devenir membre ou vous connecter, rendez-vous sur Slate+.
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte