B. VEILLER À CE QUE L'OBJECTIF D'UNE MODÉRATION EFFICACE NE PORTE PAS ATTEINTE À LA LIBERTÉ D'EXPRESSION

1. Renforcer les mesures de signalement et de transparence prévues par le règlement
a) Assurer une meilleure accessibilité du mécanisme de notification et action

La mise en place d'un mécanisme harmonisé à l'échelle de l'Union, d'accès et d'utilisation simple, constitue sans aucun doute un progrès important . L'obligation, pour les fournisseurs, de permettre une notification par la seule voie électronique (art. 14 (1)) représente en particulier une simplification particulièrement bienvenue .

Afin d'aller jusqu'au bout de cette logique, il serait utile de préciser que l'accès à l'interface de notification des contenus illicites devrait obligatoirement se situer à proximité de chacun des contenus, et faire l'objet d'un design harmonisé sur les différents services d'hébergement, pour faciliter son identification par les internautes et son utilisation 50 ( * ) .

Ø Créer un « bouton » de notification harmonisé.

Afin d'élargir le spectre des entités qui pourraient être reconnues comme « signaleurs de confiance » , et conformément à ce qui a été recommandé précédemment concernant la lutte contre la contrefaçon, il est recommandé de supprimer la condition de représentation des intérêts collectifs , afin que les autorités compétentes puissent accorder ce statut, au moins pour certaines catégories de contenus, à des entités représentant des intérêts particuliers, telles que les sociétés de gestion de droits d'auteur, ou des journalistes, dans le cadre d'activités de vérification de faits.

En ce qui concerne les délais accordés aux hébergeurs pour décider de retirer ou non un contenu après notification, la proposition de la Commission prévoit actuellement un traitement des notifications « en temps opportun » , sans davantage de précision (art. 14 (6)).

Actuellement, selon la 6 e évaluation du code de conduite de l'Union pour la lutte contre les discours haineux illégaux en ligne 51 ( * ) , les grandes plateformes 52 ( * ) traitent 91 % des notifications en moins de 48 heures, et 81 % en moins de 24 heures, moins de 1% des notifications demandant un délai de traitement supérieur à une semaine.

Si les situations sont très contrastées en fonction des hébergeurs, notamment de leur taille, et de la qualité des notifications, vos rapporteures estiment que l'introduction d'un délai maximal pour le traitement et, le cas échéant, le retrait des contenus notifiés, en instituant une obligation de résultat, comporterait le double inconvénient :

- d' inciter les hébergeurs à la précipitation pour évaluer certains contenus dont l'illicéité n'est pas évidente et nécessite un examen approfondi, au risque de favoriser la sur-censure, au détriment de la libre expression et de les empêcher de prioriser le retrait des contenus illicites les plus préjudiciables , comme l'avait du reste souligné notre collège Christophe-André Frassa dans son rapport sur la proposition de loi « Avia » 53 ( * ) ;

- de constituer, à terme, une norme moins-disante , quand certaines notifications concernant des contenus manifestement illicites pourraient être traités dans des délais beaucoup plus courts 54 ( * ) ; un délai fixe, quel qu'il soit, risquerait d'être rapidement en décalage avec les progrès technologiques , notamment de traitement des notifications par des algorithmes d'intelligence artificielle.

Il est donc suggéré de conserver la formulation actuelle, tout en renforçant les obligations de moyens mis en oeuvre par les hébergeurs pour traiter les notifications.

b) Améliorer la transparence

Les révélations de Mme Frances Haugen, ancienne ingénieure chez Facebook et lanceuse d'alerte, devant la commission des affaires européennes, le 10 novembre dernier, ont mis en évidence à la fois les insuffisances de la modération algorithmique 55 ( * ) et les moindres ressources humaines et technologiques mises à disposition par le réseau social pour lutter contre les contenus illégaux et préjudiciables publiés dans les autres langues que l'anglais 56 ( * ) .

En conséquence, afin de permettre au régulateur d'évaluer plus finement les activités de modération conduites par les hébergeurs, il apparaît indispensable de préciser que ces rapports de transparence devront inclure des informations chiffrées sur les moyens, notamment humains , mis à disposition pour se conformer aux obligations découlant du règlement, en particulier concernant la modération, et une ventilation de ces données par pays et par langue .

Compte tenu de l'incertaine fiabilité des rapports de transparence publiés par les opérateurs eux-mêmes, ces données devraient par ailleurs faire l'objet de vérifications de la part de tiers , par exemple, au moins pour les très grandes plateformes, dans le cadre des audits obligatoires prévus à l'article 31.

Dans un second temps, sur la base de ces rapports, des obligations de moyens renforcées pourraient être envisagées.

Ø Inclure dans les rapports de transparence des données chiffrées sur les moyens humains et technologiques mis à disposition pour la modération, ventilés par langue et par pays.

2. Mettre en place davantage de garde-fous contre les atteintes à la liberté d'expression
a) Dans le cadre de la procédure de retrait des contenus

La procédure de retrait des contenus prévue par le règlement fait en effet reposer sur les intermédiaires, qui sont des acteurs privés, l'essentiel de la modération des contenus, chargés de l'appréciation de leur caractère illicite, sur la base des informations fournies par le notifiant. S'il est certain que, dans l'absolu, confier en première approche l'appréciation de la licéité d'un contenu à des acteurs privés, n'est pas satisfaisant, l'énorme quantité de contenus à traiter, rend matériellement impossible un traitement de chaque cas particulier par un juge : les représentants de Google France ont par exemple indiqué à vos rapporteures que chaque trimestre, au niveau mondial, 40 à 50 millions de vidéos étaient supprimées sur YouTube.

Des garde-fous sont certes prévus dans le texte : outre le rappel des droits généraux comme le droit à un recours effectif, le texte prévoit la nécessité que les notifications demandant un retrait soient dûment justifiées , avec mention de la disposition législative dont l'infraction est présumée (art. 14 (2)) ainsi que l' information de l'auteur du contenu retiré quant aux motifs du retrait et aux voies de recours (y compris juridictionnels) possibles (art. 15 (1)). Dans une logique de gestion systémique du risque de notifications abusives, susceptible de porter atteinte à la liberté d'expression, les plateformes sont également autorisées à suspendre les comptes qui sont utilisés pour soumettre fréquemment des notifications abusives (art. 20 (2)).

L'information systématique des auteurs de contenus retirés, au plus tard au moment du retrait, est, en particulier, un pas important vers davantage de transparence, d'autant que seront concernés à la fois les retraits consécutifs à une notification, et ceux résultant des activités de modération volontaire, y compris algorithmique (art. 15 (1)).

Cependant, un déséquilibre persiste du fait que la responsabilité des hébergeurs ne peut, en l'état actuel du texte, être engagée qu'en cas de non-retrait de contenus illicites signalés, tandis qu'elle ne peut l'être en cas de suppression abusive de contenus licites .

Le risque de retraits abusifs est particulièrement important pour la modération algorithmique , comme l'a par exemple montré l'expérience de YouTube pendant la pandémie de covid-19 au printemps 2020 : alors qu'en raison des mesures de confinement, l'utilisation de logiciels de reconnaissance de contenus avait été renforcée pour pallier l'absence de modérateurs humains, le nombre de vidéos supprimées avait été multiplié par deux, et plus de 160 000 d'entre elles avaient dû être remises en ligne après réexamen, avec un taux de remise en ligne après contestation deux fois supérieur à la normale 57 ( * ) .

Or la détection et la modération de contenus illicites et préjudiciables reposent de plus en plus sur l'intelligence artificielle : alors qu'en 2014, Facebook assurait ne pas rechercher activement les contenus problématiques et ne procéder à des actions de modération que sur signalement 58 ( * ) , la plateforme a lancé en 2017 l'utilisation d'algorithmes d'intelligence artificielle pour détecter les contenus haineux, et affirme que les performances de ces technologies se sont considérablement améliorées depuis cette date, passant de 23 % de contenus haineux détectés à 98 %.

Face à ces insuffisances, il est indispensable de tenir compte des spécificités de l'espace informationnel tel qu'il est construit par les plateformes en ligne. De fait, l'espace hors ligne et l'espace en ligne ne fonctionnent pas de la même manière : sur les plateformes, en particulier les plateformes de réseaux sociaux, les risques induits par les contenus illicites et préjudiciables sont modulés - presque toujours à la hausse - par les mécanismes d'amplification algorithmique, qui les rendent plus visibles.

Ainsi, afin de mieux combattre la viralité des contenus illicites, tout en protégeant au maximum la liberté d'expression , il est proposé de tirer parti du fonctionnement des algorithmes d'ordonnancement des contenus : lorsque le caractère illicite d'un contenu signalé n'est pas manifeste, les plateformes devraient avoir la possibilité de réduire sa visibilité, sans toutefois le supprimer, le temps de vérifier s'il est illicite. Dans la même optique, les mécanismes de repartage de ces contenus pourraient être temporairement désactivés.

Ø Inviter les plateformes, dans un premier temps, à réduire temporairement la visibilité des contenus signalés dont le caractère illicite n'est pas manifeste, plutôt que de les supprimer.

b) Encadrer les fermetures de comptes

Le projet de DSA autorise les plateformes à suspendre, « pendant une période de temps raisonnable et après avoir émis un avertissement préalable », les comptes fournissant fréquemment des contenus manifestement illégaux (art. 20).

Si l'intention de combattre la propagation de contenus illégaux est sans aucun doute louable, le Conseil constitutionnel, dans son avis sur la PPL « Avia », avait souligné qu' « [e]n l'état actuel des moyens de communication et eu égard au développement généralisé des services de communication au public en ligne ainsi qu'à l'importance prise par ces services pour la participation à la vie démocratique et l'expression des idées et des opinions, [l]e droit [à la liberté d'expression] implique la liberté d'accéder à ces services et de s'y exprimer » 59 ( * ) .

La suppression par Facebook, Twitter et divers autres réseaux sociaux du compte du président des États-Unis, Donald Trump, en janvier 2021, a par exemple provoqué de vives controverses quant à la modération des comptes de responsables politiques. Jusqu'à cette date en effet, les contenus publiés sur les comptes des chefs d'État et de gouvernement bénéficiaient d'un traitement particulier de la part de Facebook, puisqu'au nom de l'intérêt général, ils pouvaient rester en ligne même lorsqu'ils étaient contraires aux CGU du service, même en cas de messages violents ou haineux.

ÀA la fin février 2021, Facebook et Instagram ont également fermé tous les comptes liés à l'armée birmane , après sa prise de pouvoir à la faveur d'un coup d'État, prenant prétexte de la diffusion sur ces comptes d'accusations de fraude électorale et d'appels à des violences contre les minorités rohingya et les manifestants pro-démocratie. Ces fermetures, intervenues après plusieurs années de laisser-faire, ont également été dénoncées comme des immixtions directes du réseau social dans l'équilibre démocratique du pays, d'autant plus inacceptables que les révélations de Mme Sophie Zhang, ancienne employée chez Facebook et lanceuse d'alerte, ont clairement montré le peu de diligence de Facebook à fermer de faux comptes soutenant des chefs d'État controversés, par exemple au Honduras.

Afin de se prémunir contre cette immixtion directe des plateformes dans le débat démocratique, vos rapporteures estiment donc souhaitable qu' a minima , la fermeture de comptes d'intérêt général - tels que ceux d'organisations internationales ou européennes - et de responsables politiques , ne puisse intervenir que sur décision judiciaire .

Ø Interdire la fermeture de comptes d'intérêt général et de responsables politiques, sauf sur décision judiciaire.


* 50 L'art. 34 (a) soutient le développement de normes pour la soumission électronique, mais uniquement sur une base volontaire.

* 51 Évaluation conduite par la Commission européenne en mars et avril 2021, sur un échantillon de 4 500 notifications.

* 52 Facebook, YouTube, Twitter, Instagram, Jeuxvideo.com et TikTok.

* 53 Rapport du Sénat n° 645 (2018-2019) de M. Christophe-André FRASSA, fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale, sur la proposition de loi visant à lutter contre les contenus haineux sur internet, déposé le 11 décembre 2019.

* 54 Le délai prévu pour le retrait des contenus terroristes par le projet de règlement européen en cours d'adoption est par exemple d'une heure.

* 55 Le député britannique M. Damian Collins, entendu par les rapporteurs, a estimé, au vu des documents rendus publics par Frances Haugen, que les algorithmes d'intelligence artificielle ne permettaient d'identifier qu'environ 5 % des contenus haineux publiés sur le réseau social.

* 56 Selon Frances Haugen, en 2020, Facebook aurait consacré 87 % de son budget opérationnel total aux contenus en langue anglaise.

* 57 “YouTube reverts to humain moderators in fight against misinformation”, Financial Times , 20 septembre 2020.

* 58 Interview de Monika Bickert, responsable de la modération chez Facebook, 8 octobre 2014 (« Facebook précise pourquoi, et comment, il supprime des photos et messages litigieux », Le Monde , 10 octobre 2014.

* 59 Décision n° 2020-801 DC du Conseil Constitutionnel du 18 juin 2020, §4.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page