EXAMEN EN COMMISSION

La commission des affaires européennes s'est réunie le mercredi 8 décembre 2021, sous la présidence de M. Jean-François Rapin, président, pour l'examen du présent rapport.

M. Jean-François Rapin , président . - Nous abordons aujourd'hui deux sujets qui sont d'importance majeure, car ils contribuent à restaurer l'autonomie stratégique de l'Union européenne dans sa dimension économique : d'une part, en matière de services numériques, d'autre part en matière d'équité concurrentielle sur le marché intérieur.

Sur le volet numérique, nous savons l'ambition affichée par la Commission européenne pour permettre à l'Union européenne d'accomplir sa transition numérique. Le commissaire Thierry Breton, que nous avons auditionné il y a un mois, et, pour plusieurs d'entre nous, rencontré jeudi dernier à Bruxelles, nous l'a confirmé : une prise de conscience de la Commission, mais aussi des États membres, a enfin lieu, concernant notre dépendance envers les Gafam et les dangers associés à leur position dominante sur le marché européen - dangers à la fois pour notre souveraineté, pour nos entreprises innovantes, pour nos données et pour nos consommateurs. Cette prise de conscience a conduit à deux propositions de règlements fin 2020 : l'une sur les marchés numériques, le Digital Markets Act (DMA), et l'autre sur les services numériques, le Digital Services Act (DSA). Nous avons déjà adopté il y a deux mois une proposition de résolution sur la première.

Aujourd'hui, nos rapporteures Florence Blatrix Contat et Catherine Morin-Desailly nous en proposent une sur la seconde. Un accord a été trouvé au Conseil sur ce texte, mais il est encore en discussion au Parlement européen, qui soutient des exigences plus fermes à l'égard des plateformes.

Mme Catherine Morin-Desailly , rapporteure . - Vous l'avez rappelé, la régulation des plateformes numériques est l'un des défis majeurs d'aujourd'hui. Ces dernières occupent une place primordiale dans les modes de consommation, l'accès à l'information et les relations sociales ; elles sont même devenues des lieux incontournables pour le débat public. Cet usage généralisé des services numériques est une source majeure de risques, avec la prolifération, sur internet, de propos haineux, de désinformation, de produits contrefaits ou dangereux et d'activités illicites.

Face à cette nouvelle situation, le cadre de responsabilité des fournisseurs de services numériques établi par la directive sur le commerce électronique de 2000, dite « e-commerce », n'est plus suffisant. Malgré des progrès technologiques considérables, les plateformes n'ont pas réussi à démontrer leur capacité et leur volonté de trouver les solutions pour affronter ces enjeux. En fait, elles ont même démontré le contraire, comme l'a mis en évidence la lanceuse d'alerte Frances Haugen, le 10 novembre dernier, lors de son audition devant notre commission, en commun avec la commission de la culture.

Nous avons longtemps déploré les atermoiements au niveau européen sur ce sujet, sur lequel Sénat demande depuis longtemps une intervention. Cependant, sous la présidence de Mme von der Leyen, la Commission européenne a fini par faire de la régulation des plateformes une de ses priorités. Le 15 décembre 2020, elle a ainsi présenté deux propositions de règlement pour revoir les règles du marché unique numérique.

Avec notre collègue Florence Blatrix Contat, nous vous avions présenté, le 7 octobre dernier, nos observations et nos recommandations sur le DMA, qui encadre les comportements anticoncurrentiels des grands acteurs du numérique. Nous allons aujourd'hui vous faire part de notre réflexion sur le DSA, qui définit les responsabilités des acteurs du numérique quant aux contenus qu'ils diffusent.

Nous avons eu maintes fois l'occasion de débattre de ces questions, qui nous préoccupent depuis longtemps, dans l'hémicycle, par exemple à propos de la loi relative à la lutte contre la manipulation de l'information, couramment appelée loi « infox », en 2018, lors des débats sur la proposition de loi de la députée Laetitia Avia, en 2020, ou, plus récemment, à propos du volet numérique du projet de loi sur le respect des principes républicains.

Je me réjouis donc que ce sujet, par nature transfrontière, soit enfin traité au niveau européen. Pour imposer nos règles aux Gafam, nous avons besoin de la masse critique que représentent nos 450 millions de consommateurs.

Mme Florence Blatrix Contat , rapporteure . - La proposition de DSA vise à créer un environnement en ligne plus sûr et plus responsable : elle introduit, pour les fournisseurs de services en ligne, de nouvelles obligations de modération des contenus, ainsi que des obligations de vigilance, notamment en matière de transparence. Ces obligations seront graduées en fonction de la taille et de la nature des opérateurs, suivant une approche basée sur le risque.

Concrètement, un mécanisme numérique de notification et action, harmonisé à l'échelle européenne, permettra d'engager plus facilement la responsabilité des hébergeurs. Toutefois le principe de leur responsabilité limitée, hérité de la directive « e-commerce », n'est pas remis en cause. Les activités de modération, y compris algorithmiques, feront l'objet de rapports de transparence. Des mesures spécifiques concernant la transparence en matière de publicité ciblée concerneront l'ensemble des plateformes.

En outre, les plateformes en ligne qui touchent plus de 10 % de la population européenne seront soumises à des obligations renforcées, en vue de prévenir les risques systémiques posés par l'utilisation de leurs services : auto-évaluation des risques, mesures d'atténuation, audits indépendants de leurs systèmes de gestion des risques, mais aussi large ouverture de leurs données et de leurs algorithmes aux autorités de régulation et à la communauté académique.

Ces avancées vont dans le bon sens. Cependant, après plus d'une vingtaine d'auditions, nous sommes convaincues que de nombreux points méritent d'être précisés, complétés et renforcés : vous pourrez en trouver le détail dans notre rapport.

Nous souhaitons insister aujourd'hui sur trois d'entre eux. En premier lieu, le renforcement de la lutte contre les contenus illicites et préjudiciables en ligne doit s'accompagner de garanties fortes pour préserver la liberté d'expression.

Par pragmatisme, le règlement confie en première approche aux plateformes, donc à des acteurs privés, la modération de l'énorme masse de contenus qui transitent sur leurs services. Il faut donc a minima s'assurer qu'elles mettent en oeuvre des moyens à la hauteur des enjeux, qui leur permettent d'effectuer cette modération d'une manière efficace, et qui correspondent aux objectifs du règlement. Aussi faut-il exiger que figurent dans les rapports de transparence des indications chiffrées sur les moyens humains et technologiques que les plateformes consacrent à la modération, avec une ventilation par pays et par langue.

En outre, il serait souhaitable de tenir compte des caractéristiques propres à l'espace en ligne, différent de l'espace public du monde réel, car déformé par l'amplification algorithmique. La lutte contre les propos illicites eux-mêmes devrait donc s'accompagner de mesures visant à lutter spécifiquement contre leur viralité. En d'autres termes, il faut encadrer les modalités de diffusion - ce que les Anglo-saxons appellent freedom of reach - plutôt que les contenus eux-mêmes - freedom of speech . Nous proposons donc que les plateformes puissent, par exemple, réduire la visibilité d'un contenu qui n'est pas manifestement illicite, le temps de procéder à des vérifications.

Il nous semble également crucial, face à la menace que représente la désinformation, que les risques d'atteinte au pluralisme des médias soient mieux pris en compte. Ces risques devraient être spécifiquement examinés par les grandes plateformes lors de leur examen annuel des risques systémiques. En outre, les plateformes devraient assurer une visibilité renforcée des informations émanant de sources fiables, notamment journalistiques.

Le deuxième point est la nécessité d'aller jusqu'au bout de l'approche par le risque qu'a retenue la Commission. Dans cette optique, nous recommandons que les critères d'audience soient mieux pris en compte pour déterminer le régime d'obligations des différents opérateurs. Les autorités de régulation devraient ainsi pouvoir, par exemple, soumettre à des obligations renforcées les plateformes très populaires parmi les enfants. D'une manière générale, la protection des enfants nous semble un angle mort du texte, ce qui est particulièrement dommageable lorsqu'on voit, par exemple, les ravages du harcèlement scolaire en ligne, que l'actualité nous rappelle souvent.

Mme Catherine Morin-Desailly , rapporteure . - Le troisième point, qui est le plus structurant, est la nécessité de mieux prendre en compte le fonctionnement même des plateformes en ligne, et le modèle économique sous-jacent. Ce dernier, nous le savons, repose sur l'accumulation de très grandes masses de données, en particulier personnelles, qui sont ensuite exploitées par des algorithmes de recommandation des contenus et d'adressage de la publicité : il s'agit de maximiser le temps passé par l'utilisateur sur les plateformes et, en conséquence, les revenus de ces dernières. Ce système aboutit inévitablement à favoriser les contenus les plus clivants et les plus contestables, qui provoquent le plus de réactions, mais qui enferment aussi les utilisateurs dans des bulles de contenus. Leurs comportements, qu'ils soient commerciaux, sociaux ou politiques, s'en trouvent modifiés.

Il est donc crucial, en premier lieu, que les utilisateurs retrouvent leur autonomie dans l'espace en ligne. Cela passe par la maîtrise de leurs données. Nous rappelons à cet égard qu'une application stricte du règlement général sur la protection des données (RGPD) permettrait déjà de limiter certaines pratiques abusives en matière de ciblage. Cela n'est pas toujours le cas aujourd'hui.

Le projet de la Commission prévoit d'informer les utilisateurs des données utilisées et des paramètres de ciblage publicitaire et d'adressage des contenus. Ces derniers pourraient également être modifiés et désactivés. Nous souhaitons aller plus loin, avec une désactivation par défaut de ces fonctions, et la possibilité à tout moment de les désactiver aisément. C'est particulièrement indispensable pour les mineurs. Les utilisateurs devraient en outre être informés de toute modification substantielle des algorithmes d'ordonnancement des contenus.

Deuxième élément : les algorithmes utilisés par les plateformes ne doivent plus être une boîte noire. Ce point crucial a été confirmé par de nombreuses personnes que nous avons auditionnées. Le DSA propose d'importantes avancées en matière d'accès aux données pour les autorités de régulation et pour les chercheurs. Les critères et les motifs d'accès devraient cependant être élargis, pour permettre la participation de chercheurs indépendants - et pas seulement ceux qui sont chapeautés par les plateformes -, et la détection et l'évaluation de tous types de risques.

Surtout, compte tenu de leur caractère incontournable - on pourrait presque parler, en utilisant un anglicisme, de « facilité publique » -, les grands acteurs du numérique ne devraient pas pouvoir opposer le secret des affaires aux autorités de régulation et aux chercheurs agréés par les autorités. En revanche, des mécanismes pour éviter la divulgation de ces informations confidentielles pourraient bien sûr être mis en place.

En outre, les représentants que nous avons auditionnés du Pôle d'expertise de la régulation numérique (PEReN), récemment mis en place par le Gouvernement, nous ont indiqué l'importance de prévoir la possibilité de tester les algorithmes « en transparence faible » : il s'agit de lancer un grand nombre de requêtes puis d'analyser les réactions de l'algorithme, pour en déduire ses principales caractéristiques. Ce processus est en effet beaucoup moins coûteux qu'une analyse exhaustive des données.

Dans tous les cas, gardons à l'esprit qu'il ne s'agit pas uniquement de vérifier comment les algorithmes influent sur tel ou tel risque spécifique : le fonctionnement même des plateformes et leur modèle économique, donc celui des algorithmes, constituent le principal risque systémique, et elles doivent en répondre. En effet, en sélectionnant et en classant les contenus, puis en en déterminant la présentation et en augmentant la visibilité de certains d'entre eux au détriment d'autres, les plateformes, par le biais de leurs algorithmes, jouent bien un rôle actif qui peut s'apparenter à celui d'un éditeur.

C'est pourquoi nous souhaitons une véritable réforme du régime européen de responsabilité des hébergeurs, pour créer un régime de responsabilité renforcée pour les plateformes qui utilisent des algorithmes d'ordonnancement des contenus. Je rappelle d'ailleurs que le Sénat l'avait déjà appelée de ses voeux dans une résolution de 2018, sans succès. De ce point de vue, le DSA manque cruellement d'ambition.

Les algorithmes devraient également respecter un socle de normes éthiques intégrées dès l'étape du développement, selon les principes de legacy et de safety by design . Je ne sais pas si ces dispositions doivent plutôt trouver leur place dans le DSA ou dans la future législation de l'Union sur l'intelligence artificielle, actuellement en discussion, mais il est certain qu'au vu des risques induits, les algorithmes utilisés par les grandes plateformes en ligne devraient faire l'objet d'un contrôle strict, qui pourrait par exemple prendre la forme d'audits réguliers obligatoires.

Mme Florence Blatrix Contat , rapporteure . - Même si le texte ne concrétise pas toutes les ambitions affichées, les progrès sont indéniables. Les amendes qui pourront être infligées aux opérateurs en cas d'infraction au règlement, jusqu'à 6 % de leur chiffre d'affaires mondial, sont d'ailleurs dissuasives.

J'ajoute qu'aux termes du règlement, la Commission européenne aura le pouvoir, subsidiairement par rapport aux autorités de régulation nationale, d'enquêter sur les très grandes plateformes et de leur infliger elle-même des sanctions. C'est une très bonne chose au regard du manque d'empressement de certaines autorités nationales à traiter des plaintes concernant, par exemple, la protection des données personnelles, notamment l'Irlande. Nous serions d'ailleurs favorables à ce que la Commission dispose de la juridiction exclusive sur ces très grandes plateformes comme le prévoit, du reste, le dernier compromis au Conseil.

Il y a une prise de conscience, au niveau mondial, de la nécessité de réformer le régime de responsabilité des plateformes : même les États-Unis, après des années de laisser-faire, envisagent sérieusement de resserrer le champ d'application du fameux article 230 du Communications Decency Act , qui accorde aux plateformes une immunité quasi totale pour les contenus publiés par leurs utilisateurs.

Dans ce contexte, alors que les États-Unis deviennent plus ambitieux, il est essentiel que l'Europe légifère la première, selon ses valeurs et ses principes, pour fixer un « étalon-or » mondial, selon l'expression de Frances Haugen devant le Parlement européen. Ainsi, nous serons capables d'inspirer d'autres pays. Même si les trilogues qui devraient s'engager en janvier s'annoncent difficiles, nous espérons toujours une adoption du DSA sous présidence française de l'Union européenne, au premier semestre 2022.

Je voudrais pour finir souligner qu'il faut absolument assurer la robustesse et l'adaptabilité du DSA face aux évolutions prévisibles des technologies et aux nouveaux services numériques - je pense en particulier aux univers virtuels, les fameux « métavers » évoqués par Mark Zuckerberg. En effet, il aura fallu vingt ans pour rouvrir la directive « e-commerce », et l'Union ne remettra probablement pas la réglementation numérique sur le métier avant de nombreuses années. Soyons donc ambitieux pour ce texte.

M. Pierre Laurent . - Je rejoins pleinement vos préconisations. Sur les modalités de contrôle, dans le texte de la proposition de résolution, de quel comité est-il question, s'agissant du partage du pouvoir de sanction de la Commission européenne ?

Mme Catherine Morin-Desailly , rapporteure . - Il s'agit du comité réunissant les coordinateurs pour les services numériques de chaque État membre, qui seront chargés de l'application et du contrôle du règlement.

M. Ludovic Haye . - Je salue l'excellent travail de nos collègues. Les axes de progression sont réels et vos propositions permettront de protéger les consommateurs et les enfants, souvent les premières victimes de cette addiction aux écrans.

Aujourd'hui, des cadres existent déjà contre ces addictions et ces dérapages. Cependant, les parents ne respectent pas toujours, par exemple, la préconisation de non-exposition avant 13 ans. Comment les faire appliquer ?

Par ailleurs, comme vous, je pense que le DSA manque d'ambition, mais il est vrai que ce n'est qu'en portant ce sujet au niveau européen que nous pourrons avancer.

Enfin, je suis plus dubitatif sur les algorithmes, qui sont à la base du développement des Gafam. Même si je souhaite comme vous la transparence des algorithmes, ne risque-t-on pas une fin de non-recevoir, sous prétexte de protéger les secrets de fabrication, au même titre par exemple que la recette du Coca-Cola ?

M. Jean-Michel Houllegatte . - Vous parlez de plusieurs régulateurs : qui sera le gendarme ? Quels moyens sont prévus pour assurer le contrôle effectif des régulateurs ? L'Europe les accompagnera-t-elle ?

Mme Florence Blatrix Contat , rapporteure . - Nous fixons des garde-fous pour les mineurs. La législation et les campagnes nationales d'information seront les plus efficaces.

Sur les algorithmes, nous devons au moins afficher une volonté, sans quoi nous n'aboutirons pas, et nous devons aboutir : Frances Haugen nous a clairement dit que Facebook pouvait modifier les algorithmes.

Mme Catherine Morin-Desailly , rapporteure . - Rien ne remplace l'éducation donnée par les parents. On ne peut pas mettre un gendarme dans chaque famille ! Il faut acculturer les parents aux dangers d'internet et de ses plateformes comme Facebook, Youtube Instagram ou le chinois TikTok... Le Conseil supérieur de l'audiovisuel (CSA), qui réalise des campagnes d'information, a un rôle particulier à jouer, mais il manque de moyens pour informer le jeune public, comme j'en avais déjà fait état lors de l'examen de ma proposition de loi visant à lutter contre l'exposition précoce des enfants aux écrans.

Ce que nous proposons sur les algorithmes, c'est que les plateformes, en tant qu'espaces publics, se conforment à des règles. Les chercheurs que nous avons auditionnés nous ont confirmé, comme Frances Haugen, que les plateformes utilisent sciemment les algorithmes pour faire du profit au détriment de la sécurité, notamment des enfants. Il faut donc leur imposer des audits externes réguliers en se basant sur cette qualité d'espace public.

C'est aussi le but des principes de safety et legacy by design , qui reviennent à dire que, pour tout déploiement d'un produit, d'une plateforme ou d'une évolution, une enquête préalable doit évaluer les risques potentiels, comme on le fait pour les médicaments. S'il faut vingt20 ans pour rouvrir le règlement, nous n'y arriverons jamais ! Il faut donc anticiper.

Sur la première question de Jean-Michel Houllegatte, le cadre européen est complémentaire du cadre national. Nous avons dans la loi française une définition des contenus illicites, que le règlement ne modifie pas. De même, il sera toujours possible de porter plainte pour diffamation, par exemple, ainsi que le prévoit la loi en France. Le règlement renforce aussi les autorités de régulation - ce sera sans doute l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en France qui aura le rôle de coordinateur pour les services numériques. Les autorités nationales de régulation veilleront par exemple à ce que les plateformes mettent en oeuvre les moyens demandés par le règlement pour retirer les contenus nécessaires. Ces régulateurs se coordonneront au niveau européen.

M. Jean-Michel Houllegatte . - Sur les moyens, l'Union européenne va-t-elle aider les régulateurs ? Le maillon faible me semble l'Irlande, qui héberge les plateformes sans avoir la capacité de les contrôler.

Mme Florence Blatrix Contat , rapporteure . - C'est pourquoi nous voulons sortir du seul cadre national, en donnant à la Commission davantage de moyens pour agir sur les grandes plateformes. Il faudra certainement plus que les 50 personnes actuellement prévues par la Commission pour assurer le contrôle du règlement.

Pour revenir sur la question des mineurs, une législation nationale sera sans doute nécessaire. Aux États-Unis, certains enfants portent plainte contre leurs parents pour avoir exposé des images d'eux alors qu'ils étaient mineurs.

M. Ludovic Haye . - On parle souvent d'internet comme d'une autoroute de l'information. Or, pour conduire un véhicule, il faut un permis. De même, pour naviguer sur internet, un certain nombre d'informations sont nécessaires. Certaines écoles font passer un permis internet. Sans qu'il faille le rendre obligatoire, cela me semble un service à rendre aux enfants.

Les cookies sont aux algorithmes ce que l'eau est aux moulins. On atteint désormais des démarches liberticides : certains sites refusent l'accès sans acceptation de la fenêtre pop-up proposant les cookies. Je tenais à le signaler.

Mme Catherine Morin-Desailly , rapporteure . - Cette proposition de législation européenne est une étape à saluer, même si on ne sait pas vraiment les résultats qu'elle permettra d'obtenir et que, comme nous l'ont indiqué beaucoup de personnes auditionnées, il s'agit sans doute d'une occasion manquée. Mais avec nos propositions de résolution, très ambitieuses, nous voulons poser les termes du débat pour la suite.

La puissance des géants du net est telle qu'il est compliqué de légiférer. Le secteur de la presse se trouve démuni et anxieux pour son avenir : Google se repose sur des accords au cas par cas, mais n'applique pas la législation européenne ou française, par exemple celle relative aux droits voisins.

M. Didier Marie . - Je pose la question du poids du lobbying des Gafam dans l'élaboration des textes. La Commission résiste-t-elle, ou bien doit-elle composer ?

Mme Florence Blatrix Contat , rapporteure . - Dans notre travail, nous n'avons guère été soumises au lobbying. Le sujet est brûlant et les autorités européennes veulent avancer sur le sujet. Le Conseil a abouti à un accord ambitieux, le Parlement est volontaire.

Mme Catherine Morin-Desailly , rapporteure . - Le poids du lobbying reste cependant très inquiétant. L'avocat spécialisé qui, jusqu'à il y a peu, défendait les éditeurs de presse les a abandonnés après avoir été acheté par Google.

Le président de la Radio-télévision belge de la Communauté française (RTBF) confiait les difficultés à trouver, à Bruxelles, des avocats spécialistes qui ne soient pas affiliés aux Gafam. Nous observons là une vraie technique d'infiltration de leur part.

M. André Gattolin . - À Bruxelles, les 30 cabinets privés spécialisés en droit du numérique sont presque tous en contrat avec Google, Facebook ou d'autres opérateurs de même envergure. Les institutions européennes ne trouvent donc pas les ressources juridiques dont elles ont besoin.

La commission des affaires européennes autorise, à l'unanimité, la publication du rapport d'information et adopte, à l'unanimité, la proposition de résolution européenne, disponible en ligne sur le site du Sénat , ainsi que l'avis politique qui en reprend les termes et qui sera adressé à la Commission européenne.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page