C. S'ATTAQUER À LA RACINE DU MAL : LE MODÈLE ÉCONOMIQUE DÉLÉTÈRE DES PLATEFORMES EN LIGNE

Ainsi que les rapporteures l'ont déjà souligné dans leur rapport sur la proposition de règlement sur les marchés numériques, le modèle économique des très grandes plateformes repose sur l'exploitation par des algorithmes aussi puissants qu'opaques de très grandes quantités de données - en particulier de données à caractère personnel -, utilisées pour le ciblage des contenus et des publicités, en vue de maximiser le temps passé par l'utilisateur sur leurs services et donc son temps d'exposition à la publicité et, partant, les revenus des plateformes.

L'universitaire américaine Shoshana Zuboff a mis en évidence comment un dévoiement de ce phénomène d'exploitation de l'économie de l'attention aboutit à ce qu'elle qualifie de « capitalisme de surveillance » 60 ( * ) : des scandales comme Cambridge Analytica, la prise du Capitole ou, plus récemment, les révélations de Frances Haugen sur Facebook, ont mis en évidence que les visées lucratives des GAFAM aboutissent à ce que, non contents de capter les données des utilisateurs pour obtenir des informations sur eux, ils les exploitent pour modifier ou conditionner leurs comportements, non seulement économiques, mais aussi sociaux et politiques . Ce faisant, ils menacent le libre arbitre des individus et , indirectement , l'équilibre des démocraties .

Cela est d'autant plus dommageable que les utilisateurs n'ont pas concrètement connaissance des « lois » qui leur sont appliquées sur ces services ; ces dernières sont en effet beaucoup plus complexes que l'aperçu qui en est donnée dans les CGU, et découlent des algorithmes utilisés , selon la formule fameuse de l'universitaire américain Lawrence Lessig, « Code is Law ».

Ainsi, comme l'a souligné, lors de son audition, le Dr Rebeka Tromble, professeur associée à l'université Georges Washington de Washington et spécialiste des algorithmes et de leurs impacts sur le débat public, la modération n'est qu'un outil, qui ne permettra pas, à lui seul, de mettre fin à la prolifération de contenus illicites et préjudiciables en ligne .

Il est donc nécessaire de réformer le modèle même de fonctionnement des plateformes en ligne, ainsi que leur modèle économique

1. Améliorer l'accès aux données et aux algorithmes
a) Permettre aux utilisateurs de déterminer les paramètres des algorithmes de recommandation des contenus

Aux termes du projet de règlement, les utilisateurs de très grandes plateformes en ligne devraient être mieux informés de la manière dont fonctionnent les algorithmes des systèmes de recommandation : ils devraient avoir accès, dans les CGU, aux « principaux paramètres » utilisés dans les systèmes de recommandation des contenus , et être informés de la possibilité de modifier voire de supprimer le profilage (art. 29).

Faire obligation aux très grandes plateformes de permettre la désactivation du profilage des utilisateurs en vue de l'adressage de contenus spécifiques est une avancée importante vers l'autonomisation des utilisateurs dans le cyberespace, qui pourraient ainsi manifeste r plus aisément leur refus d'être enfermés , par le jeu des recommandations, dans des bulles de contenus de plus en plus polarisées.

Comme pour le mécanisme de notification et d'action, afin que cette disposition soit efficace, sa mise en oeuvre doit être concrètement simple pour l'utilisateur : l'accès à l'interface permettant la modulation et la désactivation du système de recommandation devrait être simple , et pourrait utilement faire l'objet d'une normalisation, dans les conditions prévues par l'article 34.

En outre, ces systèmes de recommandation de contenus devraient être désactivés par défaut et, conformément au règlement général sur la protection des données, leur activation devrait faire l'objet d'un consentement spécifique et éclairé.

Ø Faciliter l'accès aux interfaces de modulation des paramètres des systèmes de recommandation.

Ø Désactiver par défaut les systèmes de recommandation.

b) Garantir un meilleur accès aux données et aux algorithmes pour les autorités de contrôle et les chercheurs

La proposition accorde d'importants droits d'accès aux données aux autorités de contrôle nationales et européenne (art. 31 (1)). La Commission serait par exemple autorisée, dans le cadre de ses pouvoirs d'inspection, à exiger d'une très grande plateforme toutes les explications nécessaires, notamment sur le système informatique, les algorithmes et la gestion des données de la plateforme en question (art. 54).

Des chercheurs pourraient également , sur demande des autorités de régulation nationales, se voir garantir l'accès aux données nécessaires pour identifier et comprendre les risques systémiques présentés par les très grandes plateformes (art. 31 (2)).

Ces dispositions sont bienvenues, mais méritent d'être précisées, afin de maximiser leur impact .

Afin d'élargir le spectre des chercheurs éligibles , il serait souhaitable de supprimer la condition d'affiliation à un établissement universitaire (art. 31 (4)), afin de permettre la participation de chercheurs indépendants, mais aussi de jeunes chercheurs qui n'ont pas forcément une position statutaire dans un établissement académique.

Enfin, compte tenu des caractéristiques particulières des très grandes plateformes en ligne, devenues de fait de quasi espaces publics, et de la gravité des risques systémiques engendrés, vos rapporteures estiment que ces très grandes plateformes ne devraient pas pouvoir opposer le secret des affaires aux demandes d'accès aux données , y compris de la part de chercheurs, sauf à prouver l'inutilité des données demandées aux fins de la requête. Dans ce cas, la charge de la preuve devrait revenir à la très grande plateforme.

Les sujets de recherche pouvant justifier un tel accès aux données ne devraient en outre pas être limités aux risques systémiques au sens de l'article 26 du règlement .

En plus d'une amélioration générale de la connaissance des risques systémiques présentés par les très grandes plateformes et de la compréhension de leur fonctionnement, élargir l'accès des chercheurs agréés aux données des plateformes contribuera à améliorer le contrôle du respect du règlement , puisque les études réalisées par des chercheurs agréés pourront notamment être utilisées par les auditeurs indépendants mentionnés à l'article 28 (considérant 60).

Les conditions d'accès de ces derniers aux données devraient d'ailleurs être précisées, tout comme les garanties concernant leur indépendance vis-à-vis des très grandes plateformes.

Enfin, considérant la difficulté - et, pour ainsi dire, l'impossibilité pratique - de traiter de grandes masses de données brutes et d'analyser intégralement des codes sources, les représentants du Pôle d'Expertise de la Régulation Numérique (PEReN) ont mentionné l'intérêt de garantir pour les chercheurs et les régulateurs la possibilité de tester les algorithmes des plateformes « en transparence faible » : il s'agit de lancer un grand nombre de requêtes et d'évaluer les réactions de l'algorithme, afin d'en déduire ses principales caractéristiques de fonctionnement .

À cette fin, il serait utile qu'en plus d'un accès aux données via des bases de données en ligne ou des interfaces de programme d'application (API) (art. 31(3)), les très grandes plateformes soient tenues de permettre concrètement la réalisation de ces tests « en transparence faible ».

Ø Supprimer la condition d'affiliation universitaire pour les chercheurs agréés pouvant prétendre à l'accès aux données des très grandes plateformes.

Ø Préciser les garanties d'indépendance des auditeurs des très grandes plateformes.

Ø Intégrer, dans les actes délégués qui établiront les conditions techniques de mise à disposition de leurs données par les très grandes plateformes, des protocoles de tests d'algorithmes sur la base des données disponibles publiquement.

Ø Prendre en compte, dans la détermination des conditions techniques de mise à disposition des données, la protection des données à caractère personnel et le secret des affaires, tout en s'assurant que les chercheurs auront accès aisément à l'ensemble des données dont ils ont besoin.

Ø Élargir le champ des recherches pouvant justifier l'accès de chercheurs aux donnés des très grandes plateformes.

c) S'assurer de la sécurité des algorithmes

Par nature, les algorithmes d'intelligence artificielle, utilisés dans les systèmes de recommandation des contenus, se modifient et s'ajustent en permanence. Frances Haugen elle-même, lors de son audition au Sénat, a estimé que l'algorithme de recommandation de Reels (qui permet de partager de courtes vidéos sur Instagram), « qui n'était pas programmé pour être raciste », « a compris » que les contenus concernant les personnes de couleur étaient dans l'ensemble moins visionnés que les autres, et a donc réduit leur visibilité, puisqu'ils ne permettaient pas de maximiser le temps passé par les utilisateurs sur l'application.

Cette situation n'est pas acceptable. Aussi, il est indispensable de mettre en oeuvre, au niveau européen, des normes minimales en matière d'éthique et de respect des droits fondamentaux , qui devraient être respectées lors de l'élaboration des algorithmes d'ordonnancement des contenus, mais aussi de modération et d'adressage de la publicité, selon un principe de legacy by design . La responsabilité des plateformes mettant en oeuvre ces algorithmes devrait pouvoir être engagée dans le cas où leurs algorithmes ne respecteraient pas ces normes .

Le projet de règlement sur l'intelligence artificielle 61 ( * ) , actuellement en cours de discussion au niveau européen, qui vise précisément à s'assurer que les systèmes d'intelligence artificielle utilisés dans l'Union soient sûrs et respectent les droits fondamentaux, devrait, à cet égard, tenir dûment compte des risques systémiques engendrés par l'usage de tels algorithmes par les très grandes plateformes en ligne, et clarifier les responsabilités de ces dernières à cet égard.

Sans préjuger des conclusions des négociations sur ce règlement, vos rapporteures recommandent dans tous les cas que les algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité utilisés par les très grandes plateformes en ligne soient soumis avant leur utilisation à des protocoles de tests, y compris de la part de chercheurs, afin d'évaluer les risques potentiels liés à leur usage.

En outre, les révélations de Frances Haugen ont montré que les très grandes plateformes comme Facebook ajustent en permanence leurs algorithmes, effectuant de fait des essais « grandeur nature » et en direct sur leurs utilisateurs, sans analyser préalablement les risques induits . Or, même des modifications ciblées peuvent avoir d'importantes conséquences sur le fonctionnement du système (« effets de bord »). Des tests de conformité devraient donc être effectués après chaque modification substantielle dans le paramétrage des algorithmes, préalablement à leur utilisation.

Les utilisateurs qui ont consenti à l'activation des systèmes de recommandation devraient en outre être clairement informés à chacune de ces modifications .

Enfin, compte tenu du caractère auto-apprenant des algorithmes d'intelligence artificielle, vos rapporteures recommandent que ces derniers fassent l'objet d'audits réguliers , afin de déterminer si leur fonctionnement n'induit pas de risque pour les droits fondamentaux .

Ø Prévoir l'engagement de la responsabilité des très grandes plateformes si leurs algorithmes ne respectent pas des normes européennes en matière d'éthique et de respect des droits fondamentaux, selon le principe de legacy by design .

Ø Rendre publics les algorithmes avant leur utilisation, aux fins de recherche par des tiers des risques potentiels posés pour les droits fondamentaux

Ø Ajouter le fonctionnement des algorithmes dans le champ des audits annuels obligatoires prévus à l'article 28, notamment au regard des risques pour les droits fondamentaux.

Ø Informer les utilisateurs des modifications substantielles des algorithmes utilisés par les très grandes plateformes.

d) Aller vers la démonétisation des contenus illicites et préjudiciables
(1) Renforcer les dispositions concernant la publicité ciblée

Ainsi qu'exposé précédemment, le règlement prévoit des obligations de transparence concernant la publicité pour les plateformes (art. 24 et 30).

Les éléments qui devront être portés à la connaissance des utilisateurs devraient être complétés :

Ø en plus de l'identité de la personne pour le compte de laquelle la publicité est affichée, préciser l'identité du financeur.

Une telle précision serait particulièrement utile, par exemple, dans le cas des publicités politiques en ligne 62 ( * ) .

Il semble en outre utile de rappeler qu' une application stricte du RGPD permettrait déjà de limiter certaines pratiques abusives, par exemple l'utilisation, pour le ciblage publicitaire, de données inférées des données à caractère personnel fournies par les utilisateurs aux plateformes ou de leurs interactions avec certains contenus. Le consentement à l'utilisation des données à caractère personnel aux fins de publicité ciblée devrait en outre être spécifique . Une manière simple de s'assurer d'un tel consentement serait de désactiver, par défaut, le ciblage publicitaire.

Le consentement devrait en outre pouvoir être retiré aisément à tout moment.

Ø Préciser que les « principaux paramètres utilisés pour déterminer le bénéficiaire auquel la publicité est présentée » comprennent à la fois les paramètres de ciblage déterminés par l'annonceur et les données personnelles de l'utilisateur sur la base desquelles la publicité lui a été adressée.

Ø Permettre la désactivation, à tout moment, des systèmes de publicité ciblée.

Ø Désactiver par défaut les systèmes de publicité ciblée.

(2) Encourager des méthodes alternatives au ciblage

Bien que fermement convaincues de la nocivité du modèle économique des plateformes en ligne reposant sur la vente de la publicité, vos rapporteures ont été sensibles à l'argument selon lequel la publicité ciblée constitue un mode de financement important pour les fournisseurs de service en ligne, y compris pour les petites entreprises . Une interdiction totale et immédiate de la publicité ciblée affecterait probablement davantage ces dernières que les GAFAM, qui ont déjà entrepris de mettre au point des alternatives 63 ( * ) .

Néanmoins, au vu de leur vulnérabilité, la publicité ciblée est particulièrement préjudiciable aux mineurs : il semble donc nécessaire de l'interdire.

Ø Interdire la publicité ciblée pour les mineurs.

En outre, il est indispensable d' encourager le développement de méthodes alternatives au ciblage publicitaire tel qu'il est aujourd'hui pratiqué par la plupart des plateformes : la Commission devrait inviter les différentes parties prenantes à se saisir du sujet afin de dresser un diagnostic solide, et de soutenir l'innovation dans ce domaine.

2. Compléter la liste des risques systémiques représentés par les très grandes plateformes en ligne

La liste des risques systémiques que les très grandes plateformes devront évaluer annuellement, prévue à l'article 26 du texte, est limitative . Or elle devrait être complétée, en prenant en compte à la fois des thématiques spécifiques et le fonctionnement même des très grandes plateformes .

a) Mieux prendre en compte le modèle économique et le fonctionnement des plateformes dans l'évaluation et l'atténuation des risques systémiques

L'article 26 de la proposition prévoit que, lors de l'évaluation annuelle des risques systémiques qu'elles présentent, les très grandes plateformes devront « t[enir] notamment compte de la manière dont les systèmes de modération des contenus, systèmes de recommandation et systèmes de sélection et d'affichage de la publicité influencent tout risque systémique ». Symétriquement, l'adaptation des systèmes de recommandation et les mesures ciblées destinées à limiter l'affichage de publicités sont explicitement mentionnées, parmi les mesures possibles d'atténuation des risques systémiques (art. 27 (1) (a) et (b)).

Or, vos rapporteures considèrent que le principal risque systémique présenté par les plateformes découle du fonctionnement même de leurs algorithmes, et de leur modèle économique . La formulation retenue par l'article 26, en invitant à une évaluation uniquement thématique des risques, invite les très grandes plateformes à se dispenser d'une évaluation globale des risques qu'elles représentent.

En particulier, limiter l'évaluation des risques d'effets négatifs sur la protection de la santé publique, des mineurs, du discours civique, des processus électoraux et de la sécurité publique aux seuls cas de manipulation intentionnelle du service implique une grave méconnaissance des risques potentiellement posés dans ces domaines par le fonctionnement même des très grandes plateformes.

Ø Ajouter les risques induits par les systèmes algorithmiques, notamment de recommandation des contenus et de sélection et affichage de la publicité, à la liste des risques systémiques que les très grandes plateformes devront évaluer annuellement.

En outre, et a fortiori , la liste des risques systémiques qui pourraient être évalués par des chercheurs agréés, sur la base de données fournies par les très grandes plateformes, ne devrait pas être limitative, dans la mesure où ces recherches devraient précisément permettre l'identification de nouveaux risques.

Ø Supprimer le caractère limitatif de la liste de motifs d'ouverture des données aux chercheurs aux fins de détection des risques systémiques représentés par les très grandes plateformes en ligne.

b) Évaluer et mettre en place des mesures d'atténuation pour trois types de risques supplémentaires
(1) Les atteintes à la liberté d'expression et d'information et au pluralisme des médias

Parmi les risques systémiques mentionnés à l'article 26 figurent les effets négatifs « pour l'exercice des droits fondamentaux », relatifs notamment « à la liberté d'expression et d'information » (art. 26 (1)). Le pluralisme des médias devrait également faire l'objet d'une mention explicite.

L'opportunité d'exclure de la modération par les fournisseurs de service en ligne les contenus de médias et les contenus journalistiques a été vivement débattue ces dernières semaines au Parlement européen 64 ( * ) .

Bien que très attachées au soutien à la presse et aux médias, vos rapporteures estiment qu'en l'absence de définition, au niveau européen, de contenus de médias et de presse - définition permettant de garantir la qualité et surtout l'indépendance des entités se présentant comme tels -, une telle mesure risquerait de favoriser la prolifération de contenus de désinformatio n.

Si le cas de Russia Today , chaîne de télévision financée par l'État russe et « média d'influence », vient immédiatement à l'esprit, l'ONG EUDisinfoLab, spécialisée dans l'analyse et la lutte en matière de désinformation, a également signalé, dans sa réponse écrite, le cas du journal France Soir , mis en cause à l'occasion de la crise sanitaire dans la circulation de nombreuses informations et banni de Google, alors qu'il continue à bénéficier, sur Twitter, du statut de « compte certifié ».

Ainsi, s'il apparaîtrait utile d'engager, au niveau européen, une réflexion d'ensemble sur la définition des contenus de presse et de médias, il semblerait plus utile, dans le cadre plus limité du DSA, d'introduire, pour les très grandes plateformes en ligne, une obligation générale de promouvoir des sources d'information d'intérêt général fiables , en particulier des sources journalistiques (comme cela est par exemple prévu dans les protocoles de crise prévus à l'article 37).

Ø Instaurer une obligation pour les plateformes d'assurer une visibilité améliorée des informations d'intérêt public émanant de sources fiables, notamment de sources journalistiques et de médias, sur la base de normes et de critères co-construits avec les acteurs du secteur.

(2) La protection des consommateurs

Les possibles atteintes à la protection des consommateurs pourraient être ajoutées à la liste des risques systémiques soumis à évaluation annuelle par les grandes plateformes (art. 26 (1)), tant pour les très grandes plateformes ayant pour principal objet la vente en ligne que pour les autres types de très grandes plateformes , soit parce qu'elles permettent ce type d'activité de manière accessoire, soit parce qu'il est possible via leurs services de parvenir sur des sites de vente en ligne, soit en raison des publicités qu'elles diffusent.

(3) La protection des publics vulnérables

Selon l'exposé des motifs de la proposition de loi sur le contrôle parental récemment déposée à l'Assemblée nationale 65 ( * ) , l' âge moyen auquel les enfants accèdent à leur premier smartphone est de neuf ans et neuf mois , et 82 % des enfants de 10 à 14 ans déclarent se rendre régulièrement sur internet sans leurs parents.

Selon une étude de 2018, plus de la moitié des enfants de 11 à 18 ans avaient déjà été exposés à des propos, images ou vidéos illicites ou préjudiciables en ligne 66 ( * ) : 25 % d'entre eux avaient déjà été exposés à des scènes de torture ou de violence, et 34 % à de la pornographie. Près de la moitié (48 %) de ces contenus préjudiciables ont été rencontrés par les mineurs sur les réseaux sociaux .

Compte tenu de leurs vulnérabilités particulières , tant physiques que psychiques, les enfants et les adolescents devraient être mieux protégés contre ces contenus.

En outre, au-delà des seuls contenus illégaux, préjudiciables ou choquants, les documents internes de Facebook révélés par Frances Haugen indiquent par exemple que, pour un tiers des adolescentes consultant Instagram , l'application provoque une dégradation de l'image de soi 67 ( * ) . Le fonctionnement même des réseaux sociaux peut donc constituer une menace pour la santé et le bien-être des jeunes publics - menace en l'occurrence sciemment ignorée par Facebook.

Or, l'unique prise en compte spécifique des jeunes publics dans le DSA figure dans la liste des risques systémiques évalués annuellement par les très grandes plateformes, à savoir les « effet[s] négatif[s] pour l'exercice des droits fondamentaux relatifs [...] aux droits de l'enfant » (art. 26 (1) (b)), et les effets négatifs sur la protection des mineurs causés par une manipulation intentionnelle du service (art. 26 (1) (c)).

Outre ces deux items limitatifs, le public des mineurs devrait faire l'objet d'une attention spécifique dans le cadre de l'évaluation de chaque risque systémique : par exemple, les effets négatifs sur la santé publique devraient être examinés pour la population générale, et en ce qui concerne spécifiquement les enfants.

En outre, la protection des mineurs devrait être a minima mentionnée comme une priorité dans les codes de conduite mentionnés à l'article 35, au même titre que la concurrence ou la protection des données à caractère personnel (art. 35 (1)), ainsi que dans le code de conduite sur la publicité en ligne mentionné à l'article 36.

Ø Prendre systématiquement en compte les mineurs dans toutes les mesures d'évaluation et d'atténuation des risques.

En outre, compte tenu du risque d'enfermement dans des bulles informationnelles particulièrement préjudiciables à leur équilibre et à leur bien-être et susceptibles de favoriser le harcèlement en ligne, il semble nécessaire de désactiver par défaut , pour les mineurs, les systèmes de recommandation des contenus .

En ce qui concerne la publicité , d'autres textes européens concernant la régulation de l'espace en ligne, comme la directive sur les services de médias audiovisuels, prévoient des dispositions plus sévères pour les mineurs, compte tenu de leur vulnérabilité particulière. Il semblerait cohérent d'introduire le même type de restrictions dans le DSA, notamment en interdisant la publicité ciblée pour les mineurs .

Ø Désactiver par défaut les systèmes de recommandation des contenus pour les mineurs.

Ø Interdire la publicité ciblée pour les mineurs.

En outre, il serait souhaitable d'instaurer un « droit à l'oubli » pour les mineurs , leur permettant à tout moment d'effacer l'ensemble des contenus dont ils pourraient regretter la publication sur les réseaux sociaux. Une réflexion pourrait être encouragée, au niveau européen, entre les différentes parties prenantes, afin d'établir les conditions et modalités pratiques de mise en oeuvre d'un tel droit à l'oubli. Concrètement, il pourrait par exemple s'agir de limiter les partages de contenus publiés par des enfants, mais également, en tirant profit de l'intelligence artificielle, d'identifier les types de contenus dont la publication est le plus souvent regrettée par les enfants, afin d'afficher un avertissement au moment de la publication.

La Commission devrait également encourager le développement de normes concernant le contrôle de l'âge sur internet .

Ø Instaurer un « droit à l'oubli » pour les mineurs sur internet.

Ø Développer des normes européennes concernant le contrôle de l'âge sur internet.

Il est regrettable que la stratégie européenne sur les droits de l'enfant , présentée au printemps dernier 68 ( * ) , ne comporte que des dispositions éparses concernant la protection des enfants dans l'environnement en ligne . Une initiative spécifique de l'Union dans ce domaine serait la bienvenue , afin de compléter les quelques éléments contenus dans le projet de DSA.

c) Réformer le régime de responsabilité des plateformes en ligne

Comme indiqué dans la première partie du rapport, le DSA, s'il facilite les conditions de mise en cause de la responsabilité des hébergeurs, n'en modifie pas les contours, et la Cour de Justice de l'Union européenne (CJUE) applique les dispositions de la directive sur le commerce électronique concernant la responsabilité des hébergeurs à des services et des modèles d'affaires qui n'existaient pas au moment de son adoption.

Or ce statut d'« hébergeur » ne reflète par le caractère actif de plateformes - en particulier les réseaux sociaux et places de marché, mais aussi, par exemple, les plateformes de partage de vidéos ou de musique - qui, par le biais notamment d' algorithmes d'ordonnancement des contenus , jouent bien un rôle de sélection des contenus, en augmentant la visibilité de certains au détriment d'autres, sur la base de paramètres déterminés par les plateformes et dans leur intérêt.

Une distinction entre le régime de responsabilité applicable aux hébergeurs passifs et aux plateformes utilisant des algorithmes d'ordonnancement des contenus serait donc pertinente, mais la nouvelle catégorie de « plateformes en ligne » définie dans le DSA ne détermine que des obligations de diligence supplémentaires, sans remettre en cause le régime de responsabilité de ces dernières, qui sont toujours considérées, de ce point de vue, comme de simples hébergeurs.

Vos deux rapporteures appellent donc à réformer le régime européen de responsabilité des fournisseurs de services en ligne, pour créer un nouveau régime de responsabilité renforcée pour les plateformes utilisant des algorithmes d'ordonnancement des contenus , conformément au souhait déjà exprimé par le Sénat dans sa résolution européenne de 2018 sur la responsabilité des hébergeurs de services en ligne 69 ( * ) .

De ce point de vue, le DSA apparaît comme une occasion manquée de mettre les plateformes , et en particulier les grands réseaux sociaux, devant leurs responsabilités .

Ø Créer un régime européen de responsabilité renforcée spécifique pour les fournisseurs de services intermédiaires utilisant des algorithmes d'ordonnancement des contenus, à raison de ladite utilisation.


* 60 S. Zuboff , The Age of Surveillance Capitalism , éd. Profile, 2019 (trad. L'Âge du capitalisme de surveillance , éd. Zulma essais, 2020).

* 61 Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l'intelligence artificielle (législation sur l'intelligence artificielle) et modifiant certains actes législatifs de l'Union, COM(2021) 206 final.

* 62 La Commission a présenté fin novembre une proposition de règlement concernant la publicité politique en ligne ( Proposal for a regulation of the European Parliament and of the Council on the transparency and targeting of political advertising) , COM(2021) 731 final (non encore traduit)).

* 63 Par exemple la « Privacy Sandbox » de Google, qui vise à mettre en oeuvre de la publicité ciblée par cohortes, et non plus individuellement.

* 64 En l'état actuel, cette possibilité n'a cependant pas été retenue dans les compromis.

* 65 Proposition de loi n° 4646 visant à encourager l'usage du contrôle parental sur certains équipements et services vendus en France et permettant d'accéder à Internet.

* 66 Enquête menée par Renaissance numérique, Génération numérique, le Comité interministériel à la prévention de la délinquance et la Délégation interministérielle à la lutte contre le racisme, l'antisémitisme et la haine anti-LGBT (DILCRAH), datée du 20 mars 2018.

* 67 “Facebook Knows Instagram Is Toxic for Teen Girls, Company Documents Show”, Wall Street Journal , 14 septembre 2021.

* 68 Communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au comité des régions du 24 mars 2021, intitulée « Stratégie de l'UE sur les droits de l'enfant », COM(2021) 142 final.

* 69 Résolution européenne du Sénat n° 31 (2018-2019) du 30 novembre 2018, sur la responsabilisation partielle des hébergeurs de services numériques.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page