UNE OCCASION MANQUÉE DE RÉFORMER RÉELLEMENT
LE CADRE JURIDIQUE POUR LES GÉANTS DU NET

• Mieux prendre en compte les spécificités du modèle économique des grandes plateformes en ligne

Le modèle économique des grandes plateformes repose sur l'exploitation par des algorithmes, aussi puissants qu'opaques , de très grandes quantités de données - en particulier de données à caractère personnel -, utilisées pour le ciblage des contenus et des publicités, en vue de maximiser le temps passé par l'utilisateur sur leurs services et, partant, les revenus publicitaires des plateformes.

Ø Créer un nouveau régime européen de responsabilité renforcée pour les fournisseurs de services intermédiaires utilisant des algorithmes d'ordonnancement des contenus , à raison de ladite utilisation.

Ø Renforcer l'autonomisation des utilisateurs en :

o désactivant par défaut les systèmes de publicité ciblée et de recommandations de contenus ;

o facilitant l'accès aux informations les concernant .

Ø S'assurer de la légalité et de la sécurité des algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité utilisés par les plateformes en ligne en :

o mettant en place, au niveau européen, des normes minimales en matière d'éthique et de respect des droits fondamentaux, obligatoires pour tous les algorithmes, dès leur création ( legacy by design ) ;

o rendant publics les algorithmes, aux fins de recherche par des tiers des risques potentiels pour les droits fondamentaux, avant leur première utilisation et après chaque modification substantielle ;

o prévoyant des audits réguliers des algorithmes auto-apprenants .

Ø Ajouter les risques induits par les systèmes algorithmiques , notamment de recommandation des contenus, et de sélection et affichage de la publicité à la liste des risques systémiques que les très grandes devront évaluer annuellement.

Ø Afin de protéger au maximum la liberté d'expression, se concentrer sur la lutte contre la viralité des contenus illicites : inviter les plateformes à d'emblée réduire la visibilité des contenus signalés , si leur caractère illicite n'est pas manifeste.

• Introduire des mesures spécifiques de protection des enfants :

Ø Prendre systématiquement en compte les mineurs dans l'évaluation et l'atténuation des risques .

Ø Désactiver par défaut les systèmes de recommandation des contenus et interdire la publicité ciblée pour les mineurs.

Ø Instaurer un droit à l'oubli pour les mineurs.

• Garantir dès à présent l'adaptabilité du règlement aux futures évolutions des usages, technologies et marchés numériques

Ø S'assurer de la robustesse des concepts et dispositions du règlement, face aux services numériques émergents .

Ø Réduire le délai d'évaluation du règlement de cinq ans deux ans .

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page