D. RENFORCER L'ENCADREMENT DE LA GESTION ALGORITHMIQUE (CHAPITRE III)

Comme indiqué précédemment, dans l'ensemble, les dispositions relatives à la gestion algorithmique sont favorablement accueillies par les différents acteurs. Néanmoins, des améliorations pourraient aussi être apportées à ces chapitres de la proposition de directive.

1. Veiller à l'articulation des dispositions de la directive concernant la gestion algorithmique avec les autres textes européens existants

Sur le sujet de la protection des données et des algorithmes, plusieurs règlements européens existent déjà : le règlement 2019/1150 sur les relations entre les plateformes et les entreprises (Règlement dit « P2B »), le règlement 2016/679 général sur la protection des données (RGPD) mais également la proposition de règlement sur l'intelligence artificielle (COM (2021) 206 final), en cours de négociation.

Certains États membres et les plateformes notamment s'inquiètent du risque de « doublon » entre certaines dispositions de la directive et ces règlements européens précités.

Les rapporteurs estiment effectivement qu'il faut veiller à l'articulation de ces dispositions pour éviter les redondances inutiles. Toutefois, il leur semble, qu'en l'état actuel du texte, les dispositions de la directive ne sont pas contradictoires avec les textes existants mais viennent les compléter afin de protéger spécifiquement les travailleurs de plateformes. Les dispositions portant sur la gestion algorithmique peuvent être, selon les rapporteurs, considérées comme une lex specialis bénéficiant aux travailleurs de plateforme.

Il faudra, toutefois, veiller à l'articulation de la directive avec le projet de règlement sur l'intelligence artificielle, en cours de discussion.

Articulation des dispositions de la directive avec les autres textes européens existants sur la question des algorithmes et la protection des données

L'article 8 de la directive relative à l'évaluation humaine des décisions importantes vient préciser, pour les travailleurs de plateforme, ce qui est prévu à l'article 22 du RGPD. Ce dernier prévoit qu'en cas de décision individuelle automatisée sur la base de l'utilisation de données personnelles, le responsable du traitement « met en oeuvre des mesures appropriées pour la sauvegarde des droits et libertés et des intérêts légitimes de la personne concernée, au moins du droit de la personne concernée d'obtenir une intervention humaine de la part du responsable du traitement, d'exprimer son point de vue et de contester la décision ».

Concernant l'articulation avec la proposition de règlement sur l'intelligence artificielle (IA) le champ d'application de la présente directive est plus large puisqu'il concerne des algorithmes qui ne recourent pas nécessairement à l'intelligence artificielle.

Il existe cependant, dans la proposition de règlement sur l'IA, des éléments sur la transparence qui vont dans le même sens que l'article 6 de la proposition de directive, mais qui sont moins précis et qui ne s'appliquent qu'aux systèmes d'IA. L'article 6 de la proposition de directive semble d'ailleurs plus protecteur sur certains points (interdiction de traiter des données concernant l'état émotionnel du travailleur ou liées à des conversations privées passant par la plateforme).

De même, concernant la question de la surveillance humaine des systèmes automatisés, la proposition de règlement sur l'IA se concentre sur les systèmes d'IA. Son article 14 prévoit ainsi un contrôle effectif des systèmes d'IA par des personnes physiques pendant toute l'utilisation des systèmes d'IA à haut risque dont font pour le moment partie les systèmes de décision relatifs aux relations contractuelles liées au travail, pour l'allocation des tâches et l'évaluation de la performance notamment.

2. Préciser certaines dispositions pour renforcer la transparence de la gestion algorithmique

Plusieurs propositions peuvent par ailleurs être faites pour améliorer le texte et in fine la transparence de la gestion des algorithmes :

- à l'article 6, il pourrait être ajouté une obligation pour la plateforme d'expliquer le fonctionnement de son algorithme. L'explicabilité et l'auditabilité des algorithmes devraient être garanties ;

- au paragraphe 4 de cet article 6, il pourrait être prévu que la transmission, par les plateformes, des informations sur les algorithmes aux représentants des travailleurs et aux autorités de travail nationales se fasse de façon systématique et non sur demande de ces derniers ;

- à l'article 7, une modification serait nécessaire afin de conférer la surveillance et l'évaluation de l'incidence des risques induits par les algorithmes à des organismes tiers et non aux plateformes (paragraphe 3), notamment pour les plus importantes d'entre elles. Par ailleurs, le texte pourrait prévoir une périodicité minimale pour cette évaluation (paragraphe 1), ainsi que la transmission des résultats de ces évaluations, de façon automatique, aux travailleurs, à leurs représentants et aux autorités nationales compétentes (paragraphe 1);

- à l'article 8 (paragraphe 1), il conviendrait de préciser le délai dont dispose la plateforme pour répondre aux demandes des travailleurs concernant l'évaluation humaine des décisions importantes ;

- l'article 10 pourrait être modifié de telle sorte que l'article 9 puisse également s'appliquer aux travailleurs véritablement indépendants. À cet effet, il conviendrait de mentionner l'article 9 dans l'article 10 parmi les dispositions s'appliquant à tous travailleurs de plateforme et non seulement ceux salariés ou présumés salariés.