EXAMEN DES ARTICLES

Article 4
(Loi n° 86-1067 du 30 septembre 1986)

Pouvoirs du Conseil supérieur de l'audiovisuel

Objet : le présent article fixe le cadre général de l'intervention du Conseil supérieur de l'audiovisuel (CSA) .

I. - Le droit en vigueur

La loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication confie au Conseil supérieur de l'audiovisuel deux missions distinctes, qui se trouvent réunies par la présente proposition de loi : la lutte contre l'incitation à la haine , d'une part, un embryon de capacité de régulation de l'Internet , d'autre part.

L'article 15 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication confie au CSA la charge de veiller à ce que les programmes audiovisuels « ne contiennent aucune incitation à la haine ou à la violence pour des raisons de race, de sexe, de moeurs, de religion ou de nationalité ». Il a la capacité, en cas de manquements répétés à cette obligation, de suspendre la diffusion du service de télévision (article 43-8).

Introduit par la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information , l'article 17-2 de la loi précitée du 30 septembre 1986 a assigné au CSA la mission de « contribuer à la lutte contre la diffusion de fausses informations susceptibles de troubler l'ordre public ou de porter atteinte à la sincérité d'un des scrutins ». Son ancien président Olivier Schrameck avait qualifié cette mission devant votre commission, à l'occasion de son audition du 19 juin 2018, de « méta régulation ». Elle se décline en trois catégories :

- adresser aux opérateurs de plateforme en ligne des recommandations ;

- s'assurer du suivi des obligations prévues par la loi précitée du 22 décembre 2018 ;

- enfin, publier un bilan périodique des mesures prises et de leur effectivité. Dans ce cadre, il peut recueillir toute information auprès des opérateurs.

II. - Le texte de la proposition de loi

Le CSA dispose donc de longue date d'une compétence en matière d'identification des contenus haineux et, depuis peu, d'une capacité à élaborer une forme de régulation du numérique, sur la question spécifique des fausses informations .

L'article 4 de la proposition de loi insère un nouvel article 17-3 à la loi précitée du 30 septembre 1986. Il est symétrique de l'article 17-2 consacré à la lutte contre les fausses informations. Ainsi, le CSA contribue à la lutte contre la diffusion de propos haineux et assimilés. Dans ce cadre, il adresse aux opérateurs en ligne concernés par cette loi des recommandations , s'assure du suivi par ces derniers de leurs obligations et publie un bilan périodique . Les opérateurs sont par ailleurs tenus de rendre compte de leurs actions en matière de lutte contre les contenus haineux et discriminants.

La proposition de loi initiale était donc alignée sur le dispositif applicable aux fausses informations , avec, ex ante la publication de recommandations, ce qui s'inscrit dans une logique de « soft law » destinée à créer un corpus de bonnes pratiques, et ex post le suivi et la publication d'un bilan, ce qui constitue une incitation pour les plateformes à coopérer.

III. - Les modifications apportées par l'Assemblée nationale

Les modifications apportées à l'article 1 er de la proposition de loi ont conduit à une refonte de son article 4 .

L'article 1 er prévoyait dans sa version initiale que le CSA puisse sanctionner les opérateurs en cas de non-retrait de contenus haineux d'une amende pouvant aller jusqu'à 4 % de leur chiffre d'affaires annuel mondial . Le Conseil d'État a justement relevé que le retrait de contenu, « acte particulièrement radical au regard de la protection dont jouit la liberté d'expression », ne pouvait être opéré que par le juge judiciaire . Ainsi, l'article 1 er tel qu'adopté finalement par l'Assemblée nationale a créé un délit autonome en cas de refus de retrait d'un contenu, sous le contrôle du juge judiciaire.

La structure de l'article 4 a donc profondément évolué. Il se divise maintenant en trois parties distinctes.

A. Première partie : un pouvoir de recommandations et d'orientations

La première partie est la reprise du dispositif initial, aligné sur l'article 17-2 de la loi du 22 décembre 2018. Le CSA émettrait des « recommandations, bonnes pratiques et des lignes directrices ». Dans la pratique, ces trois dénominations semblent désigner un même corpus de règles générales qui sera publié par le CSA à l'attention de l'ensemble des plateformes. Le CSA s'assurerait du suivi des obligations des plateformes, et publierait chaque année un bilan.

B. Deuxième partie : une procédure de sanction revue en profondeur à l'Assemblée nationale

La deuxième partie constitue la procédure de sanction , qui a été profondément modifiée à l'initiative de la Rapporteure de la commission des lois de l'Assemblée nationale, également première signataire de la proposition de loi, afin de suivre l'avis du Conseil d'État. Alors que le CSA était dans la première version chargé de déterminer la licéité des contenus à l'article 1 er , - un rôle quasi judiciaire - ce dernier est maintenant recentré sur le contrôle du respect de leurs obligations par les opérateurs.

Cette procédure se fonde sur deux aspects.

Premier aspect , de manière générale, le respect des obligations « mentionnées aux 2° à 11° du 6-3 [de la loi LCEN telle qu'issue de la proposition de loi] ». Elles sont décrites aux articles 2 et 3 de la présente proposition de loi et visent à contraindre les opérateurs à mettre en place un système de signalement et de notification adapté, simple, et facilement accessible pour les internautes. Le 4° dudit article 6-3 consacre une obligation de moyens « humains et, le cas échant, technologique proportionnés permettant de garantir le traitement dans les meilleurs délais des notifications reçues ». Les plateformes concernées sont également tenues de mettre à disposition une information claire et loyale à l'attention de leurs utilisateurs, à la fois sur leurs droits et sur les risques encourus en cas de publications malveillantes.

Second aspect , « les conditions dans lesquelles l'opérateur se conforme aux recommandations prises par le CSA ». Le Conseil est notamment chargé d'apprécier le caractère « insuffisant ou excessif du comportement de l'opérateur en matière de retrait sur les contenus portés à sa connaissance ou qu'il constate de sa propre initiative ».

Le fondement de l'action du CSA se situe à la convergence d'une part, d'une obligation générale dans la conception du site par l'opérateur, qui doit assurer une information claire et permettre facilement le signalement, ce qui renvoie à une obligation de moyens et, d'autre part, d'une volonté de coopération de la plateforme . Les deux comportements répréhensibles et de nature à engager leur responsabilité sont donc :

- le « comportement » de retrait « insuffisant » , qui se révélerait trop permissif pour les contenus haineux, soit la situation que déplorent les auteurs de proposition de loi. Cette appréciation ne porte pas sur un retrait en particulier, mais sur le « comportement » de l'opérateur. La marge d'appréciation du CSA en la matière est donc large. Il pourrait fonder son jugement sur le nombre de condamnations confirmées par l'autorité judiciaire, mais sans exclusive ;

- le « comportement » de retrait « excessif » constitue pour sa part une attitude qui mettrait en cause la liberté d'expression qui s'exerce dans le domaine numérique. Cette mention vise à prémunir les internautes contre les risques d'une censure privée « aveugle » qui aurait pour seul objectif de limiter les risques de sanction. En tant que telle, cette mention constitue un point d'équilibre essentiel de la proposition de loi .

La difficulté pour les acteurs de l'Internet sera alors de se positionner sur cette « ligne de crête » pour éviter d'encourir le reproche d'une insuffisance de contrôle et de retrait, ou d'excès de censure.

Dans ce contexte, il est clair que le CSA devra être en mesure de nouer le dialogue avec les opérateurs pour préciser ses attendus et ses critères de jugement .

Une fois la procédure engagée, le Conseil met en demeure l'opérateur de se conformer à l'ensemble de ses obligations ou à ses recommandations. Cette phase de la procédure, pré-contentieuse, lui offre l'opportunité de « rectifier » son comportement.

En cas de refus de l'opérateur, le Conseil peut prononcer une sanction pécuniaire. Son montant doit tenir compte de la gravité des manquements, des refus réitérés de coopérer. Il est limité au montant très élevé de 4 % du chiffre d'affaires annuel mondial total de l'exercice précédent, soit le seuil retenu pour le RGPD . Pour donner un ordre d'idée, la sanction maximale, sur la base des chiffres d'affaires 2018, pourrait s'élever pour Facebook et Google à respectivement 2,2 milliards et 7,2 milliards de dollars . Les sommes en jeu pour ces deux entreprises américaines, les plus importantes du secteur, soulignent clairement la visée dissuasive de la mesure, que l'on peut mettre en parallèle, même si les dispositifs ne sont pas identiques, à la loi allemande qui limite le montant des amendes à 50 millions d'euros en cas de refus répétés.

Entre la version initiale de la proposition de loi et celle issue du vote de l'Assemblée nationale, le dispositif de sanction a été scindé en deux, ce qui correspond à deux obligations auxquelles doivent se soumettre les opérateurs.

D'un côté , le retrait des contenus haineux signalés (suivant des modalités simplifiées et qui doivent être explicitées et aisément accessibles) tels que définis à l'article 1 er de la présente proposition de loi. L'absence de retrait est sanctionnée par l'amende déjà existante dans la LCEN, soit un an d'emprisonnement et 75 000 euros pour une personne physique, 375 000 euros pour une personne morale, sous le contrôle du juge judiciaire.

De l'autre côté , ce que l'on pourrait qualifier de volonté de ne pas coopérer et de ne pas se conformer aux obligations de moyens définis par la loi, avec une sanction exprimée en pourcentage du chiffre d'affaires et décidée par le CSA. Dans ce schéma, le CSA n'est pas placé dans la position de devoir juger du caractère illicite ou non de tel ou tel contenu - ce qui ne correspondrait pas du reste avec son rôle d'autorité administrative.

Le texte issu de l'Assemblée nationale est donc revenu sur le montant extrêmement élevé qui était envisagé pour un « simple » non retrait, pour déplacer le montant réellement dissuasif de la sanction sur un terrain plus structurel, qui traduit l'absence de volonté réitérée et claire de l'opérateur .

C. Troisième partie : les mesures de coordination

La troisième partie , définie au III de l'article 4, procède à plusieurs adaptations et mesures de coordination au sein de la LCEN et de la loi du 30 septembre 1986.

Tout d'abord, le CSA « encourage » les opérateurs dans la mise en oeuvre d'outils de coopération dans la lutte contre les contenus haineux.

Le I bis A complète la liste des pouvoirs de recueil d'informations du CSA tels que fixés à l'article 19 de la loi de 1986. De la même manière que le Conseil peut obtenir des informations auprès des autorités administratives et des différents acteurs de l'audiovisuel, il aurait la capacité de demander aux opérateurs en ligne les informations de nature à lui permettre de s'assurer du respect des obligations, notamment de moyens, posées par la présente proposition de loi.

Le I bis complète la procédure d'élaboration de la sanction menée par un rapporteur du CSA par les obligations nées de la présente proposition de loi. La procédure se trouve donc rattachée à celle existante pour les autres domaines de compétence du CSA, ce qui garantit les droits des parties.

Le I ter modifie la LCEN sur plusieurs points.

D'une part, le 7 du I du 6 de la LCEN est modifié, conformément à l'avis du Conseil d'État. En effet, l'insertion de l'article 6-2 crée un régime spécifique pour les contenus haineux pour les opérateurs de plateforme en ligne visés par la proposition de loi, soit pour l'essentiel les réseaux sociaux et les moteurs de recherche. Les obligations de ces derniers sont regroupées au sein de l'article 6-2 de la LCEN, introduit à l'article 1 er de la présente proposition de loi.

D'autre part, la responsabilité de la Commission nationale de l'informatique et des libertés (CNIL) dans le cadre de l'article 6-1, qui plaçait sous l'autorité d'un membre du collège de ladite Commission les demandes de retrait par les administrations des contenus à caractère terroriste ou pédophile, contenus dits « odieux », serait confiée à un membre du collège du CSA, dans des conditions inchangées.

Dès lors, le CSA regrouperait plusieurs prérogatives liées à la régulation des contenus et de leur retrait sur Internet. Le dessaisissement de la CNIL apparait, de ce point de vue, comme un basculement d'une logique de protection de la vie privée numérique à une logique plus protectrice des utilisateurs des opérateurs , susceptibles d'être exposés à des contenus odieux . Comme le soulignait le Président du CSA le 6 septembre 2019 devant les présidents du Réseau francophone des régulateurs des médias : « Progressivement s'est imposée l'idée que les grandes plateformes de contenus sur Internet ont, comme les médias traditionnels, un certain nombre de responsabilités et de comptes à rendre à la collectivité : du fait de leur rôle de plus en plus incontournable dans l'accès aux contenus, notamment d'information, du fait de leurs algorithmes de référencement et de recommandation et, plus généralement, du fait de leur impact démocratique, sociétal et culturel - en particulier chez les jeunes, chez qui ces plateformes ont tendance à prendre le pas sur les médias traditionnels. »

Cela induit une nouvelle forme de régulation des contenus , à laquelle le CSA semble à ce jour le plus à même de répondre.

IV. - La position de votre commission pour avis

La présente proposition de loi confie au CSA une mission étendue mais aux contours encore vagues .

A. Doter le CSA de moyens suffisants

L'Autorité se trouve tout d'abord confrontée à la question de l'insuffisance de ses moyens et de l'absence d'une expertise dédiée de haut niveau en matière de numérique.

Si le CSA avait pu, sans hausse significative des crédits, absorber le surcroît de travail, finalement ponctuel, résultant de la loi relative à la lutte contre les manipulations de l'information, tel ne pourra être le cas si la présente proposition de loi devait être adoptée . Le Conseil devra par ailleurs se doter de compétences très pointues dans le numérique, à même de lui permettre de dialoguer efficacement avec des acteurs de l'Internet aux moyens considérables et qui concentrent les meilleurs spécialistes du secteur au niveau mondial. À ce stade, rien ne semble prévu dans le projet de loi de finances pour 2020. Or le CSA doit également se préparer à la « révolution » que devrait être pour lui la loi « audiovisuelle » et à son passage d'un régulateur centré sur l'audiovisuel à un régulateur plus global.

Votre Rapporteure pour avis est très favorable à l'instauration d'un réel contrôle sur les plateformes. Elle souligne en conséquence l'absolue nécessité de positionner le régulateur au bon niveau non seulement juridique, mais également de compétences . Compte tenu de l'importance du numérique et du poids des opérateurs de plateformes dans la vie quotidienne de tous, il serait inenvisageable et incompréhensible de ne pas doter le CSA des moyens lui permettant d'accomplir ses nouvelles missions .

B. Recentrer les missions du CSA sur la régulation

Votre Rapporteure pour avis juge positif le mouvement engagé par l'Assemblée nationale suite à l'avis du Conseil d'État, consistant à bien séparer les fonctions des différents organes :

- au juge judiciaire , gardien des libertés publiques , et dans les conditions définies à l'article 1 er , le pouvoir de juger du caractère manifestement illicite de tel ou tel contenu ;

- au CSA la « méta régulation » du dispositif, avec un contrôle approfondi des moyens et des procédures mis en place par les plateformes.

Dans cette optique, un premier amendement adopté par la commission à l'initiative de votre Rapporteure pour avis ( COM-16 ) propose de mieux positionner dans le corps du texte le champ de contrôle du Conseil supérieur de l'audiovisuel. Il concernerait l'ensemble des obligations imposées aux plateformes par les articles 6-2 et 6-3 tels qu'ils résultent de la présente proposition de loi, à l'exception du premier alinéa du I de l'article 6-2 qui définit les obligations de retrait en 24 heures des contenus haineux . Il est en effet essentiel de ne laisser aucune ambiguïté et d'établir une ligne de démarcation claire des compétences affectées au juge judiciaire et au régulateur, qui ne saurait se retrouver en situation de juger de la licéité de tel ou tel contenu.

Le tableau suivant récapitule les obligations qui incomberaient aux plateformes et dont le CSA devrait garantir le respect.

Le champ de contrôle du CSA dans les articles 6-2 et 6-3
de la présente proposition de loi

Article 6-2 tel qu'adopté par l'Assemblée nationale

- Obligation de retrait en 24 heures des contenus manifestement illicites. Hors champ du contrôle du CSA , qui ne se prononce pas sur les contenus.

- Les opérateurs substituent un message au contenu supprimé.

- Conservation pendant un an des contenus supprimés, à disposition de l'autorité judiciaire.

- Peine d'un an d'emprisonnement et de 75 000 € d'amende en cas de non-respect des obligations du 1 er alinéa (retrait en 24 heures), régime général de la LCEN pour l'absence de coopération des plateformes.

- Possibilité pour les associations défendant des motifs d'intérêt général mentionnés aux articles 48-1 à 48-6 de la loi du 29 juillet 1881 (lutte contre l'esclavage, honneur de la Résistance, discriminations fondées sur l'orientation sexuelle...) de se constituer partie civile dans son domaine de compétence en cas d'absence de retrait.

- Simplification du contenu de la notification à adresser à la plateforme pour signaler le contenu litigieux. L'article 1 er ter A aligne dans le même sens l'article 6 de la LCEN pour disposer d'un cadre commun.

- Possibilité pour les associations de protection des enfants, saisies par un mineur, de notifier les contenus haineux et de dialoguer avec les plateformes.

- Sanction aux personnes qui notifient des contenus dont ils savent qu'ils ne sont pas litigieux.

Article 6-3 tel qu'adopté par l'Assemblée nationale

Obligation générale de se conformer aux recommandations prises par le CSA pour la bonne application des dispositions suivantes :

- Accuser réception sans délai de toute notification, information du notifiant et de l'auteur du contenu signalé. Ils doivent être informés dans les 24 heures en cas de retrait des motifs de la décision.

- Mise en place d'un dispositif de signalement accessible et dans la langue d'utilisation du service.

- Obligation de moyens, avec la mise en oeuvre de moyens technologiques et humains proportionnés permettant de garantir le traitement dans les meilleurs délais des notifications reçues, l'examen approprié des contenus notifiés de manière à prévenir les risques de retrait injustifié.

- Mise en place d'un dispositif permettant de contester la décision de retrait ou de non-retrait.

- Mise à disposition d'une information publique claire et détaillée permettant d'informer les utilisateurs des conditions d'exercice de leurs droits.

- Dans des conditions définies par le CSA, obligation de rendre compte des moyens humains et technologiques mis en oeuvre pour faire appliquer la loi.

- Information à destination des mineurs inscrits sur la plateforme sur l'utilisation des données personnelles et les dangers liés à la diffusion de contenus haineux.

- Désignation d'un représentant légal sur le territoire national.

- Formulation dans des termes clairs et lisibles des conditions générales d'utilisation en lien avec le retrait des contenus.

Un deuxième amendement COM-17 a été adopté par la commission à l'initiative de votre Rapporteure pour avis afin de réécrire l'alinéa 3 de l'article 4.

Cet alinéa établit en effet une distinction entre les « recommandations, bonnes pratiques et lignes directrices » qui s'avère dans les faits peu opératoire. Actuellement, dans le cadre de la loi de 1986, le CSA émet simplement des recommandations destinées à l'ensemble des acteurs. Par exemple, dans le domaine du numérique, le CSA a rendu publique sa recommandation n° 2019-03 du 15 mai 2019 aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations , en application du deuxième alinéa de l'article 17-2 de la loi précitée du 30 septembre 1986, introduit par l'article 12 de la loi relative à la lutte contre la manipulation de l'information. Cette recommandation se présente comme un cadre général à l'attention des opérateurs en ligne leur permettant d'orienter leurs efforts pour se conformer aux exigences de la loi, dans une optique de « droit souple ». Il parait donc préférable de s'appuyer sur des procédures déjà en vigueur et robustes plutôt que d'insérer de nouvelles notions non définies.

Un troisième amendement COM-18 propose une nouvelle rédaction pour les alinéas 7 à 12 du présent article 4.

Il vise à clarifier les conditions d'intervention du CSA et les concours du régime de sanction applicable en cas de manquements aux opérateurs de plateforme, en l'alignant sur les dispositifs de la loi du 30 septembre 1986 qui concernent les chaînes de télévision.

Le dispositif serait aligné sur celui en vigueur aux articles 42 et 48-1 de la loi du 30 septembre 1986 et destinés à assurer le respect des principes législatifs et réglementaires respectivement pour les éditeurs de services de communication audiovisuelle et pour les sociétés de l'audiovisuel public. Il aurait pour base l'ensemble des obligations énoncées aux articles 6-2, à l'exception de son premier alinéa, et 6-3.

En dépit des incertitudes sur sa mise en place, votre Rapporteure pour avis n'a pas souhaité revenir sur la capacité du CSA à sanctionner la politique de retrait des plateformes, qu'il est invité à qualifier d'insuffisante ou d'excessive, sans pour autant rentrer dans l'appréciation « contenu par contenu ». La base légale de cette approche paraît cependant mince, et surtout à construire, mais cette disposition est un garde-fou essentiel de la proposition de loi, et doit se comprendre dans une optique de droit souple et de dialogue avec les plateformes, afin de les inviter progressivement à définir une politique de retrait équilibrée.

À l'initiative de votre Rapporteure pour avis, la commission a également adopté un quatrième amendement COM-19 qui donne au CSA un pouvoir d'appréciation sur la publicité des sanctions. Cette dernière est, en effet, une sanction complémentaire au mécanisme de la sanction pécuniaire, et doit donc s'apprécier de manière autonome et proportionnée.

Votre commission a émis un avis favorable à l'adoption de cet article, sous réserve des amendements qu'elle a adoptés.

Article 6 bis (nouveau)

Extension des thématiques abordées dans le cadre de l'enseignement à l'utilisation des outils et des ressources numériques

Objet : le présent article vise à introduire la prévention de la diffusion de contenus haineux en ligne dans l'enseignement à l'utilisation des outils et des ressources numériques .

I. - Le droit en vigueur

L'article L. 121-1 du code de l'éducation indique que les écoles, collèges, lycées et établissements d'enseignement supérieur concourent à une « éducation à la responsabilité civique, y compris à l'utilisation d'Internet et des services de communication au public en ligne ». Ils dispensent une « formation à la connaissance et au respect des droits de la personne ainsi qu'à une compréhension des situations concrètes qui y portent atteinte ».

Dans le cadre de la formation à l'utilisation responsable des outils et des ressources numériques (article L. 321-9 du code de l'éducation) est prévue une « éducation aux droits et aux devoirs liés à l'usage de l'Internet et des réseaux, dont la protection de la vie privée [...] de la liberté d'opinion et de la dignité de la personne humaine ». En outre, cette formation « contribue [...] à l'apprentissage de la citoyenneté numérique » et comporte une sensibilisation contre le cyberharcèlement.

L'article L. 321-3 du même code rappelle que les enseignements délivrés à l'école élémentaire doivent contribuer à « un usage autonome et responsable des médias, notamment numériques » et assurer « l'acquisition et la compréhension de l'exigence de respect de la personne » .

Ces articles législatifs sont complétés par des dispositions réglementaires. Ainsi, l'annexe du décret n° 2015-372 du 31 mars 2015 relatif au socle commun de connaissances, de compétences et de culture, pris en application de l'article L. 122-1-1 du code de l'éducation, indique qu'au titre de la maîtrise des outils numériques pour échanger et communiquer - compétence intégrée au socle commun des connaissances que l'élève doit acquérir au cours de sa scolarité - « l'élève utilise les espaces collaboratifs et apprend à communiquer notamment par le biais des réseaux sociaux dans le respect de soi et des autres . Il comprend la différence entre sphères publique et privée. Il sait ce qu'est une identité numérique et est attentif aux traces qu'il laisse ».

Par ailleurs, l'article D. 121-1 fixe le cadre de référence des compétences numériques. Au titre de la compétence « s'insérer dans le monde numérique », l'élève doit « maîtriser les enjeux de la présence en ligne, développer des stratégies et des pratiques autonomes en respectant les règles, les droits et les valeurs qui leur sont liés, pour se positionner en tant qu'acteur social, économique et citoyen dans le monde numérique, et répondre à des objectifs (avec les réseaux sociaux et les outils permettant de développer une présence publique sur Internet, et en lien avec la vie citoyenne, la vie professionnelle, la vie privée...) . ». Il doit également savoir, dans le domaine de la protection et de la santé « prévenir et limiter les risques générés par le numérique sur la santé, le bien-être et l'environnement [...] avec la connaissance des effets du numérique sur la santé physique et psychique et sur l'environnement [...] ». Depuis la rentrée 2019, la plateforme en ligne gratuite d'évaluation et de certification des compétences numériques, nommée PIX, permet d'évaluer le niveau des élèves dès la classe de quatrième.

Enfin, le guide de prévention des cyberviolences en milieu scolaire de novembre 2016 inclut les cyberviolences, le cyberharcèlement et le cybersexisme.

Extrait du guide de prévention des cyberviolences en milieu scolaire
de novembre 2016

« Les cyberviolences regroupent en particulier :

- les propos diffamatoires et discriminatoires ou à visée diffamatoire ou discriminatoire ;

- les propos humiliants, agressifs, injurieux ;

- la divulgation d'informations ou d'images personnelles (volées et/ou modifiées et/ou choquantes) ;

- la propagation de rumeurs ;

- les intimidations, insultes, moqueries, menaces ;

- les incitations à la haine ;

- l'usurpation d'identité, le piratage de compte...

Ces contenus sont envoyés, rendus publics ou partagés au moyen de formes électroniques de communication - applications, en particulier réseaux sociaux accessibles sur Internet, et/ou à partir de smartphones, tablettes, ordinateurs notamment. Les cyberviolences peuvent être le fait d'une ou de plusieurs personnes et viser un individu ou un groupe ».

II. - Le texte adopté par l'Assemblée nationale

L'article 6 bis a été introduit à l'initiative de la commission des affaires culturelles et de l'éducation de l'Assemblée nationale. Il vise à compléter l'article L. 312-9 du code de l'éducation afin de mentionner expressément dans le contenu de l'enseignement portant sur l'utilisation des outils et ressources numériques, la lutte contre la diffusion de messages haineux en ligne à la fois en tant qu'émetteur ou simple utilisateur.

III. - La position de votre commission pour avis

Votre Rapporteure pour avis rappelle que l'article L. 312-9 du code de l'éducation permet déjà de sensibiliser les élèves à la lutte contre les messages à caractère haineux et au respect de la dignité de la personne.

Dès lors, pour votre Rapporteure pour avis, l'ajout de cette mission supplémentaire à la formation au numérique résulte d' une volonté politique de lutter fermement contre la diffusion de messages haineux . Si votre Rapporteure pour avis ne peut que saluer un tel volontarisme politique , elle rappelle la nécessité d'une formation conséquente - et régulière en raison de l'évolution rapide des techniques et des usages - des enseignants, afin de ne pas laisser cette nouvelle mission de l'école au stade de la déclaration d'intention . En outre, les enseignants doivent disposer de ressources pédagogiques de qualité et régulièrement renouvelées.

Aussi, votre Rapporteure pour avis souhaite rappeler, comme elle l'a déjà fait lors de l'examen de la proposition de loi relative à la lutte contre la manipulation de l'information, que « les ajouts proposés au code de l'éducation ne pourraient par définition produire leurs effets qu'à long terme, et ils resteront lettre morte s'ils ne font pas l'objet de moyens budgétaires spécifiques et portés sur le long terme » 13 ( * ) .

Votre commission a émis un avis favorable à l'adoption de cet article.

Article 6 ter (nouveau)

Formation des enseignants

Objet : le présent article vise à introduire la prévention de la diffusion de contenus haineux en ligne dans la formation délivrée par les instituts nationaux supérieurs du professorat et de l'éducation .

I. - Le droit en vigueur

L'article L. 721-2 du code de l'éducation dispose que les instituts nationaux supérieurs du professorat et de l'éducation « forment les étudiants et les enseignants à la maîtrise des outils et ressources numériques, à leur usage pédagogique ainsi qu'à la connaissance et à la compréhension des enjeux liés à l'écosystème numérique ». En outre, ils préparent les futurs enseignants et personnels d'éducation « aux enjeux [...] de l'éducation aux médias et à l'information ». Ils organisent par ailleurs des « formations à la manipulation de l'information ».

II. - Le texte adopté par l'Assemblée nationale

Comme pour l'article précédent, cette disposition a été introduite à la demande de la commission des Affaires culturelles et de l'éducation de l'Assemblée nationale. Pour notre collègue députée Fabienne Colboc, Rapporteure pour avis, la lutte contre les contenus haineux en ligne nécessite « l'acquisition d'un savoir spécifique et technique que les enseignants, en formation initiale ou continue, n'ont pas forcément ».

III. - La position de votre commission pour avis

Votre Rapporteure pour avis partage la position de sa collègue députée. Elle avait d'ailleurs souligné lors de l'examen de la proposition de loi relative à la lutte contre la manipulation de l'information que « la formation des enseignants aux enjeux du numérique et à l'usage de l'information sur Internet constitue bien la seule réponse de long terme capable de répondre aux défis posés par [...] la profusion de contenus douteux sur Internet ».

Toutefois, l'inscription dans la loi de ces principes doit avoir une déclinaison concrète dans les programmes de formation des futurs enseignants . Or, dans son rapport sur la formation à l'heure du numérique, votre Rapporteure pour avis avait dénoncé l'absence de prise en compte réelle du numérique au sein des établissements de formation : « l'enseignement du numérique reste sous-dimensionné (20 heures en master 1 sur 300 à 500 heures au total, 15 heures en master 2 sur 250 à 300 heures ! - et trop théorique) » .

C'est la raison pour laquelle, à l'occasion des débats sur le projet de loi pour une école de la confiance , le Sénat a adopté, avec un avis favorable du Gouvernement, un amendement de votre Rapporteure pour avis visant à inclure dans la maquette des instituts nationaux supérieurs du professorat et de l'éducation - qui forment les futurs enseignants - une dimension numérique . Comme l'indiquait votre Rapporteure pour avis à l'occasion de l'adoption de cet amendement, cette formation des futurs enseignants au numérique doit comporter trois volets :

- la maîtrise des outils et ressources numériques : la prise en main, le codage, la maîtrise des algorithmes ;

- l'usage pédagogique des outils et ressources numériques ;

- la connaissance des cultures numériques et usages.

Comme pour le contenu de l'enseignement délivré aux élèves, les textes actuels permettent déjà de prendre en compte la lutte contre la diffusion de propos haineux sur Internet . Dès lors, votre Rapporteure pour avis estime que cette inscription dans le code de l'éducation traduit un message politique fort du législateur en faveur de cette mission qui n'a de sens que s'il se traduit par des moyens concrets en faveur de cette politique.

Votre commission a émis un avis favorable à l'adoption de cet article.

*

* *

Sous réserve de l'adoption de ses amendements, la commission a donné un avis favorable à l'adoption des articles de la proposition de loi visant à lutter contre les contenus haineux sur Internet, dont elle s'est saisie pour avis .


* 13 Rapport n° 677 (2018-2019) de Mme Catherine Morin-Desailly, sur la proposition de loi relative à la lutte contre la manipulation de l'information, Sénat, 2018.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page