compte rendu intégral

Présidence de M. Roger Karoutchi

vice-président

Secrétaires :

Mme Esther Benbassa,

M. Daniel Gremillet.

M. le président. La séance est ouverte.

(La séance est ouverte à seize heures.)

1

Procès-verbal

M. le président. Le compte rendu analytique de la précédente séance a été distribué.

Il n’y a pas d’observation ?…

Le procès-verbal est adopté sous les réserves d’usage.

2

 
Dossier législatif : proposition de loi relative à la reconnaissance biométrique dans l'espace public
Discussion générale (suite)

Reconnaissance biométrique dans l’espace public

Adoption d’une proposition de loi dans le texte de la commission modifié

Discussion générale (début)
Dossier législatif : proposition de loi relative à la reconnaissance biométrique dans l'espace public
Article 1er

M. le président. L’ordre du jour appelle la discussion, à la demande du groupe Les Républicains, de la proposition de loi relative à la reconnaissance biométrique dans l’espace public, présentée par MM. Marc-Philippe Daubresse, Arnaud de Belenet et plusieurs de leurs collègues (proposition n° 505, texte de la commission n° 664, rapport n° 663).

Dans la discussion générale, la parole est à M. Marc-Philippe Daubresse, auteur de la proposition de loi.

M. Marc-Philippe Daubresse, auteur de la proposition de loi. Monsieur le président, madame la ministre, mes chers collègues, en octobre 2020, la commission des lois du Sénat a créé, sur l’initiative de son président François-Noël Buffet, une mission d’information sur la reconnaissance faciale et ses risques au regard de la protection des libertés individuelles.

Cette technologie, qui se développe rapidement grâce aux algorithmes d’apprentissage, polarise l’opinion publique entre, d’une part, les tenants d’un moratoire sur toutes les technologies biométriques – y compris la reconnaissance faciale –, lesquelles seraient par nature attentatoires aux libertés, et, d’autre part, ceux qui mettent en exergue leurs importants bénéfices potentiels pour garantir notre sécurité.

Le rapport de cette mission d’information, confié à Arnaud de Belenet, Jérôme Durain et moi-même et adopté à l’unanimité avait un double objectif.

D’abord, celui de combler le vide juridique actuel qui nous rend totalement dépendants du règlement général sur la protection des données (RGPD) et de la future directive européenne. Nous n’avons pu inscrire dans une loi la spécificité française qui écarte, par principe, tout recours à la technique de la reconnaissance faciale en temps réel dans l’espace public, ce qui nous permet d’éviter tout risque d’une société de surveillance.

Ensuite, et par exception, en raisonnant cas d’usage par cas d’usage, celui de garantir la sécurité des grands événements au cours desquels le risque terroriste est avéré.

De fait, les multiples facettes des technologies biométriques soulèvent de nombreux enjeux éthiques en matière de liberté, de sécurité et de souveraineté.

Parmi ces techniques, la reconnaissance faciale vise à reconnaître une personne sur la base des données de son visage. Les cas d’usage sont potentiellement illimités. Les deux premières entreprises mondiales spécialistes de cette technique sont françaises et leurs algorithmes sont désormais fiables à plus de 99 %.

La reconnaissance faciale peut notamment permettre de contrôler l’accès et le parcours des personnes lors d’épisodes sensibles, comme le passage des frontières – on parle alors d’authentification – ou d’assurer la sécurité et le bon déroulement d’événements suscitant une forte affluence, en repérant dans une foule les personnes présentant un risque – on parle alors d’identification.

Deux facteurs permettent de distinguer les techniques d’identification : leur modalité d’utilisation – en temps réel ou a posteriori, par exemple dans le cadre d’une enquête – et le cadre dans lequel elles sont utilisées – police administrative ou police judiciaire.

En France, les usages pérennes dans les espaces accessibles au public sont extrêmement limités. Il s’agit pour l’essentiel de rapprochement par photographie opéré dans le traitement des antécédents judiciaires et du système Parafe (passage automatisé rapide aux frontières extérieures) permettant, dans les aéroports, une authentification sur la base des données contenues dans le passeport.

Considérées comme des données « sensibles » au sens du RGPD, les données biométriques font l’objet d’une interdiction de traitement, lequel ne peut être mis en œuvre que par exception, dans des cas très particuliers : avec le consentement exprès des personnes, pour protéger leurs intérêts vitaux ou sur la base d’un intérêt public important, comme le prévoit la directive relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, et à la libre circulation de ces données, et abrogeant la décision-cadre 2008/977/JAI du Conseil, dite directive Police-Justice.

Mon collègue Arnaud de Belenet et moi-même, nous avons voulu que soit fixé collectivement un cadre permettant d’éviter de tomber dans une société de surveillance. Ont donc été définis des lignes rouges, une méthodologie et un régime de contrôle.

Comme en matière de bioéthique, il s’agit de fixer dans la loi de grands interdits applicables à tous, en particulier aux acteurs publics : interdiction de la notation sociale ; interdiction de la catégorisation d’individus en fonction de l’origine ethnique, du sexe ou de l’orientation sexuelle, sauf dans le cadre de la recherche scientifique ; interdiction de l’analyse d’émotions, sauf à des fins de santé ou de recherche ; et, comme je viens de le dire, interdiction de la surveillance biométrique à distance en temps réel dans l’espace public, sauf exceptions très limitées et encadrées par d’importantes garanties.

Pour cela, nous avions prévu dans le rapport trois principes généraux : le principe de subsidiarité, afin que la reconnaissance biométrique ne soit utilisée que lorsqu’elle est vraiment nécessaire ; le principe d’un contrôle humain systématique, pour que ces technologies de reconnaissance biométrique ne soient qu’une aide à la décision ; le principe de transparence, pour que leur usage ne se fasse pas à l’insu des personnes concernées et pour qu’il soit évalué de manière indépendante.

Pour ces exceptions, nous avons choisi une méthodologie claire sur laquelle je reviendrai : la voie expérimentale.

La proposition de loi que nous vous présentons, traduisant en cela parfaitement l’esprit et la lettre du rapport d’information, prévoit qu’une fois les lignes rouges définies et garanties, certains cas d’usage exceptionnels peuvent légitimement être expérimentés – j’y insiste – dans le cadre d’un régime de contrôle extrêmement renforcé.

D’où la proposition d’une loi d’expérimentation sur le modèle de la loi renforçant la sécurité intérieure et la lutte contre le terrorisme, dite loi Silt, que connaît bien notre rapporteur pour en avoir été l’un des artisans, afin de déterminer les usages très restreints de la reconnaissance biométrique à la fois pertinents et efficaces. L’expérimentation pourrait être autorisée pour trois ans, ce qui obligerait le Gouvernement et le Parlement à réévaluer le besoin et à recadrer éventuellement le dispositif en fonction des résultats obtenus, voire à le supprimer totalement.

Afin que cette phase d’expérimentation soit utile serait mise en place, outre le contrôle parlementaire, une évaluation publique, conduite par un comité composé de scientifiques et de spécialistes de l’éthique indépendants dont les rapports seraient bien évidemment rendus publics.

Nous souhaitons que les usages soient autorisés a priori. En cas d’utilisation par les forces de sécurité intérieure, l’autorisation relèverait soit d’un magistrat, soit du préfet, selon le cadre – judiciaire ou administratif – dans lequel ces technologies sont employées.

Enfin, le pouvoir de contrôle de la Commission nationale de l’informatique et des libertés (Cnil) serait réaffirmé afin qu’elle exerce son rôle de gendarme de la reconnaissance biométrique, dans le cadre de consultations pour avis a priori s’agissant des analyses d’impact et de contrôles a posteriori du bon usage des dispositifs et des éventuels détournements de finalité.

La première partie de la présente proposition de loi que nous avons déposée à la fin du mois d’avril dernier vise à prévoir dans la loi des lignes rouges clairement identifiées. Une fois celles-ci définies, nous déterminons limitativement les quatre cas d’usage de l’identification biométrique qui pourraient, par exception, être expérimentés.

En premier lieu, pour permettre de manière subsidiaire, et uniquement pour la recherche d’auteurs ou de victimes potentielles des infractions les plus graves, l’exploitation a posteriori d’images se rapportant à un périmètre spatio-temporel limité, sous le contrôle du magistrat chargé de l’enquête ou de l’instruction.

En deuxième lieu, pour instituer une nouvelle technique de renseignement afin que les services du premier cercle puissent traiter a posteriori les images issues de la voie publique à l’aide de systèmes de reconnaissance, uniquement à des fins de protection de l’indépendance nationale et de l’intégrité du territoire, de défense nationale et de prévention du terrorisme.

En troisième lieu, pour créer un cadre juridique permettant, de manière subsidiaire et par exception, le recours ciblé et limité dans le temps à des systèmes de reconnaissance biométrique sur la voie publique en temps réel – c’est ce point qui fait débat – sur la base d’une menace préalablement identifiée, en vue de la sécurisation des grands événements face à un risque terroriste ou d’atteinte grave à la sécurité des personnes.

De nombreuses garanties entourent ce dispositif, qu’il s’agisse de la formation spécifique des agents utilisateurs ou de l’encadrement des modalités de développement et de déploiement du dispositif : nombre limité de caméras dédiées, distinctes de celles des systèmes de vidéoprotection, ce qui permet de circonscrire fortement le périmètre géographique et temporel.

En dernier lieu, pour permettre aux autorités judiciaires de recourir à ces systèmes de reconnaissance en temps réel dans le cadre d’enquêtes judiciaires relatives aux infractions les plus graves.

En ce qui concerne la gouvernance de ces expérimentations, nous avons proposé le système de contrôle que je viens d’évoquer et un encadrement pendant une durée limitée à trois ans à compter de la promulgation de la loi. Un rapport annuel serait adressé au Parlement, comme dans la loi Silt, texte dont j’ai été le rapporteur. Enfin, le rapport final d’évaluation peut aboutir à la pérennisation, à la modification ou à la suppression des expérimentations.

Notre rapporteur Philippe Bas a voulu rendre plus lisible la proposition de loi en répartissant différemment les dispositions du texte, afin de créer un bloc précisant les garanties apportées et les interdits posés.

Il a également souhaité interdire l’identification à distance sans consentement : avec le texte modifié, l’utilisation de la reconnaissance faciale devrait être exclusivement prévue par des dispositions législatives, et non réglementaires. Chaque logiciel d’intelligence artificielle permettant de procéder à une reconnaissance faciale devra être calibré par décret, précédé d’un avis de la Cnil ou de la Commission nationale de contrôle des techniques de renseignement (CNCTR) et, comme l’a souhaité le rapporteur – il reviendra certainement sur ce point –, passer devant le Conseil d’État.

Succédant à ce socle très important de garanties, un autre bloc définit le régime de contrôle et d’autorisation, le rôle du Parlement, qui doit être central, et les usages possibles de ces technologies. Sur le modèle de la loi Silt, l’expérimentation peut permettre à chacun de mesurer l’utilité d’un tel dispositif dans la lutte contre le terrorisme.

Enfin, un bloc très intéressant, sur lequel reviendra le rapporteur, qui en a pris l’initiative, concerne le renseignement.

Avec Arnaud de Belenet, nous nous réjouissons de tous ces ajouts votés en commission sur l’initiative de notre rapporteur, car ils démontrent avec davantage de lisibilité que la rédaction initiale du texte respectait bien les principes de subsidiarité et de proportionnalité.

Mes chers collègues, pour conclure, je veux dire que mon souvenir le plus douloureux en tant que maire – je l’ai été pendant près de trente ans (Mme Éliane Assassi sexclame.) – est celui de l’annonce que j’ai dû faire à une famille comptant parmi mes administrés de l’assassinat au Bataclan de leur fils de 27 ans par des barbares terroristes islamistes. À l’époque, je m’étais juré que, comme parlementaire, je ferai tout pour garantir que cela n’arrive plus. Bien sûr, en matière de terrorisme, le risque zéro n’existe pas, mais nous devons donner aux forces de l’ordre le maximum d’outils pour arriver à nos fins.

C’est bien dans ce sens que nous avons voté la loi Silt, qui a été respectée et dont tout le monde constate désormais l’utilité. Nous souhaitons aujourd’hui mettre en place de nouveaux outils, avec des garanties extrêmement renforcées, en respectant bien évidemment le rôle historique du Sénat de protecteur des libertés. (Applaudissements sur les travées des groupes Les Républicains et UC.)

M. le président. La parole est à M. le rapporteur. (Applaudissements sur les travées du groupe Les Républicains.)

M. Philippe Bas, rapporteur de la commission des lois constitutionnelles, de législation, du suffrage universel, du règlement et dadministration générale. Monsieur le président, madame la ministre, mes chers collègues, la tâche de votre rapporteur a été facilitée par la qualité du travail accompli par les deux auteurs de cette proposition de loi, MM. Daubresse et de Belenet, lesquels se sont directement inspirés du rapport d’information qu’ils avaient présenté avec notre collègue Jérôme Durain à la commission des lois voilà un an, et que celle-ci avait adopté à l’unanimité.

Je souligne ce consensus parce que l’extrême sensibilité de la question traitée ne garantissait pas à l’avance un tel résultat. Si les recommandations de nos collègues se sont ainsi imposées à nous, c’est grâce au discernement, à la prudence, aux interrogations, aux scrupules et même aux doutes qui les ont inspirés.

Avec eux, notre ambition est simple : protéger efficacement la vie privée des Français et garantir leurs libertés, sans pour autant renoncer totalement aux possibilités ouvertes par l’intelligence artificielle dans le traitement de données biométriques pour sauver des vies menacées par le terrorisme ou la grande criminalité.

À l’évidence, la voie était étroite, mais nos collègues ont su l’explorer avec sagesse ; dès lors, votre commission des lois n’avait plus qu’à l’emprunter et à la prolonger pour renforcer encore les garanties imaginées dans leur proposition de loi, en précisant les interdits posés, puis en resserrant le cadre juridique imaginé pour la mise en œuvre d’exceptions fortement restreintes et drastiquement contrôlées.

De quoi s’agit-il ? De l’utilisation d’une technologie permettant de reconnaître une personne photographiée ou filmée dans l’espace public au travers de la mise en équations numériques de son visage et le rapprochement des données ainsi obtenues avec les données déjà détenues sur la même personne. Il est ainsi possible de savoir si une personne se prévaut d’une fausse identité ou si une personne est présente parmi d’autres individus dans un lieu public donné. Et l’on peut procéder soit dans l’instant pour une action de prévention ou de poursuite immédiate, soit a posteriori dans le cadre d’une enquête judiciaire ou d’une opération de renseignement.

Le parti susceptible d’être tiré de cette technologie est immense, comme sont immenses les risques qu’elle comporte du fait de son caractère extraordinairement intrusif.

Tombée entre les mains de la police d’un régime dictatorial, elle peut devenir l’instrument d’un contrôle social généralisé. Utilisée à titre exceptionnel et de manière restrictive dans un régime démocratique respectueux de l’État de droit, elle peut ponctuellement présenter un intérêt réel pour la protection des citoyens, à condition que les principes et les règles encadrant son utilisation soient à la hauteur des libertés que nous, législateurs, en particulier le Sénat de la République, devons absolument faire prévaloir.

J’ai abordé ces questions avec à l’esprit quelques références communément partagées : nous savons bien que la marche de la science conduit depuis toujours à des découvertes ambivalentes, le meilleur côtoyant le pire. De la maîtrise du feu jusqu’à celle de l’atome, nous avons constamment été confrontés à ces interrogations auxquelles nul n’a jamais mieux répondu que Rabelais, avec qui nous disons désormais que « science sans conscience n’est que ruine de l’âme ».

Mes chers collègues, c’est à nous d’apporter la conscience nécessaire à la maîtrise et au contrôle des usages de l’intelligence artificielle, aujourd’hui pour la reconnaissance faciale biométrique.

L’Union européenne travaille sur le même sujet. Un règlement européen est en gestation. Il s’inspire de principes largement communs aux nôtres, ce qui n’est pas surprenant, car la France conserve une place déterminante dans le processus législatif européen. Il pourrait aboutir en 2025. Nous vous proposons de ne pas attendre cette échéance pour agir.

La France, comme elle l’a fait avec Bernard Kouchner et Simone Veil voilà trente ans dans un autre domaine où science et éthique se confrontaient – la bioéthique –, peut et donc doit être précurseur. C’est en effet pour nous une vocation sans cesse renouvelée que d’affirmer des principes fondamentaux en matière de libertés, dont d’autres pourront ensuite s’inspirer. Et cela nous mettra en position de force dans la négociation européenne en cours.

Nous avons bien évidemment tenu compte du travail accompli à Bruxelles et à Strasbourg et des réflexions engagées par la Cnil dès 2019, ainsi que des conclusions de nombreux rapports, le plus récent, très riche, étant celui de nos collègues députés Philippe Gosselin – de la Manche ! (Sourires.) – et Philippe Latombe. Nous pensons maintenant être en mesure d’engager un processus législatif fécond, susceptible d’aboutir à l’Assemblée nationale.

Les principes que nous vous proposons d’adopter sont relativement simples.

Il y a d’abord un principe absolu, très clair, qui ne peut donc souffrir aucune exception : il s’agit de l’interdiction de toute exploitation d’images issues de la vidéosurveillance dans le cadre d’un contrôle social à la chinoise, avec classement des individus en fonction de leur comportement dans l’espace public en vue de les avantager ou, au contraire, de les pénaliser.

Il y a ensuite des principes auxquels seul le législateur pourra déroger, dans des conditions strictement limitées et contrôlées : interdiction de la reconnaissance faciale en temps réel à distance sans consentement, par exemple dans le cadre de la vidéosurveillance ; interdiction aussi de l’exploitation a posteriori par reconnaissance faciale d’images déjà détenues par la justice ou la police, sauf exception qui serait alors décidée par la loi et non par décret, comme dans certains cas aujourd’hui.

Ces principes étant établis, le texte prévoit ensuite les possibilités de dérogations, ainsi que les finalités et le régime de celles-ci.

Les dérogations devront être prévues directement par le Parlement. Elles seront expérimentales, d’une durée de trois ans, placées sous le contrôle du Parlement, obéissant aux principes de proportionnalité, de nécessité et de subsidiarité, et devront utiliser des logiciels de traitement configurés sous la responsabilité de l’État et individuellement autorisés, mis en œuvre par des personnels habilités, faisant apparaître le degré de probabilité de l’identification, afin d’éviter des risques d’erreur amenant un préjudice lourd pour les personnes concernées. Le Conseil d’État et la Cnil seront étroitement associés à l’élaboration des textes d’application.

La Cnil, justement, comme l’ont proposé Philippe Gosselin et Philippe Latombe, sera consacrée comme autorité régulatrice des usages de l’intelligence artificielle. Sa composition sera complétée pour associer les autorités de régulation de l’audiovisuel et des télécommunications à ses missions.

Le contrôle d’accès par la reconnaissance faciale pourra être utilisé lors de grands événements, comme nous souhaitons le faire pour les jeux Olympiques et Paralympiques, mais de manière limitée à certaines catégories d’intervenants professionnels ou bénévoles, à certains lieux, avec une information préalable des intéressés, sans possibilité d’intégrer les riverains à ces modalités d’accès s’ils n’ont pas donné leur consentement, et seulement en cas de menace particulièrement grave pour la sécurité.

La reconnaissance faciale pourra être aussi utilisée pour le besoin d’enquêtes judiciaires.

D’abord, par la validation législative de la possibilité d’utiliser la reconnaissance biométrique pour identifier des personnes inscrites dans le fichier des antécédents judiciaires.

Ensuite, pour l’exploitation d’images de vidéosurveillance déjà recueillies, et cela en vue de réprimer le terrorisme, les trafics d’armes et les atteintes aux personnes punies de plus de cinq années d’emprisonnement, ainsi que pour la recherche de criminels en fuite ou de personnes disparues.

Par ailleurs, dans des conditions tout à fait exceptionnelles, limitées aux crimes les plus graves, à la disparition de mineurs, à la lutte contre le terrorisme et à la défense des intérêts fondamentaux de la Nation, la justice pourra recueillir des images grâce à des caméras dédiées et les exploiter en temps réel via la reconnaissance faciale en vue d’assurer le succès de l’enquête, au lieu de devoir utiliser seulement des images préexistantes. Dans ce cas, il faudra l’autorisation d’un magistrat, qui ne pourra être renouvelée au-delà de quarante-huit heures qu’avec l’accord du juge des libertés et de la détention. Seuls des officiers de police judiciaire, qui plus est spécialement habilités, pourront mettre en œuvre le traitement.

Enfin, l’utilisation de la reconnaissance faciale dans des activités de police administrative, c’est-à-dire de police préventive, sous l’autorité du Gouvernement, se fera, sur ma proposition, dans des conditions centralisées et non sur simple décision du préfet. Il reviendra au Premier ministre, après avis de la Commission nationale de contrôle des techniques de renseignement et sous le contrôle du Conseil d’État, de prendre la décision – c’est le système robuste de la loi de 2015 relative au renseignement, qui a fait ses preuves.

Mes chers collègues, les questions que nous avons à traiter aujourd’hui sont en apparence techniques et juridiques ; pourtant elles sont plus encore d’essence politique et éthique. L’approche de la commission des lois conforte, je le crois, les intentions équilibrées des auteurs de ce texte, tout en étendant les garanties qu’ils y avaient déjà inscrites.

Le caractère expérimental de la proposition de loi, comme nous l’avions déjà décidé en matière de terrorisme, présente l’intérêt de suivre l’évolution d’une technologie que l’on dit mature, mais qui n’est pas à l’abri d’erreurs. Il nous permettra aussi d’évaluer les éventuelles difficultés de mise en œuvre, de nous appuyer sur une jurisprudence et, finalement, de vérifier que nous avons trouvé le bon équilibre.

Puisque nous avons l’audace de cette première étape, ayons aussi l’humilité d’accepter que notre œuvre ne soit pas pleinement aboutie et de prévoir qu’elle puisse être encore améliorée à la lumière de l’expérience. (Applaudissements sur les travées du groupe Les Républicains. – MM. Arnaud de Belenet et Jean-Claude Requier applaudissent également.)

M. le président. La parole est à Mme la ministre déléguée.

Mme Dominique Faure, ministre déléguée auprès du ministre de lintérieur et des outre-mer et du ministre de la transition écologique et de la cohésion des territoires, chargée des collectivités territoriales et de la ruralité. Monsieur le président, mesdames, messieurs les sénateurs, la reconnaissance biométrique constitue à l’évidence une technologie aussi puissante par les opportunités qu’elle ouvre que sensible par les questions qu’elle soulève.

La sensibilité de ce sujet nous impose donc prudence et mesure dans les évolutions que nous pouvons opérer.

Vous savez combien le Gouvernement est déterminé à faire avancer vite les sujets qui l’exigent, comme la transformation écologique ou la formation des jeunes, en passant par la souveraineté énergétique. Mais il est des sujets dont la complexité justifie peut-être que nous différions quelque peu les décisions définitives, même lorsque l’on pense disposer de propositions judicieuses. La reconnaissance biométrique en fait partie.

Je rappelle que vous venez de voter le cadre juridique de l’expérimentation du recours à l’intelligence artificielle (IA) pour concourir à la sécurisation des jeux Olympiques et Paralympiques en 2024. Dans ce cadre, le Gouvernement et le Sénat ont fait preuve de prudence et de mesure.

Le Gouvernement, d’abord, qui a proposé un texte extrêmement encadré, avec des garanties nombreuses, une durée très limitée, des finalités de recours à l’IA réduites et l’exclusion de la reconnaissance faciale.

Votre assemblée, ensuite, qui, après avoir envisagé l’élargissement du périmètre de cette expérimentation à la reconnaissance faciale, a finalement jugé plus opportun, sur proposition du sénateur Daubresse, de renvoyer ce sujet à une discussion de fond.

Certes, un important travail transpartisan avait été mené sous la férule des sénateurs Marc-Philippe Daubresse, Arnaud de Belenet et Jérôme Durain, dont je salue l’implication et la hauteur de vue. Mais le Gouvernement est d’avis que l’équation n’a pas fondamentalement changé par rapport à l’examen de la loi relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions, voilà quelques mois, et que les objections qui y ont été formulées demeurent.

En effet, il nous semble important de nous interroger sur la temporalité de cette proposition de loi d’un point de vue politique, juridique et opérationnel.

D’un point de vue politique, d’abord. Légiférer maintenant sur la reconnaissance biométrique, précisément alors que va s’engager la négociation entre le Conseil et le Parlement européen sur le projet de règlement sur l’intelligence artificielle (RIA), dont le périmètre est encore assez mouvant, risquerait d’affaiblir notre position de négociation. En effet, il pourrait exister un décalage inévitable entre nos positions à Bruxelles et le texte voté à Paris.

Du point de vue de la cohérence et de la lisibilité de notre droit, ensuite. Cette concomitance de calendriers nous obligera en tout état de cause à revenir sur une législation nationale à peine votée, le règlement devant être adopté à l’échelon européen d’ici à la fin de l’année et traduit en droit interne en 2025 au plus tard. Cette configuration est loin d’être optimale en termes de prévisibilité de la norme, a fortiori pour une expérimentation dont la durée est fixée à trois ans, vous en conviendrez.

Je sais combien votre assemblée a été sensible à la nécessité d’offrir à nos acteurs industriels un cadre juridique stabilisé et clair, permettant à la France de disposer de solutions souveraines. Légiférer maintenant reviendrait cependant à rater la cible, car les entreprises se montreront réticentes à investir dans une exigeante démarche de compliance si elles craignent que le cadre puisse encore beaucoup évoluer un ou deux ans après.

D’un point de vue opérationnel, enfin. Le tempo de la proposition ne nous paraît en effet pas le plus opportun. Toutes nos forces sont mobilisées vers la sécurisation des jeux Olympiques et Paralympiques. Depuis que vous avez donné mandat au Gouvernement pour expérimenter l’IA, le ministère de l’intérieur travaille jour et nuit, d’ailleurs en très bonne intelligence avec la Cnil, afin d’être au rendez-vous de cette expérimentation.

Celle-ci est complexe et soulève des questions opérationnelles importantes avec des défis de coordination entre tous les acteurs de la sécurité des futurs grands événements – État, communes, RATP, SNCF. Il ne paraît ni opportun ni possible de distraire les forces de sécurité de ce chantier majeur pour s’investir dans la reconnaissance faciale, dont je rappelle que le Gouvernement n’avait, de son propre chef, pas proposé l’utilisation à l’occasion des jeux Olympiques et Paralympiques.

L’expérimentation proposée dans ce texte serait nécessairement décevante : sur les trois années dont il disposerait, le Gouvernement n’aurait en réalité ni le temps ni les ressources pour s’y engager pleinement. D’autant qu’il aurait un peu le même raisonnement que les entreprises nationales dans ce domaine : entre un RIA en fin de négociation, appelé à devenir rapidement la référence européenne, et un cadre français dont l’extinction est prévue à court terme, les deux ne disant pas exactement la même chose, le bon sens commandera de faire plutôt application des règles européennes.

En outre, en cette matière, le recours à la biométrie à des fins de police administrative et judiciaire ne peut se prendre de manière isolée en ce qu’il s’inscrit dans une stratégie plus large de politique de sécurité. La biométrie ne constitue qu’une brique devant s’intégrer dans une doctrine opérationnelle et dans un cadre juridique d’action des forces de sécurité intérieure.

Je crois que les auditions que vous avez menées, dans le cadre tant de votre rapport d’information de l’an dernier que de l’examen de ce texte par votre commission sous la conduite du rapporteur, vous l’ont très probablement confirmé : il est difficile, voire impossible, de se prononcer dans l’absolu sur le recours à la biométrie sans avoir une vision claire de toute la chaîne stratégique et de l’ensemble du cadre technique.

Ainsi, s’il est en théorie intéressant d’appliquer la reconnaissance faciale via des caméras pour vérifier si un individu dangereux se trouve dans un lieu où il n’est pas censé être, cela soulève en pratique des questions extrêmement lourdes. Les réponses à y apporter doivent conditionner la conception de la norme et non l’inverse : qui décide de la liste des gens dangereux ? Quelles caméras dans un contexte où les communes et les acteurs privés disposent de 98 % du parc dans notre pays ? Quels services peuvent mettre en œuvre cette technologie ?

Un cadre juridique qui serait trop en décalage avec la « vraie vie » des services de sécurité et d’enquête risque de rater sa cible, car les possibilités qu’il offrira ne répondront pas aux besoins de terrain. À cet égard, si je salue le travail du rapporteur, il me semble que l’État est le mieux à même de déterminer les éléments de doctrine opérationnelle, ce qui permettrait en outre de bénéficier du regard du Conseil d’État et de la Cnil.