Mercredi 12 juin 2019

- Présidence de M. Franck Montaugé, président -

La réunion est ouverte à 14 heures 5.

Audition de MM. Thomas Courbe, directeur général des entreprises et commissaire à l'information stratégique et à la sécurité économique, et Mathieu Weill, chef du service de l'économie numérique à la direction générale des entreprises (DGE)

M. Franck Montaugé, président. - Notre commission d'enquête poursuit ses travaux avec l'audition de MM. Thomas Courbe et Mathieu Weill. Cette audition sera diffusée en direct sur le site Internet du Sénat et fera l'objet d'un compte rendu publié. Je rappelle, pour la forme, qu'un faux témoignage devant notre commission d'enquête serait passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal.

Conformément à la procédure applicable aux commissions d'enquête, MM. Thomas Courbe et Mathieu Weill prêtent serment.

En vos qualités respectives de directeur général des entreprises et chef du service de l'économie numérique de cette direction, au sein du ministère de l'économie et des finances, vos services sont chargés de la réglementation du numérique et de la conception et de la mise en oeuvre des politiques industrielle et d'innovation. Ils produisent donc de la norme, mais ils mettent également en oeuvre des politiques publiques.

De plus, monsieur Courbe, en tant que commissaire à l'information stratégique et à la sécurité économique (« Cissé »), vous êtes chargé de la politique de sécurité économique. Comme le rappelle le décret du 20 mars 2019 relatif à la gouvernance de la politique de sécurité économique, votre mission à ce titre « inclut la défense de la souveraineté numérique ».

Je commencerai donc par vous demander comment vous appréhendez cette notion de souveraineté numérique et, en tant que Cissé, quel est votre plan de bataille sur ce sujet.

S'agissant de la conduite de la politique économique et industrielle, il semble que la notion de souveraineté suppose qu'un État soit souverain sur les technologies clés de l'ensemble de la chaîne du numérique. Le Président de la République a lancé une stratégie nationale au printemps 2018 sur l'une d'entre elles : l'intelligence artificielle. À ce jour, quelle est la feuille de route de la direction générale des entreprises (DGE)sur le sujet ? Où en est la réflexion relative à la création de « communs des données » par secteur économique ?

Le Gouvernement essaie aujourd'hui de créer, avec l'Allemagne, un géant européen des batteries. Menez-vous également des réflexions sur de potentiels géants à faire émerger sur l'ensemble des couches numériques ?

M. Thomas Courbe, directeur général des entreprises, commissaire à l'information stratégique et à la sécurité économique. - Merci de votre invitation. Avec la numérisation de l'économie, la souveraineté numérique est devenue une part importante de la souveraineté économique. Elle se définit par la capacité d'un pays à maintenir son indépendance dans le monde numérique grâce à deux leviers principaux.

Le premier consiste à définir des règles répondant à un objectif de souveraineté économique en matière de sécurité, de valeurs et de partage de la valeur dans l'économie. Le second consiste à maîtriser les technologies.

La production de règles s'applique d'abord à la sécurité. La DGE a ainsi pris des mesures pour les interceptions légales dans le cadre des objectifs de sécurité et pour la sécurité des infrastructures de télécommunications. C'est un sujet d'actualité au niveau mondial, en particulier avec l'arrivée de la 5G qui va rendre les réseaux beaucoup plus critiques qu'auparavant. En imposant un régime d'autorisation des équipements déployés par les opérateurs, la proposition de loi en cours de discussion sur la sécurité de ces réseaux, sera, si elle est adoptée, une contribution essentielle à notre souveraineté numérique.

La DGE contribue également à la réflexion sur un enjeu relatif aux valeurs fondamentales de notre société appliquées au domaine numérique. Le Président de la République a missionné une équipe pour travailler avec Facebook à des recommandations de régulation des plateformes en ligne. Ses conclusions nous semblent pertinentes et applicables à d'autres champs, en particulier au champ économique.

En effet, la régulation doit permettre d'assurer un partage équitable de la valeur, car le numérique se caractérise par une concentration de celle-ci dans les mains d'un petit nombre d'acteurs qui, à la faveur des effets de réseau, acquièrent une dimension systémique. Le débat sur la régulation a lieu à la fois aux niveaux français, européen et mondial. La présidence française du G7 a ainsi porté certaines propositions dans ce domaine.

Quant à la maîtrise des technologies, second volet de la souveraineté numérique, elle repose en premier lieu sur une politique industrielle du numérique consistant à soutenir les acteurs susceptibles de les développer. La France a un écosystème de l'innovation très riche ; nous nous efforçons de le stimuler en aidant les entreprises à grossir. Le nombre de licornes, ces start ups dont la valorisation est supérieure à un milliard d'euros, a augmenté significativement, mais il reste insuffisant. Nous travaillons à l'accompagnement des entreprises les plus prometteuses, à leur financement pour les aider à atteindre une taille critique et à l'attraction des talents.

En second lieu, l'objectif de maîtrise des technologies repose sur une politique industrielle ciblée sur les technologies identifiées comme essentielles. Première de ces technologies, les semi-conducteurs, secteur dans lequel le maintien d'acteurs de dimension internationale est essentiel. C'est un point traité dans le plan Nano 2022. Deuxième secteur identifié, le super-calcul, élément important de la souveraineté numérique, dont Atos est l'un des leaders et participe au programme européen EuroHPC. Le troisième secteur est l'intelligence artificielle. Le volet économique de la stratégie nationale sera présenté le 3 juillet par le ministère de l'économie et des finances et le secrétariat d'État au numérique.

Dans le cadre du Pacte productif 2025, nous cherchons à compléter l'identification des technologies clés au-delà des domaines cités, en nous assurant que nous aurons des entreprises capables de porter ces technologies. Nous avons d'ores et déjà identifié le cloud de confiance. Dans le domaine du cloud, il est difficile d'envisager une offre française ou européenne susceptible de rivaliser avec ses homologues américains. En revanche, il nous semble possible, comme dans différents autres secteurs, de développer une offre française qui se différencierait par les valeurs qu'elle porte et la sécurité qu'elle garantit en matière de protection des données - c'est le cas du cloud de confiance -, en particulier des données personnelles - c'est le cas des moteurs de recherche intégrant le privacy by design. . Les solutions d'intelligence artificielle pourraient également se différencier dans un certain nombre d'applications par des éléments d'auditabilité et de redevabilité. L'algorithme d'un véhicule autonome devrait ainsi faire l'objet d'une certification pour assurer la confiance des utilisateurs. Sur certains segments, il sera donc possible de rivaliser avec des concurrents plus avancés grâce à cette différenciation de l'offre.

En revanche, il est certains domaines où la France ou l'Europe ne pourront pas rivaliser, en particulier sur les fonderies de microprocesseurs. Dans ce cas, la souveraineté sera garantie par la diversification des sources et la sécurité des approvisionnements.

Cette politique industrielle se complète d'un volet plus défensif consistant à identifier notre patrimoine et nos actifs économiques stratégiques, notamment à travers les technologies maîtrisées. C'est le travail mené par le Service de l'information stratégique et de la sécurité économiques (Sissé), qui anticipe les menaces sur ce patrimoine, à commencer par les projets d'acquisition par des acteurs étrangers, et met en oeuvre des outils de protection. Ceux-ci ont été renforcés, notamment par la loi Pacte grâce à l'élargissement du dispositif de contrôle des investissements étrangers aux domaines de la cybersécurité et du stockage de données. Il faut également faire évoluer nos outils face à l'évolution des menaces. Dans le cadre d'un rapport prochainement présenté sur le Cloud Act américain qui donne aux agences américaines un accès excessivement large aux données hébergées dans le cloud, le député Raphaël Gauvain recommandera une adaptation de la loi de blocage de 1968.

C'est une problématique qui a profondément évolué, dans le sens d'une interpénétration entre des problématiques régaliennes, économiques et sociétales. La place des États est désormais bien acceptée par les acteurs dans ce domaine, comme le montrent les récentes déclarations de Mark Zuckerberg. Enfin, l'executive order pris le 15 mai par le président Trump et les décisions contre Huawei montrent le caractère mondial de ces enjeux.

M. Gérard Longuet, rapporteur. - Vous avez mentionné parmi vos missions la production de règles, notamment pour la sécurité des informations dans les réseaux de télécommunications. En quoi la 5G est-elle différente des générations précédentes ? L'hostilité des États-Unis envers Huawei relève-t-elle à vos yeux du principe de précaution ou s'inscrit-elle dans le cadre de leur relation bilatérale, parfois conflictuelle, avec la Chine ?

Vous avez également évoqué la mission Facebook. La réception de Mark Zuckerberg par le Président de la République a été très médiatisée, à juste titre sans doute mais certaines des personnes que nous avons entendues ne perçoivent pas l'intérêt d'une régulation conjointe entre les États et les plateformes elles-mêmes. Le ministère de l'intérieur négocie-t-il des accords avec les trafiquants de drogue pour une distribution raisonnable de leurs produits ? Ne faudrait-il pas une régulation plus autoritaire ?

Concernant le partage de la valeur, avec la vision transversale de la DGE, que pensez-vous de cette économie insolite du numérique où tout est gratuit en apparence ? En réalité, l'argent rentre, et dans des conditions qui favorisent la concentration de la marge sur un petit nombre de très grands acteurs au détriment des plus petits, notamment à cause d'une politique d'acquisition des start ups au détriment de la concurrence.

Pouvez-vous préciser les propositions de la présidence française du G7 dans le domaine numérique ? De même, pouvez-vous détailler les lignes de force du plan Nano 2022 ?

Concernant le Cloud de confiance, nous ne savons pas bien où nous allons. Le président d'Atos a estimé, lorsque nous l'avons entendu, qu'il représenterait au maximum 20 % du stockage de données ; en revanche, il a évoqué l'edge computing. Pouvez-vous nous éclairer sur cette notion ?

Enfin, quels sont les goulots d'étranglement et les positions de monopole qui pourraient menacer la sécurité des approvisionnements ? Comment les contourner ? La presse se fait abondamment l'écho du contrôle par la Chine de la production de terres rares. Autre exemple, les câbles sous-marins sont-ils considérés comme stratégiques, et les problèmes de sécurité, d'atterrage et de connexion sont-ils assez maîtrisés pour que nous ne dépendions pas des acteurs américains ?

M. Thomas Courbe. - Les réseaux 4G avaient pour vocation de transporter de la voix et des données ; la 5G permettra, grâce à des temps de latence très faibles dans la transmission, la connexion directe d'objets entre eux. Ce temps de latence sera par exemple compatible avec le temps de réaction d'un véhicule autonome en situation de risque. Mais l'intégration de la 5G donnera à de nombreux sites industriels une dimension critique : avec des usines, des hôpitaux connectés, nous ne pourrons nous permettre aucune défaillance de réseau.

Concernant Huawei, je ne pourrai donner qu'une réponse partielle. La France a choisi une option différente de celle des États-Unis, prévue par la proposition de loi que j'ai évoquée. Il s'agit d'un régime d'examen au cas par cas des équipements de 5 G, au regard de nos objectifs de sécurité. Les autorités américaines ont souhaité intégrer ce sujet dans les négociations commerciales, ce qui confirme bien la dimension commerciale du sujet.

La smart regulation ou régulation agile nous semble adaptée aux acteurs systémiques. D'abord, l'expérience montre que la prévention est plus efficace que la répression, qui arrive généralement longtemps après le dommage, sous forme d'amendes peu dissuasives. Il est préférable de fixer des règles, des objectifs, par exemple en matière de mise à disposition des données et de non-discrimination entre les acteurs, avec un régulateur qui s'assure que ces objectifs sont atteints. C'est une régulation par le résultat, et non par les moyens, qui pourrait s'articuler avec un renforcement du droit de la concurrence : une régulation conjointe plutôt qu'autoritaire, dans un contexte de grande asymétrie d'information au bénéfice du régulé.

M. Gérard Longuet, rapporteur. - En l'espèce, le régulé a une dimension mondiale, et nous aurons des accords de régulation nationaux...

M. Thomas Courbe. - Il serait souhaitable de mettre en oeuvre, a minima, une régulation européenne. Le projet de règlement Platform to Business, qui vient d'entrer en vigueur, est un premier pas dans cette voie. Cela n'empêche pas les États membres de mettre en oeuvre de premiers étages de régulation, comme la proposition de loi Avia en France. Nous sommes en discussion avec les plateformes de commerce électronique : une régulation d'équité au plan national dans ce domaine, garantissant à nos PME une absence de discrimination et une transparence satisfaisantes, aurait du sens. Il est également utile d'avancer au niveau national pour convaincre nos partenaires européens de la nécessité d'une régulation.

Deux risques principaux pèsent sur le partage de la valeur. Le premier est celui des acquisitions prédatrices, c'est-à-dire la pratique consistant, pour les grandes plateformes systémiques, à acheter des concurrents pour les fermer quelques mois plus tard. Le second est la publicité en ligne, marquée par un pouvoir de marché croissant des grandes plateformes au détriment d'acteurs plus classiques de l'économie, notamment des médias. Ces enjeux peuvent être systémiques. Chaque champ et chaque modèle économique du numérique appellent une régulation adaptée pour lutter contre les effets de réseau et les positions dominantes. Nous réfléchissons, avec les acteurs de la publicité en ligne et les places de marché, à une régulation de ces deux secteurs. Contre les acquisitions prédatrices, il convient de rendre plus efficaces les règles de la concurrence. Sur ce point, nous sommes en ligne avec la Commission européenne.

La présidence française du G7 a proposé une charte sur les contenus pour obtenir des plateformes un filtrage ou un retrait rapide des contenus haineux par exemple. Elle a également avancé, conjointement avec le Canada, la proposition d'un GIEC (Groupe international des experts sur le climat) de l'intelligence artificielle : un panel d'experts indépendants et reconnus de ce domaine susceptibles de guider les États dans leur réflexion, notamment au plan éthique.

M. Gérard Longuet, rapporteur. - Est-ce une bonne idée ? Ces organismes internationaux finissent par acquérir une autonomie telle que l'on peut s'interroger sur leur responsabilité. Le GIEC mobilise des milliers d'experts, mais leurs conclusions sont filtrées par les représentants des États, qui sont des visions politiques ; cela aboutit à des recommandations où chacun trouve son compte. Un organisme international réfléchissant en autonomie finit par ne rendre compte qu'à lui-même, entretenant une dynamique qui peut tendre vers un discours apocalyptique. Dans le domaine de l'intelligence artificielle, la tentation est de diffuser, via ces experts en totale autonomie, une vulgate obligatoire mondiale.

M. André Gattolin. - Ces propos n'engagent que le rapporteur !

M. Gérard Longuet, rapporteur. - J'en conviens sans difficulté.

M. Mathieu Weill, chef du service de l'économie numérique, direction générale des entreprises. - Ce concept de GIEC de l'intelligence artificielle a été mis en avant pour marquer les esprits. Certains pays sont réservés. Il n'est pas acquis qu'un dispositif de ce type sera adopté, mais nous avons besoin d'un organisme doté d'une assise scientifique forte, susceptible d'anticiper les problématiques économiques et sociales qui émergeront avec le développement de l'intelligence artificielle. Cette réflexion se poursuivra jusqu'au sommet de Biarritz.

M. Thomas Courbe. - Troisième action de la présidence française du G7, un échange sur la sécurisation des réseaux de télécommunications, domaine dans lequel nous voyons les grands pays prendre des options différentes.

L'objectif du plan Nano 2022 consiste, pour conserver la maîtrise de certaines technologies clé, à maintenir en Europe et en France des acteurs stratégiques, comme STMicroelectronics et Soitec pour les semi-conducteurs, en particulier en vue de certaines applications comme l'intelligence artificielle embarquée. Dans ce domaine, qui combine étroitement le logiciel et le physique - au point que l'on parle de systèmes cyberphysiques, nous pensons être en mesure de faire émerger des champions sur ce marché naissant, notamment sur la partie matérielle de cette industrie, alors que nous aurons des difficultés à rivaliser en matière d'intelligence artificielle pure.

L'ordinateur quantique est un enjeu identifié à moyen terme. Une stratégie nationale sera prochainement présentée dans ce domaine où il est important d'investir, à travers le soutien à la recherche et la préparation de l'émergence d'acteurs nationaux.

De plus en plus d'acteurs, particuliers et entreprises, sont sensibles au risque lié à la protection de leurs données sur le cloud. Ces inquiétudes sont aggravées par le Cloud Act qui, en s'appliquant à toute donnée gérée par une entreprise américaine, quelle que soit la localisation du serveur, crée une grande incertitude sur la maîtrise de la donnée. Il y a là un marché qui pourrait répondre aux besoins des entreprises, mais aussi de l'État et des collectivités, et nous avons en France des acteurs susceptibles de développer des offres en ce sens.

Enfin, nous avons pris des mesures fiscales pour rendre plus compétitive la création de data centers en France. Nous travaillons sur ce sujet avec la filière des industries de sécurité, pour développer des solutions répondant à ces enjeux et nous assurer que les investissements des entreprises seront justifiés par l'émergence d'un marché. En l'espèce, nous pensons être dans cette configuration, contrairement à de précédentes initiatives.

M. Hugues Saury. - La décision du président américain contre Huawei a-t-elle un impact sur notre industrie, en particulier le secteur des semi-conducteurs ? A-t-elle mis en évidence des faiblesses au niveau européen ? L'Europe ne sera-t-elle pas un spectateur de cette guerre économique ? Enfin, je souhaiterais des précisions sur l'idée que l'offre française se distinguera par les valeurs qu'elle porte.

M. André Gattolin. - Il faut aussi que le traitement des données soit territorialisé, et que des portes dérobées ne soient pas introduites dans nos machines : le cas s'est produit avec certains microprocesseurs. Voici quelques années, je m'étais étonné de voir que Bpifrance stockait ses données dans un cloud Microsoft ; on m'avait répondu qu'il était trop cher d'aller ailleurs. Peut-on garantir que nos grandes institutions, qui travaillent à la réception, à l'analyse, à l'accompagnement de projets stratégiques, sont protégées ?

M. Thomas Courbe. - L'impact de la décision américaine semble limité, pour les fournisseurs comme les clients français de Huawei. Nous sommes en train d'envisager, avec les entreprises concernées, les moyens de le réduire.

Les valeurs que pourrait porter l'offre française sont la sécurisation des données pour le cloud, le caractère auditable et certifiable et le respect des droits fondamentaux. Pour l'intelligence artificielle ces valeurs seraient intégrées ab initio dans la conception des algorithmes. Nous avons lancé un grand défi d'innovation de rupture sur cette question.

La protection des institutions dans le cadre du cloud sécurisé se décline en plusieurs phases : d'abord la stratégie cloud de l'État, ensuite la définition des données sensibles, avant d'envisager, en concertation avec les acteurs et sous réserve d'une offre française compétitive, d'imposer des obligations en matière de stockage de ces données sensibles - à des acteurs publics ou, éventuellement, privés.

M. Franck Montaugé, président. - Je vous remercie.

La réunion est close à 15 heures.

Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.

La réunion est ouverte à 16 h 25.

Audition de Mme Claire Mathieu, directrice de recherche au CNRS, spécialiste des algorithmes

M. Franck Montaugé, président. - Mes chers collègues, notre commission d'enquête poursuit ses travaux avec l'audition de Mme Claire Mathieu. Cette audition sera diffusée en direct sur le site Internet du Sénat et fera l'objet d'un compte rendu publié. Je rappelle, pour la forme, qu'un faux témoignage devant notre commission d'enquête serait passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal.

Conformément à la procédure applicable aux commissions d'enquête, Mme Mathieu prête serment.

Madame Mathieu, vous êtes informaticienne et directrice de recherche au CNRS, spécialisée dans la recherche sur l'algorithmique et, en particulier, sur la conception d'algorithmes destinés à trouver des solutions quasi optimales à des problèmes difficiles à résoudre exactement.

Vous vous êtes notamment intéressée à la modélisation du phénomène dit du « plafond de verre » dans les milieux sociaux.

Notre commission d'enquête s'interroge, à propos de la question de la souveraineté numérique, sur les moyens dont disposent la France et l'Europe en la matière. À cet égard, et dans la perspective de la réaffirmation de notre souveraineté numérique, qui concerne directement l'État, les citoyens ou les acteurs de la société - je pense en particulier aux entreprises -, en quoi la science des algorithmes peut-elle apporter des solutions de progrès ?

À la faveur de la réémergence de l'intelligence artificielle, dont on parle depuis très longtemps, et grâce aux capacités de calcul décuplées et aux gigantesques bases de données désormais disponibles, les algorithmes font l'objet de beaucoup de fantasmes.

C'est notamment la souveraineté des individus qui serait au premier chef, selon certains, menacée par les algorithmes. L'exemple qui vient naturellement à l'esprit, c'est celui du réseau social Facebook, dont l'algorithme risquerait de contraindre notre liberté de penser et d'être informé.

La question de la transparence des algorithmes est aussi l'objet de nombreuses interrogations. Le phénomène de la « boîte noire » est-il inéluctable ? Est-on condamné à ne plus connaître le contenu des algorithmes et leurs calculs ? Serons-nous un jour incapables de comprendre les décisions prises pour nous par des machines ?

Enfin, estimez-vous que la recherche française, publique comme privée, dispose de suffisamment de moyens en la matière pour faire le poids face aux géants du numérique ?

Mme Claire Mathieu, directrice de recherche au CNRS, spécialiste des algorithmes. - Merci de votre invitation. Cela fait plus de trente ans que je fais de la recherche sur les algorithmes. Après un parcours universitaire classique, j'ai travaillé dans l'enseignement supérieur et la recherche, essentiellement en France, dans des lieux très divers, mais aussi à l'étranger, aux États-Unis. J'ai en particulier passé huit années à temps plein comme professeur d'informatique à l'université Brown, aux États-Unis, l'une des universités de la Ivy League. Cela m'a permis de me familiariser de l'intérieur avec le système américain.

J'ai également été consultante pour quelques entreprises - NEC, AT&T, Microsoft Research - et, récemment, pour le compte du ministère de l'enseignement supérieur et de la recherche, au sujet de Parcoursup. J'ai rempli un rôle de consultant pour les laboratoires de recherche de ces entreprises, où j'ai effectué le même type de recherche que celles que je mène ordinairement, avec des collègues chercheurs travaillant pour Microsoft, AT&T, etc.

Quelques exemples des travaux de recherche que j'ai pu mener : J'ai conçu avec des collaborateurs un algorithme quasi optimal pour placer des rectangles dans une bande, de façon à utiliser le moins de longueur possible. Il s'agissait de réfléchir à la découpe de vêtements. Ceci est resté au niveau théorique. Avec d'autres collaborateurs, j'ai travaillé sur l'analyse d'une heuristique très populaire pour la classification de données en petite dimension. J'ai démontré qu'une variante était quasi optimale. Enfin, toujours avec des collaborateurs, j'ai proposé un modèle pour la croissance des réseaux sociaux et l'émergence d'un plafond de verre pour les minorités.

Tout mon travail s'articule autour de la conception, l'analyse d'algorithmes et parfois leur modélisation. Ma tâche est de concevoir des algorithmes et de démontrer des théorèmes.

Vous avez parlé de transparence. C'est un sujet auquel je me suis particulièrement intéressée dans le cadre de Parcoursup, la plateforme d'affectation des candidats bacheliers aux formations de l'enseignement supérieur. Cet exemple d'algorithme comporte des impacts sociétaux. Ce qu'on gère ce ne sont plus des rectangles, mais des êtres humains. Ceci change la donne : un algorithme, même s'il est totalement optimisé, ne pourra en effet être accepté que s'il a la confiance de ses utilisateurs.

Pour acquérir cette confiance, l'équipe de Parcoursup a essayé d'être très transparente. Comment y parvenir concrètement ? Nous avons publié l'algorithme et le code du coeur de Parcoursup. Ce n'est pas forcément une lecture très digeste pour tout un chacun, mais nos collègues informaticiens peuvent lire ces publications, les critiquer, voir s'il existe des erreurs et évaluer la qualité du travail réalisé. Cela contribue à la transparence, même si le citoyen moyen a du mal à comprendre ce qui se trouve dans ces publications.

Nous avons également essayé d'être simples. Lorsqu'une formation reçoit des candidats, elle réalise un classement. Celui-ci est ensuite modifié pour tenir compte d'un taux de boursiers, déterminé selon la loi par le recteur. Nous avons donc conçu un algorithme que nous avons essayé de rendre aussi simple que possible pour modifier le classement, de façon à respecter le taux du recteur.

Un candidat doit aussi pouvoir comprendre ce qui se passe, et pourquoi il est pris ou non. Pour cela, Parcoursup fournit chaque jour au candidat son rang sur la liste d'appel de la formation, ainsi que le rang du dernier appelé. Par exemple, s'il est 300e et que le dernier est 297e, l'intéressé sait qu'il n'y a plus qu'à attendre trois renoncements avant de recevoir une offre. Cela lui permet de suivre l'évolution et d'avoir une perspective.

Un travail supplémentaire est indispensable en matière de critères d'examen des voeux. Les formations doivent fournir des renseignements suffisamment précis sur leurs attendus et sur les critères pour que les futurs candidats sachent quels cours suivre pour être acceptés et sur quels sujets se concentrer durant leurs années de lycée. Il est, pour ce faire, indispensable que les informations soient suffisantes.

De plus, chaque candidat qui n'est pas retenu peut demander communication des motifs de la décision. C'est un sujet de débat juridique. Une piste de réflexion pour l'avenir : on pourrait synthétiser l'avis des jurys en présentant une liste de matières avec des coefficients, ainsi qu'une partie laissée à la libre appréciation du jury. Malheureusement, avec 14 000 formations et 900 000 candidats, une même formule peut difficilement s'appliquer à tous. La question n'est donc pas encore résolue.

Quelques suggestions en matière de transparence...

Ma première suggestion concerne Affelnet - qui signifie « Affectation des élèves par le Net ». Il s'agit d'orienter les élèves de 3e vers les lycées selon un système de points attribués en fonction de leurs résultats scolaires, du temps de trajet entre le domicile et le lycée, de leur situation sociale. Cet algorithme existe depuis de nombreuses années, mais souffre d'une opacité encore plus grande que Parcoursup. Comment améliorer la transparence de cet algorithme afin que les familles puissent en comprendre le résultat ?

Une possibilité serait de fournir à l'élève, avant candidature, une estimation de son barème en lui montrant combien de points il aurait eu s'il avait été candidat l'an dernier, et de publier les seuils d'admission passés de chaque lycée. Il serait fait de même, chaque année, en fin de campagne. Ceci pourrait permettre à chaque élève de vérifier que la décision qui a été prise répond à une certaine légitimité. Vous le voyez ; cette proposition améliorerait la transparence, sans qu'il soit besoin pour autant d'expliquer les détails de l'algorithme.

Mon deuxième souhait concerne le calcul de l'impôt sur le revenu. Actuellement, lorsqu'on a fait sa déclaration, on obtient seulement un chiffre correspondant au montant de l'impôt sur le revenu. J'aimerais, comme autrefois, que l'on indique également comment on est parvenu à ce résultat, et que l'on connaisse la formule de calcul. C'est tout à fait faisable, me semble-t-il, et l'explication donnerait plus confiance qu'un simple chiffre.

L'actualité récente nous apprend que la majorité des membres du Gouvernement n'ont pas été capables de remplir correctement leur feuille d'impôts : c'est bien qu'il existe un problème !

Je propose donc de simplifier les choses.. C'est une question en partie algorithmique, puisqu'il s'agit de trouver un graphe plus simple qui calcule la même chose. Cela me semble important pour l'intégrité du système.

Mon troisième souhait porte sur la transparence de la synthèse du grand débat national. En effet, la Société informatique de France s'est inquiétée de savoir si cette synthèse serait compréhensible et digne de confiance. Les contributions en ligne des participants sont accessibles à tous. C'est un élément important, n'importe quelle équipe scientifique pouvant s'en saisir pour essayer de faire sa propre analyse. Par ailleurs, les contributions ont été regroupées en catégories et sous-catégories. Ces catégories sont publiques. C'est également un élément de transparence. Ainsi, à la question : « Que pensez-vous de l'organisation de l'État et des administrations en France ? De quelle manière cette organisation devrait-elle évoluer ? », 2,9 % de la population a répondu spontanément en proposant la suppression du Sénat. En réponse ouverte, ce n'est pas négligeable. Reste qu'on ne sait pas comment les personnes ayant réalisé cette synthèse en sont arrivées à choisir comme catégorie la suppression du Sénat...

Il serait également bon de rendre transparentes les correspondances : pour chaque contribution, connaître les « étiquettes » qui lui sont attribuées par catégorie et sous-catégorie. Cela permettrait à chaque participant de vérifier la bonne correspondance et donc l'intégrité de la synthèse qui en a été faite. De plus, ceci aiderait à reproduire les résultats obtenus et à en vérifier la validité. Ce n'est pas ce qui est actuellement proposé.

L'algorithme n'est pas public... mais est-ce nécessaire pour la transparence ? Ce n'est pas indispensable, car même sans en connaître les détails, détenir suffisamment d'éléments sur les données, les résultats et les correspondances permet de vérifier la validité du résultat. Rendre l'algorithme public - ce qui poserait des problèmes de propriété intellectuelle - n'est donc pas forcément essentiel pour l'intégrité de la synthèse du grand débat national.

Enfin, on parle beaucoup d'algorithmes d'apprentissage profond s'agissant de l'intelligence artificielle. Comment le calcul est-il réalisé ? Chaque noeud regarde les noeuds de la couche précédente et établit une moyenne pondérée des entrées, en y appliquant certains coefficients. Par exemple, si la moyenne est supérieure à 10, on estime que le résultat est de 1, si elle est inférieure à 10, le résultat sera de 0. Les noeuds de la deuxième couche vont utiliser à leur tour ces résultats pour réaliser leurs propres calculs, et ainsi de suite. Au bout de quelques couches, on obtient une sortie.

Ces coefficients sont essentiels pour le fonctionnement de l'algorithme. Ils sont retenus grâce à une méthode d'apprentissage. C'est le cas de la météorologie, par exemple : on observe les données dont on dispose, et on ajuste les coefficients grâce à diverses méthodes d'optimisation, de façon à ce que les données produites par le réseau soient le plus exactes possibles, comparées aux données passées.

Les coefficients sont ainsi établis pour « coller » au mieux aux données du passé et sont jugés corrects par rapport aux éléments dont on dispose déjà. Une fois qu'on est parvenu à produire un résultat suffisamment proche de ces éléments connus, on estime avoir réussi à établir des coefficients satisfaisants pour que l'algorithme réalise des prédictions.

On peut donc, certes, réclamer la publication de l'algorithme, mais dans le cas de ce type d'algorithmes, à quoi cela servirait-il ? À supposer même que l'entreprise, oubliant les questions de propriété intellectuelle, publie généreusement la totalité de son algorithme avec tous ses coefficients, cela ne nous dira rien sur ce qui se passe vraiment.

C'est publier le principe et les méthodes de constitution de l'algorithme qui est utile, car cela peut aider les chercheurs à estimer si ce type d'algorithme souffre ou non de certains problèmes potentiels et à comprendre ce qui a été fait pour y remédier.

La qualité du réseau qui résulte de ces opérations dépend essentiellement des données sur lesquelles l'apprentissage a été réalisé. La qualité du résultat dépend de la qualité des données.Publier ces données serait donc idéal, car si les données étaient publiques, n'importe qui pourrait proposer ses propres prédictions et critiquer l'ensemble des données.

Cette méthode algorithmique prédit que le comportement futur de ce qu'on essaie d'estimer est similaire au comportement passé des données qu'on possède. Cela signifie que si les données ont un biais, l'algorithme reproduira ce biais. La qualité des données est essentielle. Il serait bon, a minima, que tous les algorithmes qui utilisent des données publient les caractéristiques de celles-ci et qu'on puisse expliquer ce qui a été fait pour obtenir des garanties sur leur qualité.

C'est ce qui se fait d'ailleurs de façon assez classique dans la recherche médicale : dans ce domaine, les résultats sont basés sur une étude en précisant un certain nombre de patients, d'hôpitaux, de cohortes, etc., avec des données statistiques. C'est fondamental pour avoir confiance dans la méthode utilisée.

Dans quels cas l'intelligence artificielle ainsi décrite fonctionne-t-elle bien ? J'ai demandé à un collègue spécialiste de l'apprentissage de me fournir des exemples et des contre-exemples. Selon lui, un des succès de l'intelligence artificielle réside actuellement dans la traduction et un autre dans la prédiction de tumeurs. En général, cela fonctionne si le contexte est très cadré, s'il existe peu d'incertitudes, que les données sont précises et que l'on sait exactement ce que l'on veut prédire. Plus le problème est précisément défini, mieux les méthodes fonctionnent.

Les problèmes qui présentent encore des défis pour l'intelligence artificielle se rencontrent lorsque les données sont floues, comportent beaucoup d'incertitudes et qu'on ne peut envisager toutes les configurations possibles.

Par exemple, la voiture autonome : elle peut fonctionner sur un circuit fermé, mais à partir du moment où on est sur la route, l'interaction avec les autres véhicules constitue un défi que l'intelligence artificielle ne peut actuellement pas surmonter de façon fiable.

Imaginez que l'algorithme commette une erreur sur un million... mais qu'on ait un million de voitures sur les routes : on aura tous les jours un accident imputable à une erreur de l'algorithme ! Ce n'est pas acceptable. Actuellement, l'intelligence artificielle ne peut produire des voitures autonomes capables de se débrouiller seules en milieu réel.

Un autre exemple est celui du diagnostic médical complet. Là aussi, il y a actuellement trop de paramètres, trop d'inconnues, trop de flou. On ne peut y parvenir.

Comment, dès lors, contrôler les algorithmes en matière d'intelligence artificielle ? Dans son livre À quoi rêvent les algorithmes ?, Dominique Cardon écrit: « Le futur de l'internaute est prédit par le passé de ceux qui lui ressemblent ». C'est une formulation qui décrit bien la façon dont fonctionnent ces algorithmes.

Que faire pour éviter une discrimination liée au genre ? On pourrait, dans les données, effacer l'information « hommes », « femmes » ou autres. Et pourtant, ce n'est pas efficace, car il est généralement facile de reconstruire le genre à partir des autres informations collectées. Par exemple, dans le cas de candidats à des formations d'enseignement supérieur, même si on ne sait s'il s'agit de garçons ou de filles, l'information selon laquelle ils font de la boxe, par exemple, permet de penser avec une bonne probabilité qu'il s'agit de garçons. En fait, l'information du genre est contenue implicitement dans ces données.

Il vaudrait mieux tenter de savoir si les données servant à l'apprentissage sont biaisées et, surtout, tester la discrimination a posteriori. Ainsi, il devrait être possible de demander aux entreprises utilisant des méthodes d'intelligence artificielle de préciser les outils qu'elles emploient pour corriger les biais des données et mettre en place des tests de discrimination avec des résultats a posteriori.

On a récemment entendu parler de propositions d'emploi faites à des femmes à qui un algorithme proposait des salaires moins élevés que ceux des hommes. Il faudrait donc que la loi impose des tests a posteriori pour signaler un biais. Les objectifs fixés par le législateur devraient pouvoir être traduits en conditions mathématiques servant à tester les résultats des algorithmes et à signaler un problème.

Pour conclure, que peut-on faire en matière de transparence des données ? On a vu qu'un bon résultat s'obtient en appliquant un bon algorithme sur des bonnes données. Les entreprises dominantes peuvent acquérir plus de données que les autres, ce qui leur permet d'améliorer leurs résultats et de passer à une situation d'hégémonie. C'est le cas, en France, pour le moteur de recherche Google. Ceci explique partiellement la position de force des GAFA.

Les risques sont nombreux. Le livre de Cathy O'Neal, Weapons of Math Destruction, aujourd'hui traduit en français, en décrit tout le panorama pour le grand public. Il présente ce dont il faut se méfier.

Que faire pour éviter les dérives ? Il conviendrait d'éviter de confier des marchés publics aux GAFA. Actuellement, par exemple, les données médicales françaises sont l'objet de la convoitise de toutes sortes d'entreprises. Celle qui remportera le marché, si elle n'est pas française, aura tout de suite un gros avantage par rapport aux entreprises nationales en bénéficiant de ces données.

Il existe beaucoup d'autres risques. Ainsi, lorsque le débat se déplace sur Twitter, il est conduit selon les règles de Twitter, qui décide qui a le droit de parler ou non, ce qu'on a le droit de dire ou de ne pas dire. C'est une des difficultés de l'extension du numérique dans notre société.

Vous m'avez demandé si la recherche française pouvait faire entendre sa voix, sachant que la société du XXIe siècle sera numérique. Je me placerai au niveau de l'Europe plutôt qu'au niveau de la France. La France est en effet un petit pays, et l'Europe dispose d'un plus grand poids.

En Europe, certaines tentatives ont avorté. L'une des difficultés vient du fait que le numérique a besoin de chercheurs. Or, en raison de l'importance de la demande de compétences par rapport au vivier, il existe actuellement une tension sur les salaires dans ce domaine. Quand la différence devient trop importante, les jeunes ont du mal à résister aux offres des entreprises étrangères.

Je pense aussi que les start-up ont du potentiel, pourvu que le Gouvernement ne contribue pas à faire pencher la balance du côté des GAFA. La situation hégémonique est là, et on ne peut guère que tenter de la contrôler, mais il reste dans le numérique beaucoup de domaines où les algorithmes ne sont pas encore au point. Des possibilités s'offrent donc à de nouveaux acteurs et l'Europe a toutes ses chances dans ce domaine.

M. Franck Montaugé, président. - Merci beaucoup, je donne la parole aux commissaires qui le souhaitent.

M. Pierre Ouzoulias. - Merci pour la clarté de votre exposé, madame et chère collègue.

Vous avez dit fort justement que le danger vient de ce que des sociétés monopolistiques accaparent une masse de données qui confortent leur position dominante sur un marché. La meilleure façon de protéger ces données n'est-elle pas finalement de les rendre publiques ? Un open data général, organisé par l'État, n'est-il pas une solution pour éviter toute position monopolistique ?

Mme Claire Mathieu. - Un open data général ? Je n'ai pas envie que vous sachiez ce que j'ai commandé sur Amazon, par exemple.

M. Pierre Ouzoulias. - De façon anonymisée...

Mme Claire Mathieu. - L'open data anonymisé général serait-il envisageable, et les recherches que je fais sur Internet pourraient-elles être publiques ? Est-ce que ce serait acceptable ? Pourrait-on le mettre en place ? Avec quelles conséquences ?

Et si une application sur mon ordinateur pouvait me permettre de l'accepter, toutes les informations pourraient être données au Gouvernement, un peu comme en Chine... Je ne pense pas que ce soit votre suggestion, et j'y vois quelques dangers...

M. Pierre Ouzoulias. - L'ambassadeur pour les affaires numériques nous a dit que les préfectures travaillaient avec Google Maps jusqu'au jour où le prix des licences est devenu exorbitant. Elles ont compris que fournir des données publiques à OpenStreetMap permettait de continuer à utiliser le service. Elles donnent aujourd'hui une large publicité à leurs données, permettant ainsi à des logiciels libres de s'en emparer pour offrir des solutions là où des opérateurs privés imposent des coûts prohibitifs.

Mme Claire Mathieu. - C'est le même esprit qui a présidé à la publication de toutes les participations au grand débat national. Il est vrai que cela permet à tous les scientifiques d'utiliser les données comme ils le souhaitent.

M. Franck Montaugé, président. - On nous a également dit qu'il était fondamental que les données scientifiques restent publiques et accessibles à tout le monde.

Mme Claire Mathieu. - Absolument !

M. Franck Montaugé, président. - C'est là un enjeu politique majeur. C'est un point qui me paraît fondamental pour l'avenir de la science si on souhaite que celle-ci ne soit pas privatisée au bénéfice de certains et au détriment du plus grand nombre.

Mme Claire Mathieu. - Il est nécessaire, pour améliorer la transparence, de disposer de plus de données publiques de façon proactive. D'un autre côté, pour améliorer la transparence des moteurs de recherche, on pourrait imaginer que l'utilisateur reçoive tous les matins un message l'informant que telle et telle information le concernant a été collectée la veille et divulguée à tel et tel destinataire. Cela permettrait à chacun d'être conscient de ce qu'il partage...

M. André Gattolin. - Regardez LinkedIn qui adresse régulièrement à ses membres un rapport sur les personnes qui ont consulté leur profil ! J'arrive ainsi à savoir, en fonction de mes interventions, s'il s'agit de scientifiques ou d'une administration, étrangère ou non. C'est instructif.

En matière d'algorithmes, la question des biais est particulièrement intéressante. En informatique, on procède à de la rétro-ingénierie, remontant au code source pour comprendre les failles Ceci a-t-il un sens s'agissant des algorithmes d'apprentissage profond ?

Je fais d'ailleurs le lien avec le développement des super-calculateurs : si un algorithme devenait tout-puissant dans un domaine sensible, comme la santé, sous une influence étrangère ou dans un but commercial, ne pourrait-on parvenir techniquement, avec l'aide de puissants moyens de calcul, à comprendre sa construction sans même disposer des données de base ? Et cela présenterait-il un intérêt ?

Mme Claire Mathieu. - Je ne suis pas spécialiste des algorithmes d'apprentissage automatique mais, en la matière, disposer des coefficients ne nous aide pas à comprendre le problème.

On peut toutefois, en réduisant les coefficients, essayer d'observer si le résultat demeure assez bon. On pourrait ainsi estimer que le résultat s'explique à 20 % par tel ou tel facteur et à 15 % par la combinaison de tel et tel autre. Quand le problème est simple, on peut, trouver les coefficients dominants pour expliquer une partie du résultat, ce qui est plus satisfaisant.

Malheureusement, on ne peut pratiquer de la sorte pour tout : pour prédire la météorologie à dix jours, trop de facteurs entrent en ligne de compte. Il est donc impossible de fournir une explication simple, le problème étant par nature complexe.

Mme Viviane Artigalas. - Le traitement des données et ce qui peut en être tiré m'apparaissent également importants. On imagine bien comment, à un moment donné, des algorithmes de traitement des données, s'ils tombent dans de mauvaises mains, peuvent volontairement déboucher sur de la manipulation ou de la discrimination, positive ou négative.

Comment faire pour prévenir les difficultés qui peuvent survenir dans le traitement des données ? Grâce aux évolutions technologiques, celles-ci vont être traitées dans un nombre sans cesse croissant de lieux. C'est l'absence de droit de regard sur leur traitement qui pose question.

Mme Claire Mathieu. - Je n'ai hélas pas de réponse directe à votre question, mais un des dangers qui existe est fort bien expliqué dans le livre de Cathy O'Neal déjà cité : les algorithmes destinés à prédire l'apparition d'une tumeur peuvent être optimisés au fil du temps car les maladies se comporteront toujours de la même manière.

Mais avec des algorithmes ayant pour objet des êtres humains, on est confronté au fait que, les personnes peuvent justement adapter leur comportement à cet algorithme. Prenez l'exemple du classement de Shanghai, censé présenter les meilleures universités au monde. Les universités ont pris cela suffisamment au sérieux et changé la façon dont elles fonctionnent non pour s'améliorer de façon générale mais bien spécifiquement pour satisfaire aux critères dudit classement.

Le comportement se modifie... et la formule n'est plus bonne ! Ceci est vrai pour tous les algorithmes qui agissent sur le comportement humain. Toutes sortes de déviations deviennent ainsi possibles.

M. Franck Montaugé, président. - C'est une réponse à une forme de contrainte, une réduction des libertés...

Mme Claire Mathieu. - En effet.

M. Franck Montaugé, président. - Merci beaucoup.

Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.

La réunion est ouverte à 17 h 20.

Audition de M. Éric Léandri, président et cofondateur de Qwant

M. Franck Montaugé, président. - Nous poursuivons nos travaux avec l'audition de M. Éric Leandri.

Conformément à la procédure applicable aux commissions d'enquête, M. Léandri prête serment.

Monsieur Léandri, vous êtes le fondateur et l'actuel président de Qwant, entreprise à capitaux franco-allemands que vous avez créée en 2013. Son activité principale consiste à fournir un moteur de recherche qui se distingue de Google par la protection de la vie privée de ses utilisateurs. Il se rapproche sur ce segment du méta-moteur de recherche américain Duck-Duck-Go.

Votre entreprise a réalisé un chiffre d'affaires de 5 millions d'euros en 2018 et compte 160 salariés. Son activité est en croissance. En avril 2019, votre moteur de recherche aurait traité 100 millions de requêtes contre 18 millions en avril 2018. Les chiffres grimpent de mois en mois. Mais le chemin reste long comparativement à Google, par exemple, qui dispose de 95 % des parts de marché si mes informations sont bonnes.

Vous avez fait le pari ambitieux de concurrencer l'un des principaux géants du numérique américain. Cela intéresse notre commission d'enquête, car nous devons nous interroger sur les voies et moyens de faire émerger les fameux géants européens du numérique que certains attendent parfois comme une sorte de Messie.

Vous bénéficiez du soutien financier de la Caisse des dépôts, qui détient 20 % de votre capital, soit autant que le groupe allemand Axel Springer. Estimez-vous que les écosystèmes français et européen sont suffisamment favorables à l'émergence de tels champions ?

Aujourd'hui, les critiques et les amendes pleuvent sur certains géants américains du numérique en raison de leurs pratiques anticoncurrentielles. En avez-vous été victime vous-même ?

Enfin, comment appréhendez-vous la notion de souveraineté numérique, qui est au coeur de l'objet de notre commission d'enquête ? Estimez-vous que votre entreprise peut aider la France et l'Europe à conquérir cette souveraineté dans le cyberespace ?

M. Éric Léandri, président de Qwant. - Mesdames les sénatrices, messieurs les sénateurs, je souhaite vous remercier tout d'abord d'avoir créé cette commission d'enquête parlementaire sur la souveraineté numérique et de nous donner la possibilité de partager la vision de Qwant. C'est un sujet structurant pour notre pays, qui doit tous nous réunir.

Nous avons créé Qwant en 2011 et avons enregistré environ 18 milliards de requêtes l'année dernière.

C'est précisément le souci de contribuer à une certaine vision de la souveraineté numérique des Français et des Européens qui nous a poussés, il y a déjà huit ans, à créer le moteur de recherche Qwant. Je vous expliquerai, dans la suite de mon propos, pourquoi un moteur de recherche est indispensable dans une stratégie de souveraineté numérique.

Lorsque nous avons lancé Qwant, Google avait déjà plus de 95 % de parts de marché en Europe. Il générait 40 milliards de dollars de chiffre d'affaires à travers le monde, 30 % de ce chiffre d'affaires étant réalisé en Europe.

De toute évidence, il n'y avait que très peu de gens à cette époque pour croire en une alternative européenne. Tous nous disaient que la bataille était perdue d'avance, qu'il était déjà trop tard pour créer un moteur de recherche européen. Avec mes associés, nous avons pris le contre-pied et fait fi de ces réticences. Nous avons réussi à convaincre suffisamment de partenaires privés pour démarrer et accompagner notre croissance. Ils avaient compris l'importance vitale de la souveraineté numérique pour notre pays.

Après huit ans de travail acharné, j'en vois toujours ici ou là qui semblent espérer notre échec ou tentent de ralentir la construction d'une alternative durable, mais je suis fier de constater que Qwant est aujourd'hui le moteur de recherche choisi par un nombre grandissant de secteurs économiques - PME, mais aussi grandes références comme Safran, Thalès, BNP Paribas, la Caisse d'Épargne, Audiens, le Groupe Nice Matin, le Groupe France Télévisions, la SNCF Transilien, la MAIF, le CNES, le CEA et bien d'autres.

Massivement, dans les territoires, les collectivités font le choix d'une alternative souveraine et éthique. Nous avons été choisis par de grandes métropoles comme Paris, Nice, Rennes, par exemple, des villes petites et moyennes, mais aussi des départements et des régions, comme les Hauts-de-Seine, les Yvelines, l'Ille-et-Vilaine, la Bretagne ou l'Ile de France. Nombreux sont les ministères à avoir adopté Qwant, notamment l'intérieur, l'éducation nationale ou la culture, mais aussi les armées et, prochainement, toute l'administration française, sous l'impulsion du secrétaire d'État au numérique.

Tous ces choix, privés et publics, s'ajoutent aux millions d'internautes qui nous font confiance. Tous nous permettent d'accélérer notre développement, avec un effet très concret : le mois dernier, ce sont 240 millions de visites que nous avons reçues sur Qwant.

Nous avons encore beaucoup de travail à réaliser. Qwant ne serait pas là - et je ne serai pas aujourd'hui devant vous - s'il n'y avait pas eu, en France et en Europe, une véritable prise de conscience des enjeux de souveraineté numérique. Le plus grand nombre a la volonté de retrouver une certaine forme de libre choix et d'indépendance.

La souveraineté, c'est la capacité que nous avons tous, en tant qu'individus, collectivités, entreprises, à prendre librement des décisions. Qwant essaye d'apporter des réponses à deux niveaux de souveraineté numérique.

Le premier, c'est celui de la souveraineté numérique collective, au sens de la capacité de l'État et plus généralement de notre société à rester maître de ses systèmes d'information, dont dépendent des pans entiers de l'activité du pays et de nos actions à l'extérieur. Le second niveau, c'est celui de la souveraineté numérique individuelle, au sens de la capacité de chaque individu à conserver son autonomie quotidienne, sans dépendre d'outils numériques sur lesquels il n'a plus aucun contrôle.

En matière de souveraineté numérique, le rôle du moteur de recherche est fondamental pour garantir une liberté suffisante aux pouvoirs publics, à la société et à l'individu. Il est primordial de comprendre ce qu'est un moteur de recherche, et comment il fonctionne, car nous utilisons tous un moteur de recherche, tous les jours, sans forcément le savoir.

Un moteur de recherche, c'est par définition un outil qui permet de savoir où se trouve l'information recherchée. Au préalable, il faut donc qu'il connaisse le maximum d'informations pour pouvoir répondre à la question qui lui est posée. C'est le rôle de l'index. L'index, en simplifiant à l'extrême, est en quelque sorte la bibliothèque d'Alexandrie.

Pour constituer son index, Qwant envoie des logiciels appelés crawlers, ou indexeurs, qui, simulant l'activité d'un internaute lambda, se promène sur internet, regarde le contenu de la page et en note les changements. Aujourd'hui, l'index de Qwant compte 20 milliards de pages, dont 2 milliards sont visités chaque jour.

Une fois qu'on dispose de l'index, il faut pouvoir effectuer un tri à l'intérieur de cette masse d'informations, afin de faire remonter les résultats les plus pertinents. Ceux-ci viendront fournir les réponses à la question que pose l'internaute. C'est le rôle joué par les algorithmes de tri des résultats. C'est ce qu'on appelle le ranking, ou classement. Chez Qwant, nous avons mis au point nos propres algorithmes de tri. Nous sommes parmi les seuls à détenir des brevets dans ce domaine. Ils prennent en compte des dizaines et des dizaines de facteurs différents, pour déterminer quelle page afficher en premier dans nos résultats, puis en second, etc.

Avec ces deux éléments clés, l'index et les algorithmes de tri, le moteur de recherche utilisé a une influence très importante sur l'information à laquelle on peut accéder et qu'on peut partager. En fonction des contenus qu'il choisit d'indexer ou non, vous n'aurez peut-être pas accès à certaines informations ou, au contraire, verrez des contenus impossibles à trouver chez d'autres, sur lesquels cliquent la très grande majorité des utilisateurs.

Or dans le monde, il n'existe que huit vrais moteurs de recherche grand public qui disposent à la fois de leur propre index du web et de leurs propres algorithmes : Google et Bing aux États-Unis, Naver en Corée du Sud, Yandex en Russie, Baidu en Chine, Seznam en République Tchèque, Yahoo au Japon, et Qwant en France.

Tous les autres sont des méta-moteurs qui utilisent exclusivement les résultats fournis par d'autres moteurs de recherche - la plupart du temps Google ou Bing. Ce sont des interfaces de recherche. La plupart du temps, ils sont installés sur une des infrastructures d'un géant comme Amazon.

Cette différence est décisive. C'est en cela que Qwant est stratégique. Sur le plan de la souveraineté collective, c'est essentiel. Qwant est né du constat du manque total d'indépendance de l'Europe en matière d'accès à l'information à travers les moteurs de recherche. Dans 95 % des cas, quand un Français ou un Européen fait une recherche sur un sujet quelconque, c'est un moteur de recherche étranger qui lui dit où se trouve l'information la plus pertinente de son point de vue. Il est donc intéressant d'avoir un moteur européen et français.

Il s'agit d'un pouvoir d'influence énorme à l'échelle d'un continent. Cela peut avoir de nombreuses répercussions, y compris sur les élections. C'est du jamais vu ! C'est donc un risque majeur pour la souveraineté de la France et de l'Europe.

C'est évidemment la même chose sur les réseaux sociaux ou les plateformes de vidéos. Une très grande partie de notre accès à l'information et au savoir et notre capacité à partager cette information dépend aujourd'hui d'acteurs étrangers, lesquels peuvent avoir les meilleures intentions du monde, mais aussi des intérêts différents des nôtres.

Que se passera-t-il si les États-Unis, demain, décident que Google ne doit plus fournir de résultats en France, filtrent tel ou tel résultat, et coupent le service de messagerie électronique qu'utilisent des millions de Français et d'entreprises ? Cela paraît invraisemblable, mais c'est un peu ce qui s'est passé pour un géant chinois. Du jour au lendemain, les États-Unis ont demandé à Google de rompre son partenariat avec le deuxième constructeur mondial de smartphone, privant ainsi le marché de plus de 200 millions d'appareils par an.

Toutes les informations qu'ils indexent sont très utiles par ailleurs pour d'autres développements fondamentaux. Je pense en particulier à l'intelligence artificielle. On commence à la voir un peu partout. Demain, elle sera omniprésente, aussi bien chez les individus que dans les industries, les administrations, l'armée...

Si nous ne disposons pas d'une capacité à fournir notre propre intelligence artificielle alors qu'elle fait tourner une grande partie de l'économie et contribue au fonctionnement de la société, nous ne maîtriserons plus rien. C'est un risque qui me paraît tout à fait inacceptable.

Pourrons-nous toujours nous offrir le luxe de nous fâcher, même provisoirement, avec un allié avec lequel nous ne sommes pas d'accord, alors que c'est lui qui nous fournit nos moyens de communication, nos informations et notre intelligence artificielle ? Si nous devons craindre que les services numériques dont dépend toute notre économie soient coupés ou bridés, serons-nous vraiment libres de ne pas suivre ce qu'on nous demande de faire ? C'est cela, la souveraineté ! Je pourrais aussi vous parler de la santé connectée, des bases de données médicales et des objets de santé intelligents, ou encore des cryptomonnaies, qui échappent de plus en plus au contrôle régalien.

Je voudrais aussi évoquer le risque que représente un moteur de recherche qui sait ce que nous recherchons et ce que nous consultons. Cela touche la souveraineté individuelle. Ce volet rejoint les préoccupations sur la souveraineté collective.

Comme vous le savez, Qwant a séduit les internautes avec une promesse forte, qui précédait largement le Règlement général de protection des données (RGPD), celle de ne pas collecter les données personnelles des utilisateurs et de donner une vision neutre et panoramique de l'internet. Nous l'avons fait parce que nous avons la conviction que, chaque fois que nous confions nos données personnelles à quelqu'un qui peut les utiliser, nous prenons le risque de perdre un peu plus de liberté.

De même, nous sommes convaincus que notre moteur doit rester neutre et ne pas faire de discrimination selon les sites ou les contenus, ni modifier les réponses selon l'utilisateur.

Sur un moteur de recherche, chaque fois que vous dites ce que vous recherchez, vous révélez ce qui vous intéresse. Vous le dites tout au long de la journée, sur votre ordinateur, votre smartphone, ou même chez vous, le soir, si vous avez acheté une de ces nouvelles enceintes connectées. Si je me souviens de tout ce que vous demandez, au bout de quelques semaines j'ai une idée très précise de qui vous êtes - régime alimentaire, religion, sexualité, santé, opinions politiques. C'est sans fin.

Tout cela, ce sont des informations que Qwant a choisi de ne pas collecter et de ne pas revendre. Nous croyons fondamental de préserver la vie privée et la liberté de l'individu, donc sa souveraineté.

Qwant a été conçu autour du droit à la vie privée, tel qu'il est énoncé dans l'article 12 de la Déclaration universelle des droits de l'homme. Je refuse que mon entreprise puisse exploiter des données qui lui permettraient de trier les résultats de recherche afin d'influencer et de biaiser les informations que reçoit telle ou telle catégorie de la population, ou de permettre à des annonceurs de cibler des personnes selon leur profil.

C'est ce qui s'est passé avec Cambridge Analytica, et c'est le risque que nous courons avec d'autres acteurs. En Europe, avant d'être des consommateurs, les internautes sont avant tout des citoyens. Or les citoyens ont des droits. Il n'a jamais été aussi facile de manipuler une élection en utilisant les biais psychologiques de chacun et en personnalisant l'information affichée, grâce aux données personnelles collectées. Ce n'est pas seulement l'apanage des Russes.

Si un moteur de recherche a accès aux recherches d'une administration, une PME ou une grande entreprise française, il est facile de faire de l'intelligence économique et diplomatique. Il n'y a plus qu'à personnaliser les résultats pour influencer les décisions. Ce sera encore beaucoup plus facile avec le développement des assistants personnels, avec qui on a un rapport de confiance parce qu'ils ont une voix humaine et qui nous parlent comme si nous étions leur ami.

C'est pour cela que Qwant a construit son indépendance technologique, pour permettre à la France et à l'Europe de ne plus dépendre d'un moteur de recherche étranger, et aux individus de conserver leur libre arbitre et l'accès à une information de qualité.

La souveraineté numérique ne se décrète pas. Elle se pense, elle se travaille et se construit avec une vision de long terme. Chez Qwant, nous avons beaucoup investi et nous investissons de plus en plus dans la création de notre propre index et de nos propres algorithmes de recherche. L'objectif pour nous est de ne plus dépendre de plateformes numériques étrangères, pour construire une alternative crédible, assumer notre autonomie stratégique et notre indépendance technologique.

Il serait illusoire de prétendre créer, ex nihilo, en quelques clics et dès le premier jour, un service mondial comparable à de grandes plateformes numériques étrangères. Cela prend beaucoup de temps et d'énergie et nécessite beaucoup d'argent ! Chez Qwant, nous devons faire beaucoup avec peu, et nos utilisateurs et utilisatrices attendent que nous délivrions des résultats pertinents immédiats, des services complets et performants, et un niveau de qualité qui rivalise avec les leaders dont les services sont tout aussi gratuits que les nôtres.

Sans investir des centaines de millions d'euros, le recours partiel mais transitoire à des services fournis par des tiers est par conséquent nécessaire, du moment que cela ne remet pas en cause notre engagement fondamental à propos du respect total de la vie privée et la protection des données personnelles.

C'est ce que nous avons fait, notamment avec Bing, qui nous a permis d'avoir des résultats suffisamment pertinents dès le lancement de Qwant. Sans cela, nous n'aurions pas pu offrir dès le premier jour le niveau de service susceptible de fidéliser nos utilisateurs.

C'est aussi pour cela que nous avons signé un partenariat inédit et innovant avec Microsoft le mois dernier. Jusque-là, tout notre index et tous nos calculs - notamment pour l'intelligence artificielle - étaient réalisés exclusivement sur nos propres serveurs. Désormais, Microsoft met aussi à la disposition de Qwant les capacités additionnelles de son cloud Azure, qui nous permet de stocker beaucoup plus de données dans notre index et d'exécuter des calculs beaucoup plus rapidement, avec une puissance que nous ne pouvons pas égaler aujourd'hui.

Toutefois Microsoft n'a accès à aucune donnée personnelle de nos utilisateurs. Tout est parfaitement cloisonné et étanche. Nous avons justement travaillé avec eux pour trouver un système qui le garantit. Si vous cliquez sur une publicité ou sur un résultat de recherche, nous ne contrôlons évidemment pas ce que les annonceurs ou les éditeurs de sites internet sur lesquels vous allez font de vos données mais, quand vous revenez sur Qwant, nous ne savons pas où vous êtes allé ni ce que vous avez recherché. Pour Qwant, vous demeurez anonyme.

Avec Microsoft, un des géants du numérique, nous pouvons désormais accélérer les choses en France et partout en Europe. Ce partenariat est surtout réalisé conformément à nos exigences et à nos valeurs françaises et européennes. C'est un partenaire industriel et commercial, comme Airbus en a aux États-Unis.

Qwant reste maître de sa technologie, du développement de son algorithme, de son index, de son infrastructure, et demeure soumis au respect de la vie privée de ses utilisateurs. La souveraineté numérique peut compter sur notre appui et sur d'autres entreprises françaises et européennes, qui font de l'excellent travail, comme OVH.

Nous avons encore beaucoup de travail à réaliser. Nous avons parfois pris du retard, ce dont certains profitent d'ailleurs pour nourrir leur entreprise de déstabilisation, à grand renfort de théories du complot. Vous en avez peut-être été destinataires. J'ouvre à ce sujet une parenthèse pour vous dire que nous avons introduit plusieurs recours judiciaires en diffamation et en dénigrement. Je n'en dirai pas plus, puisque des procédures sont en cours, mais ne nous y trompons pas : l'objectif est de démolir nos travaux et notre entreprise.

Il existe un point commun entre toutes ces attaques : ceux qui les relaient refusent systématiquement de s'intéresser à notre travail. Ceci démontre que nous sommes sur la bonne voie et que nous allons y arriver !

Nous savons ce que la France nous a donné, et nous voulons le lui rendre. C'est aussi pour cela que Qwant a choisi d'établir son siège fiscal en France, de créer un moteur de recherche spécialement adapté aux enfants, Qwant Junior, utilisé par dix académies sur dix-sept, de contribuer au financement de la presse ou encore d'aider les causes sociales et environnementales en reversant une part de ses gains aux associations.

Voici notre stratégie et notre contribution concrète à la souveraineté numérique en France et en Europe. C'est dire l'importance d'un moteur de recherche européen éthique, responsable et neutre.

La souveraineté numérique, c'est au fond l'affaire de tous, et je crois que nous y prenons toute notre part. Aujourd'hui comme hier, vous êtes évidemment les bienvenus chez Qwant pour rencontrer nos équipes et voir comment tout cela fonctionne de l'intérieur.

Je me tiens à présent à votre entière disposition pour répondre à toutes vos questions.

M. Franck Montaugé, président. - La parole est au rapporteur.

M. Gérard Longuet, rapporteur. - Je connais Qwant. J'apprécie son effort pour doter l'Europe d'un moteur de recherche autonome et indépendant. J'ai presque envie de dire que le fait d'avoir des ennemis est plutôt rassurant : cela prouve que vous êtes en train de percer !

M. Franck Montaugé, président. - La parole est aux commissaires.

M. Stéphane Piednoir. - On connaît tous la capacité de Qwant à protéger la vie privée en ne conservant aucune trace de l'utilisateur. Or, on peut considérer que la réponse est, de ce fait, moins pertinente. L'argument des moteurs de recherche qui ont moins de scrupules à l'égard de la vie privée des utilisateurs est d'apporter à ceux-ci des réponses plus proches de leurs attentes. Comment faire en sorte qu'un utilisateur préoccupé par la protection de sa vie privée reçoive en même temps des réponses qui correspondent à ce qu'il souhaite ?

M. Éric Léandri. - Nous avons fait plusieurs enquêtes avec d'autres compétiteurs du marché, comme Yandex. Les informations relatives aux utilisateurs améliorent surtout la pertinence de la publicité. Les réponses que l'on trouve sur le web concernent trois ou quatre liens mieux placés lorsqu'on connaît mieux l'utilisateur. Si celui-ci est par exemple informaticien et clique toujours sur un lien de site internet pour du code, le site en question devrait passer premier dans un moteur qui le connaît. Chez Qwant, ce site sera toujours troisième ou quatrième, bien que lorsque des milliers de gens cliquent sur le même lien pour la même requête, nous fassions remonter ce lien dans nos résultats.

Cependant, cela ne suffit pas. Les tests que nous avons réalisés prouvent qu'il faut aller plus loin. Pour cela, nous disposons de la technologie Masq, qui va être lancée ce mois-ci. Masq consiste à conserver vos recherches si vous le désirez sur votre téléphone, votre ordinateur, à l'intérieur d'un cloud qui vous appartient, là vous avez envie de les conserver, mais non chez Qwant.

Masq correspond à une partie totalement chiffrée du disque dur de votre téléphone ou de votre ordinateur qui n'est pas accessible aux autres et qui permet de savoir où vous avez cliqué les dernières fois afin de pouvoir transformer la requête pour placer en première, deuxième ou troisième position les résultats que vous préférez.

C'est en apportant à l'utilisateur la capacité de conserver ses données que nous allons régler ce problème. Nous travaillons depuis deux ans sur le chiffrement et la capacité de conserver ces informations et de les partager. C'est techniquement complexe, mais nous sommes prêts.

Nous avons également établi une cartographie pour réaliser Qwant Maps. Notre carte n'est évidemment pas destinée à savoir ce que vous avez fait hier ni où vous êtes allé. Cependant, vous aimeriez sûrement conserver des informations comme votre adresse ou celle de votre bureau plutôt que de les rentrer tous les jours. Vous pouvez le faire dans Masq et les voir s'afficher en ouvrant la carte de Qwant grâce à votre téléphone.

C'est un algorithme local, avec une intelligence artificielle locale et non globale. Cela permettra de protéger des millions de Français ou leurs enfants. Si vous allez chaque jour à l'hôpital, c'est peut-être pour y rendre visite à des personnes, y travailler, ou pour y suivre un traitement. Ce sont des informations qu'il n'est peut-être pas nécessaire de partager.

Les cartes deviennent très importantes dans notre monde. Lorsque vous montez dans une voiture de location, vous lui confiez votre répertoire. La plupart du temps, ce répertoire n'est pas effacé ! Cela ne devrait pas être possible ! C'est contre cela que nous mettons en place une technologie comme Masq.

M. Pierre Ouzoulias. - Vous avez dit que vos algorithmes de recherche étaient brevetés. Vous acceptez donc de les voir un jour tomber dans le domaine public. Est-ce à dire que ce n'est pas là que se situe la supériorité de votre moteur de recherche ?

Par ailleurs, un certain nombre de vos données sont accueillies par le cloud Azure de Microsoft, société américaine. Quelle protection pouvez-vous assurer aux données françaises face au Cloud Act ?

M. Éric Léandri. - Tout d'abord, nos brevets ne portent pas sur les algorithmes en eux-mêmes, mais ils donnent une idée globale de notre classement de l'internet. Ces brevets peuvent tomber un jour dans le domaine public, mais je pense qu'on les aura ouverts bien avant.

L'idée de Qwant est en effet depuis toujours de mettre un maximum d'éléments en open source. Masq est en open source, tout comme l'application Qwant pour mobiles. Tout le front de Qwant est également disponible en open source, ainsi que les indexeurs et les systèmes pour effectuer des graphes. Nous sommes aujourd'hui le moteur de recherche à avoir ouvert le plus grand nombre d'éléments.

Notre seul problème, c'est le classement, car si on choisit l'open source sans avoir parfaitement sécurisé celui-ci, on permet aux spécialistes du référencement de tricher à partir de nos résultats de recherche. C'est un problème qu'on a tous. Cela ne m'empêche pas de vous montrer comment je construis l'ensemble du système ou de vous donner la possibilité de voir nos algorithmes en open source. Cela m'empêche simplement de vous dire comment je fais mon classement et la façon dont sont affichés les résultats.

J'ai proposé de lancer un concours de SEO, ces spécialistes du référencement sur les moteurs de recherche. En octobre-novembre, durant cinq mois, les meilleurs SEO français vont pouvoir tester nos algorithmes, donner des idées et voir si nous avons fait du bon travail pour éviter les spams.

Pour cela, j'ai besoin d'achever la deuxième partie de notre infrastructure...

Quelles données pourraient être soumises au Cloud Act dans le cadre de notre accord avec Microsoft ? Il s'agit de dizaines de milliards de pages internet. Pourquoi sommes-nous sur le cloud Azure et chez Microsoft et non chez OVH ? Microsoft est le deuxième plus grand moteur de recherche de la planète. Il a réalisé son cloud pour son moteur de recherche, avec des technologies spécifiques. C'est pourquoi nous avons passé cet accord inédit, qui garantit à l'Europe un moteur de recherche souverain européen, un accord gagnant pour l'Europe, pour la France et pour Microsoft sur la partie cloud dont j'ai besoin pour indexer le web.

Il n'y a pas la moindre donnée personnelle sur les serveurs de Microsoft. Bien évidemment, ce n'est pas le cas si vous cliquez sur les publicités de Microsoft, mais cela ne dépend pas de nous. Notre accord avec Microsoft nous permet d'avoir un moteur de recherche de taille mondiale, avec nos infrastructures et un complément sur la recherche et l'indexation des pages et des images. Vous nous demandez d'être plus souverains : c'est exactement ce que nous offre cet accord.

On va donc aller au bout et même accélérer les choses afin de vous donner les meilleurs résultats disponibles aujourd'hui sur internet, avec des technologies européennes - la plupart françaises - et des partenariats technologiques comme ceux que nous avons avec l'Institut national de recherche en informatique et en automatique (Inria).

M. André Gattolin. - Je n'ai pas l'impression que l'Union européenne, la Banque européenne d'investissement (BEI), etc., soient très sensibles à ce produit à haute valeur ajoutée et au contact direct des citoyens qu'est Qwant. Quel est votre sentiment à ce sujet ?

M. Éric Léandri. - Chacun d'entre nous a mis de l'argent dans Qwant. Les premiers investisseurs sont tous privés, et représentent plusieurs millions d'euros. Nous comptons ainsi Axel Springer, qui représente 20 %, et la Caisse des dépôts et consignations.

La BEI nous a permis de contracter un prêt remboursable en trois ans, avec des taux particulièrement intéressants. Nous ne sommes pas les seuls aujourd'hui à y avoir accès. Ce prêt a servi à de nombreuses autres entreprises européennes et leur a permis d'avancer. Ce type de prêt est fait pour aider les entreprises européennes. Voilà ce que l'Europe a fait pour Qwant.

Par ailleurs, je suis président de l'Open Internet Project. Les milliers d'entreprises qui sont derrière sont celles qui ont fait une demande auprès de la Commission européenne pour examiner l'abus de position dominante de mon concurrent principal sur la partie shopping. Mme Vestager, grâce à son action, a permis de récolter 2,4 milliards d'euros.

Nous avons continué avec Android - le litige s'est soldé par une amende de 4,2 milliards d'euros. Qwant est le seul plaignant européen à demander l'accès au téléphone. Vous me demandiez comment nous bloquer. C'est facile : jusqu'à il y a peu, un fabricant de téléphone ne pouvait installer Qwant sur ses appareils. Il fallait aller dans Google Play et demander l'accès. Aujourd'hui, au démarrage du Play Store de Google, on vous demande de choisir entre Google, Ecosia, Qwant, Bing et autres moteurs de recherche. D'autres navigateurs sont également proposés. C'est là une conséquence du travail de Margrethe Vestager.

À l'échelon européen, tout ce qui est en train de se passer entre les États-Unis et la Chine démontre que nous devons accélérer notre capacité à indexer l'ensemble de l'Europe dans le domaine des moteurs de recherche, avoir plus de puissance dans le cas d'un cloud de type OVH, et développer la 5G avec Nokia. Je rappelle que Nokia est la deuxième société la plus avancée en matière de 5G et qu'elle est européenne.

Le modèle européen me convient sur beaucoup de points, mais un seul me pose problème : il est en effet quasiment impossible de créer un produit, de le rendre rentable et d'accélérer en même temps son développement. On doit à un moment choisir entre la possibilité de disposer de davantage d'ingénieurs afin de pouvoir indexer l'Europe ou continuer à se développer en étant rentable mais à petite échelle. Il faut avoir le choix - sans opter pour autant pour un modèle comme Uber, qui passe en bourse à 84 milliards de dollars en perdant 3 milliards de dollars ou 4 milliards de dollars par trimestre ! On ne peut créer des produits porteurs sans investissement ni ingénieurs. On ne peut mettre en place un moteur de recherche européen sans des centaines de serveurs. Cela prend du temps. Il va donc falloir régler cette question de coexistence de trois besoins différents : faire un produit rentable, accélérer son développement et être en capacité d'accélérer quand il le faut.

Qwant est un moteur de recherche. Les moteurs de recherche relèvent du domaine de l'industrie, non de celui des start-up. On ne cherche pas de business model. On le connaît très bien. C'est Omid Kordestani, numéro 3 de Google, qui l'a inventé avec AdWords, grâce auquel Google touche de l'argent lorsqu'on clique sur une annonce. C'est le principe des moteurs de recherche. Il fonctionne très bien et rend un moteur de recherche rentable dès lors qu'il a suffisamment de requêtes quotidiennes.

Ne vous y trompez pas : les bascules de l'administration, des banques, des grands groupes nous amènent à devenir très rentables, et c'est certainement le bon moment pour nous attaquer. Avec les bascules que nous avons aujourd'hui, nous estimons être à 5 % ou 6 % du marché français et avoir une très forte croissance sur les autres marchés. Entre la semaine dernière et aujourd'hui, notre chiffre d'affaires a crû d'environ 19 % par jour grâce à un plus grand trafic.

La souveraineté numérique passe par des outils qui respectent les citoyens et doivent fournir des résultats de très bonne qualité.

M. Gérard Longuet, rapporteur. - Procédez-vous à des investissements spécifiques pays européen par pays européen pour vous développer en adaptant votre projet aux réalités nationales, ou s'agit-il d'une démarche standard ?

M. Éric Léandri. - Tout dépend. La version Qwant junior comporte un volet que nous avons travaillé avec le ministère de l'éducation. En Allemagne, en Italie, nous formulons une demande auprès des ministères concernés pour que les résultats correspondent aux souhaits du gouvernement et surtout aux sites qui ont été référencés comme étant parfaitement adaptés à l'éducation des enfants.

Pour Qwant lui-même, nous avons aujourd'hui, grâce à l'intelligence artificielle, la capacité de travailler dans plusieurs pays et avec plusieurs langues à partir de la France. Certains pays comme la Suisse exigent la mise en place de serveurs destinés à anonymiser l'IP suisse. Celle-ci ne doit pas sortir du pays, c'est la législation. Nous nous adaptons donc en fonction des lois en vigueur.

Il faut ajouter des serveurs et de la puissance de calcul pour chaque pays où nous nous implantons, mais nous n'avons pas besoin de discuter avec chaque gouvernement.

L'effet d'entraînement est considérable : en prouvant qu'il est possible de basculer sur un moteur de recherche éthique, responsable, respectueux de l'ensemble des obligations européennes, du RGPD, de la protection de nos enfants et responsable sur le plan social et environnemental, on crée un précédent mondial et on apporte la preuve que respecter les règles, la législation, les obligations fiscales correspond à nos valeurs et à notre façon de considérer le monde.

M. Franck Montaugé, président. - Qu'attendez-vous des pouvoirs publics, eu égard à leur stratégie en matière de souveraineté numérique, pour faciliter et accompagner votre développement ? Repérez-vous des points faibles dans la stratégie de l'État français en la matière ?

M. Éric Léandri. - Tout a changé ces trois ou quatre dernières années pour l'ensemble des start-up françaises et européennes. Il était auparavant très difficile de discuter avec les pouvoirs publics, les chambres de commerce, les différentes régions ou même avec les grandes entreprises. Ce n'est plus le cas aujourd'hui. Nous avons des passerelles, des ponts, des possibilités grâce à la French Tech, à nos ambassades, nos consulats, ou Business France, qui accomplissent un très gros travail.

Nous avons cependant un problème en matière de droit de la concurrence au niveau européen. Au niveau français, nous disposons dans notre arsenal de mesures conservatoires qui portent un arrêt à l'abus de position dominante. Mais ces mesures conservatoires ne seront jamais utilisées au niveau européen, car on doit prouver l'irréversibilité du dommage causé à l'entreprise. Or, si c'est irréversible, la société a déjà fermé le temps qu'on parvienne à le prouver. Je ne comprends pas le droit européen dans ce domaine.

Certaines règles européennes sont en outre assez étranges. Sur le plan européen, on peut détenir une position dominante « si on n'en abuse pas ». À l'échelle de l'Europe, personne n'a jamais 95 % du marché ! Que signifie ne pas abuser de sa position dominante quand on est condamné à payer des amendes de 50 millions d'euros pour non-respect du RGPD, de 2,4 milliards d'euros pour le commerce en ligne, et de 4,2 milliards d'euros pour le système d'exploitation Android ? Ne pourrait-on pas faire comme aux États-Unis où, quand on dépasse un certain niveau de parts de marché, on n'a plus le droit de faire quoi que ce soit pour se maintenir à ce niveau ?

Énormément de choses ont été faites en Europe pour aider les entreprises. Nous avons gagné le premier set, ainsi que le deuxième, en décidant de travailler tous ensemble. Ce n'est pas le moment de recommencer à perdre : il faut au contraire accélérer !

Nous pouvons installer Qwant dans toutes les administrations : faisons-le ! Vous en avez le courage, sans quoi vous n'auriez pas créé cette commission d'enquête et mis ce genre de problématique sur la table. Ce Gouvernement en a le courage. De grandes banques, de grandes entreprises, des millions d'utilisateurs le font déjà. La BEI passe à Qwant. Die Welt, l'un des plus grands journaux allemands, utilise également Qwant, tout comme le Corriere della Serra, ou la Gazzetta dello Sport en Italie. Une ville près de Milan vient également de passer à Qwant. Il va falloir aller jusqu'au bout, car nous n'aurons pas de deuxième chance. À partir de 2021-2022, il faudra tenir compte des Chinois.

Il ne faut pas opposer les Américains, les Chinois et les Européens, mais les entreprises qui choisissent de protéger la vie privée, de recourir à l'intelligence artificielle éthique, de placer l'open source au coeur de leur stratégie et les autres. C'est pour cela que j'ai décidé de travailler avec Microsoft. Certaines entreprises ont décidé de savoir tout sur tout, de bloquer la concurrence. C'est pourquoi je ne travaille pas avec elles. D'autres feront peut-être demain du dumping sur les prix. La souveraineté, notre façon de travailler et nos choix doivent être dictés par nos valeurs européennes.

M. Pierre Ouzoulias. - Qwant fonctionne en corse, en breton, en catalan, en basque. À quand l'occitan ?

M. Éric Léandri. - Je précise que Qwant fonctionne également en gaélique, en écossais, en irlandais. Je n'ai pas choisi que des autonomistes - même si ce n'est pas l'endroit pour ce genre de remarque ! Qwant fonctionne dans toutes ces langues pour une raison culturelle. En Corse, la plupart du temps, les gens ont Corse Matin sous le bras, rarement Le Parisien. On a donc placé Corse Matin en premier dans les réponses liées à l'actualité, mais Le Parisien est juste derrière. Personne n'est ostracisé. Ce serait avec plaisir que nous proposerions Qwant en occitan, mais il n'existe pas de nom de domaine dans cette langue. Nous avons en fait indexé tous ceux qui en possèdent. Nous sommes sur le point d'ajouter l'alsacien. Je précise cependant que nous sommes sur Occitanie Data. Dès que vous aurez un nom de domaine, nous l'indexerons sur internet avec grand plaisir.

M. Gérard Longuet, rapporteur. - On connaît Qwant, on sait ce que représente le défi que vous relevez, on a de la sympathie pour votre combat, et on s'intéresse à ce que vous faites par le biais des dispositions législatives et fiscales.

Je retiens votre formule à propos du courage qu'il faut avoir d'y aller. Il faut aussi défendre la souveraineté par des gestes appropriés. C'est ce que vous faites, et vous nous invitez à le faire.

M. Franck Montaugé, président. - Merci.

La réunion est close à 17 h 15.

Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.