M. le président. La parole est à M. le ministre de la transition écologique et de la cohésion des territoires.

M. Christophe Béchu, ministre de la transition écologique et de la cohésion des territoires. Madame la sénatrice, vous évoquez à raison le rapport qui a été publié le mois dernier par le Sénat, dont vous êtes l’auteure et qui souligne en conclusion que la gestion du chlordécone entre 1973 et 1993 aux Antilles et, surtout, les conséquences de l’utilisation de ce produit doivent nous servir de boussole et de guide.

Vous conviendrez que, en quelques semaines seulement, nous n’avons pu tirer tous les enseignements de votre rapport – je le dis avec beaucoup d’humilité –, notamment pour les autres situations du même type : un produit interdit, mais une pollution persistante.

Dans votre rapport, vous pointez du doigt les impacts sur la santé, les dégâts du manque de transparence et la nécessité de la prévention et de l’anticipation.

En ce qui concerne la transparence, je vous rappelle que, depuis un peu plus de deux ans, un site internet, InfoSols, certes méconnu de la plupart de nos concitoyens, géré par le ministère de la transition écologique, recense toutes les pollutions existantes. Et il est mis à jour de manière régulière.

Les secteurs d’information sur les sols (SIS), qui sont adossés aux parcelles, permettent déjà à des personnes acquérant une propriété de mesurer toutes les pollutions recensées sur le site.

Par ailleurs, la Commission européenne prépare en ce moment même, avec le soutien de la France, une proposition de directive sur la santé des sols.

Nous avons rendez-vous dans quelques jours pour un cas pratique : les polluants éternels per- et polyfluoroalkylés, dits PFAS. Vendredi prochain, je rendrai public le rapport commandé à l’inspection générale de l’environnement et du développement durable (IGEDD), qui fait le point sur la réalité de cette pollution présentant une difficulté particulière : ces polluants sont extrêmement persistants.

Un plan d’action dévoilé en janvier dernier par mon ministère a mis l’accent sur la nécessité de connaître l’existant, de recenser et d’améliorer les informations ou encore de mesurer les endroits où il y a potentiellement des problèmes pour la santé.

Là aussi, une action européenne est en préparation avec d’autres pays. En effet, chacun comprend les limites d’une réglementation ou d’une action mises en place par un seul pays, puisque les molécules franchissent évidemment nos frontières au travers de produits agricoles ou industriels. (Applaudissements sur les travées du groupe RDPI.)

M. le président. La parole est à Mme Catherine Procaccia, pour la réplique.

Mme Catherine Procaccia. Je vous remercie, monsieur le ministre. J’ai pris connaissance de votre plan d’action sur les PFAS, mais il donne la priorité au préventif sur le curatif.

Or, parmi les défauts que nous avons mis en avant dans la gestion du dossier du chlordécone, nous avons souligné un déficit dans les recherches. Les efforts en la matière ne commencent que maintenant, alors que des plans sont régulièrement élaborés depuis presque vingt ans.

Vous citez InfoSols, mais nous dénonçons justement dans notre rapport le fait que, aux Antilles, les terres cultivables n’ont pas toutes été analysées, ce qui ôte beaucoup d’efficacité à cette base de données.

M. le président. Il faut conclure !

Mme Catherine Procaccia. Nous avons besoin d’une vision d’ensemble tournée vers l’avenir. (Applaudissements sur les travées du groupe Les Républicains. – M. Jean-Marie Vanlerenberghe applaudit également.)

M. le président. Nous en avons terminé avec les questions d’actualité au Gouvernement.

Notre prochaine séance de questions d’actualité au Gouvernement aura lieu le mercredi 3 mai 2023, à quinze heures.

Mes chers collègues, nous allons maintenant interrompre nos travaux quelques instants.

La séance est suspendue.

(La séance, suspendue à seize heures quinze, est reprise à seize heures trente, sous la présidence de M. Alain Richard.)

PRÉSIDENCE DE M. Alain Richard

vice-président

M. le président. La séance est reprise.

3

Mises au point au sujet de votes

M. le président. La parole est à M. Jean-Claude Requier.

M. Jean-Claude Requier. Nos collègues Jean-Pierre Corbisez et Nathalie Delattre souhaitent rectifier leur vote sur le scrutin n° 270 portant sur les amendements identiques tendant à supprimer l’article 11 de la proposition de loi pour une école de la liberté, de l’égalité des chances et de la laïcité.

Jean-Pierre Corbisez souhaitait voter pour, tandis que Nathalie Delattre souhaitait voter contre.

M. le président. La parole est à M. Pierre-Antoine Levi.

M. Pierre-Antoine Levi. Lors du scrutin n° 269 sur l’article 1er de la proposition de loi pour une école de la liberté, de l’égalité des chances et de la laïcité, Daphné Ract-Madoux souhaitait voter contre.

Lors du scrutin n° 271 sur l’ensemble de la proposition de loi pour une école de la liberté, de l’égalité des chances et de la laïcité, Daphné Ract-Madoux et Brigitte Devésa souhaitaient voter contre.

M. le président. Acte est donné de ces mises au point. Elles seront publiées au Journal officiel et figureront dans l’analyse politique du scrutin.

4

Impacts économique, social et politique de l’intelligence artificielle générative

Débat d’actualité

M. le président. L’ordre du jour appelle le débat d’actualité sur le thème : « Impacts économique, social et politique de l’intelligence artificielle générative ».

Je vous rappelle que, dans ce débat, le Gouvernement aura la faculté, s’il le juge nécessaire, de prendre la parole immédiatement après chaque orateur pour une durée de deux minutes ; l’orateur disposera alors à son tour du droit de répartie, pour une minute.

Le temps de réponse du Gouvernement à l’issue du débat est limité à cinq minutes.

Monsieur le ministre, vous pourrez donc, si vous le souhaitez, répondre après chaque orateur, une fois que celui-ci aura regagné sa place dans l’hémicycle.

Dans le débat, la parole est à M. André Gattolin.

M. André Gattolin. Monsieur le président, monsieur le ministre, mes chers collègues, je voudrais tout d’abord remercier le groupe Union Centriste, qui a proposé à M. le président du Sénat d’inscrire ce débat à notre ordre du jour.

Il me revient d’ouvrir le bal, si j’ose dire, sans introduction préalable par le Gouvernement ou par un rapporteur, sur un sujet à la fois important et particulièrement complexe : l’intelligence artificielle (IA) générative.

Je voudrais dire en préambule que nous devrions en parler au pluriel, puisqu’il existe plusieurs types d’IA générative. Cette dernière est en fait un sous-ensemble de ce que l’on appelle « l’apprentissage profond », lui-même un sous-ensemble de ce que l’on appelle « l’apprentissage machine ».

L’IA générative est fondée sur des systèmes neuronaux artificiels, un concept qui a été créé au sein d’universités américaines dans les années 1940, mais qui n’a trouvé des applications concrètes et des débouchés que ces dernières années, avec le développement des capacités de calcul et de stockage des données.

C’est un sujet hautement complexe, car expliquer ce qu’est un système neuronal artificiel n’est pas chose aisée. L’idée est de copier le modèle de fonctionnement du cerveau humain. Quand votre œil enregistre une donnée, il la transfère à travers le nerf optique au cerveau, et celui-ci l’analyse.

Je vais prendre un exemple. Nous sommes le matin, vous venez de vous réveiller, vous avez un discours à écrire pour une discussion générale et vous ne voulez qu’une chose : boire un café.

L’image que l’œil va envoyer à votre cerveau est celle de la cuisine et de la porte ouverte du placard. Vous savez que les tasses se situent à tel endroit et que, par chance, vous avez vidé le lave-vaisselle : vous êtes donc à peu près sûr de trouver une tasse pour votre café.

Il existe aussi une mémoire d’alerte qui vous rappelle que, la dernière fois, vous vous êtes pris la porte du placard dans le visage.

Ainsi, le cerveau réalise un traitement complexe de toutes ces informations, et pas seulement de la donnée de base transmise à un moment donné par le nerf optique, en intégrant tout dans un environnement de synapses et de neurones qui vous permettra de vous guider jusqu’à la fameuse tasse. Ce système est donc particulièrement riche et performant.

La particularité des IA génératives est de s’appuyer non pas sur un seul algorithme, mais sur un ensemble complexe d’algorithmes qui échangent – c’est ce que permettent les progrès des dernières années.

Sans entrer dans les détails, certaines IA sont qualifiées d’« adversorielles » – elles mettent en concurrence deux systèmes de réseaux neuronaux qui se transmettent des informations et s’enrichissent l’un l’autre –, d’autres de « probabilistes » – le niveau de détail et d’information est alors plus élevé.

En tout cas, nous vivons aujourd’hui une véritable révolution, qui touche la production de contenus et d’images comme les processus de décision.

Comme je n’étais pas très réveillé ce matin, j’ai demandé à une intelligence artificielle de préparer mon discours sur les impacts économique, social et politique de l’IA générative. Le résultat est sympathique, mais il est extrêmement plat et descriptif. Il ne contient pas d’éléments complètement faux, mais il est incapable d’évaluer véritablement ses impacts. La marge de progression reste donc particulièrement importante.

Pour autant, nous devons nous intéresser aux conséquences du développement des IA. J’ai eu la chance de travailler récemment, avec Catherine Morin-Desailly et Cyril Pellevat, sur le projet de législation européenne destiné à encadrer l’intelligence artificielle. Nous avons retenu deux idées fortes : il faut à la fois préserver les libertés, les responsabilités et l’éthique, dans un cadre européen, et permettre le développement et l’innovation en matière d’IA.

Nous sommes tous affolés aujourd’hui par le succès de ChatGPT : diffusé en novembre dernier, celui-ci a atteint plus de cent millions de téléchargements en seulement deux mois. Le précédent record était détenu par TikTok, qui avait atteint le même nombre de téléchargements en neuf mois.

C’est donc bien un incroyable succès, qui transforme, par exemple dans le secteur de l’éducation, notre manière d’enseigner ou de valider les travaux. Le numérique n’est pas uniquement négatif ; il faut aussi considérer ses aspects positifs. Par exemple, le plagiat dans le monde universitaire a été en grande partie éradiqué par un logiciel ad hoc.

Pour conclure, nous devons prendre en compte les apports, mais aussi les risques et les dangers de l’IA générative – nous ne les mesurons certainement pas tous. Nous devons apprendre à utiliser ce nouvel outil. (Applaudissements sur des travées du groupe UC.)

M. le président. La parole est à M. le ministre délégué.

M. Jean-Noël Barrot, ministre délégué auprès du ministre de léconomie, des finances et de la souveraineté industrielle et numérique, chargé de la transition numérique et des télécommunications. Monsieur le président, mesdames, messieurs les sénateurs, je voudrais simplement, en cet instant, saluer l’initiative prise par le Sénat d’inscrire à son ordre du jour ce débat d’actualité sur l’impact économique, social et politique de l’intelligence artificielle.

Je salue également l’introduction qu’André Gattolin, révélant son expertise sur le sujet, vient de réaliser.

Je salue enfin le rapport d’information publié récemment par la commission des affaires européennes du Sénat sur la proposition de législation européenne relative à l’intelligence artificielle, dont M. Gattolin est l’un des auteurs.

M. le président. La parole est à M. Christian Redon-Sarrazy.

M. Christian Redon-Sarrazy. Monsieur le président, monsieur le ministre, mes chers collègues, « l’intelligence artificielle générative, une technologie capable de créer de nouveaux contenus, écrits ou images, recèle un fort potentiel, et ses impacts sociaux sont multiples.

« Dans le champ économique, l’intelligence artificielle générative, en permettant l’automatisation de certaines tâches répétitives et sans grande valeur ajoutée, accroît l’efficacité du travail et donc sa rentabilité. En créant de nouveaux produits ou services basés sur cette technologie, elle est potentiellement créatrice d’emplois.

« Toutes ces potentialités peuvent néanmoins être disruptives pour notre modèle économique actuel. En générant un risque de destruction d’emplois ou en limitant la nécessité d’acquérir de nouveaux savoirs, l’intelligence artificielle générative obligera plusieurs secteurs industriels à s’adapter pour demeurer compétitifs.

« Les risques politiques et éthiques existent aussi pour nos valeurs démocratiques, notamment par la génération de faux contenus, qu’ils soient écrits, visuels ou sonores, qui viendraient nourrir propagandes diverses et désinformation. Les répercussions sur les processus électoraux sont possibles. À mesure que les intelligences artificielles génératives se perfectionneront, il deviendra de plus en plus difficile de distinguer le vrai du faux. »

Ce que vous venez d’entendre, mes chers collègues, ce n’est pas un discours rédigé exclusivement par mes soins ou par ceux de ma collaboratrice. Ce début d’intervention a été généré à près de 95 % par l’application ChatGPT.

Monsieur le ministre, vous avez qualifié ChatGPT de « perroquet approximatif ». Utilisé dans le contexte précis d’une intervention dans l’hémicycle, le trouvez-vous convaincant ou maintenez-vous votre jugement ?

« Distinguer le vrai du faux », « création d’emplois » et « potentiel disruptif », etc. En une minute, je pense que vous avez pu relever les principaux apports et risques de l’intelligence artificielle générative, limites et promesses dont la machine elle-même semble parfaitement consciente.

Vous constatez également la nécessité qui est la nôtre de les identifier pour combler le vide juridique entourant le développement de cette technologie, dont on ne peut nier le potentiel de fascination et qui évolue à une vitesse sidérante.

Comme toute innovation majeure dans l’histoire de l’humanité, les intelligences artificielles génératives font planer le spectre de destructions d’emplois, d’un remplacement de la force humaine par l’agilité de la machine et d’une forme de simplification de l’organisation du travail par la suppression du facteur humain.

On oublie seulement de dire que les nouvelles technologies, quelles qu’elles soient, créent souvent davantage d’emplois qu’elles n’en détruisent. Par ailleurs, leur développement ne signifie pas systématiquement un abandon des savoir-faire antérieurs. L’intelligence artificielle peut au contraire permettre la création et l’acquisition de nouvelles compétences.

Le secteur qui sera le plus directement affecté par leur développement sera sans surprise celui de l’informatique. Cela induira nécessairement une adaptation et, par là même, une expertise plus poussée de la part des ingénieurs, ainsi que la création de nouveaux métiers attractifs.

L’une des principales craintes généralement partagées face à un tel potentiel est aussi de voir l’humain dépassé par sa créature.

Toutefois, cette source d’intelligence repose encore et toujours sur l’humain, tandis que les intelligences artificielles génératives ne demeurent, en tout cas en 2023, que des fabriques d’illusions. En dépit de leur qualité, le contenu proposé ne se fonde que sur des corrélations statistiques, un volume de données certes exponentiel, mais toujours limité. Sans l’humain, point de machine, pour l’instant !

Ces inventions posent néanmoins de réelles questions éthiques et philosophiques. Comme toutes les technologies qui les ont précédées, par exemple internet, elles sont un pharmakon, à la fois poison et remède selon l’usage que l’on en fait.

Bien sûr, entre de mauvaises mains, ces outils sont dangereux, parce qu’ils sont hautement capables de tromper notre vigilance ou d’être utilisés pour défendre des intérêts particuliers. Mais cette créature-là ne nous échappera que si nous ne nous posons pas les bonnes questions et si nous n’anticipons pas ses effets pervers.

Les mêmes interrogations relatives à la régulation, aux normes et à une éventuelle gouvernance mondiale se posent aujourd’hui pour l’intelligence artificielle, comme elles se posent depuis plus de vingt-cinq ans face à l’essor d’internet. Force est de constater que nous avons appris en marchant. Il pouvait difficilement en être autrement, faute de précédent.

Toutefois, nous disposons aujourd’hui de cette expérience, d’un corpus de réflexions, de normes et d’une jurisprudence – tout cela peut nous guider. Il nous faut nous servir de ce savoir empirique.

Une difficulté demeure cependant : face à une technologie par nature dynamique, qui progresse sans cesse, le risque de caducité rapide des normes définies à un moment précis est réel. Il nous faut donc être plus rapides que la machine. Et c’est là, je pense, que se situe l’aspect le plus positif de cette technologie novatrice : en nous débarrassant du superflu, elle peut aussi nous permettre de nous concentrer sur l’essentiel. En vérité, elle nous lance un défi : elle nous invite à un regain d’intelligence.

Si l’IA générative peut nous affranchir de certaines tâches répétitives, doit-elle fatalement nous rendre intellectuellement paresseux ? C’est à l’humain de montrer qu’aucune machine ne peut surpasser son intelligence, son jugement, son esprit critique et sa remarquable capacité d’adaptation.

« Qu’ils soient positifs ou négatifs, les impacts sociaux et économiques de l’intelligence artificielle générative doivent être évalués. Nous ne pourrons pas faire l’économie d’une réflexion éthique, afin que cette technique puisse être utilisée au bénéfice de l’intérêt général. »

Cette conclusion, mes chers collègues, m’a été proposée par l’application ChatGPT… Je vous laisse apprécier sa pertinence ! (Applaudissements sur les travées du groupe SER. – M. André Gattolin applaudit également.)

M. le président. La parole est à M. Pascal Savoldelli.

M. Pascal Savoldelli. Monsieur le président, monsieur le ministre, mes chers collègues, la révolution numérique a suscité un véritable bouleversement du monde du travail, opérant une transformation en profondeur de notre modèle économique et des métiers qui en constituent l’architecture.

Il est estimé qu’environ la moitié des métiers que les jeunes écoliers d’aujourd’hui exerceront demain n’existent pas encore. Si les potentialités de ce capitalisme numérique sont présentées comme assurément immenses, une telle numérisation du monde, au vu de l’orientation qu’elle a prise, alimente la crainte d’une déshumanisation de la société et d’une robotisation généralisée.

Nous sommes aujourd’hui dans un système où l’utilisateur est poussé par un ensemble de plateformes et de systèmes algorithmiques à générer toujours plus de données, au service finalement d’annonceurs, de publicitaires et de producteurs d’intelligence artificielle. Ces gigantesques masses de données numériques sont valorisées dans ce big data et exploitées au profit des algorithmes d’intelligence artificielle.

Or ce système, mes chers collègues, c’est celui de l’intensification de l’exploitation et de l’aliénation des travailleurs.

J’en veux pour preuve l’enquête du magazine Time, qui a révélé que l’entreprise OpenAI employait des travailleurs kenyans, rémunérés moins de deux dollars de l’heure, pour indexer d’immenses quantités de contenus toxiques circulant sur internet et ainsi nettoyer les données d’entraînement de ChatGPT.

Parce que « mal nommer un objet, c’est ajouter au malheur de ce monde », comme disait Albert Camus, il convient de rappeler que l’intelligence artificielle n’est ni artificielle ni intelligente. Considérer le logiciel ChatGPT comme intelligent, c’est se tromper lourdement sur la nature de notre débat et sur ses enjeux écologiques, politiques et sociaux.

ChatGPT n’est pas simplement un automate computationnel. Il implique l’exploitation des ressources minérales – terres rares – et humaines nécessaires à sa production et à son fonctionnement. Il dépend du travail gratuit des millions d’utilisateurs dont les requêtes améliorent l’algorithme. Par ces « micro-tâches », rémunérées moins de 2 euros de l’heure, on s’affranchit du salariat et on précarise, à l’heure actuelle, des centaines de milliers de personnes à travers le monde, selon les travaux d’Antonio Casilli.

Comme toute révolution technologique, la révolution numérique est au cœur d’un affrontement de classes ; l’industrie du numérique a pour seule obsession de casser le coût du travail, en espérant substituer du capital mort au capital vivant.

Pourtant, cette révolution numérique pourrait créer de nouveaux métiers, augmenter les besoins en formation initiale et professionnelle et offrir la possibilité de réduire le temps de travail pour gagner du temps libre.

Néanmoins, l’orientation choisie par l’industrie du numérique, avec la collaboration aveugle de nos gouvernants, est manifeste : il s’agit d’exercer une pression sur les salaires et sur l’emploi, en captant la valeur, plutôt que d’améliorer l’efficacité sociale du travail. Il s’agit aussi de transformer en plateformes nos services publics et administratifs, créant de facto davantage d’insécurité sociale.

Cette industrie est dominée, à l’exception de la Chine, par une poignée de firmes américaines concentrant des capitalisations boursières démesurées et motivées par une visée politique mondiale, celle d’un capitalisme à son paroxysme, où l’on peut s’arroger certaines prérogatives étatiques en toute impunité.

Face à cela, la France et l’Union européenne ont joué le jeu de la big tech en reléguant le choix de l’outil numérique ou d’un prestataire technique à une logique utilitariste, sans prendre en compte les aspects politiques et stratégiques.

Il est impératif de reprendre la main sur notre destin et de choisir la société dans laquelle nous voulons vivre demain. Nous devons nous réapproprier collectivement nos données sous forme de communs, en exigeant la transparence et la lisibilité des algorithmes participant à l’apprentissage automatique.

Cet espoir de transition numérique, je le place aussi dans notre jeunesse, dans ce nombre considérable de jeunes adultes qui ne supportent plus de faire des « jobs à la con » – entendez par là, mes chers collègues, un travail auquel on ne trouve pas de sens, qui prive d’une réelle protection sociale et dans lequel règne une hiérarchie autre que celle de la compétence.

Parmi ces jeunes, nombreux sont ceux qui veulent créer et entreprendre, mais pas forcément en fondant une start-up pour la revendre au plus offrant et faire fortune. Leur objectif est plutôt d’entretenir et de rendre accessibles, via un réseau numérique, des communs mondiaux d’innovation partagée.

Cette jeunesse pense nouveaux modes de production, coopératives, économie sociale et solidaire, économie circulaire, lutte contre l’obsolescence programmée et mise en commun !

Ces nouveaux terrains de la lutte de classe, où l’on prépare une alternative au monde numérique capitalistique tel qu’il est conçu aujourd’hui, on les retrouve dans les ateliers coopératifs de fabrication et de création numériques, au sein des communautés de développement de logiciels libres, mais aussi dans les plateformes numériques coopératives. Ces tiers lieux préfigurent une possible République des communs.

Oui, mes chers collègues, cette révolution numérique, à l’œuvre depuis des années déjà, nous place au pied du mur du dépassement de la condition salariale. Mais aujourd’hui, nous devons choisir : est-ce pour aller vers une société d’« entrepreneurs de soi-même », sur le modèle des chauffeurs Uber esclaves du diktat du marché, ou est-ce pour construire la société de libres producteurs associés que Marx, d’ailleurs, appelait de ses vœux ?

M. le président. La parole est à Mme Catherine Morin-Desailly.

Mme Catherine Morin-Desailly. Monsieur le président, monsieur le ministre, mes chers collègues, le développement exponentiel de la technologie signifie-t-il la fin programmée de l’humanité, telle que nous la connaissons ?

Sans être aussi pessimiste, on peut être inquiet des menaces que l’intelligence artificielle générative fait peser, avec l’automatisation croissante, sur l’emploi dans tous les secteurs, sur l’éducation et la création, ainsi que sur nos modèles sociaux, politiques et démocratiques, notamment par de possibles abus en matière de désinformation, de manipulation des opinions ou de contrôle des individus.

Si la presse se fait, jour après jour, l’écho des nouvelles prouesses de ChatGPT, des pays comme l’Italie ou le Canada l’ont interdit, tout comme d’autres ont banni TikTok.

Faut-il mettre en pause la recherche sur l’intelligence artificielle, comme l’ont demandé Elon Musk et un millier de scientifiques ? Peut-être, mais ne soyons pas dupes : au-delà des considérations éthiques, il y a là pour le dirigeant de SpaceX et de Twitter une occasion de régler ses comptes avec OpenAI dans la course effrénée à laquelle se livrent les entreprises pour la captation du marché.

Faut-il de la régulation et une intervention des pouvoirs publics pour mieux encadrer ces futures applications ? Assurément. Je le demande depuis dix ans, rapport après rapport, car je mesure la puissance transformatrice des nouvelles technologies, mais aussi leurs effets incertains et potentiellement dangereux sur la mise en réseau du monde.

En matière de régulation, après le règlement général sur la protection des données (RGPD), l’Europe légifère de nouveau, avec le Digital Markets Act (DMA), le Digital Services Act (DSA), puis la proposition de règlement sur l’intelligence artificielle en cours d’examen.

Rapporteure de ce dernier texte pour notre commission des affaires européennes, avec André Gattolin, Cyril Pellevat et Elsa Schalck, et coauteure à ce titre d’une proposition de résolution européenne, je veux en souligner le caractère précurseur, l’Europe étant la première à se doter d’un cadre juridique en la matière.

Cependant, si son approche par le risque est pertinente, cette proposition de règlement ne résout pas, hélas, les questions éthiques que posent les algorithmes gourmands de nos données et les modèles économiques qui les sous-tendent.

Comme je le réclamais pour le DSA, il faut exiger la transparence absolue, des audits indépendants et, tant avant la mise sur le marché d’une application ou d’un logiciel que tout au long de leur cycle de vie, une évaluation des possibles effets dangereux, en somme un safety by design.

Je n’ai pas le temps d’évoquer en détail à cette tribune les mesures que nous avons suggérées pour hisser la proposition de règlement à un haut niveau de protection et pallier certaines lacunes. Nous avons pris en considération, comme l’a rappelé André Gattolin, les risques de l’intelligence artificielle, mais également les progrès fulgurants qu’elle rend possibles. Elle n’est en effet ni positive ni négative : en réalité, sa valeur dépend intrinsèquement de l’usage qui en est fait.

L’intelligence artificielle peut nous aider à résoudre des questions environnementales, de santé, de productivité, toutes questions stratégiques ; d’où la nécessité, pour l’Europe, de soutenir l’innovation !

Or par manque de stratégie industrielle ces dernières années, l’Europe a été largement distancée par les États-Unis et la Chine, car ces États ont massivement investi dans la recherche et le développement de leurs propres entreprises, qui dominent aujourd’hui le monde.

Si l’Europe ne veut pas totalement disparaître de la carte des technologies de demain, monsieur le ministre, elle doit se réveiller et sortir de ces dépendances dangereuses.

Avec l’Inflation Reduction Act, les États-Unis vont investir près de 348 milliards de dollars. On en est loin en Europe ! Il nous faut pourtant un minimum d’investissements dans l’intelligence artificielle, dans le cloud et dans les réseaux, ce qui n’est pas vraiment prévu dans la boussole numérique pour 2030, qui est censée constituer le plan d’action de l’Union en la matière.

Il faut donc une réglementation exigeante, mais aussi une formation et une information de tous, pour ne pas se laisser dominer par une élite technologique seule capable de décider de notre avenir, ainsi qu’un investissement dans la recherche et un soutien assumé à notre écosystème européen, grâce à un Buy European Act : tel est le triptyque pour lequel je ne cesse de plaider.

La maîtrise des technologies les plus avancées est devenue un enjeu géopolitique. Cette approche n’est donc pas du protectionnisme ; c’est la seule manière de promouvoir un monde fondé sur nos valeurs fondamentales, un monde qui n’exprime ni le modèle business above all de la big tech – le profit avant la sécurité – ni le modèle du contrôle social par le parti communiste chinois.

L’Europe doit aussi peser dans les instances mondiales où s’élaborent les protocoles et les standards. Elle doit peser, monsieur le ministre, dans l’élaboration du Pacte numérique mondial proposé par les Nations unies pour 2024.

Ce cadre d’engagement universel, au sujet duquel j’ai défendu, au nom de l’Assemblée parlementaire de la francophonie (APF), un rapport devant l’Organisation internationale de la francophonie (OIF), doit absolument comprendre des mesures claires en faveur d’une intelligence artificielle qui soit au service de l’humain, fiable et éthique. Il y a là un enjeu de civilisation. (Mme Sylvie Robert et M. André Gattolin applaudissent.)