Tech

Intelligence artificielle : l’Europe finalisera-t-elle son « Pacte IA » face aux lobbys ?

Une conférence sur l’intelligence artificielle (IA), organisée ce 24 novembre par La Tribune et La Provence à Marseille, a permis de récapituler les enjeux de la future réglementation européenne qui devrait être finalisée ce 6 décembre.

© Agence APM Thierry Breton, commissaire européen en charge du Marché intérieur, à l’AIM Marseille 2023
© Agence APM Thierry Breton, commissaire européen en charge du Marché intérieur, à l’AIM Marseille 2023

L’Union européenne devrait s’illustrer une nouvelle fois par un cadre réglementaire en faveur des technologies numériques. Le « Pacte IA », en cours de finalisation, va compléter la réglementation, largement admise, sur la protection des données personnelles (RGPD) et celles plus récente sur le marché du numérique (DMA, Digital markets act ; et DSA, Digital services act).

Réguler l’IA parait de plus en plus légitime – sauf à certains leaders du marché qui invoquent une atteinte à l’innovation et à certains intellectuels qui voudraient plus de restrictions (utilisation à l’école, surveillance des citoyens, etc.).

Thierry Breton, commissaire européen en charge du Marché intérieur, invité à ouvrir la conférence AIM (Artificial Intelligence Marseille), ce 24 novembre, s’est ainsi justifié : « Nous travaillons sur le sujet depuis près de quatre ans, avec deux objectifs : promouvoir l’innovation et donner à l’Europe les moyens de développer ce secteur technologique » (cf. les 7 milliards d’euros d’investissements prévus dans EuroHPC en France et en Allemagne « les plus puissants calculateurs exaflopiques au monde »). « Des règles s’imposent, comme un code de la route, mais sans être trop contraignantes. Il faut certaines limites, car il peut y avoir des conséquences pour l’ensemble de notre vie quotidienne. Et il faut faciliter les investissements ».

L’Europe sera-t-elle donc pionnière, cette fois encore ? « En Chine, c’est une régulation étatique ; ce n’est pas ce que nous voulons. Aux Etats-Unis, la Chambre des représentants et le Sénat ne parviennent pas à se mettre d’accord ; ils demandent aux géants du secteur de prendre des engagements volontaires. Dans le business, on peut imaginer le résultat… ».

Une évaluation de quatre catégories de risques

La Commission européenne a travaillé avec les co-législateurs - le Parlement européen et le Conseil européen (les chefs d’Etat) : « Le Pacte IA résulte d’une très large consultation - chercheurs, entreprises, Etats, ONG. Il est basé sur une évaluation de quatre catégories de risques, et conduit à des restrictions. Ainsi, par exemple, sera interdit le ‘social scoring’ » [Ndlr : système de notation des personnes, envisagé par la Chine].

L’enjeu principal du Pacte IA est d’encadrer l’usage des données, sans empêcher l’innovation : « Il faut déterminer quelles données pourront être utilisées dans les traitements IA - celles de la santé, celles des collectivités, etc. - et dans quelles conditions, en sachant à qui ces données appartiennent. L’Europe est le seul continent, le seul marché homogène à avoir commencé par adopter un Data Act », souligne Thierry Breton.

Deux ou trois points à finaliser

Le 23 juin dernier, après amendements, le Parlement a adopté un texte sur l’IA qui a fait l’objet d’une navette de discussions avec la Commission. Et ce 6 décembre, un ultime « trilogue » de négociations se tient entre le Conseil européen, la Commission et le Parlement.

« Il reste encore deux ou trois points à clarifier », a admis le commissaire européen.

L’un d’eux porte sur la gouvernance et un autre sur l’encadrement des « modèles de fondation » (foundation models) - ces très larges systèmes de modélisation utilisées par l’IA générative (175 milliards de paramètres pour ChatGPT 3).

Mi-novembre, en effet, au moins trois pays - la France, l’Allemagne et l’Italie - ont notifié leur désaccord à la Commission en invoquant des freins possibles à l’innovation pour les européens, alors que les géants américains n’auront pas de contraintes.

Thierry Breton le reconnaît : dès la première phase du projet, les applications de l’IA à risque avaient été prises en compte, mais « on ne parlait pas encore de l’IA générative ».

Selon lui, il faut prévenir les « risques systémiques » pouvant provenir des très grands systèmes de modélisation (anomalies, manipulations, cybercriminalité…) « A partir de certains seuils, il faudra appliquer des contraintes supplémentaires, comme pour les banques face aux risques de faillites sur leur marché ».

Il ajoute : « Dans le cadre du règlement DSA [sur le commerce électronique], nous comptons 19 plateformes « systémiques » ; elles peuvent connecter jusqu’à 45 millions de personnes, soit 10% de la population. Elles ont donc des obligations supplémentaires en matière de contenus et produits illicites ». Il en est de même pour le règlement DMA ( qui encadre les plateformes « contrôleurs d’accès » à Internet). « C’est une vision ouverte. Ce n’est pas contre l’innovation. Au contraire ».

L’intérêt général face aux lobbys

S’agit-il de contrer des groupes de pression ? «Je mène des combats contre les lobbys depuis quatre ans, contre ceux qui ont des intérêts particuliers, les grandes plateformes, surtout américaines. Clairement, elles ont tout fait pour nous empêcher de construire notre régulation. Finalement, nous avons réussi ; nous sommes un grand continent et désormais cette Europe puissante réussit à se mettre d’accord pour aligner ses intérêts ». Et d’ajouter - en visant OpenAI (contrôlée par Microsoft, qui vient d’imposer le retour de Sam Altman à sa tête) ou encore la start-up française Mistral AI devenue une « licorne » : « Il y a des entreprises très expertes dans leur domaine, mais certaines défendent leurs intérêts particuliers. Nous, nous défendons l’intérêt général ». A suivre.

Pierre MANGIN