Margrethe Vestager

Vice-présidente exécutive de la Commission européenne.

Comment penser la politique de l'IA

Le 20 mars 2024 à 14h31

Modifié 20 mars 2024 à 14h31

L’IA n’est ni bonne, ni mauvaise en soi ; tout dépend de la manière dont elle est utilisée. Elle marquera l’entrée dans une nouvelle ère mondiale de complexité et d’ambiguïté.

BRUXELLES – Dans la ville de Poznan, située 325 kilomètres à l’est de Varsovie, une équipe composée de chercheurs en technologie, d’ingénieurs et de professionnels de l’enfance travaille actuellement sur une petite révolution. Son projet commun, baptisé "Insension", utilise la reconnaissance faciale assistée par l’intelligence artificielle pour aider les enfants atteints de handicaps intellectuels profonds et de handicaps multiples à interagir avec les autres ainsi qu’avec leur environnement, afin qu’ils puissent se connecter davantage au monde qui les entoure. Cette initiative témoigne de la puissance de cette technologie aux avancées rapides.

À plusieurs milliers de kilomètres de là, dans les rues de Pékin, la reconnaissance faciale appuyée par l’IA est utilisée par les autorités publiques pour suivre les déplacements quotidiens des citoyens, et maintenir ainsi l’ensemble de la population sous une surveillance étroite. La technologie est la même, mais le résultat fondamentalement différent. Ces deux exemples résument le défi global de l’IA : la technologie sous-jacente n’est ni bonne, ni mauvaise en soi ; tout dépend de la manière dont elle est utilisée.

C’est cette dualité fondamentale de l’IA qui nous a guidés dans l’élaboration de l’Artificial Intelligence Act européen, une réglementation axée sur les utilisations de l’IA, plutôt que sur la technologie elle-même. Notre approche se résume à un principe simple : plus l’IA est risquée, plus les obligations seront élevées pour ceux qui la développent.

L’IA nous permet d’ores et déjà d’exécuter chaque jour un certain nombre de fonctionnalités banales – qu’il s’agisse du déverrouillage de notre téléphone, ou de recommandations de chansons en fonction de nos préférences. Nous n’avons tout simplement pas besoin de réglementer la totalité de ces utilisations. Mais l’IA joue également un rôle de plus en plus important aux moments décisifs de la vie. Lorsqu’une banque examine la situation d’une personne pour déterminer si elle est admissible à un prêt immobilier, il n’est pas seulement question de crédit ; il s’agit de permettre à cette personne de vivre sous un toit, de pouvoir se bâtir un patrimoine et une sécurité financière. Il en va de même lorsque les employeurs utilisent un logiciel de reconnaissance des émotions en complément de leur processus de recrutement, ou lorsque l’IA est utilisée pour détecter des maladies dans les imageries cérébrales. Il ne s’agit plus ici d’une simple visite médicale de contrôle, mais littéralement d’une question de vie ou de mort.

Dans ce type de cas, la nouvelle réglementation impose des obligations significatives aux développeurs d’IA. Ceux-ci doivent se conformer à une série d’exigences – exécution d’évaluations des risques, garanties quant à la solidité technique, supervision humaine, ou encore cybersécurité – avant de pouvoir lancer leurs systèmes sur le marché. Par ailleurs, l’Artificial Intelligence Act interdit toutes les utilisations qui s’inscrivent clairement à l’encontre de nos valeurs les plus fondamentales. L’IA ne peut par exemple pas être utilisée à des fins de "notation sociale", de même que sont interdits les procédés subliminaux visant à manipuler des catégories de population vulnérables, telles que les enfants.

Certains verront dans ce contrôle de haut niveau un frein à l’innovation. En Europe, nous voyons les choses différemment. Pour commencer, la mise en place de règles intemporelles confère la certitude et la confiance dont les innovateurs technologiques ont besoin pour développer de nouveaux produits. Mais plus important encore, l’IA n’atteindra son immense potentiel positif qu’à condition que les utilisateurs finaux lui fassent confiance. En la matière, plus encore que dans de nombreux autres domaines, la confiance constitue le moteur de l’innovation. En qualité de régulateurs, nous pouvons créer les conditions permettant à cette technologie de prospérer, en respectant notre devoir de garantie de la sécurité et de la confiance du public.

Loin de remettre en question l’approche européenne de prise en considération des risques, le récent boom des modèles d’IA à usage général (GPAI), tels que ChatGPT, lui confère encore davantage de pertinence. Bien que ces outils permettent aux escrocs du monde entier de créer des e-mails de phishing étonnamment crédibles, les mêmes modèles pourraient également être utilisés pour détecter du contenu généré par l’IA. En l’espace de quelques mois seulement, les modèles GPAI ont propulsé la technologie jusqu’à un niveau inédit quant aux opportunités qu’elle offre, et aux risques qu’elle introduit.

Évidemment, l’un de ses risques les plus redoutables réside en ce que nous pourrions finir par ne plus parvenir à distinguer ce qui est faux de ce qui est réel. D’ores et déjà, les "deepfakes" générés par les modèles GPAI provoquent des scandales qui font la une des journaux. Fin janvier, de fausses images pornographiques de l’icône mondiale de la pop, Taylor Swift, ont atteint 47 millions de vues sur X (anciennement Twitter), avant que la plateforme ne suspende enfin le compte de l’utilisateur qui les avait partagées.

Il n’est pas difficile d’imaginer les dégâts que peuvent provoquer de tels contenus sur l’équilibre mental d’une personne. Mais s’ils étaient appliqués à une échelle plus vaste encore, dans le contexte d’une élection par exemple, ils pourraient menacer des populations entières. L’Artificial Intelligence Act apporte une réponse simple à ce problème, en imposant que le contenu généré par l’IA soit étiqueté comme tel, de sorte que tout le monde sache immédiatement qu’il n’est pas réel. Cela signifie que les fournisseurs devront concevoir des systèmes de manière à ce que l’audio, la vidéo, le texte et les images synthétiques soient marqués dans un format lisible par machine, et détectables en tant que contenus générés ou manipulés artificiellement.

Les entreprises auront l’opportunité de mettre leurs systèmes en conformité avec la réglementation. Si elles ne s’y conforment pas, des amendes seront prononcées à leur encontre, qui oscilleront entre 35 millions € et 7% du chiffre d’affaires mondial annuel (le montant le plus élevé) pour les violations relatives à des applications d’IA interdites, entre 15 millions € et 3% pour les violations d’autres obligations, et entre 7,5 millions € et 1,5% pour la propagation d’informations incorrectes. Mais les sanctions ne se limitent pas à des amendes. Les systèmes d’IA non conformes seront également interdits de mise sur le marché au sein de l’UE.

L’Europe œuvre à l’avant-garde de la réglementation de l’IA, et nos efforts contribuent d’ores et déjà à l’élaboration de réponses ailleurs dans le monde. De plus en plus de pays adoptant des cadres similaires – dont les États-Unis, qui collaborent avec l’Europe sur "une approche de prise en considération des risques en matière d’IA, aux fins de technologies d’IA fiables et responsables" – nous sommes convaincus que notre approche générale est la bonne. Il y a quelques mois seulement, cette approche a inspiré les dirigeants du G7, qui ont convenu d’un Code de conduite en matière d’intelligence artificielle, sans précédent. Les garde-fous internationaux de ce type contribueront à protéger les utilisateurs, le temps que les obligations légales commencent à s’appliquer.

L’IA n’est ni bonne, ni mauvaise, mais elle marquera l’entrée dans une nouvelle ère mondiale de complexité et d’ambiguïté. C’est ce que reflète la réglementation que nous avons élaborée en Europe. Probablement plus que tout autre texte législatif de l’UE, elle a nécessité la détermination consciencieuse d’un juste équilibre – entre pouvoir et responsabilité, entre innovation et confiance, et entre liberté et sécurité.

© Project Syndicate 1995–2024

LIRE AUSSI

Intelligence artificielle, le grand remplacement

Vous avez un projet immobilier en vue ? Yakeey & Médias24 vous aident à le concrétiser!

A lire aussi


Communication financière

Upline Capital Management: FCP “AL AMAL” Rapport du commissaire aux comptes exercice du 1er Janvier 2023 au 31 Décembre 2023

Médias24 est un journal économique marocain en ligne qui fournit des informations orientées business, marchés, data et analyses économiques. Retrouvez en direct et en temps réel, en photos et en vidéos, toute l’actualité économique, politique, sociale, et culturelle au Maroc avec Médias24

Notre journal s’engage à vous livrer une information précise, originale et sans parti-pris vis à vis des opérateurs.