Deepfake : lecture juridique d’une technologie dangereuse

Dans cet entretien, le Pr Meriem Benis s'arrête sur la technologie de trucage d’image ou de son, dont les résultats réalistes sont surprenants et dont les risques de désinformation et autres enjeux juridiques ne sont pas négligeables.

Deepfake : lecture juridique d’une technologie dangereuse

Le 5 octobre 2023 à 14h17

Modifié 5 octobre 2023 à 18h29

Dans cet entretien, le Pr Meriem Benis s'arrête sur la technologie de trucage d’image ou de son, dont les résultats réalistes sont surprenants et dont les risques de désinformation et autres enjeux juridiques ne sont pas négligeables.

Malgré ses nombreux usages, l’intelligence artificielle a son lot de problèmes, voire de dangers, notamment ceux liés au trucage. Les techniques de déformation d’image ou de voix, appelées “deepfake”, deviennent préoccupantes.

Sur le plan juridique, de nombreuses questions se posent de facto. Comment se protéger contre ces pratiques ? Qu'en est-il de leur légalité ? Mais surtout quelles sanctions encourent les auteurs?

Pour répondre à ces interrogations, Médias24 a sollicité l’éclairage de Meriem Benis, professeur de droit à l’Université Hassan II de Casablanca.

Médias24 : Qu’est-ce que le “deepfake” et quels en sont les dangers ?

Pr Meriem Benis : Le deepfake, terme anglais qui correspond au terme français hypertrucage, s’entend comme une technique de synthèse mono ou multimédia reposant sur l'intelligence artificielle.

Elle peut servir à superposer ou fusionner des images, des fichiers vidéo ou audio existants, sur d'autres images ou fichiers vidéo ou audio, à créer un contenu artificiel sur une personne cible, à partir du comportement d'une personne source, ou même à créer artificiellement des contenus ressemblants à partir de commandes textuelles.

Autrement dit, par le biais du deepfake, des programmes sont aujourd’hui capables d’utiliser des images existantes pour générer d’autres images. À partir du moment où les algorithmes ont à leur disposition suffisamment d’images et de discours existants, des logiciels de plus en plus aisés à manier et de plus en plus efficients permettent de faire dire n’importe quoi à n’importe qui. On peut ainsi animer un visage, l’insérer dans une autre image (le face swap), créer une photo d’une personne qui n’existe pas (synthèse intégrale), etc.

Avec l’émergence d’outils résultant de l’intelligence artificielle tels les deepfakes, le risque est patent de voir foisonner pléthore de fausses déclarations, qui paraîtront très crédibles. C’est indubitablement un problème.

Bien davantage, quelqu’un qui aura été filmé en train de dire ou faire quelque chose de répréhensible pourra toujours, en l’absence d’autre source, arguer et crier au “deepfake”. Comment dès lors pourra-t-on déterminer techniquement si une image a été ou non trafiquée par ce type de programme ? Cette éventualité est loin d’être une simple hypothèse d’école ; il faudrait alors, en parallèle, mettre en place des logiciels qui seraient en mesure de détecter des défauts dans les mouvements de cils ou autres. On risque de s’acheminer vers une guerre de programme informatique contre programme informatique.

- Et si l’on s’inquiétait pour rien...

- Pour l’instant, le recours à cette technologie reste limité. Il n’est pas possible, par exemple, de générer un discours dans son intégralité : on ne peut que modifier des passages dans une déclaration.

L’image numérique bascule, par ce biais, dans le monde du faux, de la fabrication

Le risque est néanmoins réel, car comment déterminer techniquement si une image a fait ou non l’objet d’un trafic quelconque ? Si les deepfakes sont usités à large échelle pour créer et relayer de fausses déclarations, nous serions enclins à jeter le discrédit sur tous les contenus audiovisuels pour entrer dans une nouvelle ère que l’on pourrait qualifier “d’infocalypse”, où les vraies et les fausses informations se mélangeraient joyeusement, sans distinction.

Autre conséquence : toute image circulant sur les réseaux sociaux risque d’apparaître suspecte par essence, l’image numérique basculant par ce biais, dans le monde du faux, de la fabrication.

Les problématiques soulevées par l’usage des deepfakes représentent un enjeu juridique, mais également éthique.

Il semble nécessaire de mettre en place les conditions et les outils juridiques idoines, au besoin en les étoffant, afin d’accueillir, au sein de notre environnement juridique, ce modèle issu de la technologie

- Les lois en vigueur peuvent-elles sanctionner ces actes ou bien faut-il en promulguer de nouvelles, plus adaptées ?

- Il n’existe pas, en droit marocain, de cadre juridique spécifique afférent aux deepfakes. Or, dans un monde de plus en plus impacté par la technologie, les deepfakes, qui se situent aux confins de la technique et du juridique, interpellent à plusieurs niveaux.

On peut, à travers la loi sur la violence faite aux femmes ou au sein du Code de la presse, relever des dispositions éparses s’appliquant à une situation spécifique. Par exemple, pour contrer la désinformation dans le paysage médiatique, les dispositions de l’article 72 du Code de la presse marocaine punissent d’une amende de 20.000 à 200.000 dirhams quiconque a publié, diffusé ou transmis de mauvaise foi une nouvelle fausse, des allégations, des faits inexacts, des pièces fabriquées ou falsifiées attribuées à des tiers, et ce, quel que soit le moyen utilisé, ou par les différents moyens d’information audiovisuelle ou électronique, et tout autre moyen utilisant à cet effet un support électronique.

Partant, il semble nécessaire de mettre en place les conditions et les outils juridiques idoines, au besoin en les étoffant, afin d’accueillir, au sein de notre environnement juridique, ce modèle issu de la technologie. Il est, en effet, impératif de protéger les droits de la personne dont les éléments de la personnalité (apparence, voix) ont été utilisés sans consentement, mais il est également nécessaire de lutter contre la désinformation. Sécuriser et réguler l’espace numérique nécessite d’encadrer juridiquement les deepfakes au sein, par exemple, de notre Code pénal.

- Comment réagir en tant que victime ?

- En l’absence d’un cadre normatif, les victimes sont malheureusement exposées et, somme toute, absolument pas protégées. Elles ont intérêt, dans un premier temps, à faire des captures d’écran des images truquées et de porter plainte très rapidement. Il faudrait aussi penser à instaurer et favoriser un référé spécifique pour faire stopper en urgence la diffusion des fausses informations et prévoir des condamnations à des peines de prison dissuasives.

D’ailleurs, au Maroc, mais également sous d’autre cieux, la majorité des victimes sont des femmes, et le parcours de ces dernières s’apparente à un véritable parcours du combattant.

Bien que la loi relative à la lutte contre la violence envers les femmes (loi 103-13), adoptée par la Chambre des représentants le 14 février 2018, prévoit aux termes de son nouvel article 447.1 que “quiconque procède sciemment et par tout moyen, y compris les systèmes informatiques, à l’interception, l’enregistrement, la diffusion de paroles, de photos ou d’enregistrements émis dans un cadre privé ou confidentiel, sans le consentement de leurs auteurs” est puni d’un “emprisonnement de six mois à trois ans et d’une amende de 2.000 à 20.000 dirhams”, celle-ci ne protège pas suffisamment les femmes.

- Que prévoient les législations étrangères en la matière ?

- À ma connaissance, deux projets de loi adoptés récemment dans l’état de Californie se sont prononcés sur l’illégalité de certains aspects du deepfake, en interdisant tant le recours à la synthèse d'images à visée pornographique sans le consentement de la personne représentée, que la manipulation d'images de candidats politiques dans les 60 jours suivant une élection.

Quant au droit français, le sénat français a très récemment (le 4 juillet 2023) examiné un projet de loi visant à sécuriser l'espace numérique.

Le texte est en réalité, transversal (lutte contre le cyber-harcèlement, contrôle de l'âge du public de contenus pornographiques, etc.). En sus de ces éléments, deux amendements portant sur l’encadrement juridique des deepfakes ont été adoptés en vue de répondre aux dérives inhérentes à cette technique. Ces amendements se situent au carrefour du respect des droits de la personne reproduite et de l'information du public,

En effet, le premier texte prévoit de modifier l'article 226-8 du Code pénal, qui concerne les montages réalisés avec l'image ou la voix d'une personne, sans le consentement de cette dernière. L’objectif est d'élargir le périmètre de l'article 226-8 du Code pénal français, qui sanctionne déjà le fait de publier un montage avec l'image ou la voix d'une personne sans son consentement, sauf s'il est manifeste qu'il s'agit d'un montage ou que cela est expressément précisé. Les infractions auraient vocation à être sanctionnées plus lourdement encore si la publication devait intervenir par l'utilisation d'un service de communication au public en ligne.

Le second texte, qui vise à lutter contre l'utilisation spécifique de la technique pour générer des contenus pornographiques, a un objet plus précis : il vise à créer un article 226-8-1 dans le Code pénal français, relatif au fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, et présentant un caractère sexuel, ou au fait de publier, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et reproduisant l'image ou les paroles d'une personne sans son consentement, et présentant un caractère sexuel

- Les vidéos et enregistrements audio sont des preuves recevables devant un tribunal par exemple ; les technologies utilisées par les autorités compétentes sont-elles suffisantes pour détecter le vrai du faux ?

- La répression ne se situe pas sur le terrain de la technologie. Les poursuites par les autorités compétentes peuvent être diligentées sur plusieurs fronts ; ce que d’ailleurs prévoit notre arsenal actuel. Cela va de la protection de la vie privée à la protection du droit à l’image. Le droit pénal a bien naturellement vocation à s’appliquer que ce soit sur le terrain de la diffamation, de l’usurpation d’identité, de la publication et du montage d’images à des fins non autorisées… La question de la responsabilité imputable à la plateforme qui a diffusé le contenu sur le net doit également être posée.

Vous avez un projet immobilier en vue ? Yakeey & Médias24 vous aident à le concrétiser!

Si vous voulez que l'information se rapproche de vous

Suivez la chaîne Médias24 sur WhatsApp
© Médias24. Toute reproduction interdite, sous quelque forme que ce soit, sauf autorisation écrite de la Société des Nouveaux Médias. Ce contenu est protégé par la loi et notamment loi 88-13 relative à la presse et l’édition ainsi que les lois 66.19 et 2-00 relatives aux droits d’auteur et droits voisins.

A lire aussi


Communication financière

REIM Partners: Publication de la valeur liquidative exceptionnelle de l’OPCI « SYHATI IMMO SPI » au 08 avril 2024

Médias24 est un journal économique marocain en ligne qui fournit des informations orientées business, marchés, data et analyses économiques. Retrouvez en direct et en temps réel, en photos et en vidéos, toute l’actualité économique, politique, sociale, et culturelle au Maroc avec Médias24

Notre journal s’engage à vous livrer une information précise, originale et sans parti-pris vis à vis des opérateurs.