Ahmed Faouzi

Ancien ambassadeur. Chercheur en relations internationales.

L’intelligence artificielle n’aime pas les Palestiniens

Le 12 avril 2024 à 9h34

Modifié 12 avril 2024 à 9h34

A Gaza, le monde assiste à l'irruption dévastatrice de l'IA dans les guerres. Une évolution effarante qui provoque de nombreuses condamnations.

Le jour de Aïd Al-Fitr, trois des enfants du chef du bureau politique de Hamas Ismaïl Haniyeh, ainsi que ses petits-enfants, ont été tués instantanément à Gaza par un raid israélien utilisant, selon toute vraisemblance, l’intelligence artificielle pour leur repérage et leur exécution. Quelques jours auparavant, c’est le même modus operandi dont les victimes étaient cette fois-ci sept humanitaires travaillant pour l’organisation World Central Kitchen.

Pour cette dernière opération, l’armée israélienne a reconnu avoir commis "une grave erreur et regretté une frappe non-intentionnelle". Parce que les victimes portaient la nationalité de certains pays occidentaux, l’émotion fut, comme d’habitude intense. Le nombre élevé de victimes palestiniennes durant la guerre de Gaza semble ne plus trop émouvoir grand monde en Occident. À Gaza, l’utilisation excessive et incontrôlée des armes munies de l’IA par Israël a détruit 60% des infrastructures, fait déplacer 85% de la population, et réduit la presque totalité des habitations en amas de pierres.

La boutade provocatrice lancée un jour par Elon Musk sur l’intelligence artificielle, la qualifiant de plus dangereuse que l’arme nucléaire, prend ici tout son sens. Le secrétaire général des Nations-Unies Antonio Guterres, prenant acte de la situation désastreuse à Gaza, a confirmé ces soupçons, lors de son discours prononcé le 5 avril. Il s’est dit profondément perplexe et choqué par les informations reçues, qui faisant état de l’utilisation par Israël de l’IA pour identifier et éliminer aussi bien les combattants que des civils palestiniens.

Guterres a dénoncé fortement à cette occasion le fait que des décisions de vie ou de mort soient déléguées froidement à des logarithmes, et ce sans états d’âme. La technologie développée par Israël dans ce domaine, révélée par plusieurs sources concordantes, utilise en effet des outils automatiques et des logiciels, pour identifier et éliminer physiquement des cibles à un rythme de plus en plus effréné et rapide, sans tenir compte des populations civiles innocentes et des dommages collatéraux.

Guterres a exprimé lors de ce discours ses vives inquiétudes suite aux informations reçues sur les pratiques de l’armée israélienne utilisant l’IA comme outil pour identifier et cibler des civils palestiniens. Ces attaques se déroulaient de surcroit selon lui dans des zones résidentielles densément peuplées, ce que les législations internationales interdisent formellement. Bien qu’annoncées dans des termes courtois, ces révélations constituent, en réalité, de graves accusations portées contre le gouvernement de Benjamin Netanyahou, et pour lesquelles Israël devrait un jour rendre compte.

Ces accusations ont été corroborées par des médias américains et britanniques, qui s’appuyaient sur des informations fournies cette fois-ci par des officiers militaires israéliens. Selon eux, les attaques israéliennes ont usé à l’excès l’IA, augmentant ainsi le nombre des victimes collatérales durant la guerre en cours à Gaza. Les logarithmes, se basant sur les données collectées instantanément, éliminaient par eux-mêmes toute personne sélectionnée, et représentant un danger.  À l’évidence, ils allaient au-delà, détruisant d'autres cibles chez la population civile sans validation par une décision humaine.

Dans une enquête révélée par le New-York Post, le programme israélien Lavender avait repéré 37.000 cibles à éliminer à Gaza. Pour chaque cible, le journal souligne qu’il faudrait ajouter un minimum de 15 à 20 victimes collatérales qui souvent, et par malchance, s’y trouvent à proximité de la cible visée. Ce ratio peut aller, selon ces mêmes sources, jusqu’à 100 personnes civiles tuées pour un seul membre de Hamas éliminé. Dans sa guerre à Gaza, Israël avait testé et fait usage d’autres programmes comme celui appelé The Gospel.

Selon ces mêmes sources, Gospel avait identifié en janvier dernier 27.000 cibles à détruire, nombre considérable s’il en est compte tenu de la forte densité humaine dans cette prison à ciel ouvert qu’est Gaza. Ce nouvel outil hypersophistiqué sélectionne ses objectifs pour effectuer des attaques au-delà des combattants, infligeant des dommages importants aux civils. Les soldats israéliens qui ont alerté l’opinion internationale ont informé que ces nouvelles technologies israéliennes sont en train de transformer ce système en une fabrique d’assassinat de masse.

Juste après l’attaque du Hamas du 7 octobre dernier, le journal Le Monde du 14 décembre révélait pour sa part le recours assumé de l’armée israélienne à l’intelligence artificielle pour maximiser et assurer sa suprématie. Le quotidien français présente l’IA comme l’un des outils de ciblage dans les campagnes de frappes aériennes sur la bande de Gaza. Certains anciens membres de l’armée israélienne confirmaient là aussi, l’emploi de logiciels capables de proposer des cibles à une vitesse inédite, à partir d’une masse de données hétérogènes.

L’utilisation par Israël de l’IA, arme létale non encore règlementée à l’échelle internationale, est à l’évidence derrière le nombre impressionnant des victimes civiles palestiniennes à Gaza comme en Cisjordanie. Dans cette guerre asymétrique, de David contre Goliath, une grande partie de victimes civiles sont des enfants, femmes et vieillards. Alors que l’utilisation de l’IA dans l’armement était censée rendre les armes plus précises dans l’atteinte des cibles militaires, nous voilà devant une réalité crue des dommages inconsidérés portés essentiellement par des civils innocents et désarmés.

Jusqu’à présent, le système des armes autonomes lié à l’IA était peu déployé sur le champ des guerre, et quand il l’était, il ne visait que les cibles militaires, loin de tout autre objectif civil. Avec l’utilisation de l’IA lors de la guerre de Gaza en 2021, puis à une plus grande échelle avec celle en cours maintenant, la communauté internationale, et à sa tête le secrétaire général de l’ONU, tire la sonnette d’alarme sur les graves conséquences qui en découlent pour la paix mondiale.

L’usage excessif et incontrôlé de ces nouvelles technologies présente un réel danger à l’équilibre mondial. Il devient par conséquent urgent d’en réglementer l'emploi et les champs d’application pour pouvoir contenir rapidement ses dangers. Par le passé, l’ONU a su encadrer et règlementer les armes chimiques, biologiques, ou les mines anti-personnel, qui ont été drastiquement réglementées pour les mêmes raisons. Il est temps de se pencher sérieusement sur l’irruption de l’IA dans l’armement moderne, pour procéder également à sa régulation, dans l’objectif de protéger les civils d’abord, et de ne pas envenimer davantage les conflits internationaux ensuite.

Le danger de l’IA militaire est son autonomie d’action. Si les armes conventionnelles sont utilisées sous l’étroite supervision d’un être humain, qui peut à tout moment les désactiver en temps voulu, il en va tout autrement avec les armes se basant sur l’IA. Celle-ci décide par elle-même des cibles et du nombre de personnes à neutraliser. Elle les exécute, en outre, sans état d’âme ou remords, avec aisance et rapidité, et surtout sans tenir compte des victimes collatérales.

Ces nouvelles technologies offrent donc des avantages certains au niveau militaire par la célérité et l’efficacité de réduire les éléments adverses. Elles entrainent cependant une intensification démesurée et incontrôlée des violences, éloignant ainsi les parties en conflit des perspectives véritables de la paix. L’ancien chef de l’état-major israélien Aviv Kochavi se vantait déjà l’année dernière sur le site Ynet que l’IA qui ciblait 50 objectifs par an peut maintenant, selon lui, atteindre 100 par jour. Ce développement exponentiel et non contrôlé pourrait un jour aller au-delà de ces chiffres annoncés.

Autant les Nations-unies que le Comité international de la croix rouge CICR, ces deux institutions ont exprimé leurs inquiétudes quant à l’utilisation sauvage démesurée de l’IA dans les conflits armés. Dans un rapport publié en 2023, le CICR soulignait que les obligations juridiques et les responsabilités éthiques en temps de guerre ne doivent pas être confiées à des machines et à des logiciels. Parce qu’elles annulent le contrôle humain, ces armes autonomes suivent un processus déshumanisant qui va à l’encontre des valeurs humaines prônées par la communauté internationale.

Dans les débats en cours sur ce nouveau phénomène inquiétant de l’intégration progressive de l’IA dans les armements, révélé par la guerre à Gaza, les experts recommandent d’adopter, dans les meilleurs délais, des nouvelles règles juridiquement contraignantes. Leurs finalités seraient de parer aux risques élevés de dommages sur les civils, et éviter des guerres à venir qui pourraient utiliser abusivement et à tort ces nouvelles avancées technologiques. Cet encadrement paraît être la seule voie idoine pour assurer le respect du droit humanitaire international, dont l’un des principes est l’obligation de distinction entre les combattants et les non-combattants.

Au-delà des avantages que procurent pour le moment les technologies de l’IA à l’État d’Israël au niveau militaire, sécuritaire et dans la prévention des cyberattaques, ce pays ne peut se débiner à sa responsabilité éthique et juridique pour son usage abusif contre les civils palestiniens. L’utilisation extensive de l’IA dans la guerre à Gaza soulève à l’évidence des préoccupations somme toute légitimes au niveau du droit international, ne serait-ce qu’en raison du nombre trop élevé des morts civils enregistrés.

Outre ce constat qui découle du non-respect des recommandations du droit humanitaire, la maîtrise totale par Israël de l’IA intensifiera dans la région la course aux armements qui utilise ce nouveau savoir-faire. Les pays voisins n’auront d’autres choix que de l’acquérir et le développer à leur tour pour l’intégrer à leur arsenal. L’autre option qu'il leur reste serait de regarder ébahis ces avancées, sans volonté politique véritable pour combler ce fossé.

Vous avez un projet immobilier en vue ? Yakeey & Médias24 vous aident à le concrétiser!

A lire aussi


Communication financière

Microdata: Etats financiers annuels et rapport général des Commissaires aux comptes pour l’exercice 2023

Médias24 est un journal économique marocain en ligne qui fournit des informations orientées business, marchés, data et analyses économiques. Retrouvez en direct et en temps réel, en photos et en vidéos, toute l’actualité économique, politique, sociale, et culturelle au Maroc avec Médias24

Notre journal s’engage à vous livrer une information précise, originale et sans parti-pris vis à vis des opérateurs.