img_pub
Rubriques

Pour empêcher une apocalypse de l'IA

NEW YORK – Les dernières avancées de l'intelligence artificielle sont tout à fait saisissantes. L'IA transforme presque chaque secteur de la société: les transports, la médecine ou encore la défense. Ainsi il faut donc réfléchir à ce qu'il adviendra lorsque l'IA sera encore plus avancée qu'elle ne l'est déjà.

Le 21 mai 2018 à 15h39

L'opinion apocalyptique consiste à dire que les machines gérées par l'IA vont surpasser l'humanité en intelligence, prendre le contrôle du monde et finir par tous nous tuer. Ce scénario est très vivace en science-fiction, bien qu'il soit assez facile à écarter, étant donné que les humains maintiennent un contrôle total sur l'IA. Mais de nombreux experts en matière d'AI prennent la perspective apocalyptique au sérieux, à juste titre. Le reste de la société devrait en faire de même.

Pour comprendre ce qui est en jeu, il faut se rappeler de la distinction entre "l'IA au sens strict" et "l'intelligence artificielle générale" (IAG). L'IA au sens strict peut fonctionner seulement dans un ou dans quelques domaines à la fois: ainsi bien qu'elle puisse surpasser les humains dans certaines tâches choisies, elle reste sous contrôle humain.

L'IAG, en revanche, peut raisonner sur une large gamme de domaines et pourrait ainsi répliquer de nombreuses qualifications intellectuelles humaines, tout en maintenant tous les avantages des ordinateurs, notamment un parfait rappel de mémoire. Couplée à un matériel informatique sophistiqué, l'IAG pourrait dépasser la cognition humaine. En fait, il est difficile de concevoir une limite supérieure au niveau d'avancement que l'IAG pourrait atteindre.

En l'état actuel des choses, la plus grande partie de l'IA s'entend au sens strict. En effet, même les systèmes actuels les plus avancés ne disposent que de quantités limitées de généralité. Par exemple, alors que le système AlphaZero de Google DeepMind était capable de maîtriser le jeu de go, les échecs et le shogi- ce qui en faisait alors le système le plus général par rapport à la plupart des autres systèmes d'IA, capables d'être appliqués seulement à une seule activité spécifique -il a toujours démontré des possibilités uniquement dans les confins limités de certains jeux de stratégie fortement structurés.

De nombreuses personnes bien informées écartent la perspective d'une IAG avancée. Certaines comme Selmer Bringsjord de l'Institut polytechnique de Rensselaer et Drew McDermott de l'Université de Yale, arguent du fait qu'il est impossible pour l'IA de dépasser à l'humanité en intelligence. D'autres comme Margaret A. Boden de l'Université du Sussex et Oren Etzioni de l'Institut d'Allen pour l'intelligence artificielle, arguent du fait que l'IA de niveau humain peut être possible dans le futur, mais qu'il est bien trop tôt pour commencer à s'en inquiéter maintenant.

Ces sceptiques ne sont pas des figures marginales, comme les excentriques qui tentent de jeter le doute sur la science du changement climatique. Il s'agit ici d'éminents spécialistes de l'informatique théorique et des domaines apparentés -et leurs avis doivent être pris au sérieux.

Pourtant d'autres éminents spécialistes -notamment David J. Chalmers de l'Université de New York, Allan Dafoe de l'Université de Yale et Stuart Russell de l'Université de Californie de Berkeley, Nick Bostrom de l'Université d'Oxford et Roman Yampolskiy de l'Université de Louisville -s'inquiètent que l'IAG puisse constituer une menace sérieuse voire même existentielle envers l'humanité. Avec autant d'experts situés des deux côtés de l'alternative, nous devrions garder un esprit ouvert.

En outre, l'IAG mobilise une importante activité de recherche et développement. J'ai récemment terminé une enquête des projets de R&D en IAG, qui en reconnaît 45 dans 30 pays sur six continents. De nombreuses initiatives actives sont basées dans des sociétés majeures comme Baidu, Facebook, Google, Microsoft et Tencent, ainsi que dans des universités très bien classées comme Carnegie Mellon, Harvard et Stanford, ainsi qu'à l'Académie chinoise des sciences. Il serait imprudent simplement de supposer qu'aucun de ces projets ne va réussir.

Une autre manière de penser à la menace potentielle de l'IAG consiste à la comparer à d'autres risques catastrophiques. Dans les années 1990, le Congrès américain a jugé bon de charger la NASA de pister les gros astéroïdes susceptibles de percuter la Terre, bien la probabilité que cela se produise soit d'environ une chance sur 5.000 par siècle. Avec l'IAG, la probabilité d'une catastrophe au cours du siècle prochain pourrait être d'une sur cent, ou même d'une sur dix, à en juger par le rythme de la R&D et par la prégnance du souci des experts.

La question est alors de savoir ce que nous pouvons y faire. Tout d'abord, nous devons nous assurer que la R&D soit conduite de manière responsable, sûre et éthique. Ceci va nécessiter un dialogue plus approfondi entre ceux qui travaillent dans le domaine de l'IA et des décisionnaires, les sociologues et les citoyens impliqués. Les personnes qui travaillent dans ce domaine connaissent la technologie et seront ceux qui vont la concevoir selon des normes agréées. Mais ils ne doivent pas décider seuls de ce que seront ces normes. De nombreuses personnes impliquées dans le développement d'applications d'IA n'ont pas l'habitude de penser aux implications sociales de leur travail. Pour que cela change, ils doivent bénéficier de perspectives extérieures.

Les décisionnaires devront également tenter de maîtriser les dimensions internationales de l'IAG. Actuellement, la plus grande partie du R&D de l'IAG a lieu aux Etats-Unis, en Europe et en Chine, mais une grande partie du code est libre de droits, ce qui veut dire que le travail peut potentiellement être effectué depuis n'importe où. Ainsi l'établissement de normes et de règles éthiques fondamentales est finalement une tâche qui incombe à la communauté internationale tout entière, bien que les plateformes de R&D risquent de prendre l'avantage dans ce domaine.

Dans une perspective d'avenir, quelques efforts pour faire face aux risques posés par l'IAG pourront venir se greffer sur des initiatives de politique déjà mises en place pour l'IA au sens strict, comme le nouveau comité bipartite Al Caucus lancé par John Delaney, un membre du Congrès démocrate du Maryland. Il existe de nombreuses opportunités de synergie entre ceux qui travaillent sur les risques à court terme de l'AI et ceux qui pensent à long terme.

Mais indépendamment du fait de savoir si l'IA au sens strict et l'IAG sont considérées ensemble ou séparément, ce qui importe le plus de notre point de vue, c'est que nous prenions des mesures constructives dès à présent, pour réduire au minimum le risque d'une catastrophe par la suite. Ce n'est pas une tâche que nous pouvons espérer accomplir à la dernière minute.

© Project Syndicate 1995–2018
Par Rédaction Medias24
Le 21 mai 2018 à 15h39

à lire aussi

Alerte météo. Averses orageuses et rafales dès ce lundi 27 avril dans plusieurs provinces
Quoi de neuf

Article : Alerte météo. Averses orageuses et rafales dès ce lundi 27 avril dans plusieurs provinces

Des averses orageuses localement fortes avec rafales sous orages et grêle locale sont attendues, les lundi et mardi (27-28 avril) dans plusieurs provinces.

Sothema : un split par cinq pour rendre le titre plus accessible en Bourse
Actus

Article : Sothema : un split par cinq pour rendre le titre plus accessible en Bourse

Sothema procédera à un split de son action le 5 mai 2026, avec une division par cinq de la valeur nominale. Une opération technique visant à améliorer l'accessibilité du titre et sa liquidité en Bourse.

Football. Pourquoi les joueurs changent d’agents ?
Football

Article : Football. Pourquoi les joueurs changent d’agents ?

Les changements d’agents sont de plus en plus courants. Un phénomène qui trouve sa source dans les aspirations des joueurs, mais aussi dans des pratiques parfois douteuses, symboles des tensions d’un marché où les trajectoires de carrière se jouent aussi en coulisses.

Les Forces spéciales marocaines participent à l’exercice multinational Flintlock 26
Defense

Article : Les Forces spéciales marocaines participent à l’exercice multinational Flintlock 26

Les Forces d’opérations spéciales marocaines ont pris part à Flintlock 26 en Côte d’Ivoire, exercice annuel d’AFRICOM réunissant plus de 30 pays pour renforcer la préparation opérationnelle, la lutte antiterroriste et la coopération transfrontalière.

Santé : 300 jeunes formés dans le cadre du programme PEPS
Communication d'entreprise

Article : Santé : 300 jeunes formés dans le cadre du programme PEPS

Les lauréats du programme PEPS ont reçu leurs attestations, marquant l’aboutissement d’un parcours de formation orienté vers les métiers de la santé. Porté par EFE-Maroc et le groupe Akdital, ce dispositif, lancé en 2025, affiche déjà des résultats concrets avec 300 jeunes formés et plus de la moitié insérés dans les cliniques du groupe.

Le Maroc condamne l’attaque armée survenue à Washington en présence de Donald Trump
Quoi de neuf

Article : Le Maroc condamne l’attaque armée survenue à Washington en présence de Donald Trump

Le Maroc a condamné l’attaque armée ayant visé une réception organisée à Washington en présence du président des États-Unis, Donald Trump, a indiqué une source du ministère des Affaires étrangères, citée par l’agence officielle MAP.

Médias24 est un journal économique marocain en ligne qui fournit des informations orientées business, marchés, data et analyses économiques. Retrouvez en direct et en temps réel, en photos et en vidéos, toute l’actualité économique, politique, sociale, et culturelle au Maroc avec Médias24

Notre journal s’engage à vous livrer une information précise, originale et sans parti-pris vis à vis des opérateurs.

Toute l'actualité