
Professeur à l'Ecole polytechnique fédérale de Lausanne (EPFL).

Sept idées fausses sur ChatGPT et l’IA
Le 9 mars 2023 à 11h54
Modifié 9 mars 2023 à 17h52TRIBUNE. "Nous lisons et entendons beaucoup d’affirmations sur l’IA, en particulier depuis l’avènement de ChatGPT. Beaucoup sont vraies. D’autres sont fausses." L’éclairage de Rachid Guerraoui, professeur à l’Ecole polytechnique fédérale de Lausanne.
- ChatGPT est une révolution technologique.
Pas vraiment. Quand vous commencez à écrire un message sur WhatsApp, ce dernier complète vos mots. Parfois il se trompe. Mais parfois il a raison. Si vous tapez "Bon", il complète par "jour" pour obtenir "Bonjour". Si vous continuez par "co", il complète par "comment". Comment fait-il pour deviner ce que vouliez écrire ? C’est très simple. Il consulte ce que vous et d’autres avez écrit après "Bon" en début de phrase. Et la plupart du temps, les gens écrivent "jour" après "Bon". WhatsApp vous propose les mots qui ont été les plus utilisés et qui commencent par "Bon" dans les conversations précédentes.
ChatGPT fait la même chose à plus grande échelle. Quand vous lui posez une question, il évalue les mots qui sont le plus souvent apparus avec les mots de votre question en consultant tout ce qu’il a vu sur Internet jusqu’à 2021. Si vous écrivez "combien font 2+2 ?", il consulte son immense mémoire et trouve plein de phrases où des gens ont écrit "2+2 font 4" (il ne fait pas le calcul : il se rappelle juste). La prouesse consiste à stocker le contenu de millions de pages sur Internet.
Peut-on vraiment parler de révolution technologique ? Pas sûr. C’est surtout une révolution sociologique car, pour la première fois, un tel outil a été mis à la disposition du grand public et semble avoir déjà été utilisé par des centaines de millions de personnes à travers le monde. C’est cela la nouveauté.
- ChatGPT signifie la fin de Google.
Probablement pas. Il signifie peut-être la fin du verbe "googler". Jusqu’à récemment, quand on cherchait des informations, on allait sur un moteur de recherche, comme celui de Google, et on tapait sur notre clavier les mots-clés de notre recherche, parfois sous forme de question. On "googlait" ces mots. On recevait en réponse une liste classée de liens vers les pages Web les plus "populaires" mentionnant ces mots-clés. Nous devions ensuite faire nous-même un travail de synthèse. ChatGPT fait cette synthèse pour nous. Il nous donne une réponse sous forme de texte quasiment "prêt à l’emploi". Vous pouvez même lui demander de vous donner un texte à la manière de Stephen King, d’un cabinet de conseil ou d’un enfant de dix ans. Et il s’exécutera. C’est clairement une étape plus avancée que le fait de "googler", verbe que l’on n’utilisera probablement plus jamais dans un futur proche.
Mais l’entreprise Google (ou Alphabet) ne semble pas menacée pour autant. Elle est prête à lancer elle-même un concurrent de ChatGPT, BARD, qui aurait comme particularité de citer ses sources. Même si ce dernier n’est pas encore au point, la bataille est loin d’être terminée. Google dispose d’une force de frappe énorme du fait des outils dont il dispose (comme YouTube), de toutes les données récoltées ces dernières années et surtout de ses dizaines de milliers de chercheurs dans le numérique.
- ChatGPT rend l’enseignement futile.
Quand la calculette a été popularisée, beaucoup annonçaient la fin de l’enseignement du calcul. Ils se sont trompés. Tout comme se sont trompés ceux qui pensaient que l’avènement des dictionnaires allait profondément bouleverser l’enseignement des langues. Bien sûr qu’il faut adapter l’enseignement et son évaluation à chaque fois que de nouveaux outils apparaissent. Il faudrait apprendre aux élèves à travailler sans et avec ChatGPT. Comme nous l’avons fait avec la calculette et le dictionnaire.
Même si, dans la vie professionnelle, personne n’est forcé de faire des calculs sans calculette, il est crucial d’apprendre aux enfants à calculer par eux-mêmes. Cela, d’après les spécialistes du cerveau, permet de créer des connexions entre les neurones (les vrais, par les artificiels) qui permettront ensuite à l’enfant de résoudre d’autres problèmes plus complexes. Même s’il est vraisemblable que dans l’avenir, nous utiliserons des outils tels que ChatGPT pour générer la première version de nos textes, il est crucial de connaître les règles de la grammaire et de savoir rédiger ; le but étant de ne pas devenir stupide quand la machine, elle, devient intelligente. Par ailleurs, il est crucial d’apprendre à travailler avec de nouveaux outils tels que ChatGPT. Comment poser les bonnes questions pour en faire le meilleur usage ? Mais surtout, comment savoir si le texte généré par ChatGPT est vrai et comment remonter à ses sources ? Et puis ne l’oublions pas, la calculette et le dictionnaire se trompent rarement. ChatGPT ne se préoccupe pas de la vérité. Il se trompe très souvent.
Cela s’appliquera au métier de journaliste, d’avocat, mais aussi de programmeur. En effet, ChatGPT, peut aussi générer un programme informatique. Cela n’est pas si étonnant au vu des milliards de lignes de code qui existent sur Internet. Il n’a qu’à se servir pour vous proposer le programme qui se rapproche le plus de vos besoins. Mais la probabilité que le programme fasse exactement ce que vous voulez est faible. Il faudra d’une part vérifier que le programme proposé et juste, et d’autre part l’adapter à vos besoins spécifiques. Il reste donc du travail.
- ChatGPT est le futur de l’intelligence artificielle.
Cette phrase a l’avantage de rassembler deux mots très en vogue actuellement et permettra d’attirer l’attention de vos interlocuteurs si vous l’affirmez dans un salon. C’est un peu comme pour le titre de cet article. Si j’avais écrit "Idées fausses sur les outils conversationnels et le numérique", vous n’en n’auriez probablement pas commencé la lecture. C’est pour cela que je continuerai à utiliser le terme IA dans les questions traitées ci-dessous, au lieu de dire "machine" ou "numérique". Mais dire que ChatGPT est le futur l’IA est faux.
Alan Turing, dix ans après avoir conçu le modèle de l’ordinateur moderne et inventé la science informatique (ou le numérique) en 1936, a posé la question "la machine peut-elle penser ?". En essayant d’expliquer le sens de la question, il a défini ce que l’on a alors appelé l’intelligence artificielle : l’IA. L’IA est la capacité d’une machine à résoudre un problème que seul l’humain pensait pouvoir résoudre.
L’IA ne signifie pas qu’une machine essaye de résoudre des problèmes à la manière d’un humain. Elle signifie, pour la machine, résoudre un problème considéré comme difficile et réservé à l’intelligence humaine. C’est comme l’avionique : quand Airbus fabrique un avion, il s’en fiche qu’il fonctionne comme un oiseau et ne vas pas essayer de lui coller des plumes. Airbus veut juste faire voler son avion le plus rapidement possible et en consommant le moins d’énergie possible. Dans le cadre de l’IA, même si on parle par exemple de réseau de neurones, en fait, on est très loin du fonctionnement du cerveau humain.
Il y a quelques décennies, quand la machine a battu le champion du monde des échecs, on a dit que c’était de l’IA. Nous pensions que seul l’humain pouvait jouer aux échecs. Aujourd’hui, plus personne ne parlerait d’IA pour un jeu d’échecs sur son téléphone. Dans quelques années, plus personne ne parlera d’IA pour un outil conversationnel comme ChatGPT. C’est comme la musique des jeunes. A une époque, c’était le jazz, puis le rock, puis le reggae, puis la techno, etc.
- L’IA ne dépassera jamais l’homme.
La machine dépasse déjà l’humain dans plein de domaines. Elle calcule beaucoup plus vite. Elle a une mémoire beaucoup plus grande. Elle le bat aux échecs, au jeu de Go, au Poker, à "Question pour un Champion", au Bridge et à bien d’autres jeux dits "intelligents". Elle peut déceler à partir d’une photo un cancer de la peau de manière beaucoup plus fiable que la meilleure équipe de dermatologues du monde. La raison est qu’elle a pu voir des millions de telles photos et qu’elle se souvient de tous les diagnostics qui ont été faits et peut donc en déduire le plus probable (comme quand elle "devine" le prochain mot dans ChatGPT).
Là où la machine ne dépasse pas l’Homme, c’est dans ce que l’on appelle parfois "le bon sens". C’est-à-dire la capacité à prendre en compte de nombreux éléments parfois très différents et venant de contextes hétérogènes (certains parlent d’IA "forte" par opposition à une IA "faible" plus spécialisée). Une machine peut clairement analyser une fracture de l’épaule beaucoup mieux qu’un radiologue. Mais qu’en est-il de la décision d’opérer ou pas ? Beaucoup de paramètres entrent en jeu. Il y a des paramètres logistiques. Y a-t-il de la place à l’hôpital ? La patiente est-elle bien assurée ? L’anesthésiste est-il disponible ? Ces éléments peuvent être pris en compte par la machine assez facilement. Mais qu’en est-il de l’état de la patiente ? Au-delà de son âge et de son état physique, veut-elle encore jouer au volley après une fracture de l’épaule ? Si ce n’est pas le cas, peut-être vaut-il mieux ne pas opérer et laisser l’os se remettre tout seul, même s’il y a un risque de ne pas récupérer toute la mobilité de l’épaule. Si elle est très motivée, et si elle veut rejouer au volley, peut-être est-elle disposée à subir les effets secondaires de l’opération. C’est là où le médecin peut beaucoup mieux sentir la motivation du patient qu’une machine. Ce que l’on appelle parfois le bon sens n’est pas encore très bien pris en compte par la machine.
- Il faut investir dans l’IA.
J’ai lu des dizaines de rapports stipulant qu’il fallait "investir dans l’IA". Cela s’est souvent traduit par la création de centres dédiés à l’IA, c’est-à-dire par la construction de bâtiments. Ces bâtiments restent souvent vides. D’autres fois, quand ils parlent d’investir dans l’IA, ils proposent d’acheter des machines. Mais souvent, ces machines sont inutilisées. La raison pour laquelle les bâtiments sont vides et les machines inutilisées est très simple : il est difficile de dénicher des experts dans le numérique capables de créer de l’IA, c’est-à-dire de développer des algorithmes permettant à ces machines de résoudre des problèmes que l’on pensait réservés à l’humain.
Ce n’est pas dans l’IA qu’il faut investir. C’est dans l’Homme. Il faut former des techniciens, des ingénieurs et des docteurs dans le numérique. Pour créer un nouveau logiciel qui concurrencerait ChatGPT, il faudrait avoir des connaissances en algorithmique, en bases de données, en réseaux, en apprentissage machine, en traitement du langage naturel, en sécurité, etc. Ce sont autant de domaines du numérique. Bien sûr, une fois que l’on a formé de telles compétences, il faudrait les encourager à faire des recherches. Mais à l’ère d’Internet, les bâtiments importent peu et la puissance de calcul peut être facilement obtenue en mettant des machines en réseau. C’est ce que font les gouvernements qui ont compris comment fonctionne la recherche. Ils n’investissent pas dans des bâtiments, des centres ou des machines. Mais dans des chercheurs.
- Il faut responsabiliser l’IA.
On lit souvent qu’il faut une IA responsable. Que l’IA doit-être éthique. Que l’IA ne doit être ni raciste, ni sexiste, ni homophobe, ni méprisante, etc. Cela ne veut pas dire grand-chose. Ou même pire, cela déresponsabilise les vrais responsables. L’IA n’est pas plus responsable ou irresponsable qu’une calculette ou qu’un livre. Accabler Mein Kampf veut-il dire grand-chose ? C’est Hitler le responsable. Ce n’est pas l’IA qu’il faut réguler. Mais les développeurs des programmes d’IA et les entreprises qui exploitent ces programmes. Ceux qui diffusent de fausses informations sur Internet sont responsables des conséquences. Mais le savent-ils ?
Il semble crucial de développer des programmes qui permettent de remonter à la source de ceux qui les ont développés et de ceux qui ont mis en ligne les données utilisées. Avec de tels programmes, nous pourrions alors dénicher les vrais responsables et les condamner pour leurs méfaits. Pour autant que la justice en décide ainsi.
* Rachid Guerraoui est professeur à l’Ecole polytechnique fédérale de Lausanne (EPFL), où il dirige le laboratoire de calcul réparti. Il a été affilié au Commissariat à l’énergie atomique à Saclay, à Hewlett-Packard en Californie, au Massachusetts Institute of Technology à Boston et au Collège de France. Il a été désigné membre de la Commission spéciale pour le modèle de développement au Maroc et membre du comité de pilotage de la faculté de numérique de l’Université Mohammed VI Polytechnique.