ChatGPT : domptons le miroir aux alouettes

Voilà, nous y sommes. Il n’aura fallu que deux mois de mise en service avant qu’un bouclier ne se dresse contre ChatGPT : les interdictions d’utilisation florissent. Mais est-ce là la bonne solution pour dompter cette avancée technologique ? 

Cet article a été écrit par Jérôme Berthier, membre du conseil de fondation de l’Empowerment foundation et fondateur de Deeplink.

IA générative : fonctionnement

Je sais que je l’ai déjà martelé, mais il est important de bien comprendre le fonctionnement de cet outil pour pouvoir débattre de la question. ChatGPT fait partie d’une catégorie d’intelligence artificielle dite générative. Son algorithme sert à générer du texte et, à ce titre, sa performance est incontestable : il crée l’illusion d’une encyclopédie inépuisable, accessible par une simple question. C’est très à la mode : Microsoft lance une nouvelle version de son moteur de recherche Bing avec ChatGPT intégré… et Google veut l’imiter avec Bard.

Mais attention à ce miroir aux alouettes : ChatGPT aura toujours quelques choses à vous dire, et ce d’une manière très convaincante ! En effet, son algorithme génératif basé sur le principe de « prédiction du prochain mot » lui permet de générer un texte sur le sujet que vous lui demandez, et peu importe si le contenu est vrai ou faux : ce n’est pas son objectif. Voilà pourquoi il peut vous dire que la peine de mort en Suisse est, soit encore pratiquée, soit qu’elle a été abolie, en 1874 ou en 1942 (qui est la bonne réponse), et qu’il puisse se tromper dans un calcul mathématique qu’Excel saurait faire sans problème.

La Suisse et la peine de mort, selon ChatGPT

Pourquoi donne-t-il quand même des réponses justes ? C’est un hasard ! Lors de la génération du texte, il fait un choix de probabilité qui varie selon le chemin qu’il a pris, même en posant exactement la même question. De ce fait s’il part dans une direction « juste » il continuera à compléter cette réponse avec les bons arguments. Et s’il part sur une réponse « fausse », idem. Un brin têtu, n’est-ce pas ? 😀

Illustration des chemins qu’un algorithme peut prendre

Evidemment plus il sera entraîné sur un corpus vérifié, annoté et non-biaisé, plus la probabilité qu’il prenne « le bon chemin » sera grande, même si nous ne serons pas à l’abri d’un ajout de contenu fictif en plein milieu.

Un danger à apprivoiser

Une fois qu’on comprend son principe de fonctionnement, on réalise à quel point il est dangereux qu’un juge s’appuie sur ChatGPT pour donner un verdict, qu’une entreprise propose de remplacer un avocat pour plaider un cas dans un procès, ou qu’on s’extasie devant un ChatGPT qui réussit un examen de médecine. Dans ces trois cas, on fait confiance à un apprenti sorcier qui n’a pas pour vocation de faire juste, mais simplement de dire des choses !

Ces exemples ne sont que le sommet de l’iceberg. Beaucoup sont tombés dans le piège et j’ai pu lire un grand nombre d’articles incroyablement faux mettant en lumière un des grands défis de notre société : l’illusion de la vérité et du savoir. Lors de la popularisation de Wikipedia, une dynamique similaire s’était mise en place, voyant même des journaux sérieux relayer des faussetés et contrevérités écrites par des inconnus dans cette encyclopédiecollaborative. De la même façon que de nombreuses personnes font totalement confiance à l’ordre des résultats de Google, oubliant au passage qu’il y a un jeu algorithmique et des publicités qui changent la donne. Sommes-nous prêts à faire aveuglement confiance à un ChatGPT qui pourrait vraiment dire n’importe quoi ?

L’interdiction comme garde-fou ?

Face à un phénomène qui nous dépasse tous et où on sent que quelque chose ne tourne pas rond, est trop facile, beaucoup de décideurs proposent aujourd’hui l’interdiction de son utilisation. Ceci est notamment vrai dans certaines écoles.

Je pense que c’est une erreur car d’un côté l’interdiction n’a jamais empêché l’utilisation (prenez l’exemple du tabac, de l’alcool, des drogues et bien d’autres) et de l’autre c’est totalement illusoire car de plus en plus d’applications intègrent ce type de technologie, Microsoft, lui-même, compte l’intégrer nativement dans la suite office Word. On ne va donc pas interdire le web, Microsoft et toutes les applications qui utilisent ChatGPT ! Ce n’est pas réaliste.

Je suis convaincu que la solution réside dans l’éducation et l’explication : ChatGPT peut être un outil extraordinaire si on l’utilise pour quoi il a été conçu. C’est également le cas de nombreux autres outils d’IA qui sont sur le point d’émerger.

On pourrait imaginer que ChatGPT devienne une aide précieuse dans l’enseignement. Si un étudiant l’utilise en connaissance de cause et qu’il doit vérifier l’entièreté de ce qui est généré, voir reformuler des affirmations fausses, est-ce que son niveau d’apprentissage et de compréhension du sujet ne serait-il pas meilleur ? Est-ce que les professeurs n’atteindraient pas le Saint Graal de l’éducation : éveiller nos esprits critiques en se plongeant dans un sujet plutôt que de nous transformer en robots, répétant par cœur sans réfléchir ?