Depuis l’avènement de l’Intelligence Artificielle (IA) il y a maintenant dix ans, tout le monde débat sur la place de l’IA et de l’humain. Le questionnement va de la simple automatisation de certaines tâches jusqu’aux scénarios catastrophiques de l’aliénation de la race humaine. Depuis l’arrivée en décembre 2022 de ChatGPT et de l’IA générative, cette question est devenue plus pressante mais également plus confuse. Il est difficile de naviguer entre les affirmations des personnalités du monde de la tech, souvent préoccupées par des enjeux technologiques, et les propos d’experts auto-proclamés, qui enfoncent des portes ouvertes sans connaissances approfondies.
Pour bien comprendre ce phénomène, il faut prendre en considération un postulat de base : toute intelligence artificielle a besoin de données pour exister et pour apprendre. C’est la raison pour laquelle, bien qu’existante depuis 1950, l’IA n’a réellement émergé que dans les années 2000 : la puissance de calcul et de stockage commença à être suffisante pour transformer nos téléphones portables en micro-ordinateurs, nous permettant de générer des informations numériques et ainsi d’alimenter cette IA.
Depuis, nous entendons beaucoup parler de « machine auto-apprenante » et c’est sur cette ambiguïté que jouent les prophètes de l’apocalypse. Ils prétendent que l’IA est devenue si intelligente qu’elle peut créer et vivre sans nous. C’est faux ! Ce n’est de loin pas le cas : oui l’IA crée, mais dans un univers fermé. Elle évolue dans un monde borné par les informations qu’on lui donne. Prenez par exemple une IA qui dessinerait mais à qui vous auriez donné uniquement du blanc et du noir afin d’apprendre. Celle-ci va certainement créer des images en nuances de gris d’une précision incroyable que l’humain n’aurait pas réussi à faire. Cependant, cette IA n’inventera ni le rouge, ni le bleu, ni le jaune, car elle n’aura aucune idée de leur existence et construira un univers monochrome, car son monde s’arrête là.
« J’ai peur qu’on m’éteigne »
Chatbot LaMDA
Pour ChatGPT, ou les autres IA génératives, c’est exactement la même chose sauf que leur « univers de connaissance » est bien plus vaste, créant la sensation que l’IA est devenue presque autonome. Vous avez peut-être entendu l’été dernier cette histoire abracadabrante d’un ingénieur de Google qui a cru, à force de converser avec leur IA nommée LaMDA, y déceler une conscience. C’était avant-tout le reflet de la quantité ahurissante de données ingérée par ce moteur.
Pour imager mon propos, projetons-nous dans une fiction où l’humain aurait délégué l’entièreté de la créativité, de la rédaction… supprimant tous les jobs de journalistes, d’auteurs, de dessinateurs, de compositeurs… Eh bien dans un tel scénario, au bout d’un lapse de temps, l’IA s’appauvrirait et mourrait car nous aurions tué la source de son apprentissage. Pourquoi ? Car l’IA n’a pas de sémantique et que tout ce que nous appelons « texte » ou « image » n’est qu’une représentation en vecteur mathématique avec pour but l’optimisation de ces vecteurs. Ainsi sans nouvelles « informations et inspirations de l’homme », l’IA finirait par simplifier au maximum notre monde et comme elle serait aussi sa propre source, l’IA auto-cannibaliserait son apprentissage avec un contenu de moins en moins diversifié, présentant une uniformisation d’information totalement insipide. Au final, la création par exemple d’un livre policier convergerait toujours vers une même fin, avec une même structure, avec un même nombre de mots.
Sans que vous vous en rendiez compte, c’est peut-être déjà le cas ! J’ai utilisé ChatGPT pour relire quelques textes que j’avais écrits et voir comment ChatGPT pouvait m’aider. C’est peut-être un hasard mais le paragraphe de conclusion des dix textes commençait toujours par : « En somme, (…) ».
Un moteur d’intelligence artificielle a continuellement besoin de nouvelles informations produites par l’humain.
La menace fantôme
Mais alors pourquoi en avoir si peur ? Certes cette technologie nous dépasse et nous impressionne, poussant l’humain à se réfugier dans ce qu’il connait. Mais dès que l’on comprend ses limites, c’est surtout une opportunité fantastique de stimuler notre propre évolution.
Prenez ne serait-ce que le temps perdu à des tâches sans valeur ajoutée, voir ennuyeuses : transformer celui-ci et l’énergie requise en exploration, est le réel enjeu de l’IA. Je suis convaincu qu’elle sera un atout, et ne nous remplacera pas. Elle va évoluer avec nous. D’ailleurs comment imaginer d’avoir d’un côté une IA qui se développerait au-delà de l’être humain et de l’autre une race humaine qui stagnerait dans l’état actuel pour l’éternité ? Bien au contraire, l’IA va sublimer notre capacité et faire de nous des hommes augmentés.
Je suis convaincu que l’humain a beaucoup à gagner avec l’IA et que cette dernière ne peut pas exister sans nous. Les risques sont ailleurs, notamment dans la manipulation de celle-ci. Techniquement il serait tout à fait possible pour des grands groupes et/ou des gouvernements de fournir volontairement des données non exhaustives et biaisées à une IA pour nous diriger vers une vision unique, totalement fausse de notre monde. D’ailleurs de nombreux experts on lancé un appel publique pour une pause de six mois dans la création d’IA gigantesque, le temps de mieux les appréhender au niveau humain et en termes de leur impact societal. Mais à long terme, il faut encourager la prolifération des IA avec des modèles algorithmiques et des données différentes : plus nous aurons de différences, plus nous pourrons tendre vers une représentativité exhaustive du monde et créer un équilibre. Encourageons donc la création et la compétitivité d’IA souveraines et qui ne dépendant pas uniquement des GAFAM américaines.