GPT4 : vers un Frankenstein 3.0 ?

Ce mercredi 29 mars 2023, face à la récente mise en production de GPT4 (la nouvelle version de ChatGPT), de nombreuses personnalités ont signé une pétition demandant une pause dans la recherche sur les intelligences artificielles (IA) visant à être plus puissantes que GPT4. Cette pétition est notamment signée par Elon Musk… l’un des cofondateurs d’OpenAI, créée en 2015, à qui l’on doit ChatGPT (à noter quand même qu’Elon Musk a quitté la société en 2018). Voici quelques éléments de réflexion pour ceux qui ne comprennent pas le pourquoi du comment de ces atermoiements de la scène IA.

Pourquoi cette agitation ?

Oui, en 1997, l’IA d’IBM, DeepBlue, gagnait aux échecs face à Gary Kasparov, atteignant un but longuement caressé par les pionniers de l’IA (dont Newell et Simon). Oui, en 2016, l’IA de Deepmind (appartenant à Google), AlphaGo, arrivait à battre Lee Sedol, l’un des meilleurs joueurs de Go, dans une discipline que l’on considérait comme un bastion imprenable pour l’IA. Oui, les performances de l’intelligence artificielles se sont enchainées. Mais tout cela s’est finalement passé dans un relatif désintérêt du grand public. Jusqu’à ce que tout le monde, de 7 à 77 ans, puisse s’amuser avec l’agent conversationnel d’OpenAI, ChatGPT, qui se présente comme la digne héritière d’ELIZA, créée par Joseph Weizenbaum dans les années 60.

Cette IA, c’est un peu la prise de conscience du grand public de ce qu’elle a raté ces dernières années… et des potentialités de ce qui ne constituait jusqu’alors qu’un bon sujet de science-fiction. Parmi elles, la possibilité de rédiger du code informatique et de créer un site web, de finir parmi les 10% d’étudiants qui ont les meilleures notes à l’examen du barreau d’avocats américain, et plus simplement, de tenir une longue conversation avec n’importe qui sur n’importe quel sujet. De là à faire ressurgir le spectre de Frankenstein ou du Terminator, et la peur du remplacement des humains par les machines qui va avec dans tous les pans de la société, il n’y a qu’un pas. Pas que visiblement, les experts du domaine, ont franchi en signant cette pétition.

GPT4, où « la banalité du mal » ?

Pour expliquer l’émergence de cette pétition, on peut se ramener à la récente tribune dans le New-York Times qu’a publié le philosophe et linguiste Noam Chomsky. Dans cette tribune, il pose cette simple question : est-il normal d’autoriser le grand public à converser avec un programme informatique capable de prendre toutes les positions, de justifier tous les points de vue, sans affirmer clairement et explicitement les frontières entre le « bien » et le « mal », entre ce qui est éthique, moral, et ce qui ne l’est pas ? N’est-ce pas la preuve d’une perte de repères profonde de notre société ?

Sans vouloir m’opposer à cet éminent philosophe, je pense que les raisons de notre peur concernant GPT4 ont une autre racine : l’absence de vision, d’objectifs, de projets clairs quant à l’utilisation de l’IA au sein de la société ! Parce que le vrai danger ne réside pas dans les – infinies ? – possibilités de l’IA mais dans ce qu’on en fera… comme toujours depuis que l’Homo Erectus a inventé le feu vers 400000 ans avant notre ère.

L’IA, mais pour quoi faire ?

Lorsque j’étais rentré de l’Université de la Singularité en 2017, j’avais publié un article expliquant que l’on jouait actuellement aux apprentis sorciers en cherchant à explorer les infinis territoires de l’innovation… sans avoir aucune idée en tête sur ce que l’on souhaitait y trouver, sur ce dont nous avions réellement besoin. C’est bien le spectre de cette question qui ressurgit aujourd’hui : innove-t-on parce qu’on le peut, ou parce qu’on le doit ?

En ce qui concerne l’intelligence artificielle, ses usages, loin de remplacer l’humain au travail ou de déshumaniser notre société, pourraient au contraire venir alléger notre travail quand nous le trouvons trop pénible, ce qui semble être le cas à en croire le débat autour de la réforme des retraites. Pour peu que nous définissions les cas d’usages attendus, et que nous nous assurions que l’IA rende bien les services dont nous avons besoin. GPT4, loin de transformer les enfants en perroquets, pourrait favoriser le développement d’une plus grande discrimination de l’information. Pour peu que l’Education Nationale entraine les enfants à le faire.

Conclusion

Je pourrais appliquer ce raisonnement à l’infini, dans tous les domaines. Il ne s’agit donc pas tant d’arrêter les travaux de recherche afférents à GPT4 que de :

  • Définir un projet de société clair quant à la fameuse fantasmagorie du « vivre ensemble »
  • De définir le rôle et les usages attendus de la technologie, et en particulier de l’IA, dans le développement de cette société
  • De former le grand public afin de s’assurer de la bonne utilisation des outils proposés
  • De mettre les acteurs développant des IA en face de leurs responsabilités quand celles-ci ne répondent pas aux objectifs qu’on leur a fixés.

Vaste programme certes, mais programme dont on ne peut probablement pas faire l’économie… sous peine de voir l’effroi succéder à l’enthousiasme sur des cycles de plus en plus courts, comme l’incarne à merveille cette pétition.