ChatGPT nous éloigne de la science qui la rend possible 

Tribune publiée dans Le Monde le 13/02/2023

Le robot conversationnel n’est pas qu’une technologie, mais une extension d’un type précis de valeurs et de croyances humaines, d’enjeux géopolitiques et de représentations du savoir, analyse l’experte des technologies de communication Claire Gerardin, dans une tribune au « Monde ».

ChatGPT-3 est une nouvelle irruption de l’intelligence artificielle (IA) dans nos quotidiens, qui renouvelle les peurs déjà suscitées en 2016 lorsque cette technologie est devenue très médiatique. Va-t-elle nous remplacer ? Et cette fois, pas pour des emplois manuels comme on le craignait avec l’émergence des robots, mais pour des tâches intellectuelles ?

Les enseignants, les avocats, les journalistes se sentent menacés. Mais ne serait-on pas en train de tomber dans le piège de la fascination pour les machines, qui sont pourtant depuis longtemps une extension des activités humaines ?

ChatGPT-3 n’est pas autonome, c’est un système d’apprentissage par essai-erreur que des humains corrigent au fur et à mesure. A ce titre, ChatGPT-3 n’a pas une vision neutre du monde. Car ces humains, ce sont principalement les concepteurs et ingénieurs d’OpenAI : des investisseurs de PayPal, LinkedIn et Facebook, comme Peter Thiel (aussi créateur de Palantir) ou Elon Musk (que l’on ne présente plus).

Des critères pratiqués par les Gafam

Et pour assurer un comportement éthique de la machine, c’est-à-dire intégrer des garde-fous en matière de désinformation ou d’idéologies extrêmes, ils ont programmé une censure basée sur leurs propres valeurs, et appliquent les critères pratiqués par les Gafam (Google, Amazon, Facebook, Apple, Microsoft). Cette technologie encapsule donc leurs normes et leur vision du monde. Cette dernière est occidentale, libertaire, progressiste, et croit que l’intelligence artificielle va augmenter, voire remplacer l’humain.

Asma Mhalla, spécialiste des enjeux géopolitiques du numérique, enseignante à Sciences Po et à l’Ecole polytechnique, soulignait sur France 5, dimanche 5 février, que cette vision du monde est aussi géopolitique. Car les Etats-Unis sont engagés dans une lutte de puissances avec la Chine à tous les niveaux, ce que les Chinois appellent la « compétition stratégique ». Et l’intelligence artificielle est au cœur de cette rivalité – d’ailleurs la Chine a pour objectif de devenir la première puissance du monde dans ce domaine –, notamment pour ses usages militaires.

Les deux camps sont au coude à coude en matière de développement d’armes autonomes qui incorporent un haut niveau d’IA, c’est-à-dire qui sont capables de prendre des décisions de vie ou de mort sans qu’il n’y ait d’intervention humaine. Sam Altman, le patron d’OpenAI, est enthousiaste à l’idée de mettre sa technologie au service d’usages militaires et d’espionnage menés par le Pentagone. Notamment pour contrer Google, qui opère en Chine… Les deux pays sont ainsi en train de préparer, grâce et via les nouvelles technologies, les guerres de demain.

« Son souci n’est pas la vérité, mais la création de textes crédibles »

Un autre enjeu de ChatGPT-3 est celui du statut du savoir. Etienne Klein, physicien et philosophe des sciences, notait sur France Culture, mercredi 4 janvier, que chaque nouvelle technologie transforme notre rapport à la connaissance. Par exemple, au XVIIIe siècle, on considérait que la technologie utilisée quotidiennement était vectrice de connaissance scientifique.

Dans son Encyclopédie, Diderot (1713-1784) décrivait le fonctionnement de toutes les techniques de son époque, et chacun pouvait comprendre les objets qui l’entouraient : de la manière dont une maison était bâtie, en passant par les outils agricoles, jusqu’aux télescopes. Aujourd’hui, plus un objet est complexe, plus il est facile de l’utiliser sans le connaître. Il n’est plus nécessaire de savoir comment les technologies comme ChatGPT-3 fonctionnent pour bien les manier. La technologie actuelle nous éloignerait donc de la science qui la rend possible…

On sait déjà que ChatGPT-3 ne sait pas distinguer le vrai du faux. D’ailleurs, son souci n’est pas la vérité, mais la création de textes crédibles. Et lorsque ces textes n’ont pas d’auteur, que l’on ne peut pas remonter aux sources utilisées pour produire l’information générée, et que toutes ces informations ont la même valeur, il n’y a aucun critère de vérité, ni de possibilité de proposer une critique. Donc il s’agit de lui faire confiance. Comment ? En en faisant un outil ludique, facile à utiliser, et sympathique.

Désinformation

De là à soupçonner ChatGPT-3 d’être un outil parfait pour la désinformation à grande échelle, il n’y a qu’un pas. Car si on ne peut plus questionner la manière dont l’information est produite, on se tournera vers nos circuits cognitifs pour nous y faire croire. Et le cerveau humain est pétri de biais. Par exemple, il n’aime pas être contredit, il veut que sa lecture du monde corresponde à ce qu’il en pense déjà.

Fabrice Epelboin, chercheur spécialiste des réseaux sociaux, professeur à l’université de Poitiers, expliquait sur France 5, mardi 1er février, que l’agent conversationnel d’OpenAI étant entraîné à construire les récits que nous lui suggérons – lorsqu’il répond mal, on lui repose la question jusqu’à obtenir la réponse attendue –, il a la capacité de s’engouffrer dans ce travers. Il contribue à ce que l’on se fabrique un chez soi idéologique.

Nos cerveaux seraient alors des multitudes de blocs idéologiques, prêts à s’écharper au moindre désaccord, un peu comme ce qui se passe aux Etats-Unis, déchiré, entre autres, par ses luttes raciales et idéologiques.

L’IA ne doit plus être considérée comme un simple outil au service du développement économique, synonyme de progrès, décorrélée de toute réalité géopolitique et sociale. Nous devons rompre avec le présupposé idéologique selon lequel la technologie serait neutre, et qu’il suffirait d’en contrôler les usages pour garantir son innocuité. Or, la technologie est un élément d’un système complexe, qu’il s’agit de comprendre pour identifier où se trouve la frontière entre innovation et éthique.

Pour en savoir plus sur Claire Gerardin, experte en rédaction, relations presse, communication