le 02/01/2018
Dans un contexte où l’économie mondiale marche au ralenti, et où les inégalités sociales augmentent, le rêve technologique s’offre comme une des voies possibles vers un nouveau cycle de croissance économique. Mais la révolution technologique en cours est aussi source de nombreuses inquiétudes. En particulier l’intelligence artificielle (IA). Le débat n’est pas nouveau. Depuis des siècles les architectes des ruptures technologiques s’opposent aux penseurs qui aspirent à une société plus humaine. D’où vient l’intelligence artificielle, où va-t-elle, et doit-on en avoir peur ?
L’intelligence artificielle : de ses origines à nos jours
L’intelligence artificielle «désigne les dispositifs imitant ou remplaçant l’humain dans certaines mises en œuvre de ses fonctions cognitives » (Rapport de synthèse, France IA). Cette discipline scientifique a été lancée dans les années 50 par des chercheurs en cybernétique aux Etats Unis. Elle consistait à décomposer l’intelligence en facultés élémentaires – la mémoire, la vision, le raisonnement, la démonstration – et à les modéliser avec des ordinateurs, pour les simuler. Puis les études évoluèrent vers des recherches sur les réseaux de neurones artificiels – un ensemble d’algorithmes inspirés du fonctionnement des neurones biologiques dédiés à la résolution de problèmes à forte complexité logique ou algorithmique. Ces travaux sont ensuite rapidement tombés en désuétude en raison de la puissance de calcul limitée des ordinateurs. Aujourd’hui, et depuis environ 15 ans, cette dernière ayant grandement progressé, les recherches sur l’intelligence artificielle ont pu reprendre. Les ordinateurs peuvent désormais ajuster eux même leurs paramètres internes pour progresser. C’est ce qu’on appelle l’apprentissage profond ou deep learning.
Grâce à ce système, on peut aujourd’hui faire de la reconnaissance d’images, de paroles, de l’interprétation de textes, ou encore de la traduction. Et à partir de ces techniques, les industriels construisent des voitures autonomes, des systèmes d’interprétation d’images médicales, de diagnostics, etc.
L’intelligence artificielle est encore très bête
Cette intelligence artificielle est appelée « faible », c’est-à-dire qu’elle a d’énormes compétences, mais uniquement sur des taches particulières. Cela ne veut pas dire que les applications de l’IA actuelle ne sont pas déjà en train de transformer nos vies. Par exemple, avec les progrès réalisés en matière de diagnostics et de manipulations médicales, de conduite autonome, ou encore de gestion de l’énergie. Mais l’IA faible n’est pas toujours au point, le portail de contenus vidéos de Google Youtube peut en témoigner. Sa plateforme est au cœur d’une polémique depuis que les publicités de certains de ses clients ont été diffusées à coté de vidéos contenant des commentaires pédophiles. L’IA basée sur des algorithmes de corrélations fonctionne pour les affichages publicitaires simples. Mais lorsqu’il n’y a pas assez de contrôle humain pour maitriser l’automatisation et empêcher leur diffusion au côté de vidéos aux contenus intolérables c’est clairement une erreur impardonnable. Les IA, leurs algorithmes, et les humains qui les manipulent ont encore de nombreux progrès à faire.
Quant aux peurs qui concernent la prise de contrôle des IA sur l’homme, elles ne sont pas d’actualité. Car il s’agit alors de l’IA « forte », qui penserait, aurait des projets, des émotions, une conscience d’elle-même et des objectifs propres. Et à ce jour, elle n’existe pas. D’une part parce que les recherches sur le fonctionnement du cerveau ne sont pas abouties, donc il n’est pas possible de simuler des mécanismes sous-jacents à une intelligence que l’on connait mal ; et d’autre part, les technologies nécessaires à la construction d’IA fortes n’existent pas encore.
Pourquoi a-t-on si peur de l’intelligence artificielle ?
Parce que l’on a peur de l’IA forte, que l’on a encore du mal à se représenter, et que cette méconnaissance nourrit les fantasmes les plus fous, souvent inspirés de la science-fiction.
Et aussi parce que la presse exploite parfois – par maladresse ou par cupidité – certaines inquiétudes. Par exemple, lorsque deux intelligences artificielles de Google Brain ont inventé une langue indéchiffrable, elles n’ont pas « échappé au contrôle de leur créateur » comme on a pu le lire dans certains articles (Des intelligences artificielles ont créé un langage pour communiquer entre elles, L’Express 08/11/2016), puisqu’il s’agissait en fait justement d’un test sur le cryptage d’échanges conversationnels. Ou encore lorsque Facebook débranche l’IA qui avait inventé son propre langage (Tom’s Guide, 31/07/2017), il s’agissait en fait de chercheurs qui essayaient d’entrainer des IA à la négociation marchande, et qui les ont arrêtées car elles ne parvenaient simplement pas à dialoguer de manière logique.
Et puis il y a des personnalités scientifiques comme le multi entrepreneur Elon Musk (co-fondateur de Paypal, PDG de Tesla motors, PDG de SpaceX, fondateur de Neuralink, et président du conseil d’administration de SolarCity) qui tient avec force un discours anxiogène. Selon lui, l’IA est potentiellement plus dangereuse que le nucléaire, pourrait déclencher une guerre, et représente un risque d’extinction de notre civilisation. Pour se prémunir contre ces risques, il travaille notamment à contribuer à la colonisation de la planète Mars dès 2024 ; et il développe des composants électroniques pouvant être intégrés dans le cerveau humain, afin d’en augmenter les capacités. Donc les principaux acteurs qui alertent sur les dangers de l’IA sont aussi, d’une certaine manière, ceux qui sont en train de la construire. Puisque, à l’instar d’Elon Musk, ils se targuent de développer et de détenir les seules solutions capables de nous sauver de l’IA. Comme une prophétie auto réalisatrice qui nous pousserait à accepter le remède proposé.
Le vrai danger de l’IA
Pour l’instant, personne ne peut encore dire que l’IA forte pourra dépasser l’intelligence humaine. Le problème avec l’IA faible aujourd’hui, c’est que, lorsqu’elle ne sert pas à augmenter nos compétences (médicales, éducatives, industrielles), elle utilise nos données personnelles et nos profils sociaux (pour anticiper nos besoins et nous proposer des services toujours plus personnalisés). Et le vrai danger vient peut-être du fait de vouloir « plaquer des solutions technologiques à des problèmes sociaux sans se concentrer sur les causes des dysfonctionnements» comme l’explique Irénée Régnauld, fondateur de l’association Le Mouton Numérique et auteur du blog Mais où va le web? (interviewé dans l’émission Arrêt sur images « Intelligence artificielle : menace ou promesse ? du 12/10/2017). Pour lui, lorsque l’IA est utilisée pour réduire les taux de criminalité dans une ville, ou encore pour renforcer la productivité de certains métiers, on oublie que les humains ne sont pas que productifs. Ils sont aussi sensibles, émotifs, et doués de moralité. La question à se poser aujourd’hui, et d’urgence, n’est donc pas de savoir si l’IA deviendra forte un jour, mais de savoir déjà quelle vision du monde elle propose. « La technologie n’est pas neutre, c’est ça le vrai danger ».