Tribune publiée dans Le Cercle Les Echos
Il y a 10 ans, tous les présidents des sociétés automobiles du monde pensaient qu’il était impossible qu’une voiture se conduise un jour toute seule. Google, Tesla, ou encore Apple ont prouvé le contraire. Cette année, le programme Alphago de Google DeepMind a réussi l’exploit de battre au jeu de go l’un des meilleurs joueurs au monde, les experts n’attendaient pas cette victoire avant dix ou vingt ans. Alors a-t-on a mal prédit le futur, et qui peut dire si l’intelligence artificielle « forte » va débarquer plus vite qu’on ne le pense ?
Intelligence artificielle « faible » et « forte »
Yann Ollivier, chercheur en mathématiques et en informatique au CNRS, définit l’intelligence artificielle (Artificial Intelligence – AI) comme la capacité d’une machine ou d’un robot à comprendre des situations humaines compliquées et à y réagir aussi intelligemment (ou bêtement !) que l’humain. Pour fonctionner, l’AI a besoin de puissance de calculs, de données, et d’algorithmes.
L’AI faible, c’est celle qui existe déjà aujourd’hui. Elle a d’énormes compétences, mais uniquement sur des taches particulières. Aujourd’hui, les applications principales de l’AI faible sont l’affichage publicitaire en ligne, la conduite automobile, l’aviation, la médecine, l’industrie (comme la gestion de l’énergie), l’aide à la personne, ou encore la reconnaissance d’images. Et tout ce qui concerne les services : depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, l’AI anticipe nos besoins et nous propose des services toujours plus personnalisés.
L’AI forte n’existe pas encore. Elle rêverait, penserait, aurait des projets, des émotions et des objectifs propres. Aujourd’hui rien ne démontre que cela pourrait exister avant 2050. Mais les principes informatiques et mathématiques qui sous-tendent l’AI avancent vite, et on ne sait pas vraiment où elle va s’arrêter. Pourra-telle devenir plus intelligente qu’un humain, comme dans le scénario de la série Westworld ?
Les limites actuelles des AI
L’AI est très performante sur des questions très difficiles, mais pas sur des sujets à priori simples. Elle ne sait par exemple pas écrire seule un livre à l’eau de rose comme dans l’excellent roman « Ada » d’Antoine Bello, ni répondre à la question « est ce que les hippopotames jouent au ping pong ? » car elle ne comprend pas la question. Elle ne sait pas non plus distinguer le bien du mal, comme l’AI « Tay » développée par Microsoft pour dialoguer sur les réseaux sociaux (qui a dû être arrêtée après quelques heures car elle commençait à publier des messages insultants et racistes).
Les robots intelligents sont aussi limités en matière de détection des émotions. Aujourd’hui ils ne détectent que quelques émotions de base : colère, joie, tristesse, peur, douleur, stress, et neutralité. La reconnaissance des émotions est une des prochaines frontières de l’AI, un enjeu industriel majeur. Cela permettra de personnaliser nos expériences utilisateurs en fonction de nos émotions. Et cela permettra bien sûr aux GAFA, leaders de cette recherche, de fidéliser leurs clients. D’ailleurs, toutes les données que nous communiquons à Google ou Facebook via nos comportements et publications sont utilisées pour améliorer les AI, qui s’en nourrissent pour devenir plus intelligentes, et plus performantes.
Les AI peuvent- elles devenir dangereuses ?
Personne ne peut encore dire que l’AI pourra dépasser l’intelligence humaine. Il y a d’un côté ceux qui pensent que les robots intelligents auront rapidement – avant 2050 – une capacité de conscience artificielle et donc de devenir hostiles. C’est ce que pensent Stephen Hawkins, Bill Gates, ou encore Elon Musk. Pour ce dernier, l’AI est potentiellement plus dangereuse que le nucléaire. Et il y a les experts plus sereins, qui pensent qu’il n’y aura jamais d’AI forte, comme ceux de DeepMind qui n’envisagent pas qu’elle puisse menacer l’homme, et Mark Zuckerberg qui qualifie les théories de Musk d’ « hystériques ».
Mais pour Yann Ollivier, c’est l’homme qui décide de programmer la machine, et si l’AI devient hostile c’est parce que quelqu’un l’aura fabriqué avec cette intention, volontairement. Par ailleurs, puisque l’AI s’adapte aux données qu’elle reçoit, elle fonctionne par imitation, donc si on lui montre un mauvais exemple elle peut le reproduire (mentir, voler, etc.). Lorsque l’objectif assigné à une machine est très clair, elle devient performante et meilleure que les humains en très peu de temps (c’est-à-dire en quelques années). Mais lorsque l’objectif n’est pas assez précis ou qu’il est difficile à formuler, d’une part les progrès sont très limités et d’autre part il y a un risque. L’objectif « faire quelque chose de beau » est trop vague, et l’objectif « fait ce qui te plait » est bien sûr dangereux.
Face à ces défis, technologiques et éthiques, plusieurs regroupements se sont récemment formés pour envisager les scénarios futurs et s’y préparer. Parmi eux : en France, le CERNA, Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene ; en Grande Bretagne, le Center For The Study Of Existential Risk de l’université de Cambridge ; aux Etats Unis, l’Open AI, créé par Elon Musk, l’observatoire de l’université Stanford, et aussi le partenariat « Partnership on Artificial Intelligence to Benefit People and Society » créé par Google, Facebook, IBM, Microsoft et Amazon.
Le futur de l’intelligence artificielle est encore incertain, mais très probable…