Technologies de surveillance : le risque d’une « dystopie par accident »

S’appuyant sur les travaux du philosophe Miguel Benassayag et de Lucien Castex, de l’Internet Society France, Claire Gerardin, consultante en communication et spécialiste des nouvelles technologies, revient dans cette tribune sur l’acceptation sociale de technologies qui pourraient nous faire entrer dans une forme de dystopie sans même qu’on s’en rende compte.

On continue de penser que l’application StopCovid ne devrait plus susciter d’oppositions tant les garanties sur la confidentialité des données collectées ont été apportées. Mais si ce risque est pour l’instant écarté, il n’en reste pas moins un autre, plus souterrain, qui concerne l’acceptation grandissante de ce type de technologie de surveillance, au dépend de nos droits et libertés fondamentales.

Cette application, comme les drones pour contrôler le confinement, et les caméras de surveillance pour vérifier le port du masque (aux Etats Unis, il existe aussi des sonnettes faisant office de caméra de surveillance, ou des applications de signalements de manifestants enfreignant la loi), s’inscrit dans une course au progrès technologique. Les nouvelles technologies offrent en effet de formidables opportunités de progrès, tant qu’elles sont utilisées en tant qu’outils au service d’ambitions éthiques, justes, ou encore égalitaires. Mais lorsqu’elles sont pensées en dehors de tout projet de société, elles doivent être questionnées. C’est-à-dire remises en perspectives.

De Galilée à la bombe atomique

L’idée de progrès, selon laquelle demain sera meilleur qu’aujourd’hui, n’a pas toujours existé. En effet, jusqu’au 17ème siècle on ne s’intéressait pas à l’avenir, mais au passé. La boussole des actions était tournée vers la tradition (la religion et les penseurs antiques), afin de parvenir au bonheur. Le progrès nait avec la révolution scientifique, permise par l’émancipation de la raison individuelle. Ainsi Galilée fonde l’héliocentrisme, Francis Bacon la méthode empirique, ou encore René Descartes la géométrie analytique. Cette avancée rationaliste permet aux techniques de se développer, jusqu’à l’avènement de la révolution industrielle. Puis ce progrès évolue au 20eme siècle, entre autres, pour le pire. C’est-à-dire pour servir une pensée folle et mortifère qui consistera à inventer des techniques comme le gaz moutarde, la bombe atomique, ou encore les camps de concentration. Là s’arrête le rêve cartésien selon lequel l’humain, lorsqu’il est guidé par sa raison, l’est uniquement pour son bien.

Miguel Benasayag, philosophe et psychanalyste, chercheur en épistémologie, développe cette théorie selon laquelle nous évoluerions désormais dans une période de deuil post rationalité. Après avoir perdu la foi dans le rationalisme humain, nous nous tournons désormais vers celle de la machine. Puisqu’elle n’a pas de corps, donc pas de pulsions, de désirs, de contradictions et de complexités, c’est à elle que l’on peut désormais confier la tâche de raisonner. Il devient alors difficile pour l’humain de trouver sa place et son rôle dans ce monde algorithmique qui le fascine et l’impressionne. Car, puisque le corps est devenu un obstacle récalcitrant au progrès, il s’agit de l’incorporer au monde digital. On lui propose alors de déléguer certaines de ses responsabilités à la machine. Aujourd’hui sa sécurité sanitaire. Et pour y parvenir, on collecte ses données et on y applique des algorithmes afin de le transformer en un ensemble d’unités d’informations, c’est-à-dire en « profil ». Et ce afin de le « fonctionnaliser », c’est-à-dire de le rendre prévisible. D’une logique de déduction nous sommes donc passés à une logique d’induction. Mais en rendant ainsi l’individu transparent et devinable, on efface ce qui constitue son essence : la complexité et la contradiction humaine. (La tyrannie des algorithmes, Textuel, 2019).

La transparence n’est pas une idée neuve

Cette idée de transparence n’est d’ailleurs pas nouvelle. Au 18ème siècle, le philosophe Jeremy Bentham invente un concept (qui sera mis en application à son époque, par exemple, dans les prisons françaises d’Autun et de Niort) selon lequel devenir transparent c’est devenir surveillable. Le panoptique de Bentham est une architecture carcérale où les surveillants peuvent voir sans être vus par les prisonniers qui eux, se savent vus, à tout moment. Michel Foucault analysera, entre autres, ce dispositif utilitariste dans son livre « Surveiller et Punir » (éditions Gallimard, février 1975). Il note que le sentiment de surveillance modifie les comportements. Se sachant surveillé, l’être humain adopte en effet une attitude performative. C’est-à-dire qu’il se comporte en fonction de normes de bonne conduite et non en fonction de sa libre volonté. Sans s’en rendre compte, il fait le choix de la conformité normative. Prison ou pas, il en conclut que le contrôle est intériorisé par les individus.

Pour Lucien Castex, membre du Conseil d’Administration de l’Internet Society France, utiliser des solutions technologiques de surveillance de type StopCovid, drones et caméras, revient à accepter, sans s’en rendre compte, cette surveillance. Il y voit une dérive qui pourrait mener à une déstabilisation de l’équilibre entre la protection de la santé publique et celle des droits et libertés fondamentaux, qu’il nomme « dystopie par accident ». La dystopie est « un récit de fiction dépeignant une société organisée de telle façon qu’il est impossible de lui échapper et dont les dirigeants peuvent exercer un pouvoir généralement sans contraintes sur des citoyens qui ne peuvent pas atteindre le bonheur » (Wikipedia). Par accident signifie que ce scénario se réaliserait sans que l’on en ai conscience. C’est-à-dire que l’on accepterait, machinalement, d’être surveillé, et donc de perdre la liberté d’être et d’agir en dehors d’une conformité normative. A l’image de cette fable de la grenouille placée dans une casserole remplie d’eau chauffée à rythme suffisamment lent pour qu’elle ne réalise pas qu’elle ne pourra plus en sortir. (France Culture, Signe des Temps, 31/05/2020).