Confondre machines et êtres humains

La confusion entre les machines et les êtres humains est un vieux thème pour la science-fiction. Elle semble de plus en plus importante.

C’est un double mouvement. Apparemment convergent.

Dans un sens : comment les machines arrivent à ressembler à des êtres humains, comment les machines parviennent à penser et à agir comme des êtres humains.

Dans l’autre sens : comment les êtres humains sont amenés à se comporter comme des machines, à penser comme des machines, à être traités — à se laisser traiter comme des machines, consciemment ou non.

Le double mouvement est très visible dans le domaine physique.

On imagine depuis bien longtemps des robots ressemblant à des êtres humains, des androïdes, jusqu’à la forme parfaite imaginée dans « Blade Runner ».

Et, en sens inverse, on représente depuis bien longtemps des êtres humains dont les mouvements ressemblent à des mouvements de machines, saccadés, mécaniques, froids. Voir Charlie Chaplin ouvrier spécialisé dans « Les Temps Modernes ». Voir le style de Kraftwerk dans les années 1970s — et plus particulièrement à « Wir Sind die Roboter » :

We’re functioning automatic
And we are dancing mechanic
We are the robots

Mais cela reste finalement, pour ainsi dire, à la surface. Épidermique. Apparent. Ce n’est que le domaine physique. Je ne néglige pas le poids du physique, mais je crois aux forces de l’esprit.

Le domaine psychique est plus difficile à saisir que le domaine physique. Je pense que, ces dernières décennies, ce qui a beaucoup progressé, c’est l’art et la manière de traiter l’âme comme une machine. Donc l’homme dans son ensemble. Pas juste le corps. Je ne sais pas si les mots « progrès » et « art » sont bien appropriés, mais passons.

Dans le domaine psychique est aussi visible le double mouvement observé dans le domaine physique. D’abord, le premier mouvement.

Les machines se faisant passer pour des hommes.

Ce premier mouvement est amplement facilité par la généralisation des moyens de communication impliquant des interfaces informatiques plus ou moins frustres.

Si votre interlocuteur est en face de vous, en chair et en os, séparé de vous par quelques centimètres ou quelques mètres, vous avez des centaines de moyens de sentir que ce n’est qu’une machine, par tout ou partie de vos cinq sens, par une grande densité de flux d’informations. Par les gestes, les vibrations, les intonations, le regard, les tics, par toutes sortes de sensations, conscientes ou inconscientes — et que savons-nous vraiment des flux d’information inconscient tels que les odeurs ?

Si votre interlocuteur est une voix au téléphone, ou même une image de télévision ou de visiophonie, les moyens de distinguer une machine d’un authentique être humain sont moindres. La bande passante — la densité de flux d’informations — est plus faible.

Et si votre interlocuteur n’est que des chaînes de caractères, des tweets, des bouts de textes et de pixels sur Facebook, des phrases de messagerie instantanée, comment distinguer une machine d’un être humain ? La bande passante est minuscule.

De mémoire, il y a une vingtaine d’années, on disait :

On the Internet, nobody knows you’re a dog.

Google et Wikipedia confirment que cet adage date du 5 juillet 1993, fondé par un dessin du New Yorker.

Cette facilité à la confusion n’a pas beaucoup évolué. Tout cela s’est juste densifié, massifié, industrialisé, généralisé — au fur et à mesure où les technologies type Internet ont été mises à la disposition de tous.

Combien de « bots », ou « robots », ou automates, traînent sur Twitter et autres « réseaux sociaux » ? Un joli article de Ian Urbina dans le New York Times, traduit en date du 6 septembre 2013 par Courrier International, balaye le sujet :

Certains chercheurs estiment qu’en moyenne seuls 35 % de ceux qui suivent un compte Twitter sont des personnes réelles. Plus de la moitié du trafic sur Internet est générée par des sources non humaines comme des robots ou d’autres types d’algorithmes. On estime que d’ici deux ans environ 10 % de l’activité sur les réseaux sociaux proviendra d’automates se faisant passer pour des êtres humains.

Ce qui a progressé — encore une fois, est-ce que « progressé » est le bon mot ? –, c’est la puissance de calcul à la disposition des algorithmes, et les algorithmes eux-mêmes. Je me souviens d’avoir codé, en guise de travaux pratiques, il y a une vingtaine d’années, une version très frustre d’Elisa, disons, au niveau de ce qu’on pouvait déjà faire il y a une quarantaine d’années. Aujourd’hui en 2013, les algorithmes sont vraiment devenus très fort pour se faire passer pour ce qu’ils ne sont pas.

Jessica Love, « Ph.D. in cognitive psychology », dans The American Scholar (publication non-datée) pense que :

Make no mistake: these bots will get good. As will Siri and Google Search and any number of algorithms programmed — for reasons insidious or otherwise — to behave as humanly as possible. I find it very probable that, in my lifetime, I’ll be able to have entire conversations without ever quite knowing whom or what I’m talking to.

Mais en parallèle, il y a le deuxième mouvement.

Les hommes se comportant comme des machines.

Citons tout de suite, à nouveau, Jessica Love — quel joli nom ! … mais qui me dit que c’est un être humain, au fait ?

I therefore can picture not only a world in which computers have adapted to human language but also one in which, ever so slightly, human language itself has shifted to make communication easier for computers.

Il n’y a pas que le langage qu’on adapte aux machines. Je pense qu’une tendance de fond du merveilleux monde du travail capitaliste contemporain, c’est non seulement de pousser les travailleurs à s’adapter aux machines, mais aussi d’appeler les travailleurs à se comporter comme des machines. A gommer ce qu’il y a d’humain entre eux.

Par exemple, dans le monde dit « multinational », à gommer leurs « spécificités culturelles ». Nous sommes tous Américains, comme disait Jean-Marie Colombani en septembre 2001. Nous devons tous faire comme si nous étions de gentils Américains cool, fun, casual, sportifs et décomplexés. En pratique, j’ai appris à détester les phrases telles que « It’s not you, it’s just business! » « Don’t take it personally! » « Why are you so emotional about this? »

Il y aurait d’autres exemples. Beaucoup de caractéristiques qui relèvent de l’humain sont invitées à se taire dans le monde du travail, pour le meilleur et pour le pire. Les préjugés, mais aussi la culture. Les émotions — toutes les émotions. Les contraintes personnelles. Les imperfections. J’y reviendrai peut-être plus un autre jour.

Au sommet, il y a le culte des chiffres, le management façon « jeu vidéo », déjà décrit ici, par Excel et PowerPoint interposés. Le travailleur n’est qu’un pion. Ou une ligne dans un tableau Excel. Interchangeable. D’une utilité douteuse. Machine ou être humain ? Qu’importe, c’est juste une ligne dans un tableau Excel !

Beaucoup a été écrit sur les centres d’appels téléphoniques, où les opérateurs doivent suivre des cheminements complètement prédéfinis, où il n’y a pas de place pour l’improvisation ou l’anecdotique. Où, clairement, les opérateurs humains sont appelés à se comporter comme des machines. Un article de Jean-Noël Lafargue publié en juillet 2011 dans Le Monde Diplomatique pousse très loin l’analyse, notant en particulier :

Les pratiques du marketing téléphonique ou des services d’assistance en ligne ajoutent un paramètre à ce problème : à qui parlons-nous vraiment lors de ces échanges programmés ? Dans de nombreux cas, les employés des centres d’appel suivent un logiciel « expert » et ne disposent d’aucune marge de manœuvre. Ces automatismes sont conçus avec l’idée, sans doute justifiée, que les questions sont peu ou prou toujours les mêmes. Les employés « robotisés » servent de filtre et évitent de mobiliser des techniciens pour des problèmes mineurs. Souvent, le filtre s’avère si puissant qu’il est totalement impossible d’atteindre la personne compétente. (…)

Présentée comme un moyen de réduire les tâches monotones, l’automatisation met en valeur, dans la « ressource humaine », non pas le libre arbitre ou la compétence (la procédure n’est pas du ressort de l’agent), mais la capacité à éponger le stress et l’agressivité. Tout semble fait non pour régler des problèmes, mais pour empêcher que ceux-ci n’atteignent leurs responsables.

Autrement dit, la seule « valeur ajoutée » d’un télé-opérateur humain sur un télé-opérateur robot, c’est sa capacité à susciter de l’empathie, à provoquer ou encaisser des émotions. Le donneur d’ordre a le choix entre payer un robot humain, qui gérera mieux les émotions et engueulades du client final, ou un robot robot, qui laissera le client final se débrouiller tout seul. Que cette logique est moche.

Pour finir sur les télé-opérateurs, je veux insister sur la généralisation de ce cas. Le travail est de plus en plus encadré par des normes. Tout le travail. Toutes sortes de métiers. Partout, on ne parle plus que d’opérateurs et d’exécutants. Partout. Y compris pour des activités qui vont très au-delà de l’ouvrier machiniste immortalisé par Charlie Chaplin, ou du télé-opérateur dans son centre d’appel. L’ouvrier pouvait être jadis, selon une formule de Lénine, l’avant-garde du prolétariat, le télé-opérateur est aujourd’hui, en somme, l’avant-garde du travailleur cognitif robotisé.

Et il n’y a pas qu’au travail. Il n’y a pas que le travail qui est de plus en plus encadré par les normes. Il n’y a pas qu’au travail qu’on dit de plus en plus aux gens comment ils doivent se comporter. Et on leur fournit de plus en plus à des machines pour cela. Des machines comme « coaches ». Des machines pour dire à des humains comment se comporter !

Le fameux Tyler Cowen, dans un papier publié le 31 août par le New York Times, proposait la vision d’avenir suivante :

Take your smartphone on a date, and it might vibrate in your pocket to indicate « Kiss her now. » If you hesitate for fear of being seen as pushy, it may write: « Who cares if you look bad? You are sampling optimally in the quest for a lifetime companion. » Those who won’t listen, or who rebel out of spite, will be missing out on glittering prizes. Those of us who listen, while often envied, may feel more like puppets with deflated pride.

Des machines pour dire aux humains comment se comporter … oui, mais comme des humains, ou comme des machines ?

Arrivé là, je suis tenté de paraphraser à nouveau une formule de Lénine, qui disait, le communisme c’est les Soviets, plus l’électricité. Vu de notre époque singulière, au fond, l’être humain, c’est un robot comme un autre, plus un peu d’empathie.

Cette formule renvoie tout droit à l’un des plus grands films de tous les temps dans mon humble référentiel : « Blade Runner », de Ridley Scott.

Et au fameux « test de Voight-Kampff », permettant de distinguer un humain d’une machine — appelée « réplicant », et fabriquée par la Tyrell Corporation.

Je pourrai passer des heures à discuter de ce film. Il est complètement dans le sujet des frontières entre l’humain et la machine. Ça sera pour une autre fois.

Ce qui m’ennuie, c’est que je ne suis pas sûr de bien définir l’empathie. Je passe par l’étymologie, j’ai fait du grec. Sympathie, c’est sum-pathos, souffrir avec, la capacité de souffrir avec. Empathie, c’est en-pathos, souffrir dedans ? Voyons comment Wikipedia définit empathie :

L’empathie est une notion désignant la « compréhension » des sentiments et des émotions d’un autre individu voire, dans un sens plus général, de ses états non-émotionnels, comme ses croyances (il est alors plus spécifiquement question d’« empathie cognitive »). En langage courant, ce phénomène est souvent rendu par l’expression « se mettre à la place de » l’autre.

Cette compréhension se produit par un décentrement de la personne (ou de l’animal) et peut mener à des actions liées à la survie du sujet visé par l’empathie, indépendamment, et parfois même au détriment, des intérêts du sujet ressentant l’empathie.

Si on définit « penser comme une machine » par « penser sans empathie », alors je crains que beaucoup d’êtres humains ne soient très avancés dans le chemin de la robotisation.

Prenons juste le cas de la Grèce.

Je ne suis jamais allé en Grèce. Je ne connais personne en Grèce. Si j’en juge par ce que j’ai en lu, disons, dans une « certaine presse », avec les éventuelles réserves que cela implique, ce pays a été massacré par la Troika et les politiques d’austérité. Les habitants de ce pays se débattent dans un contexte de débacle équivalent aux effets d’une guerre. Suicides, faillites, système de santé à l’abandon, pollution. J’ai déjà cité le psychiatre Georg Pieper, cité dans le Frankfurter Allgemeine Zeitung en date du 19 décembre 2012 :

In Greece the functioning society has been undermined for so long that it has finally collapsed: the crisis has wiped out the welfare state. « In such dramatic situations, » says Pieper, « man turns into a kind of predator. » Sheer necessity drives him into casting off his reasonableness, and selfishness displaces solidarity.

Et pourtant, vu d’une autre « certaine presse », il n’y a pas le moindre début de compassion pour les Grecs. Au contraire ! Il fallait, suivant le dessein de Merkel, punir les Grecs pour les mensonges de leurs dirigeants et les trucages de leurs comptes publics par leurs dirigeants et certains banquiers d’affaires. Il fallait punir. Il fallait faire mal. Pas de pitié pour ces sous-hommes ! Pas d’empathie pour les Grecs ! Il faut qu’ils souffrent ! La douleur les purifiera !

J’ai déjà cité et je repense souvent à cette phrase de Martin Wolf, dans le Financial Times en date du 5 juin 2012 :

Before now, I had never really understood how the 1930s could happen. Now I do. All one needs are fragile economies, a rigid monetary regime, intense debate over what must be done, widespread belief that suffering is good, myopic politicians, an inability to co-operate and failure to stay ahead of events.

J’insiste sur ces six mots :

Widespread belief that suffering is good.

Est-ce que les machines souffrent ? Est-ce que les machines ressentent ? Est-ce qu’elles peuvent ressentir la souffrance ou les émotions d’autres êtres — comme les humains, ou comme les chats ? Est-ce qu’elles le pourront un jour ? « Blade Runner » était inspiré d’un court roman de Philip K. Dick intitulé : « Do Androids Dream of Electric Sheep? » Un troisième et dernier léninisme : le rêve n’est-il pas le stade suprême de l’empathie ?

Dan Simmon, dans The Fall of Hyperion, a écrit :

« Sometimes, » said General Morpurgo, taking her hand, « dreams are all that separate us from the machines. »

Est-ce que, le jour où des machines pourront ressentir, des êtres humains sauront encore ressentir ?

Est-ce que les machines et les êtres humains convergent, ou vont-ils juste se croiser ?

Bonne nuit.

Publicités
Cet article, publié dans contemporains, informatique, est tagué , , , , , , , , , , , , , , , , , . Ajoutez ce permalien à vos favoris.

Tous les commentaires seront les bienvenus.

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s