Objectivité et informatique – Les mirages des algorithmes

Je me méfie des fausses évidences comme de la peste.

Elles ne sont pas faciles à détecter. La propagande est un art, et certains propagandistes sont des artistes très doués. La peste, les microbes, bacilles et autres virus aussi ne sont pas faciles à détecter. Ils sont invisibles à l’oeil nu. Il faut un microscope — ou alors des symptômes.

Les machines sont présentées comme neutres.

En particulier, les programmes informatiques des GAFAs (Google, Apple, Facebook, Amazon) et assimilés sont présentés comme objectifs. Rappel : il ne faut pas dire programme, logiciel, agent, code, robot, automate ou machine, il faut dire « algorithme ». Ça fait plus sérieux. Les algorithmes sont objectifs.

Il y a quelques mois, Bettina Wulff, l’épouse de l’ex-président de la République Fédérale d’Allemagne, avait été informée que lorsqu’on commençait à taper son nom sur Google, la fonction d’ « auto-remplissage » (auto-complete) donnait « bettina wulff prostituierte » et « bettina wolff escort » avant même « bettina wulff ». Malaise. L’affaire a fait quelque bruit en République Fédérale.

Une dénommée Kay Oberbeck, présentée comme « porte-parole de Google pour l’Europe du Nord », a fait une réponse magnifique :

the displayed terms about her are algorithmically-generated result of objective factors, including the popularity of the entered search terms.

Je note en passant que la « popularité » est incluse dans les facteurs « objectifs ». C’est tellement évident !

Ce n’est qu’un exemple. Un chouette article du New York Times a récemment récapitulé d’autres brillants exemples de conneries générées par les algorithmes de Google et confrères. Il faut lire cet article en entier, mais voici à mon avis le paragraphe central :

What is « objective » about such algorithmic « truths »? Quaint prudishness, excessive enforcement of copyright, unneeded damage to our reputations: algorithmic gatekeeping is exacting a high toll on our public life. Instead of treating algorithms as a natural, objective reflection of reality, we must take them apart and closely examine each line of code.

Le titre de cet article, « You Can’t Say That on the Internet »,  est assez modéré. Certes, ces algorithmes sont parfois là pour empêcher de penser, pour censurer tel ou tel terme litigieux, au nom de telle ou telle morale ou pudibonderie nord-américaine. Mais ils sont aussi et surtout mis en oeuvre pour suggérer ce qu’il faut penser, amener à dire ce qu’il faut dire. La fonction d’ « auto-remplissage » n’est que la partie émergée de l’iceberg.

Et là je pense au concept de « deux plus deux égale cinq » , notamment tel que mis en oeuvre par George Orwell dans 1984.

In the end the Party would announce that two and two made five, and you would have to believe it. It was inevitable that they should make that claim sooner or later: the logic of their position demanded it. Not merely the validity of experience, but the very existence of external reality, was tacitly denied by their philosophy. The heresy of heresies was common sense. And what was terrifying was not that they would kill you for thinking otherwise, but that they might be right. For, after all, how do we know that two and two make four? Or that the force of gravity works? Or that the past is unchangeable? If both the past and the external world exist only in the mind, and if the mind itself is controllable — what then?

Essayons de remplacer « the Party » par « Google » (ou un de ses confrères).

In the end Google would announce that two and two made five, and you would have to believe it. (…) For, after all, how do we know that two and two make four? (…)

Je suis un adulte. Je me méfie de ce que me disent Google et ses confrères. Un peu. Pas assez. Un peu. Je me méfie aussi de l’alcool, de ce que disent les gens qui ont consommé même un peu d’alcool, et je me méfie de ce que je peux dire quand j’ai consommé de l’alcool. Mais les adolescents ? Les enfants ? Je crains qu’on n’imagine pas à quel point certains sont dépendants de ce que leur dit Google, de ce que Google leur suggère.

Je n’ai pas oublié un des premiers « Google bombings » qu’on m’avait montré, en 2003 ou 2004 : vous tapiez « gros balourd » et vous arriviez sur le site du premier ministre Jean-Pierre Raffarin. Quelques mois plus tard, vous tapiez « miserable failure » et vous voilà sur la site du président George W. Bush. C’était drôle. Comme souvent, au début on trouve un truc marrant, on ne réfléchit pas trop, et quelques années plus tard on découvre les implications profondes et inattendues de ce truc. « Les paradoxes d’aujourd’hui sont les préjugés de demain » disait Marcel Proust (même si je croyais que c’était Paul Valéry).

Demain c’est aujourd’hui. La machine est lancée. L’idée que les algorithmes sont là pour faire le bien et apporter de l’objectivité est installée, entretenue, cultivée. La propagande consciente et inconsciente continue. Car derrière il y a des « modèles économiques ». Il y a les exigences des actionnaires — la dictature de la finance.

Le « modèle économique » exige que les gens croient ce que leur disent Google et autres, sans réserve, sans réfléchir. Tout est fait pour décourager l’esprit critique, la prise de distance, les contre-poisons, ou juste la concurrence. Le dénigrement systématique des enseignants, instituteurs et professeurs, le démontage progressif de l’enseignement, arrangent autant Google que TF1. Pourquoi se donner la peine d’apprendre des choses ? Y a qu’à demander à Google. C’est tellement pratique ! C’est plus cool qu’écouter un prof !

Le « modèle économique » exige qu’on n’envisage pas de précaution trop coûteuse, il ne faut pas menacer la marge bénéficiaire, il faut utiliser le plus possible des algorithmes et des machines, et le moins possible de gens — sauf, bien sûr, quelques cadres financiers pour gérer l’argent, quelques professionnels du marketing et du lobbying, et autres « porte-paroles ». Mais le moins possible.

Le « modèle économique » n’est même pas discutable. Il est tabou. Il est intouchable. L’article du New York Times insiste bien, avant d’évoquer timidement une proposition de rendre obligatoire des audits chez les géants de l’Internet :

Can we do it without hurting Silicon Valley’s business model?

Quand on me parle d’audit, je pense : Enron, Arthur Andersen. Lehman Brothers, Ernst & Young. Etc, etc.

Dans « The Matrix », en 1999, l’Agent Smith expliquait à Morpheus :

Which is why the Matrix was redesigned to this, the peak of your civilization. I say your civilization, because as soon as we started thinking for you it really became our civilization, which is of course what this is all about.

L’Agent Smith est un magnifique algorithme. Mais est-il objectif ?

Bonne nuit.

Publicités
Cet article, publié dans informatique, est tagué , , , , , , , , , , , , , , , . Ajoutez ce permalien à vos favoris.

Un commentaire pour Objectivité et informatique – Les mirages des algorithmes

  1. Ping : Objectivité et informatique : les mirages des algorithmes | Journalisme et déontologie | Scoop.it

Tous les commentaires seront les bienvenus.

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s