BIBO is the new GIGO

J’ai déjà beaucoup écrit ici sur le scepticisme que m’inspire l’informatique — ou, pour prendre un mot plus à la mode, « le numérique », ou pour faire chic, « les algorithmes » . Et des développements plus récents : Big Data, Data Science, Intelligence Artificielle, voiture autonome, etc.

Je vais devoir continuer. D’une part, parce que je constate régulièrement, avec effroi, que mes contemporains ne se méfient guère de l’informatique, la surveillance généralisée, de l’omniprésence des données. Et d’autre part, parce que, mine de rien, tous ces trucs progressent. Ils envahissent tout (« Software is eating the world », annonçait Marc Andreessen au début de la décennie) ; et leur nature évolue.

C’est nous. C’est notre époque. C’est maintenant. Même si on s’en rend parfois à peine compte.

Développons. FIFO, GIGO, IA, BIBO.

FIFO : First In, First Out

Depuis les débuts de l’informatique, on enseigne aux étudiants les acronymes FIFO, LIFO ou FILO — respectivement, First In, First Out ; Last In, Last Out ; First In, Last Out. Je suppose qu’on les enseigne encore.

C’est technique, c’est tout bête. Le FIFO, First In, First Out, ça veut dire Premier Arrivé, Premier Servi. Séquentiel. File indienne. Ce n’est pas que de l’informatique, c’est aussi de la gestion des files d’attente et de la gestion de stocks, de la comptabilité et de la logistique. Ça semble bête, mais ça peut devenir compliqué. Ça semble bête, mais c’est la base.

GIGO : Garbage In, Garbage Out

Cela fait plus de vingt ans que je considère que le principe le plus important de l’informatique, c’est le GIGO : Garbage In, Garbage Out. En anglais, garbage veut dire, pour rester poli, déchet.

Un système informatique classique est un système de traitement automatisée de données, de transformation automatisée de données. Si les données en entrée sont pourries, les données en sortie sont pourries. Le regretté Jean-Pierre Coffe, pas toujours poli, parlait en ces termes des produits surgelés :

Quand on congèle de la merde, on décongèle de la merde !

J’ai souvent opposé le principe GIGO à des gens tellement émerveillés par l’informatique, tellement grisés par les algorithmes, qu’ils en étaient persuadés que les algorithmes étaient forcément parfaits : L’ordinateur a toujours raison ! Les chiffres ne peuvent pas mentir ! Les algorithmes sont forcément objectifs ! Non, non et non. Si vous avez n’importe quoi en entrée, vous aurez n’importe quoi en sortie. C’est tout bête.

Mais les systèmes informatiques contemporains — pardon, le numérique –, ça va au-delà.

AI: Artificial Intelligence

L' »intelligence artificielle » (IA en français), telle qu’elle se déploie depuis quelques années, notamment chez les GAFAs, suppose d’avoir à disposition des quantités colossales de données. Ces données vont permettre à des algorithmes d’apprendre, et de devenir capables de toutes sortes de prouesses. Si on leur fournit suffisamment d’images de chat, dûment catégorisées, ils vont devenir capable de reconnaître des chats. Si on leur fournit suffisamment de trajets automobiles effectués par des automobilistes, dûment minutés, ils vont devenir capables de recommander les trajets les plus courts possibles. Si on leur fournit suffisamment d’échantillons linguistiques, dûment traduits, ils vont devenir capables de traduire des langues.

Bref, on est persuadé qu’avec suffisamment de données, on peut tout prédire : les fantasmes du déterminisme assisté par ordinateur se portent bien !

Le principe de cette manière d’IA est toujours : il faut disposer de la plus grande quantité de données possibles. Sans données, on est en panne. Il faut aspirer le plus de données possibles pour pouvoir en tirer profit. Sans données pour « apprendre », une IA est aussi inutile qu’une bagnole sans essence. Data is the new oil!

La recherche en IA existe depuis des décennies ; mais cette manière d’IA n’a vraiment décollé qu’en cette décennie, parce que sont apparus des volumes de données, qui n’existaient tout simplement pas auparavant. Le destin de cette manière d’IA semble donc intimement lié à celui des GAFAM (Google Apple Facebook Amazon Microsoft) et autres NATU (Netflix, AirBnB, Tesla, Uber).

Selon les spécialistes, une des conséquences indirectes de ce principe, de cette manière d’IA, c’est qu’à terme, la puissance dominante dans le monde de l’IA, ce sera la Chine. Pas tellement grâce au talent de ses ingénieurs. Pas seulement grâce à la puissance de ses entreprises (en Chine, GAFAM se dit BATX : Baidu Alibaba Tencent Xiaomi). Mais surtout parce que c’est la Chine qui a la plus grande quantité d’utilisateurs avec des données à aspirer. Nous reviendrons peut-être sur ce point une autre fois — What is the Matrix?

Où cela mène-t-il ?

BIBO: Bias In, Bias Out

Est-ce que ces nouvelles techniques, dites « IA », vont rendre les machines encore plus objectives ?

À mon humble avis, non.

Pour faire court, en absorbant des données pour apprendre, les machines vont aussi absorber les préjugés, les subjectivités qui s’y cachent. Elles vont devenir aussi partiales que les utilisateurs desquels les données ont été aspirées. Ni plus, ni moins.

Je suggère donc ici un nouveau principe, succédant au FIFO et au GIGO : le principe BIBO.

Pour le mot anglais Bias, Google Traduction (what else?) me propose : préjugé, tendance, penchant, inclinaison, alignement, favoritisme. C’est bien ça.

BIBO : Bias In, Bias Out : Préjugés en entrée, préjugés en sortie. Ne pas confondre avec « Bimbo », même si ça sonne presque pareil.

Pour l’acronyme FIFO, je n’ai pas trouvé de date pour sa première apparition.

Pour l’acronyme GIGO, Wikipedia indique qu’il est apparu pour la première fois en 1957.

Je n’ai certainement pas inventé l’acronyme BIBO. Je me permets juste ici de signaler son importance, et de lui prédire un fabuleux destin — je peux me tromper. J’ignore si un jour quelqu’un en sera crédité ; je pense que sa date de première occurrence sera entre 2010 et 2017.

BIBO est un enfant de cette décennie. La décennie en cours. Notre décennie. La décennie où les systèmes informatiques (pardon, le numérique) se déploie au point de s’approprier nos défauts, nos préjugés, nos tendances, nos penchants, nos inclinaisons, nos alignements, nos favoritismes, nos préférences, nos manipulations — nos biais. Je ne pense cependant pas que ça les rendra plus « humaines » pour autant, je redoute l’effet inverse, nous y reviendrons peut-être. Se savoir surveillé transforme.

Le présent billet m’a été inspiré par deux superbes sites jumeaux que je vous conseille fortement de visiter de ce pas : mathwashing.com (« Lies, damn lies and algorithms ») et socialcooling.com (« Like oil leads to global warming, data leads to social cooling »).

Concluons.

Il fallait déjà se méfier des systèmes informatiques parce qu’ils sont fragiles et truffés de bugs et de manipulations (pensez Volkswagen).

Il fallait aussi se méfier des systèmes informatiques parce que les données en entrée sont fragiles et truffées d’erreurs et de manipulations (pensez GIGO).

Il faut maintenant aussi s’en méfier parce qu’ils sont fragiles et truffés de biais (pensez BIBO).

In short: Software is eating the world. BIBO is the new GIGO.

J’ai toujours du mal à résister à ce qui me semble être un bon mot ou une belle formule. Je ne suis qu’un petit être humain fragile.

Bonne nuit.

Publicités
Cet article, publié dans informatique, est tagué , , , , , , , , , , , , , , , , , , , , , , . Ajoutez ce permalien à vos favoris.

5 commentaires pour BIBO is the new GIGO

  1. Bien d’accord. D’une manière générale je partage ton point de vue sur l’informatique. Pourtant cela a été mon métier pendant 35 ans.
    Bel article !

  2. Je retrouve une note personnelle en date du 6 juin 2014, après avoir entendu Xavier de la Porte affirmer sur France Culture « une machine n’a pas de préjugés » :

    Si, une machine a les préjugés que celui qui l’a programmée y a laissés. Le plus souvent à son insu. Mais pas toujours.

    • Les préjugés de tous ceux qui ont trempé dans sa programmation, mais aussi les préjugés de tous ceux dont les données ont été exploitées pour la nourrir.
      Mais puisqu’on vous dit que les machines sont neutres ! Parfaites ! Objectives ! Ne mentent pas.
      Vieux slogan pétainiste : « La terre, elle, ne ment pas ! » Ben voyons !

  3. Anonyme dit :

    Lecteur anonyme depuis quelques temps déjà, j’aurais tant de fois pu commenter un billet, mais pour dire quoi ? « Je suis bien d’accord » ? « Tout pareil » ? (même si parfois non, tout de même ;))

    Et je me décide aujourd’hui à laisser cette longue bafouille, sans même trop savoir vraiment pourquoi à vrai dire.

    Je crois avoir trouvé ce blog au gré de mes pérégrinations après un cri d’alarme lancé à Don’t-be-evil-Google : « marre de l’informatique »! Douze ans bientôt à me griller les neurones, souvent avec succès, pas toujours cependant. Mais pour faire quoi ? Combien de projets inutiles, quand ils ne sont pas tout simplement nuisibles ?

    J’ai présenté il y a quelques jours le résultat de mes six derniers mois de cogitations : une pincée de machine-learning, une grosse louche bien lourde de data-mining. Ce travail PEUT aider mes collègues dans leur quotidien, de l’informatique pour l’informatique d’une certaine façon, mais l’utilité est là, bien réelle pour une fois.

    Naïveté confondante, la valeur ajoutée ne se mesure qu’en €, en $, ou tout autre symbole monétaire! Mon travail peut soulager mes collègues ? Ah, on pourra peut-être en virer quelques-uns, et illégalement tant qu’à faire, avec des indemnités plafonnées, ça pourrait devenir moins cher que de respecter la loi. Et bien évidemment pressuriser toujours plus les autres.

    Après un beau discours où je remplirai à coup sûr mon bullshit-bingo, les survivants, un peu plus hagards à chaque nouvelle baffe, s’adapteront avec un sourire de façade. Mon voisin direct de bureau, un type formidable au demeurant, se prendra une énième cuite pour oublier, comme à chaque fois. Un autre sera du parti des ‘perdants’, je le sais, trop de temps passé dans le collimateur. Un troisième se demandera ENCORE s’il n’est pas temps d’arrêter, et ENCORE il jouera la carte de ce qu’il s’imagine être la sécurité… sa prochaine séance chez le psy sera intéressante.

    Et moi, moi qui navigue depuis des années maintenant pour trouver LE job qui me correspondrait dans ce monde informatique, j’accepte (enfin ?) l’évidence : ce monde informatique est pourri jusqu’au transistor!

    L’envie de reconversion me hante depuis trop longtemps, je vais, peut-être pour la première fois, adhérer pleinement à cette rengaine que j’ai détestée si souvent : « il ne faut pas/plus réfléchir, il faut agir »!

    Mais je sais que je continuerai à vous lire, en me demandant : combien sommes-nous réellement à vouloir vous dire : « Je suis bien d’accord » ? « Tout pareil » ?

    • Merci d’avoir partagé ainsi votre expérience. Je note la formule « ce monde informatique est pourri jusqu’au transistor! », elle me plait beaucoup.
      Sortir de l’informatique ? Oh oui ! Mais pour aller où ?

Tous les commentaires seront les bienvenus.

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s