publicité
Accueil du site > Actu > Société > « Les big data sont le nouveau pétrole »
26-06-2014
Mots clés
Technologie
Sciences
France
Monde
Entretien

« Les big data sont le nouveau pétrole »

Taille texte
« Les big data sont le nouveau pétrole »
(Crédit photo : rue des archives - bca)
 
Des achats en ligne au renseignement, les algorithmes ont envahi notre quotidien et celui des gouvernements. La juriste Antoinette Rouvroy rappelle qu’ils sont incapables d’appréhender toute la complexité humaine.
Le Baromètre de cet article
ÉCOLOGIE SOCIÉTÉ ÉCONOMIE
SUR LE MÊME SUJET
Article publié dans le

N° 59 - juillet-août 2014

Changer de vie : ils ont osé, pourquoi pas vous ?

Antoinette Rouvroy est docteure en sciences juridiques et chercheuse au Fonds de la recherche scientifique en Belgique. Elle est spécialisée en gouvernementalité algorithmique, droit et éthique des biotechnologies.

Le 8 juin 1949 était publié 1984, de George Orwell. L’ouvrage montrait la montée en puissance de Big Brother et l’omnisurveillance au sein de nos sociétés ; soixante-cinq ans plus tard, les big data incarnent notre capacité infinie à produire, a priori sans dessein, des données de tout ordre, depuis nos déplacements jusqu’à nos actes d’achat. Ces données rejaillissent comme enrichies au tamis des logiciels et des algorithmes. L’ampleur de ce phénomène, mis en lumière notamment par l’informaticien Edward Snowden – qui a fait des révélations en 2013 sur le système d’espionnage mondial mis en place par l’agence américaine de sécurité –, dépasse largement les questions de sécurité et de surveillance. Il touche bien entendu à notre vie privée, mais va jusqu’à bouleverser la formation même de nos désirs.

Qu’est-ce qu’un algorithme ?

Antoinette Rouvroy : Une recette de cuisine, une liste d’instructions. Rien de plus qu’une formule de calcul. Aujourd’hui, nous sommes face à un volume colossal d’informations que l’algorithme – au départ potentiellement très simple – va devoir traiter. Ce que l’on nomme les big data, ce sont ces données dont les seuils de quantité, de vitesse, de complexité et de diversité sont très élevés. Pour traiter et exploiter cette masse qui nous dépasse, il faut inventer quelque chose à cette nouvelle échelle. Cette « autre chose », ce sont de nouveaux types d’algorithmes, plus complexes et capables d’apprendre de leurs propres « erreurs ».

L’algorithme serait-il vivant ?

Exactement. Et on ne peut pas vraiment dire dans quelle direction il va évoluer puisque, si on a recours à des algorithmes auto-apprenants, c’est parce que les données qu’on leur donne sont tellement complexes et variées que leur gestion échappe à l’intelligibilité humaine.

Des exemples ?

La sécurité. Nous assistons depuis un demi-siècle à une massification des personnes et des biens sur la planète. Il semble qu’assurer leur sécurité et lutter contre le terrorisme soit devenu très difficile. Ce constat justifierait, nous dit-on, que l’on change de modèle. On passerait ainsi d’un modèle pénal – quels sont les faits qui démontrent la criminalité d’un individu ? – à une logique de renseignement dans laquelle on observe tout et tout le monde.

C’est Big Brother…

Pour identifier un comportement terroriste, on détermine des cibles dont l’identité est inconnue, mais dont on sait que les formes de vie ou les trajectoires font en sorte que la personne en question est « probablement » terroriste. C’est ce qu’Obama appelle les « frappes de signatures », au contraire des « frappes de personnalité ». Vos frappes signent en fait un comportement, un profil, un tempérament plutôt qu’un individu. Cela a l’air tout à fait anodin, car ce n’est finalement qu’un traitement de données, mais cela peut tuer. Cela semble non sélectif, impartial et parfaitement démocratique.

L’algorithme existerait donc car il permet de dépasser l’intelligence humaine. Peut-il néanmoins se tromper ?

Bien sûr ! Sauf que la notion d’erreur perd tout son sens dans ce monde d’algorithmes. Si jamais se produit un événement qui n’a pas été correctement « prédit » par les algorithmes, ces derniers ne vont pas considérer cet événement comme une erreur mais le décomposer en une myriade de données qui seront réinterprétées, puis réintroduites dans la base statistique de manière à affiner et enrichir le modèle.

C’est ce que vous appelez la « gouvernementalité algorithmique »…

Oui, et on touche là ce qui me semble être le plus problématique. Données et algorithmes ne connaissent pas de limites. La notion même de « limitation » est inexistante. Les notions de temporalité, de rareté des ressources sont inexistantes. On le voit dans le « trading à haute fréquence ». Idem pour la mortalité des espèces, qui est étrangère à l’univers des données.

Une zone aveugle ?

Exactement. C’est le trou noir de ces données qui prétendent tout connaître et tout prédire en ignorant quelque chose d’essentiel : nous sommes mortels, tout comme la nature, et les ressources sont limitées. Alors si la temporalité n’existe pas dans ce monde-là et que, malgré tout, on parle de « mémoire numérique », c’est parce que cette mémoire est tout sauf chronologique. Quand vous cherchez quelque chose sur Internet, il est très souvent difficile de dater le document que vous recevez…Nous sommes dans un présent absolument pur. Je pense qu’il est donc catastrophique -– y compris pour l’écologie -– d’imaginer que la montée en puissance de cette gouvernementalité algorithmique est « la » solution, précisément parce qu’elle semble parfaitement objective et quantifiée.

Existe-t-il encore des choses qui ne soient pas quantifiables ou numérisables ?

La détresse humaine ne l’est pas. Parce que les algorithmes nous considèrent tous comme plus ou moins égaux. Je vous donne un exemple : en Belgique, où je vis, il existe de plus en plus d’organismes en charge de l’attribution, ou pas, d’aides sociales utilisant des algorithmes de recommandation pour détecter un certain nombre de choses, comme la fraude. On appelle cela de la « recommandation ». On passe d’une situation où il existait une négociation possible entre l’allocataire social et l’administration, à une gestion systématique avec une vision systémique des situations de vie par des systèmes informatiques. Les circonstances exceptionnelles ne sont pas prévues dans les cases et ne sont donc pas numérisables…

Est-ce un danger ?

Ce qui disparaît aussi avec ce système, c’est la dignité d’un certain nombre de métiers, qui tenait précisément à la possibilité de douter, de faire confiance à la personne que l’on avait en face de soi et de prendre la responsabilité de cette confiance accordée.

Dans quel but construire ces algorithmes ?

Il faudrait une cartographie des différents acteurs. Google ou Facebook ont une quantité incroyable de données à leur disposition. Elles intéressent tout leur environnement, de leurs partenaires à leurs concurrents, du marketing aux Etats. Ces big data sont le nouveau pétrole. Plus les acteurs de l’Internet disposent de données, plus les services qu’ils proposent répondent au profil et donc aux désirs de leurs clients. Plus ils créent de la richesse.

Mais tout le monde n’est pas disposé à laisser ses coordonnées sur Internet…

C’est plus subtil. Les internautes sont très peu récalcitrants à la collecte de données. D’abord, s’y opposer est épuisant. Ensuite, il y a un côté trivial et anonyme des traces que nous laissons. Enfin il y a cette idée aussi que l’on contribue chacun à quelque chose de grand.

Cette collecte de données ne nous gênerait pas, voire nous valoriserait ? Il y a cette idée, oui, que le social amène le social. Tout cela, au fond, serait très vertueux. La construction – par le bas, « démocratiquement » – des big data servirait des desseins qui nous dépassent. D’ailleurs, regardez l’affaire Edward Snowden. Même s’il y a eu un élan de solidarité envers lui, il n’y a pas eu de bouleversement de comportements. On assiste à une apathie généralisée doublée de ce sentiment que, quoi que l’on fasse, on ne reviendra pas en arrière et que c’est notre nouveau mode de vie.

Notre libre arbitre a-t-il donc disparu ? Pas du tout ! C’est bien pire que cela. Ces dispositifs de « recommandations », comme celles d’Amazon, par exemple, ou les publicités adaptées à vos profils selon les pages que vous consultez sur Internet sont le signe que vos désirs vous précèdent. Notez que ces messages surgissent sur le mode de l’alerte et face à vous sans que vous l’ayez sollicité. On ne vous demande plus votre avis, pour la bonne raison que cet avis est connu avant même que vous ne l’exprimiez.

C’est presque une violation de l’intime…

Parfois, la machine semble savoir de nous des choses que nous ne savons pas de nous-mêmes. Le patron de Google disait il y a peu qu’il sera bientôt très difficile pour les gens de vouloir quelque chose qui n’aura pas déjà été prévu pour eux. Amazon, pour en reparler, a annoncé avoir créé un logiciel capable d’envoyer des commandes avant même qu’elles n’aient été passées. Ce n’est donc pas que vous avez perdu votre libre arbitre, c’est que la manière dont vous formez vos désirs de consommation a changé. Le système ne réagit plus à vos envies, vos choix, il est désormais capable de les anticiper. Ces algorithmes court-circuitent le processus de formation de nos désirs.

Votre raisonnement fonctionne-t-il aussi pour le domaine de la sécurité ?

Oui. J’appellerais cela l’anticipation du futur. Spinoza disait que ce qui fait notre liberté, c’est le fait de ne pas être là où nous nous attendions à être, de ne pas toujours faire tout ce dont nous sommes capables. Désormais, le système va nous considérer comme si nous faisions tout ce dont nous sommes seulement capables. Si les algorithmes de données estiment que nous sommes capables de commettre un crime, nous allons le commettre à coup sûr !

Les politiques ne sont-ils pas devenus de simples porte-voix de ce gouvernement d’algorithmes ?

Plus personne ne veut ni décider ni trancher. Et il devient très tentant, y compris pour un gouvernement, de s’en remettre à la toute puissance de l’algorithme ou à ce que j’appelle la « sagesse des nombres ». Or, ne perdons pas de vue que ce qui n’est pas quantifiable échappe précisément à la sagesse des nombres.

Est-ce une si mauvaise chose ?

L’éradication de la potentialité, c’est l’éradication de la vie, de la surprise du possible. Le politique est là pour décider en situation d’incertitude. C’est son rôle, avec toute la noblesse de cette responsabilité. Or, là, on fait tout ce que qui est en notre pouvoir pour écarter l’incertitude.

Existe-t-il des résistances à tout cela ?

Oui, mais elles manquent souvent leur cible. Une grande partie d’entre elles invoquent la protection de la vie privée. Je pense que c’est totalement à côté de la plaque. D’abord parce que la majorité des données ne sont justement pas des données à caractère personnel. Ce sont des miroitements partiels d’existences quotidiennes, des données anonymisées que l’on vient corréler avec d’autres données de nature identique. Et dans cette interrelation, l’individu n’est jamais « rencontré ». La puissance de ce système vient précisément du fait que ces algorithmes ne se confrontent jamais à des sujets en chair et en os. Même quand nous sommes dans un espace public. L’Internet des objets accentuera cette individualisation.

Pour vous, la vie privée ne serait pas menacée ?

Non. Et tant pis si je vais à contre-courant. Ce qui est menacé, ce sont les « communs », où se forgent des significations communes. Ce qui disparaît, ce sont les espaces de symbolisation collective, l’« institution », au sens noble du terme.

Le collectif est donc une forme de résistance ?

Exactement. Il faut revendiquer le « commun ». Pour cela, il faut décloisonner le numérique, qui semble clôturé sur lui-même. Ne compte plus que ce qui est numérisé, et ne compte plus pour l’individu que ses propres « profils ». Or, ces profils (sur Facebook ou autre) sont tellement nombreux qu’à l’extrême on peut dire que ne pas accepter d’être profilé, c’est ne pas s’accepter soi-même ! Il y a là quelque chose qui ne relève pas vraiment du consentement, mais de l’adhésion automatique au profilage, qui lui-même fragmente l’espace public en une multitude de mini-espaces privés. Ce qu’il faudrait défendre, c’est un interstice entre le monde tel qu’il est et sa représentation numérique. Ce qui n’est pas numérisé ne compte plus, puisqu’on ne peut le quantifier.

Le profilage, c’est l’idée d’un accès infini et immédiat à la connaissance ? Appelez cela « idée » ou « mythe », oui. Mais le problème, c’est que cette connaissance immédiate n’est plus formée par des êtres humains. Comme si le savoir n’avait plus besoin d’être construit, qu’il se trouvait déjà là, dans la nature (numérisée, bien entendu) et qu’il suffisait de le faire surgir de façon automatique. Nous refusons les médiations, les interventions de tiers.

Nous n’aurions plus besoin de journalistes ?

Aujourd’hui, les données semblent suffire. Nous sommes face à une mouvance très forte qui tend à faire croire que l’analyse humaine serait moins pertinente que les données brutes. Pourtant, le besoin de médiation est évident.

Les « big data » ne sont-elles pas le reflet de la paresse humaine ?

Ce sont des dispositifs dont l’objectif positif consiste non pas à trouver la vérité mais à nous dispenser de toute une série d’opérations mentales, comme, par exemple, l’évaluation de nos contemporains. Cette dispense nous permet d’éloigner les risques d’incertitude, qui sont sous-traités à la machine, dont on ne sait même plus comment elle fonctionne. Ces algorithmes combattent l’excès du possible sur le probable. Cela devient du coup le summum de la victoire de la pensée rationnelle sur les émotions, alors même que ces machines sont ignorantes de toutes les causes des phénomènes.

Nous agirions sans nous intéresser à la causalité des phénomènes ?

Notre logique déductive est devenue inductive. C’est mécaniquement la mort des politiques de prévention. Comment voulez-vous prévenir si vous ignorez les causes d’un phénomène ? D’ailleurs, les causes sont inintéressantes dans cette configuration. Ce qui compte, c’est que l’événement ne se produise pas. C’est encore une fois la conséquence d’une très grande paresse et d’une crainte : on a du mal à assumer des gestes qui potentiellement peuvent rater.

Votre propos est alarmiste !

Non. Il y a des applications très prometteuses, dans le secteur de l’environnement, par exemple. Ce qui est inquiétant c’est quand, a priori, on décrète pour tous les domaines, que les big data et les algorithmes sont la solution. Faire de la physique sociale à base de quantification statistique risque de produire des résultats très problématiques. Je ne dis pas qu’il ne faut pas aller du tout vers cela, mais il faut réfléchir finement, sans avoir peur ni de ce que l’on gagne ni de ce que l’on perd à aller vers une telle démarche. —

En dates

2006 Obtient son doctorat en droit

Depuis 2012 Membre du comité de la prospective de la Commission nationale de l’informatique et des libertés en France

Mai 2013 «  Gouvernementalité algorithmique et perspectives d’émancipation  », article cosigné avec Thomas Berns dans la revue Réseaux.

Faites réagir vos proches, diffusez l'info !
Vous aimez Terra eco ? Abonnez-vous à la Newsletter

Président de l’association des Amis de Terra eco Ancien directeur de la rédaction de Terra eco

1 commentaire
TOUS LES COMMENTAIRES
COMMENTAIRES SÉLECTIONNÉS
RÉPONSES DE LA RÉDACTION
Trier par : Plus récents | Plus anciens
Affichage : Voir tout | Réduire les discussions
  • En première approche, je vois plus de risques que d’avantages à ce type de "démission de l’intelligence".
    Pour la plupart des "grands" sujets sociétaux et environnementaux actuels on connait assez bien les mécanismes de cause à effet pour être capable de mettre en oeuvre des politiques correctrices, tout du moins partir dans la bonne direction.
    Oui mais pour ça il faut que les politiques... décident et c’est bien tout le problème expliqué dans ce (très bon) article : si on s’en remet aux machines et aux algo, que seule une poignée de brilliants matheux connaitra, on ira à la catastrophe de manière certaine (on y va déjà d’ailleurs, mais là on se donne une chance supplémentaire d’y aller plus vite encore)
    Finalement ce sera peut-être mieux pour la planète bleue qui pourra souffler un moment quand le gigantesque château de carte se sera écroulé..
    Mais voilà, en temps qu’Homme et Papa, ça m’embête un peu quand même...
    Ne rêvons pas, le "big data" c’est surtout le "big business", et pour celles et ceux qui ont encore quelque chose entre les oreilles, on sait déjà où celà nous mène...
    La société civile doit se réapproprier son avenir,il n’y a pas d’autre issue.
    Pour y parvenir, l’Homme doit devenir intelligent...

    17.07 à 18h32 - Répondre - Alerter
PUBLIER UN COMMENTAIRE

Un message, un commentaire ?
  • (Pour créer des paragraphes, laissez simplement des lignes vides.)

  • Se connecter
  • Créer un compte

publicité
publicité
publicité
SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0
publicité