Comment le capitalisme avale notre vie privée

La vente de données sur notre comportement est devenue le modèle économique dominant de la Silicon Valley et au-delà, selon cette chercheuse américaine. Ce “capitalisme de surveillance” n’est pourtant pas une fatalité.

En janvier [dans le magazine Time], Mark Zuckerberg a été pris à partie par Roger McNamee, son ancien mentor. Celui-ci n’en était pas à sa première sortie contre le patron de Facebook, auquel il reprochait de recourir à des méthodes de plus en plus illégales et délétères pour collecter coûte que coûte les données personnelles de ses utilisateurs.

“Pour alimenter son système d’intelligence artificielle et ses algorithmes, Facebook a récupéré des données partout où il le pouvait. Tant et si bien qu’il a très vite fini par espionner tout le monde”, écrivait McNamee.

Ces opérations, affirmait-il, ont été savamment conçues pour inciter les utilisateurs à générer, par leurs actions, certains types de données dont se sont par la suite emparés des acteurs peu scrupuleux pour s’immiscer dans la conscience collective du pays et dénaturer le discours politique.

L’analyse de McNamee est dangereuse car il se trompe d’ennemi. S’il est vrai que le gouvernement russe et le ploutocrate Robert Mercer – l’un des principaux actionnaires de la défunte Cambridge Analytica et donateur de la campagne présidentielle de Donald Trump – ont appris à manipuler la puissante machine que Facebook a secrètement mise en place, ces manœuvres et le gigantesque dispositif numérique qui leur donne corps ne commencent ni ne s’achèvent avec Facebook. Ils constituent tout bonnement la clé de voûte d’une nouvelle logique économique que j’appelle “le capitalisme de surveillance”.

Ces pratiques ont été inventées chez Google, adoptées par Facebook, ont envahi la Silicon Valley, et ont depuis lors débordé dans tous les secteurs économiques. Penser que le phénomène est limité à Facebook serait une grave erreur. Réguler Facebook, le démanteler ou exiger un remaniement de l’équipe dirigeante ne changerait strictement rien : le capitalisme de surveillance n’en serait aucunement ébranlé. Il s’engouffrera au contraire tout aussitôt dans la brèche, dissimulé derrière de nouveaux masques et tout un lexique inédit d’euphémismes tendance.

J’ai commencé à m’intéresser à la révolution numérique en 1978, en m’attachant plus particulièrement à l’environnement professionnel. Quand, en 1988, j’ai publié mon premier livre, In the Age of the Smart Machine [“À l’ère de la machine intelligente”, non traduit en français], j’avais déjà compris que la voie de l’avenir numérique serait semée de nombreux conflits pour déterminer qui aurait accès à de nouvelles connaissances, qui aurait l’autorité d’en décider et qui aurait le pouvoir d’imposer cette autorité.

Il m’est très vite apparu que le capitalisme de surveillance enfreignait bon nombre de normes et de pratiques admises qui définissent l’histoire du capitalisme, et plus particulièrement l’histoire des démocraties libérales. Il avait accouché de quelque chose d’effrayant et d’inédit dont les conséquences définiront le cadre moral et politique de la société du XXIe siècle et les valeurs de notre civilisation de l’information.

Un miroir sans tain

Le capitalisme de surveillance a été inventé en réaction à l’éclatement de la bulle Internet, à l’époque où une petite société du nom de Google a cherché à accroître ses revenus en exploitant son accès exclusif à d’immenses réservoirs de données largement inutilisés – le “sillage numérique” laissé par l’historique de recherches et de navigation en ligne des utilisateurs. Il s’agissait désormais d’analyser ces données pour en tirer des schémas prédictifs qui permettraient d’adapter les publicités aux centres d’intérêt des utilisateurs. Google allait ainsi donner un nouvel usage à ce “surplus” de données comportementales et mettre au point des techniques agressives pour en extraire de plus en plus à partir de nouvelles sources.

À en croire ses propres chercheurs, la valeur des nouvelles méthodes de Google tenait à leur capacité à collecter des données que les utilisateurs avaient choisi de ne pas partager et à en déduire des informations personnelles détaillées que les internautes ne fournissaient pas. Ces opérations étaient conçues pour déjouer la vigilance des utilisateurs et, partant, pour écarter tout risque de “réticence” à utiliser le service. Ce qui revient à dire que, dès le début, Google a bâti son succès sur un miroir sans tain : la surveillance. Les nouvelles méthodes ont été inventées et déployées de 2001 à 2004, dans le plus grand secret. Ce n’est qu’avec l’entrée en bourse de Google, en 2004, que le monde a appris que ces nouvelles pratiques avaient permis au groupe d’accroître son chiffre d’affaires de 3 590 %.

Ce changement dans l’exploitation des données comportementales a marqué un tournant historique. Google avait trouvé un actif à coût zéro qui changeait radicalement la donne et pouvait être détourné vers des usages autres que l’amélioration de service pour donner lieu à un véritable échange commercial. Le capitalisme de surveillance a ensuite rapidement gagné Facebook et s’est imposé pour devenir le modèle par défaut de l’accumulation de capital dans la Silicon Valley – repris par chaque start-up et chaque application.

Présenté comme une contrepartie à la gratuité des services, il ne se limite pas plus à ce contexte que la production en série n’était limitée à la fabrication de la Ford T. Ce modèle économique s’est étendu à une multitude de secteurs, de l’assurance au commerce de détail, en passant par la santé, la finance, le divertissement, l’éducation, etc. Le capitalisme est littéralement en train de se métamorphoser sous nos yeux.

Monétisation

Ce processus trouve sans doute son illustration la plus saisissante dans le berceau de la production en série : Ford Motor. Voici un siècle, des pionniers du capitalisme, tel Henry Ford, se sont appliqués à poser les bases d’une ère nouvelle de consommation de masse. Ford avait compris que les agriculteurs et les petits commerçants aspiraient eux aussi à posséder une automobile, mais à un prix abordable. Dans son univers, clients et ouvriers s’inscrivaient dans un cycle de production et de vente associant des produits bon marché à des salaires suffisants pour consommer, immortalisés par la fameuse “journée à 5 dollars” de Ford.

En novembre 2018, Jim Hackett, le PDG de Ford, évoquait dans un entretien l’émergence d’un nouveau modèle économique pour les constructeurs automobiles : « Nous disposerons à l’avenir d’autant de données provenant des véhicules, ou des utilisateurs de ces véhicules, ou des villes dialoguant avec ces véhicules, que des concurrents [comme Tesla]. […] Je suis convaincu d’une chose : nous avons aujourd’hui 100 millions de clients, des gens qui conduisent des véhicules à l’ovale bleu. Cela représente pour nous une opportunité de monétisation face à une start-up qui doit avoir à l’heure actuelle 120’000 ou 200’000 véhicules en circulation. Comparez simplement ces deux parcs : lequel choisirez-vous pour vous procurer des données? »

Tel est le monde dans lequel nous vivons – un monde où pratiquement chaque produit ou service se proclamant “intelligent” ou “personnalisé”, chaque dispositif ou véhicule doté de fonctions Internet, chaque “assistant personnel numérique”, est une interface de la chaîne d’approvisionnement qui génère un flux ininterrompu de données comportementales.

Nous savons depuis longtemps que le capitalisme se développe en s’appropriant des activités qui échappent à la dynamique de marché pour en faire des marchandises intégrées aux circuits de vente et d’achat. Le capitalisme de surveillance étend ce schéma en transformant l’expérience humaine en une matière première gratuite qui peut être quantifiée et utilisée pour établir des modèles comportementaux prédictifs destinés à la production et à l’échange. Dans cette logique, le capitalisme de surveillance extrait de nos données un surplus comportemental, laissant de côté tout ce qui donne du sens à notre corps, notre esprit et nos affects. Vous n’êtes pas “le produit”, mais bien la carcasse abandonnée. Le “produit” provient du surplus de données arraché à votre vie.

Interventions sur le comportement

Ces données vous sont extorquées à votre insu au fil de vos activités quotidiennes. Aux États-Unis, des masques respiratoires utilisés dans le traitement de l’apnée du sommeil transmettent subrepticement les données du dormeur captif à son assureur, dans bien des cas pour permettre à la compagnie de refuser de rembourser des prestations. Certaines applications de téléphonie mobile recueillent vos données de géolocalisation à des intervalles de deux secondes, pour vendre ces données à des tiers. En juillet 2017, l’aspirateur autonome d’iRobot, Roomba, a fait les gros titres de la presse lorsque le PDG de l’entreprise, Colin Angle, a confié à Reuters sa stratégie de commercialisation de données pour la “maison intelligente”, précisant que le cours de ses actions avait bondi depuis qu’il avait annoncé son intention de revendre le plan des maisons de ses clients, obtenu gratuitement grâce aux nouvelles fonctionnalités de cartographie intégrées à son appareil.

À un moment donné, les capitalistes de la surveillance se sont rendu compte qu’ils pouvaient modifier les comportements par le biais d’interventions numériques en temps réel suggérant discrètement au consommateur certains comportements. Comme me l’a expliqué un spécialiste de l’analyse des données :

« Nous sommes en mesure d’agir sur le contexte d’un comportement donné et d’influencer ce comportement dans un sens ou un autre. […] En fait, nous apprenons à écrire la musique, puis nous les laissons danser sur la musique. »

On retrouve des exemples de ce type dans le jeu Pokémon Go, qui guide en sous-main les pas des joueurs pour aller consommer dans des restaurants, des cafés et des fast-foods qui paient pour s’assurer une présence sur ce méta-marché des comportements, ou bien dans l’implacable détournement des surplus comportementaux des utilisateurs Facebook visant à dresser des “profils psychologiques” détaillés qui, selon un rapport interne de 2017, permettent à un annonceur de repérer le moment précis où un adolescent a besoin de “reprendre confiance en lui” et est, par conséquent, plus vulnérable à une configuration particulière d’incitations publicitaires.

Les capitalistes de la surveillance produisent ainsi des asymétries profondément antidémocratiques en matière de connaissance et de pouvoir découlant de cette connaissance. Ils savent tout de nous, et font tout pour que nous ne sachions absolument rien de leurs pratiques. Ils prédisent notre avenir et manipulent notre comportement, mais pour le compte de tiers qui en tireront un profit financier ou l’exploiteront à leurs fins. Ce pouvoir de connaître et de modifier le comportement humain est sans précédent. Souvent confondu avec le “totalitarisme” et redouté comme une nouvelle incarnation de Big Brother, c’est un type nouveau du pouvoir humain que j’appelle “l’instrumentarisme”.

Engrenage

Tout ceci n’était pas écrit d’avance. En 2000, des informaticiens et des ingénieurs [du Georgia Institute of Technology] ont collaboré sur un projet baptisé Aware Home [“la maison consciente”]. Ils envisageaient une “symbiose habitat-humain” dans laquelle des processus animés et inanimés seraient captés par un réseau de “capteurs sensibles au contexte” intégrés à l’environnement domestique et à des objets communicants disposés dans les vêtements, voire dans le corps des habitants. Le système était conçu comme une simple boucle fermée entièrement contrôlée par les occupants. L’équipe estimait “absolument indispensable de permettre aux occupants de connaître et de contrôler les modalités de diffusion de leurs informations”. L’ensemble des données devaient être stockées sur les dispositifs informatiques que les usagers porteraient sur eux “afin de garantir la confidentialité des données personnelles de chacun”.

Le projet Aware Home nous rappelle ce que nous avons perdu et devons récupérer : le droit de savoir et de choisir qui sait quoi de notre vie et de notre avenir.

Faisons un bond dans le temps : en 2017, deux chercheurs de l’université de Londres ont publié une étude détaillée sur un appareil domotique particulier, le thermostat Nest de Google. Ils ont établi que si on mettait un doigt dans l’engrenage de l’écosystème Nest – composé de dispositifs et d’applis connectées, chacun accompagné de conditions générales d’utilisation décrivant sur des dizaines de page la politique de cession des données personnelles à des tiers – l’achat d’un simple thermostat Nest supposait de lire à la loupe près d’un millier de “contrats”. Si le client n’accepte pas les stipulations de Nest, les conditions d’utilisation indiquent que la fonctionnalité et la sécurité du thermostat risquent d’être sérieusement compromises, et que les mises à jour nécessaires pour assurer sa fiabilité et sa sécurité ne seront plus disponibles.

Nous pouvons aujourd’hui regretter l’innocence du projet Aware Home, mais, tel un message dans une bouteille venu d’une époque révolue, elle nous dit quelque chose d’important : il fut un temps où nous étions les sujets de notre vie ; nous en sommes maintenant les objets. Le projet Aware Home nous rappelle ce que nous avons perdu et devons récupérer : le droit de savoir et de choisir qui sait quoi de notre vie et de notre avenir. Ce droit était et reste l’unique fondement possible de la liberté humaine dans une société démocratique fonctionnelle.

 

A propos de l’auteure

Docteur en psychologie sociale, Shoshana Zuboff est professeure émérite de la Havard Business School. Elle est l’auteure de plusieurs ouvrages dont In the Age of The Smart Machine: The Future of Work and Power (1989, non traduit), The Support Economy: Why Corporations Are Failing Individuals and the Next Episode of Capitalism (co-écrit avec James Maxmin, 2004, non traduit), et Le capitalisme de surveillance (paru aux Editions Zulma, 2020).