Nos vies sont désormais dirigées par des ingénieurs de persuasion – Team Human
Nous savons sans aucun doute que nous sommes plus stupides lorsque nous utilisons des smartphones et des réseaux sociaux
jeAu lieu de concevoir des technologies qui favorisent l’autonomie et nous aident à prendre des décisions éclairées, les ingénieurs de persuasion en charge de nos plus grandes entreprises numériques travaillent dur pour créer des interfaces qui contrecarrent notre cognition et nous poussent dans un état impulsif où des choix réfléchis – ou la pensée elle-même – presque impossible.
Nous savons maintenant, sans aucun doute, que nous sommes plus bêtes lorsque nous utilisons des smartphones et des réseaux sociaux. Nous comprenons et conservons moins d’informations, comprenons avec moins de profondeur et prenons des décisions plus impulsivement que nous ne le faisons autrement. Cet état mental non attaché, à son tour, nous rend moins capables de distinguer le réel du faux, le compatissant du cruel, et même l’humain du non humain. Les vrais ennemis de Team Human, si nous pouvons les appeler ainsi, ne sont pas seulement les gens qui essaient de nous programmer pour la soumission, mais les algorithmes qu’ils ont déchaînés pour les aider à le faire.
Les algorithmes ne dialoguent pas directement avec nous, humains. Ils interagissent avec les données que nous laissons dans notre sillage pour faire des hypothèses sur qui nous sommes et comment nous allons nous comporter. Ensuite, ils nous poussent à nous comporter de manière plus cohérente avec ce qu’ils ont déterminé être notre moi statistiquement le plus probable. Ils veulent que nous soyons fidèles à nos profils.
Tout ce que nous faisons dans notre réalité hautement connectée est traduit en données et stocké pour comparaison et analyse. Cela inclut non seulement les sites Web que nous visitons, les achats que nous faisons et les photos sur lesquelles nous cliquons, mais également les comportements du monde réel tels que nos styles de conduite et nos mouvements physiques, tels que suivis par les applications de cartographie et le GPS. Nos thermostats et réfrigérateurs intelligents fournissent tous des données dans nos profils.
La plupart des gens s’inquiètent des informations spécifiques que les entreprises peuvent enregistrer sur nous: nous ne voulons pas que quiconque connaisse le contenu de nos e-mails, ce que nous recherchons pour les coups de pied ou les types de médicaments que nous prenons. C’est la province des détaillants en ligne qui nous suivent avec des publicités pour des choses que nous avons déjà achetées. Les algorithmes ne se soucient de rien de tout cela. La façon dont ils évaluent qui nous sommes et comment nous manipuler a plus à voir avec toutes les métadonnées insignifiantes qu’ils collectent, compilent et comparent.
Par exemple, Joe peut parcourir 12 miles pour se rendre au travail, regarder ses messages texte toutes les 16 minutes environ, acheter des cookies sans gras et regarder une émission de télévision particulière deux jours après sa diffusion. L’algorithme ne se soucie d’aucun détail ni ne tente de tirer de conclusions logiques sur le type de personne que Joe peut être. Tout l’algorithme se soucie de savoir si ces données lui permettent de placer Joe dans un compartiment statistique avec d’autres personnes comme lui et si les personnes dans ce compartiment sont susceptibles de présenter des comportements similaires à l’avenir.
En calculant tous ces chiffres et en faisant des comparaisons constantes entre ce que nous avons fait et ce que nous faisons ensuite, les algorithmes de big data peuvent prédire nos comportements avec une précision surprenante. Les sites de médias sociaux utilisent les données qu’ils ont collectées sur nous pour déterminer, avec une précision d’environ 80%, qui est sur le point de divorcer, qui est atteint de la grippe, qui est enceinte et qui peut envisager un changement d’orientation sexuelle – avant de nous connaître.
Une fois que les algorithmes auront déterminé que Mary a, disons, 80% de chances de suivre un régime au cours des trois prochaines semaines, ils rempliront ses flux de messages et de contenu d’actualités sur les régimes: « Vous vous sentez grosse? » Certains de ces messages sont du marketing ciblé, payé par les différents annonceurs du site. Mais le but de la messagerie n’est pas seulement de vendre les produits d’un annonceur particulier. L’objectif le plus profond est d’amener les utilisateurs à se comporter de manière plus cohérente avec leurs profils et le segment de consommateurs auquel ils ont été affectés.
La plate-forme de médias sociaux souhaite augmenter la probabilité de suivre un régime de 80% à 90%. C’est pourquoi les fils de Mary se remplissent de tous ces messages ciblés. Plus elle réussit à rendre Mary conforme à son destin déterminé algorithmiquement, plus la plate-forme peut se vanter à la fois de sa précision prédictive et de sa capacité à induire un changement de comportement.
Les algorithmes utilisent notre comportement passé pour nous regrouper en groupes statistiques, puis limiter la gamme de choix que nous faisons à l’avenir. Si 80% des personnes d’un segment particulier du Big Data prévoient déjà de suivre un régime ou de divorcer, c’est bien. Mais qu’en est-il des 20% restants? Qu’allaient-ils faire à la place? Quels types de comportements anormaux, de nouvelles idées ou de nouvelles solutions allaient-ils trouver avant d’être persuadés de s’aligner?
Dans de nombreuses entreprises humaines, il y a une tendance vers le principe de Pareto, ou ce que l’on appelle la règle des 80/20: 80% des gens se comporteront plutôt passivement, comme les consommateurs, mais 20% des gens se comporteront de manière plus active ou créative. Par exemple, 80% des personnes qui regardent des vidéos en ligne ne font que cela; 20% d’entre eux font des commentaires ou publient les leurs.
Alors que 80% des enfants jouent à des jeux tels qu’ils étaient censés être joués, 20% des enfants les modifient ou créent leurs propres niveaux. Les 20% ouvrent de nouvelles possibilités. Nous utilisons des algorithmes pour éliminer ces 20%: les comportements anormaux qui rendent les gens imprévisibles, étranges et diversifiés. Et moins il y a de variation entre nous – moins de variété de stratégies et de tactiques – moins nous sommes résistants et durables en tant qu’espèce. Mis à part la survie, nous sommes également moins intéressants, moins colorés et moins humains. Nos bords irréguliers sont limés. Dans un renversement brutal de la figure et du sol, nous développons des algorithmes informatiques qui avancent constamment afin de rendre les êtres humains plus prévisibles et plus mécaniques.