vendredi 3 novembre 2017

« On a construit une infrastructure de surveillance pour que les gens cliquent sur des pubs »

Annabelle Laurent source ; Usbek et Rica


La crainte d’une révolte future de robots mal intentionnés à notre encontre, comme dans Terminator, nous détourne du vrai danger. Ce péril réel, déjà présent, mais grandissant, c’est « la façon dont les personnes au pouvoir utiliseront l’intelligence artificielle pour nous contrôler et nous manipuler, et ce par des moyens inédits, parfois cachés, subtils et inattendus ». L’avertissement a été lancé, en septembre dernier, par Zeynep Tufekci, une sociologue turque qui a longtemps travaillé sur le rôle de la technologie dans les mouvements sociaux, et qui s’intéresse désormais à la façon dont les algorithmes façonnent nos comportements. Issues d’une conférence TED qui vient d’être mise en ligne, ses vingt minutes de démonstration sont aussi limpides qu’indispensables.
Nous ouvrons Facebook, parcourons le fil, commentons, lâchons quelques likes, nous laissons happer par une vidéo en auto-play, poursuivons sur YouTube, cliquons sur les recommandations de la colonne de droite, etc, etc… Nous croyons agir librement, mais une grande partie de notre parcours n’est que celui qu’ont balisé pour nous les ingénieurs de ces plateformes, dont le but est de nous retenir actifs et captifs, pour collecter un maximum de données et nous proposer un maximum de pubs : cette réalité-là, celle qui sous-tend ce qu’on appelle « l’économie de l’attention », se fraie une place grandissante dans le débat public, entre la croisade des anciens de Google James Williams et Tristan Harris pour défendre un design éthique, ou les mea culpa des ingénieurs créateurs du bouton « like » et de quelques autres outils addictifs.
Dans la boîte noire
Ce qu’ajoute Zeynep Tufekci, auteure de Twitter and Tear Gas: The Power and Fragility of Networked Protest, et qui se définit elle-même comme une « techno-sociologue », c’est une couche d’intelligence artificielle : pas celle qui est censée tous nous zigouiller comme le promettent les adeptes des scénarios catastrophe, mais celle qui bouleverse déjà de fond en comble l’économie numérique : « Une grande partie de la technologie qui menace notre liberté et notre dignité dans un futur proche est développée par des entreprises dont le business est de collecter, et de vendre, nos data et notre attention aux publicitaires et aux autres, soit Facebook, Google, Amazon, Alibaba, Tencent ».
« On peut avoir l’impression que l’intelligence artificielle n’est que l’étape supplémentaire après les pubs en ligne. Ce n’est pas le cas. C’est un saut catégoriel, c’est un tout nouveau monde », poursuit Zeynep Tufekci, qui cite l’exemple de l'achat de billets d’avion pour Vegas. Si l’objectif est de les vendre, il s'agit de créer la publicité ciblée la plus efficace possible. « Dans le vieux monde, vous auriez essayé de viser les hommes de 25-35 ans, ou des personnes ayant un haut plafond de retrait, ou des couples retraités ». Mais le big data et le machine learning ont changé la donne, les data permettant de créer une telle publicité ciblée étant désormais disponibles dans des quantités colossales.
Ce que vous avez commencé à taper sur Messenger, avant de changer d’avis et de l’effacer, nourrit l'algorithme de Facebook.

Zeynep Tufekci rappelle notamment l'importance des données collectées par Facebook : « Chaque statut que vous postez, chaque conversation Messenger, chaque lieu où vous avez indiqué être, chaque photo que vous avez uploadée, et même ce que vous avez commencé à taper avant de changer d’avis et de l’effacer », tout ça nourrit les algorithmes du réseau social.  

Pawel Kuczynski
Le problème, dit Zeynep Tufekci, ce n’est pas que Facebook veuille croiser ces données-là avec vos données hors-ligne et avec celles qu’elle achète aux data brokers, afin de nourrir ses algorithmes qui moulinent le tout pour pouvoir deviner, au sujet de n’importe qui, s’il est susceptible ou non d’acheter le billet pour Vegas : après tout, ce n’est qu’une publicité ciblée plus précise, que l’on peut choisir d’ignorer. Non, le problème, c’est que ce travail algorithmique, qui réclame une quantité astronomique de data - et donc une surveillance de chacun d’entre nous -  est opaque, même aux yeux de ceux qui conçoivent ces algorithmes, puisqu’avec les progrès du deep learning, la machine apprend désormais à apprendre : « Nous ne comprenons plus comment ces algorithmes nous catégorisent. Ce sont des matrices géantes, des millions de rangs et de colonnes (...) C’est comme si nous faisions croître une intelligence que nous ne comprenons pas vraiment. »
La « techno-sociologue » reprend alors son exemple des billets d'avion pour Las Vegas, en l'étirant dans une hypothèse glaçante : « Et si ce système que nous ne comprenons pas décidait qu’il était plus facile de vendre des billets pour Vegas à des personnes bipolaires en train d’entrer dans leur phase maniaque ? Ces personnes ont tendance à être très dépensières, et à être des joueurs compulsifs. Ils pourraient faire ça et nous n’aurions aucune idée que c’était l’un des critères pris en compte ».
« C’est comme si rien n’était jamais assez hardcore pour YouTube »

Zeynep Tufekci poursuit avec l’exemple de YouTube, qui non seulement est designé pour capturer notre attention grâce à la colonne de recommandations sur la droite de l'écran, mais tend à proposer du contenu de plus en plus radical, peu importe sa nature. « J’ai regardé des meetings de Trump sur YouTube dans le cadre de mes recherches, et YouTube a commencé à me recommander des vidéos de suprémacistes blancs par ordre croissant d'extrémisme. » Le même scénario se reproduit quel que soit le sujet, poursuit-elle : d’Hillary Clinton aux théories du complot, du végétarianisme au véganisme. « C’est comme si rien n’était jamais assez hardcore pour YouTube ». 
Tout ça simplement « parce que l’algorithme s’est rendu compte que si vous pouvez inciter les gens à penser que vous pouvez leur montrer quelque chose de plus hardcore, ils sont susceptibles de rester plus longtemps, pendant que Google leur donne des publicités » (Youtube a été racheté par Google en 2006, ndlr). La sociologue rappelle également que Youtube, comme les autres plateformes d'ailleurs, peut parfaitement profiler des personnes antisémites. Elle cite à ce titre l’enquête réalisée par le site ProPublica, qui a révélé en septembre dernier qu’au milieu de multiples catégories comme « ceux qui aiment cuisiner », « ceux qui pratique le judo » ou « ceux qui font des blagues », l'algorithme de Facebook reconnaissait comme une catégorie à part entière « ceux qui n'aiment pas les juifs ». 


« La vraie tragédie »
Le sujet de l’opacité des algorithmes, qui peut parfois sembler un concept lointain, affecte lourdement et très directement nos vies. Et si Zeynep Tufekci est loin d'être la seule à s'en alerter, elle le démontre de façon limpide. Elle cite aussi le chef des social media de Trump, qui explique comment il a utilisé Facebook pour « démobiliser les électeurs », ou encore l’exemple d’une simple modification du bouton « J’ai voté » sur Facebook, qui aurait mené 340 000 électeurs aux urnes.

Le simple fait d'avoir ajouté les photos de profil des amis ayant voté sous le bouton « Today is Election Day » aurait mené aux urnes 340 000 Américains en 2010 et 270 000 en 2012. 
L’hyper-personnalisation que permettent les algorithmes segmente l’électorat, si bien qu'« en tant que citoyen, on ne sait plus si on dispose de la même information que les autres. Or, sans une base commune d’informations, petit à petit, le débat public devient impossible ». Ce n'est par ailleurs que le début des conséquences de l'intelligence artificielle puisque les algorithmes peuvent identifier des manifestants mêmes si leurs visages sont partiellement masqués, ou détecter votre orientation sexuelle simplement à cause de votre photo de profil, et inutile d'imaginer ce qu'un Etat pourrait faire d'une telle mine d'or de data puisque la Chine utilise déjà la reconnaissance faciale pour identifier et arrêter ses citoyens.
« Nous avons construit une
infrastructure de surveillance autoritaire simplement pour que les gens cliquent sur des pubs »

« Voilà la tragédie, conclut Zeynep Tufekci. Nous avons construit une infrastructure de surveillance autoritaire simplement pour que les gens cliquent sur des pubs. » « L'industrie de la tech est devenue la plus centralisée des formes de contrôle de l’attention de l’histoire de l’humanité », déplorait de son côté, en juin 2017, l'ex-employé de Google James Williams auprès d’Usbek & Rica. 
Les intentions des personnes qui dirigent Facebook ou Google ne sont pas diaboliques. Ils « n'essaient pas délibérément de créer un monde plus polarisé et d’encourager l’extrêmisme », mais il faut urgemment repenser une économie numérique « dans laquelle notre attention et nos data ne sont pas à vendre au système autoritaire ou au démagogue le plus offrant ».

SUR LE MÊME SUJET : 

Image à la Une : TED. 


Usbek & Rica est le média qui explore le futur. Tous les futurs : ceux qui nous font peur et ceux dont on rêve.

Aucun commentaire: