Facebook a ignoré ses propres recherches sur les dangers de l’algorithme
Un rapport interne laissait pourtant penser que l'algorithme pouvait favoriser la polarisation de la société.
Par Valentin Cimino - @ciminix
Publié le 29 mai 2020 à 08h58 source : Le Siècle Digital
Publié le 29 mai 2020 à 08h58 source : Le Siècle Digital
Photo de Taras Shypka sur Unsplash.
En 2018, un rapport interne réalisé par Facebook montrait que l’entreprise était parfaitement consciente des dangers de l’algorithme. Pourtant, aujourd’hui le constat est le suivant : Facebook n’a pas pris en compte ses propres conclusions. L’algorithme n’a toujours pas évolué dans le bon sens.
Quels sont les dangers de l’algorithme ?
Alors que Chris Hughes, co-fondateur de Facebook se bat au quotidien pour le démantèlement du réseau social notamment à cause de son algorithme, le Wall Street Journal affirme que Facebook a fermé les yeux sur les dangers de celui-ci. Dans ce fameux rapport interne de 2018, on pouvait lire que :
“Nos algorithmes exploitent l’attrait du cerveau humain et provoque la division. Si cet élément central de notre intelligence artificielle n’est pas repensé, nous continuerons de diviser nos utilisateurs pour attirer leur attention et augmenter le temps passé sur la plateforme”.
DANS LA MÊME CATÉGORIE
Un autre rapport, également publié par Facebook, en 2016 cette fois-ci, montrait que 64% des personnes ayant rejoint un groupe extrémiste l’avaient fait uniquement parce que l’algorithme du réseau social le leur avait recommandé. Concrètement, une fois que l’algorithme a identifié vos centres d’intérêt et compris ce qui vous animait, il creuse dans cette direction sans jamais s’arrêter. C’est dangereux, très dangereux car cela risque de nous enfermer dans un schéma de pensée bien précis.
Rien n’a changé malgré les risques de polarisation
Facebook le savait. Malgré ses propres constatations, le réseau social a ignoré les conclusions de ce rapport et a continué à faire fonctionner son algorithme avec les mêmes caractéristiques. Pour se justifier, les dirigeants invoquent bien une raison. Ils disent que : “des changements dans l’algorithme pourraient affecter de manière disproportionnée nos utilisateurs et pourraient nuire à l’engagement”.
C’est Joel Kaplan, vice-président de la politique publique mondiale de Facebook et ancien chef de cabinet du président George W. Bush, qui a comme mission principale de minimiser les faits. Il aurait un pouvoir d’influence très fort sur Mark Zuckerberg, à tel point que certains disent que c’est lui qui a convaincu le PDG du réseau social de ne pas censurer les publicités politiques à l’automne dernier. Un porte-parole de Facebook s’est défendu auprès de The Verge :
“Nous avons beaucoup appris depuis 2016 et nous ne sommes plus la même entreprise aujourd’hui. Nous avons constitué une solide équipe d’intégrité, renforcé nos politiques et nos pratiques pour limiter les contenus préjudiciables, et utilisé la recherche pour comprendre l’impact de notre plateforme sur la société afin de continuer à nous améliorer. En février dernier, nous avons annoncé un financement de 2 millions de dollars pour soutenir des propositions de recherche indépendantes sur la polarisation”.
Aucun commentaire:
Enregistrer un commentaire