Le principal problème du géant bleu, c'est que ses algorithmes se sont complexifiés avec les années... au point de devenir quasiment incompréhensibles. Même ses propres auteurs n'y comprennent plus rien, a révélé le journal Le Monde, qui a participé à l'émergence des «Facebook Files».
C'est le cas de l'algorithme qui s'occupe de classer les publications dans notre fil d'actualité. Pour choisir ou non de le faire apparaître, Facebook utilise une série de «signaux» pour lui attribuer un score. Ces signaux sont divers et variés:
Plus le score est élevé, plus la publication a de chances d'apparaître dans votre fil d'actualité.
Or, avec le temps et les nouveaux signaux ajoutés par les ingénieurs, le score moyen d'un message a littéralement explosé. Il est si élevé que de nombreux outils de modération sont devenus tout bonnement... inefficaces.
Le plus dérangeant dans tout ça, c'est que cette complexification n'est absolument pas intentionnelle de la part du réseau social. Ce n'est qu'un des nombreux effets provoqués par les centaines de modifications des algorithmes de Facebook au cours des ans.
Et ce n'est pas faute d'avoir recruté parmi les meilleurs ingénieurs du monde pour comprendre ce manque de contrôle croissant sur les contenus exposés aux utilisateurs.
Au cours des dernières années, Facebook a tenté d'apporter plusieurs changements à ses algorithmes pour mieux réguler ses contenus. L'une des modifications les plus notables, en 2018, est celle des «interactions sociales interactives» (meaningful social interactions, ou MSI).
Cet algorithme était censé donner davantage de poids aux contenus partagés par vos proches... y compris lorsque ceux-ci sont issus de pages douteuses ou très engagés politiquement. Le but? Accroître le «bien-être» des utilisateurs.
L'ensemble fonctionnait sur un système de points: la manière dont nos amis «réagissent» à une publication (en la commentant, en la likant, en lui attribuant une réaction...) la rend plus susceptible d'apparaître dans notre propre fil d'actualité.
Un fonctionnement que les utilisateurs malveillants ont fini par comprendre. Pour obtenir de la visibilité, ces utilisateurs ont posté «des choses toujours plus scandaleuses pour obtenir des commentaires et des réactions. Nos algorithmes interprètent alors ces points comme des signes qu'il faut laisser la publication devenir virale», indique un mémo de décembre 2019 d'un chercheur de Facebook, rapporté par CBS News.
Si l'objectif des MSI était initialement de donner «la priorité aux publications qui inspirent des interactions, en particulier les conversations entre la famille et les amis», selon un porte-parole de Facebook à la chaîne, ils ont surtout contribué à partager les contenus clivants.
Facebook a toujours nié que son objectif absolu était l'engagement de ses utilisateurs (qui est pourtant à l'origine des revenus publicitaires).
Au contraire, le géant bleu affirme que, pour favoriser la sécurité et le bien-être de ses utilisateurs, il n'a pas hésité à prendre des mesures:
Mark Zuckerberg, le tout-puissant PDG de Facebook, s'est exprimé sur ces fuites de documents en affirmant que sa société avait «une culture ouverte qui encourage la discussion et la recherche sur notre travail, afin de progresser sur de nombreuses questions complexes – qui ne sont pas spécifiques à nous seuls».
Sur ce point, il n'a pas tort: Les travers des algorithmes ne sont pas la seule spécificité de Facebook.
Les mêmes effets de bord imprévus se produisent à chaque fois que se mêlent personnalisation du contenu et amplification algorithmique, sur n'importe quel réseau social. TikTok ou Youtube ont également été touchés.
Pas plus tard que la semaine dernière, Twitter en fait la démonstration. Dans un long communiqué, le réseau social a révélé que son algorithme met particulièrement en avant les contenus politiques de droite. Et il est incapable d'expliquer pourquoi.