Les systèmes d'algoritmes de Facebook «ont promu la violence contre les Rohingyas». Meta «doit des réparations» aux victimes pour avoir laissé se propager sur sa plateforme des messages de haine contre cette minorité ethnique, affirme Amnesty International:
L'organisation de défense des droits de l'Homme estime que «Meta savait ou aurait dû savoir que les systèmes d'algorithmes de Facebook amplifiaient la propagation de contenus nocifs anti-Rohingyas au Myanmar», mais «cette entreprise s'est abstenue d'agir».
Des témoignages ont fait état de meurtres, de viols et d'incendies criminels. Environ 850 000 membres de cette minorité musulmane vivent dans des camps de fortune au Bangladesh, après avoir fui. Quelque 600 000 autres se trouvent dans l'Etat Rakhine, en Birmanie.
«Dans les mois et les années ayant précédé ces atrocités, les algorithmes de Facebook ont intensifié la vague de haine contre les Rohingyas, contribuant ainsi à la survenue de violences dans la vraie vie», a estimé Agnès Callamard, secrétaire générale d'Amnesty International. Meta a «tout intérêt» à ce que les utilisateurs et utilisatrices de Facebook restent le plus longtemps possible sur la plateforme, «car cela lui permet de vendre d'autant plus de publicité ciblée», relève Amnesty:
Trois plaintes ont été déposées au Royaume-Uni et aux Etats-Unis par des représentants des Rohingyas et sont en cours d'examen. Des organisations de jeunes réfugiés rohingyas ont aussi engagé contre Meta une procédure devant l'Organisation de coopération et de développement économiques (OCDE).
Pour Amnesty, il est «absolument indispensable» que Meta procède à une «vaste réforme de ses systèmes d'algorithmes (...) faute de quoi le drame qui lie Meta et les Rohingyas risque de se reproduire ailleurs dans le monde, en particulier là où couvent des violences ethniques». (ats/jch)