(San Francisco) Les systèmes automatiques de Facebook génèrent des contenus à destination de groupes liés au terrorisme, que les algorithmes ne reconnaissent pas comme tels, selon une ONG américaine jeudi.

Glenn CHAPMAN
Agence France-Presse

La National Whistleblowers Center, spécialisée dans les lanceurs d’alerte, a étudié pendant cinq mois les pages Facebook de 3000 utilisateurs qui avaient « aimé » ou étaient liés à des organisations considérées comme terroristes par les autorités américaines.

Selon cette ONG, les groupes djihadistes État islamique et al-Quaïda étaient « ouvertement » actifs sur le réseau, dont les systèmes automatiques n’identifient pas toujours tous les contenus problématiques.  

Du coup, les algorithmes peuvent créer automatiquement des contenus, comme par exemple les petits montages « souvenirs » qui reprennent des publications des groupes en question, ce qui fait dire à l’ONG que Facebook créé sans le vouloir des contenus extrémistes, qu’il s’attache pourtant à chasser de sa plateforme.

« Les efforts de Facebook pour chasser (les contenus liés au) terrorisme sont faibles et inefficaces », selon l’ONG, qui écrit aussi que le réseau social crée et promeut des contenus (de ce type) via sa technologie « .

La National Whistleblowers Center dit avoir déposé une plainte auprès du gendarme américain de la Bourse, la SEC, au nom d’un » lanceur d’alerte « ayant requis l’anonymat.

Interrogé par l’AFP, Facebook a fait valoir qu’il » supprimait « les contenus assimilables à du » terrorisme « à un » rythme bien plus élevé qu’il y a encore deux ans « .

Comme il le fait régulièrement savoir, le groupe a redit qu’il ne prétendait pas débusquer tous les contenus litigieux mais faisait de son mieux.

Facebook a supprimé la semaine les comptes et contenus liés à plusieurs figures d’extrême droite américaine, comme Alex Jones ou de l’antisémitisme, comme Louis Farrakhan.