Le géant de l'Internet Google a soutenu mercredi qu'il ne pouvait filtrer tout le contenu lié au terrorisme dans la multitude de vidéos publiées sur son site YouTube.

Témoignant devant le groupe parlementaire «des démocrates et des libéraux pour l'Europe» à Bruxelles, la directrice des politiques publiques chez Google, Verity Harding, a rappelé qu'environ 300 heures de nouveau matériel vidéo étaient versées sur YouTube à chaque minute.

Selon elle, on ne pourrait filtrer les vidéos avant qu'elles ne soient versées dans YouTube, pas plus qu'on ne pourrait filtrer un appel téléphonique avant qu'il ne soit logé.

Selon le coordonnateur de l'Union européenne pour la lutte contre le terrorisme, Gilles De Kerchove, les États devraient créer des unités spéciales qui pourraient identifier sur Internet le contenu lié au terrorisme, afin d'aider les entreprises à contrôler les risques à la sécurité publique.

Actuellement, sur YouTube, ce sont les usagers qui peuvent signaler une vidéo litigieuse, qui pourra ensuite être visionnée et évaluée par le personnel du site.

Lorsqu'une unité spéciale de Scotland Yard a récemment signalé à Google que du matériel en ligne ne respectait pas les propres règles de l'entreprise, 93% de ce contenu a été retiré, a indiqué M. De Kerchove. Mais lorsque c'est un usager qui signale un problème, le tiers seulement du contenu est retiré.

Mme Harding a expliqué que la détection de matériel violent, extrémiste ou raciste constituait une tâche colossale, que des organisations peuvent mieux accomplir grâce à des actions ciblées.

Mais malgré la menace sérieuse que font peser les vidéos extrémistes et violentes, ni les grandes entreprises ni l'Union européenne sont prêtes à s'engager dans des batailles judiciaires pour les faire retirer. «On peut songer à des lois, mais j'ai bien peur que cela devienne un exercice extrêmement lourd», a estimé M. De Kerchove.