L'importante faille de sécurité du web, découverte il y a six mois et qui a pu être corrigée grâce à la mobilisation des géants informatiques, témoigne de la fragilité du système, estiment des experts interrogés par l'AFP.

- À quels risques cette faille exposait-elle les internautes ?

La faille portait sur le Domain Name System (DNS), le système central qui met en relation les adresses IP (Internet Protocol), sortes de numéros similaires à des numéros de téléphone (par exemple 127.0.0.1), et les noms de domaine, comme google.com.

Entre sa découverte par le spécialiste en sécurité Dan Kaminsky et la diffusion cette semaine d'un logiciel de correction, «des pirates informatiques auraient pu exploiter cette faille à des fins d'attaque, comme le "phishing" (hameçonnage) ou le "pharming"», et ainsi contrôler le trafic internet mondial, explique Stephan Roux, consultant sécurité chez Sophos.

Concrètement, ce type d'escroqueries, en plein essor, consiste à rediriger les internautes vers un faux site dans le but de vous dérober des données personnelles.

Selon Jean-Philippe Bichard, porte-parole en France de la société d'anti-virus Kaspersky Lab, «nous sommes passés à côté d'un cyber-risque majeur». Il appelle cependant à ne pas «céder à un catastrophisme de bon aloi».

Microsoft lui-même qualifie cette faille de «vulnérabilité importante, mais pas critique», souligne son directeur technique et sécurité pour la France, Bernard Ourghanlian.

- La collaboration des géants informatiques pour corriger la faille est-elle habituelle ?

Non. C'est la première fois que des «éditeurs concurrents», dont Microsoft, Sun Microsystems et Cisco, diffusent «collectivement, de manière simultanée, le même correctif» sur toutes les plates-formes informatiques pour protéger rapidement la plupart des internautes», constate M. Bichard.

Les acteurs de l'internet prennent conscience de la nécessité d'«unir leurs efforts» face à des cyber-attaques potentielles, dit-il.

«Le système DNS concerne la sécurité de l'internet dans sa globalité, donc une collaboration de ce type était nécessaire: c'est une mobilisation presque sans précédent de toute l'industrie informatique», confirme M. Ourghanlian.

- Comment une telle faille a-t-elle pu être possible et le problème est-il définitivement réglé?

«Les protocoles qui sont au coeur de l'internet ont été définis dans les années 1970 et 1980 et la sécurité des données n'y était pas inscrite. A l'époque, on n'avait pas du tout prévu que le web deviendrait une espèce de grande matrice tentaculaire avec des milliards de machines», relève Guillaume Lovet, expert de la société Fortinet.

Un tel décalage entre les préoccupations d'hier et d'aujourd'hui explique par exemple la prolifération des pourriels et la difficulté à les éradiquer, dit-il.

Mais de l'aveu des spécialistes, changer cette infrastructure, redéfinir ces protocoles, serait extrêmement compliqué, long et très coûteux.

Pour l'instant, les acteurs se contentent donc de déployer des logiciels de correction, une «solution de court terme» qui laisse «une fenêtre d'opportunité» pour les pirates, selon M. Lovet.

Dans ces conditions, «ne faudrait-il pas un second internet hyper-sécurisé, réservé aux entreprises, sortes d'autoroutes payantes?», s'interroge M. Bichart, qui imagine un «internet à deux vitesses».