Faut-il croire aveuglément ce que racontent les millions de sites internet et blogs qui fleurissent dans le monde entier? Des chercheurs travaillent à l'élaboration d'outils pour en mesurer la fiabilité.

Le besoin d'une évaluation des contenus s'est fait plus pressant au fur et à mesure qu'explosaient les sites alimentés par de simples usagers, lesquels s'improvisent parfois journaliste, scientifique, ou historien, avec des fortunes très diverses, explique Andreas Juffinger

Ce chercheur, qui participe cette semaine au 18e Congrès international World Wide Web, travaille au Know-Center, un centre de recherche technologique basé en Autriche. Son équipe oeuvre à l'élaboration d'un programme qui analyse les blogs et les classe automatiquement en trois catégories: «très crédible», «moyennement crédible», et «peu crédible».

Le programme recense automatiquement l'occurence statistique de mots clés d'un site et compare ensuite son contenu avec ceux d'articles de presse consacrés au même thème et publiés à partir d'informations jugées fiables, telles que celle de l'agence de presse autrichienne APA.

«Cela a donné des résultats prometteurs, nous pensons que nous allons dans la bonne direction», explique Andreas Juffinger. «La recherche doit se faire automatiquement à l'aide d'un programme car il est impossible pour les usagers de recenser et lire tous ces blogs,» ajoute-t-il.

Au Japon, des chercheurs sont en train de développer un programme qui sonde la variété des points de vue disponibles sur internet autour d'un même thème, pour les présenter ensuite aux surfeurs sous forme d'une «carte des opinions» qui leur permet de comparer les sites.

«Nous pensons vraiment que cette ''carte des opinion'' peut aider les usagers à se forger leur avis sur la fiabilité d'un site web», explique Koki Murakami, du Nara Institute of Science and Technology.

Le nombre de sites internet disponibles dans le monde est passé d'à peine 500 en 1994 à plusieurs dizaines de millions aujourd'hui, selon Microsoft.

L'un des plus populaires aujourd'hui est Wikipedia, l'encylopédie en ligne qui permet à tout un chacun de s'informer sur un thème et d'apporter ses ajouts à l'article consulté.

Cette formule a parfois semé de sérieux doutes sur sa crédibilité, comme par exemple lorsqu'en janvier, Wikipedia a affirmé par erreur que le sénateur américain Edward Kennedy était mort le jour de l'investiture du président Barak Obama.

En dépit d'incidents de ce type, Wikipedia n'a cessé de grandir depuis sa fondation en 2001 et offre aujourd'hui jusqu'à 2.6 millions d'articles dans sa seule version en anglais.

Pour évaluer sa crédibilité, des chercheurs de l'Université d'Udine, en Italie, travaillent sur la création d'un algorithme qui attribue des notes de qualité aux articles et à leur contributeurs.

«Les résultats préliminaires montrent que l'algorythme semble identifier correctement les articles de bonne et de mauvaise qualité,» assure l'équipe dirigée par Alberto Cusinato dans un document présenté à Madrid.

La revue scientifique britannique Nature a examiné une série d'articles scientifiques disponibles en 2005 à la fois sur Wikipedia et la très renommé Encyclopedia Britannica. Conclusion: les entrées de Wikipedia sont souvent mal structurées et confuses. Mais sur l'exactitude des informations, la différence est plutôt minime.

Vous avez une nouvelle à nous communiquer ou encore une idée pour un reportage? Écrivez-nous à technaute@cyberpresse.ca