Chaque jour l'humanité produit 2,5 quintillions (10 à la puissance 18) d'octets de données informatiques. Cette production croît à une vitesse telle qu'on estime que 90% de toute l'information jamais créée l'a été au cours des deux dernières années. Aujourd'hui, des entreprises se proposent d'exploiter cette montagne d'information afin d'optimiser les processus d'affaires. Bienvenue à l'ère du «big data».

Déjà, ce phénomène des «données volumineuses» a pris d'assaut la Silicon Valley, en Californie. C'est la faute de l'internet: Google, IBM et Facebook doivent trier une énorme quantité de données presque instantanément. Elles ont découvert qu'elles avaient une mine d'or entre les mains. À condition de bien structurer toute cette information.

«Le big data s'applique à toutes les industries, mais la Silicon Valley est la première à s'y attaquer, surtout sous l'angle technique: au début, l'idée était de créer un système distribué sur plusieurs ordinateurs capable de stocker, de lire et d'écrire de grands volumes de données en parallèle», explique Félix Giguère-Villegas, fondateur de Big Data Montréal, un regroupement de spécialistes qui organise des conférences bimestrielles afin de mieux faire connaître le phénomène à la fois aux entreprises, aux professionnels en TI ainsi qu'aux écoles québécoises.

Big Data Montréal a aussi un petit défi à relever: avec l'émergence de l'informatique en nuage, ce ne sont plus que les grandes entreprises qui peuvent créer des systèmes de données volumineuses. Les PME aussi. Cela crée une forte demande de spécialistes, mais ils sont rares, au Québec, à maîtriser les outils.

En fait, le phénomène est si récent que ni l'ETS ni aucune école spécialisée n'offrent de formation sur le sujet. «Je vois passer des dizaines d'offres d'emploi chaque mois.

C'est certain que la première école qui va offrir une formation sur le big data va voir le premier salaire de ses diplômés monter sensiblement.

Les entreprises se les arrachent», assure le jeune ingénieur en logiciel montréalais qui travaille actuellement pour Mate1.com, un site de rencontre qui, on le devine, mise sur le traitement d'un volume important de données afin d'aider à trouver l'âme soeur.

Sécurité, jeux vidéo...

Les forums internet, Facebook, Twitter et l'imagerie numérique sont tous des sources d'information qui peuvent être exploitées par les outils de traitement des données volumineuses. La plupart gravitent autour du logiciel libre Hadoop, auquel vient se greffer une gamme complète d'outils d'exploration de données.

L'exploration de données, ou data mining, n'est pas nouvelle en soi. C'est le volume de données étudié, qui a explosé au cours des dernières années, qui rend le phénomène plus puissant que jamais, en faisant l'un des vecteurs de croissance les plus prometteurs à court terme pour les TI.

La société IDC estime que la valeur des activités de données volumineuses passera de 3,2 milliards de dollars, en 2010, à 16,9 milliards en 2015.

Applications prometteuses

Tous les domaines d'affaires peuvent en bénéficier: la sécurité d'un commerce peut être renforcée par l'analyse en direct du flux vidéo de caméras de surveillance.

Les jeux vidéo en ligne de studios comme Electronic Arts bénéficient d'un calcul et d'une distribution de l'affluence en temps réel sur les serveurs.

«C'est simple: le big data multiplie les chances d'innovation et d'optimisation en entreprise. À l'opposé, c'est une technologie émergente pour laquelle tous, des très grands fournisseurs de services informatiques aux jeunes pousses technos, voient des applications prometteuses. C'est clairement la prochaine grande vague informatique», assure Dan Vesset, directeur de recherche pour IDC.

Pour joindre notre collaborateur: alain.mckenna@lapresse.ca