Des chercheurs du laboratoire de Zurich d'IBM ont développé un algorithme mathématique capable d'analyser en quelques minutes plusieurs teraoctets de données brutes. « Il trie, effectue des corrélations et analyse des millions de séries de données aléatoires, une tâche qui pourrait demander plusieurs jours à des supercalculateurs », décrit l'un des chercheurs, Costas Bekas. Fruit de deux ans de travaux, l'algorithme totalise moins d'un millier de lignes de code. Il permettra d'effectuer des modélisations sur des données provenant de capteurs ou de compteurs 'intelligents'. Parmi ses applications possibles, il pourrait être mis à profit pour améliorer les prévisions météorologiques, analyser la consommation électrique ou les niveaux de pollution de l'air et de l'eau, ou encore être utilisé évaluer des risques financiers collectifs ou individuels, énumère Costas Bekas. « Ce qui nous intéresse, c'est de mesurer la qualité de la donnée. L'analyse efficace d'importants volumes de données requiert de nouvelles méthodes mathématiques qui réduisent la complexité des calculs ».