PageRank et prédiction d’épidémies

Article
Par Saïd Mahmoudi · 03/06/2014

Lors d’un séminaire organisé pendant la Big Data Week qui s’est déroulée en mai en Wallonie, Nahid Emad, professeur d’informatique à l’Université de Versailles, a illustré les relations qui existent entre le Big Data et les outils de modélisation et de simulation dans un contexte du calcul intensif.

Document: UMons

Son propos portait notamment sur la similarité entre le calcul bien connu du Pagerank de Google et la propagation d’épidémie. Le PageRank est en effet calculé selon un principe de propagation d’importance. L’importance d’une page est proportionnelle au nombre de pages qui la citent ainsi que leurs importances. La puissance et la rapidité de l’algorithme du PageRank réside dans le fait que ces valeurs, qui sont en fait des valeurs propres, sont déjà pré-calculées.

La modélisation de la propagation d’épidémies peut se baser sur la même approche, et cela, afin de prédire les individus susceptibles d’attraper un virus. Le calcul du seuil d’épidémie est basé sur le calcul des valeurs propres de la matrice de représentation du réseau. Le principal problème de cette méthode est que le réseau étudié présente une topologie non nécessairement réaliste.

L’objectif des recherches menées par Nahid Emad est d’utiliser des réseaux plus réalistes et notamment hétérogènes. Dans ce contexte, elle précise que même de nouveaux algorithmes peuvent ne pas suffire. Il peut être nécessaire de composer des traitements avec des langages basés sur workflows, tout en utilisant des plates-formes de calcul puissantes, ainsi que de l’accélération matérielle multi-GPU/CPU. Elle note une convergence de l’informatique parallèle (données et traitements localisés) et de l’informatique distribuée (données et traitements en réseau ou sur cloud), en quête de l’ExaScale. Cela pourra profiter au Big Data, en fonction du volume, de la distribution et de l’hétérogénéité  des ressources et des données.