Attention : Nous mettons à jour notre gestion des abonnements. Si vous rencontrez un bug, n'hésitez pas à nous contacter à bugs@regional-it.be

Pour rester informé(e) des dernières actualités de l'IT en Belgique francophone, lisez ceci • Comment / Pourquoi s'abonner ?

GIS / SIG : l’intelligence au service des données géospatialisées

Tribune
Par Raoul Penneman · 02/02/2017
Partager

Les GIS ou SIG (Systèmes d’Information Géographique) répondent aux questions fondamentales du “où” et du “quand”. Mais comment rendre ces données pertinentes quand les flux de données deviennent à ce point imposants qu’aucune solution n’arrive plus à livrer une information intelligente pour une prise de décision adéquate? Qu’est-ce qui définit une “smart data”?

On n’attend plus uniquement des outils de traitement des donnée qu’ils procurent un affichage thématique, avec zoom et filtrage de la présentation, mais qu’ils permettent de recevoir les notifications d’événements adéquats et circonstanciées, pour de meilleures prises de décisions. Notre société intelligente, celle des “smart cities”, demande une vision globale, replacée dans le bon contexte. Dans cette structuration, les notions de “quand” et de “où” sont particulièrement importantes pour comprendre le “pourquoi” et le “comment”, dans la mesure où les comportements humains sont totalement dépendants de l’espace et du temps.

La loi de Moore inapplicable au Big Data

Depuis 20 ans, les usages et le fonctionnement des SIG (Systèmes d’Information Géographique, GIS en anglais) ont fortement évolué et se sont étendus à mesure que les outils se transformaient. Ce n’est pourtant qu’un début: il est impossible qu’un système SIG actuel reste en service sans changement fondamental au cours des 10 prochaines années – et probablement moins.

La raison en est que nous sommes confrontés à une énorme explosion des quantités d’informations, d’origines et de formats très différents, qu’il est désormais impossible qu’elles soient traitées sans transformation, et ce, malgré une augmentation presque conforme à la loi de Moore en termes de puissance des processeurs informatiques et malgré l’avènement du cloud computing.

Capteurs IoT (Internet of Things), réseaux sociaux, “open data”, terminaux mobiles… Les flux d’informations progressent bien trop rapidement! Les experts tablent même sur une multiplication de ces flux par 20 d’ici 3 ans!

Véracité et Valeur donnent sens à la donnée

Le SIG, comme les autres technologies qui se transforment avec le Big Data, doit répondre aux “3 v”: Volume, Variété et Vélocité. Mais pour assimiler et transformer ces données presque en temps réel, il faut ajouter 2 v complémentaires : Véracité et Valeur. Le sens, le contexte, les relations entre les données et leur qualité définissent leur pertinence et leur valeur à la prise de décision, par rapport à une masse de données isolées qui de ce fait sont presque inutiles. Le premier pas pour leur donner sens est un contexte géospatial fiable et cohérent pour positionner un événement là où il se produit réellement.

Des téra-octets du Big Data aux octets du Smart Data

Pour créer de la Sagesse permettant d’avoir la Vision et d’agir intelligemment, à partir de données, il faut développer un système de règles et de filtrage intelligent et évolutif, qui transformera les téra-octets du Big Data en octets de données exploitables du Smart Data.

Les données récupérées, si elles émanent souvent de systèmes bien structurés du monde de l’entreprise ou des collectivités, doivent être combinées à d’autres sources: open data, IoT (Internet des Objets) ou encore des réseaux sociaux, dont la structuration n’est pas toujours la même.

Les systèmes de règles automatisées doivent être suffisamment souples pour révéler et assimiler de nouveaux formats et modèles de données et les rendre exploitables, voire pour pouvoir compléter les données présentes en développant des raisonnements logiques.

Fixer un objectif pour déterminer les bons filtres

Il s’agit de donner un objectif aux données. Il déterminera le sens des règles qui trieront automatiquement les données exploitables. Par exemple, pour comprendre l’évolution du taux de remplissage des hôtels d’une ville comme Bruxelles et définir les actions pour accroître ce taux, les filtres devront notamment intégrer les prix des billets de train et d’avion vers cette destination, la qualité des zones touristiques en centre-ville… mais, dans le même temps, tenir compte de la rénovation d’un tunnel routier liant la ville à sa banlieue.

Seule une planification intelligente des données permettra de répondre à ce défi et de présenter les tableaux de bords synthétiques, comprenant rapports, graphiques et cartes, avec différents niveaux de filtres transformant les big data en KPI (Indicateurs-clé de performances) permettant d’obtenir une vision globale. Des règles flexibles et adéquates et l’automatisation permettront de fournir le bon contexte et d’adapter les produits en peu de temps aux besoins du marché par quelques réglages.

Faire ressortir les sources saines

Les objectifs une fois déterminés, on peut créer les filtres pour nettoyer les données, en supprimer le “bruit”, éventuellement les compléter et agir sur des ensembles raffinés. Mais ce n’est qu’un début. Au-delà des règles, il faut pouvoir faire confiance aux données collectées. Des données trompeuses (véracité) ou de mauvaise qualité (valeur) n’aideront en rien aux prises de décision, bien au contraire. Certains moteurs de règles modernes, évolutifs, intuitifs et basés sur des normes ouvertes, peuvent aider à faire ce tri, pour nettoyer les données disponibles, les intégrer, les compléter et en tirer des KPI ou des notifications d’événements exploitables.

Le processus, plus important que le résultat

Ce qui importe vraiment, c’est le processus. C’est lui qui valide les résultats. Les outils et les méthodologies utilisés sont d’abord utiles pour donner du sens aux données récupérées. Les SIG les plus modernes adoptent une approche par règles positives et s’adaptent à tout type de formats. Les données qui ne se conforment pas aux règles pré-établies seront identifiées et automatiquement remontées. Les “erreurs” similaires seront traitées collectivement par un simple affinement des règles. Ce sont ces notions de sens et de contextualisation des données qui font le web 3.0 et qui préfigurent le web 4.0, encore appelé “web ubiquitaire”.

Raoul Penneman

Business Development Manager chez 1Spatial

Partager