Pour rester informé(e) des dernières actualités de l'IT en Belgique francophone, lisez ceci • Comment / Pourquoi s'abonner ?

Pepite à l’assaut de l’“edge analytics” industriel

Article
Par · 16/04/2019
Partager

La liégeoise Pepite, spécialisée dans l’analytique industriel, poursuit le tissage de son réseau et de sa présence à l’international. Tout récemment, la société a par exemple conclu un partenariat commercial avec Schneider Electric qui reprend désormais ses solutions Maestro dans son catalogue.

Côté clients, Pepite a signé un contrat en Allemagne avec le géant de la chimie Domo Chemicals, prépare la mise en oeuvre de solutions faisant appel à l’analytique et à l’intelligence artificielle dans les usines brésiliennes et canadiennes de Magotteaux (solutions d’optimisation pour industries extractives), et a convaincu le japonais Kyocera de miser sur sa solution plutôt que sur celle d’un certain IBM pour la surveillance et l’aide au pilotage d’unités de production de céramique (détection précoce d’anomalies au sein des fours, optimisation de la consommation d’énergie…).

Un projet IoT 4 Industry

L’année dernière, dans le cadre du premier appel à projets européen IoT 4 Industry, Pepite, en consortium avec notamment Lasea, a déposé avec succès un projet de recherche et innovation orienté IoT industriel. Le but: mettre au point une solution d’intelligence artificielle embarquée, intégrée à même les systèmes d’usinage laser que conçoit et produit Lasea. “C’est un nouveau chapitre d’activités qui s’ouvre ainsi potentiellement pour Pepite”, souligne Philippe Mack, Pdg de la société. “L’analytique embarqué à même les dispositifs est une tendance forte mais qui implique de relever pas mal de défis, en termes de puissance de calcul, de volume de stockage, de capacité de communications de ces équipements dans un environnement industriel souvent source de perturbations…”

En matière d’IoT et d’analytique industriels, les capacités en stockage et transfert des équipements “edge” sont bien entendu une difficulté supplémentaire mais le big data n’en est par contre pas forcément une composante incontournable. “Le tout est de traiter, sélectionner et filtrer correctement les signaux afin notamment de réduire la fréquence de collecte ou de rétention. Dans ce registre, des technologies de traitement traditionnelles ne perdent rien de leur pertinence, même à l’heure de l’IA.

Avec ce qu’on appelle l’edge analytics, le traitement se fait en local, sur base d’algorithmes qui opèrent au plus près de l’équipement. Les transferts de données proprement dits se limitent uniquement aux infos réellement nécessaires. Par exemple, un indicateur d’anomalie ou une donnée qui n’avait jamais été rencontrée auparavant…”

Autre contrainte: “Plus on rapproche l’analytique de l’équipement, plus la donnée doit être traitée rapidement. Et dans ce genre de circonstance, transférer vers le cloud n’est pas concevable en raison des problèmes de latence, voire de perte de données…”

Partager

Laisser un commentaire