Obsolescence programmée des services publics

Tribune
Par Georges Ataya · 22/10/2014

Tout comme les machines actuelles produites par des sociétés innovatrices mais trop planificatrices, les services publics semblent eux aussi risquer une obsolescence mais causée, à l’inverse, par le manque de planification et d’innovation. Voici les faits.

Comme tout organisme, les services publics sont organisés autour d’éléments de base qui constituent leurs modèles opératoires ou, plutôt, leurs architectures internes. Pour subsister, ils exigent la disponibilité de ressources indispensables à leur développement. Or, chacune de ces ressources semble affectée de défauts spécifiques.

Cet article prend en considération chacune de ces ressources essentielles – l’information, les applications, l’infrastructure, le personnel administratif et le personnel informatique – et décrit les risques qui les accompagnent. Il commente également les risques associés au recours – souvent obligé – à des services externalisés et à des produits acquis dans le cadre de marchés publics. Il conclut en soulignant la fragilité de tous ces éléments et la nécessité de les entretenir pour éviter l’obsolescence inévitable.

Manque de cohérence

L’information est et reste la ressource principale de l’administration publique. La gestion et la communication d’une information adéquate assurent le pilotage, l’exploitation et le contrôle de tout service public.

Gérée fréquemment par les départements techniques, souvent par le service informatique, elle est organisée en îlots non homogènes et non intégrés. Elle manque souvent de cohérence et contient beaucoup de redondances et d’inexactitudes. Un manque d’intégration est souvent causé par l’absence de ressources humaines et de méthodes pertinentes. L’effort est dirigé vers la création de nouveaux magmas d’information qui répondent à des besoins sporadiques plutôt que de nettoyer et de restructurer ce qui existe.

Les applications informatiques représentent le cœur battant de l’administration. Elles permettent de véhiculer et de traiter l’information.

Une standardisation des applications est nécessaire pour en assurer l’homogénéité et la facilité d’adaptation. Or, il est très rare qu’il y ait des investissements dans ce sens car, trop souvent, la tendance est de répondre de manière anarchique aux demandes impératives des utilisateurs. Pourtant, cela nécessiterait une planification continue et une vision d’ensemble remise régulièrement à jour.

“L’effort est dirigé vers la création de nouveaux magmas d’information qui répondent à des besoins sporadiques plutôt que de nettoyer et de restructurer ce qui existe.”

D’autre part, l’acquisition d’applications standard force l’adoption de structures qui ne sont pas nécessairement en ligne avec l’architecture de données et des infrastructures internes. Ceci force la création d’applicatifs additionnels sans autre valeur ajoutée que celle de transférer des données d’un univers vers un autre, d’une plate-forme technique vers une autre, acquise récemment.

On fait appel de plus en plus à des fournisseurs externes pour développer des applications sur mesure avec des méthodes de sélection qui se focalisent souvent sur les offres les moins chères. Le peu de moyens dégagés ne permet pas de respecter l’alignement avec l’architecture interne. D’autres causes sont le manque de documentations précises préalables d’une part, d’accréditation et d’acceptation formelle des livrables, de l’autre.

Le recours à des marchés publics fréquemment rédigés par des fonctionnaires pressés par le temps entraîne l’omission d’exigences non fonctionnelles. Parmi les exigences qui passent à la trappe, citons celles qui consistent à assurer une intégration des éléments externalisés dans une architecture interne peu compatible, ou encore celles qui permettent d’assurer une utilisation qui soit économe, tant en ressources techniques – pour leur maintenance – et en énergie – pour leurs opérations (on cite souvent l’informatique verte dans ce contexte).

Les exigences en sécurité d’accès et en continuité des opérations, telles que définies par l’administration, sont également souvent rabotées.

Des services publics fédéraux belges performants évitent ces défauts en publiant les principes architecturaux et les besoins non fonctionnels, sur leurs sites, à l’intention de toute entreprise souhaitant répondre aux appels d’offres les concernant.

Trop de cas par cas

L’infrastructure constitue le matériel informatique nécessaire au traitement, au stockage et à la communication de l’information. Ses composants sont souvent achetés au cas par cas lorsque la demande se manifeste. Les budgets sont, par défaut, limités et les acquisitions sont liées aux projets, aux demandes départementales, et non sur base d’une vue globale, planifiée, transversale et multi-annuelle.

Le matériel est souvent acheté de manière sporadique. Ceci complique une planification à long terme et l’extension selon les besoins les plus appropriés. En conséquence, l’harmonie architecturale est encore plus fragilisée à chaque achat et des faiblesses programmées s’incrustent dans le mécanisme.

Les achats urgents d’un fournisseur opportun répondent rarement à toutes les exigences minimales de qualité.

L’infrastructure est par ailleurs souvent polluée par des achats départementaux ad hoc pour répondre à des besoins fonctionnels spécifiques. Achetés à l’origine pour une utilisation locale, ces machines, ces serveurs, ces applicatifs ou ces dispositifs techniques sont tôt ou tard connectés à l’infrastructure commune. Pour les faire profiter d’une stabilité accrue, leur intégration fragilise tout l’édifice. A leur tour, les systèmes communs souffriront. L’intégrité des données, la sécurité et la continuité de l’ensemble se diluent et s’affaiblissent. Le recours sans contrôle adéquat à un phénomène nouveau – à savoir l’utilisation des “nuages” (Cloud Computing) – augmente encore plus cette vulnérabilité.

En parallèle à l’affaiblissement de l’infrastructure et des applications, le personnel n’est pas épargné. Les besoins en compétences et en connaissances du personnel administratif responsable pour le changement organisationnel et celui du personnel informatique ne cessent de s’accroître.

On est de plus en plus obligé de faire appel à des consultants et à des techniciens externes pour aider à gérer une diversité de technologies, de méthodes et de besoins. Ce faisant, la connaissance qu’a le personnel interne de ses propres méthodes opérationnelles est éparpillée, rarement documentée par manque de ressources et par nécessité de vaquer à la prochaine urgence.

On ne rase jamais gratis et pourtant des décideurs considèrent comme acquis toute amélioration des méthodes de travail, toute augmentation de la convivialité des systèmes et toute multiplication des nouveaux services au citoyen. Des ressources non négligeables sont nécessaires pour atteindre ces objectifs.

“L’obsolescence programmée se traduit par des défauts cachés, par des données multiples, par des applicatifs redondants et par un personnel informatique épuisé.”

Mais souvent, lorsque les ressources adéquates ne sont pas réunies, les améliorations sont réalisées avec pour résultat une qualité moindre des systèmes.

Ce qui paie souvent la note finale, c’est cette charpente de base qui soutient tout ce mécanisme. Elle se fragilise jour après jour. Elle se dégrade en silence. L’obsolescence programmée se traduit par des défauts intrinsèques cachés dans l’infrastructure technique, par des données multiples, par des applicatifs redondants et par un personnel informatique épuisé.

Dans une ère où la cyber-sécurité est sur toutes les lèvres, nous négligeons souvent une vulnérabilité interne, plus terre-à-terre et plus pernicieuse, qui a le potentiel de causer plus de dommages au moment le moins opportun.

Il est temps d’adapter ses ressources à ses ambitions, d’imposer des niveaux de qualité minimaux essentiels et de consacrer une partie des efforts à améliorer cette autoroute de l’information qui est amenée à nous servir encore pendant longtemps.

Georges Ataya est professeur à la Solvay Brussels School of Economics and Management, en charge des formations en IT Management Education et en Information Security Management Education (solvay.edu/IT, les cours commencent en janvier 2015).
Il est aussi associé gérant d’ICT Control s.a., cabinet de conseil en management (ictc.eu).
E-mail: Georges@ataya.net.