Conception et déploiement d'une architecture de surveillance continue multiparamètres pour la conformité PGSSE : méthodologie, défis opérationnels et retours d'expérience
Surveillance continue : pilier opérationnel du PGSSE
Du contrôle ponctuel a la maîtrise du risque
La mise en oeuvre d'un Plan de Gestion de la Sécurité Sanitaire des Eaux (PGSSE) s'inscrit dans une logique de gestion des risques appliquée à l'eau destinée à la consommation humaine, de la ressource jusqu'au point d'usage. Cette approche est portée au niveau européen par la directive (UE) 2020/2184 relative à la qualité des eaux destinées à la consommation humaine et transposée en droit français notamment par le decret n° 2022-1720 du 29 decembre 2022, qui fait évoluer le cadre réglementaire applicable aux responsables de production et de distribution.
En pratique, cette évolution amène de nombreux exploitants à passer d'un modèle dominé par « prélèvements + laboratoire » à une architecture de surveillance continue multiparametres : capteurs en ligne, stations de mesure, télétransmission, historisation, intégration SCADA et alarmes temps réel. L'objectif n'est pas de remplacer le contrôle sanitaire, mais de réduire le temps de détection, d'objectiver les dérives, de documenter les barrières de sécurité et d'améliorer la traçabilité des décisions.
Objectif de l'article et périmètre
Le présent article décrit une méthodologie de conception et de déploiement d'une surveillance continue au service d'un PGSSE, met en évidence les défis récurrents (hydraulique, instrumentation, donnée, maintenance, cybersécurité, exploitation) et synthétise des retours d'expérience. Les exemples de briques techniques cités s'appuient sur des dispositifs et logiciels du groupe Badger Meter, déployés et supportés en France par s::can France.
PGSSE : limites du ponctuel et realites terrain
Pourquoi le prélèvement peut manquer l'événement
Sur de nombreux réseaux d'eau potable, la surveillance repose encore largement sur des prélèvements planifiés (avec analyses en laboratoire) et quelques mesures en continu souvent concentrées sur l'usine (pH, chlore, turbidité). Or, les événements dégradant la qualité en distribution sont fréquemment transitoires (durée courte) et localisés : inversions de flux, changements de provenance, remise en suspension, intrusion lors de dépression, stagnation, dysfonctionnement de chloration, variations thermiques, ou hausse de charge organique. Un prélèvement ponctuel peut donc ne pas capturer l'événement si sa durée est inférieure à l'intervalle d'échantillonnage.
Mesurer ne suffit pas : il faut pouvoir démontrer
Dans une logique PGSSE, l'enjeu n'est pas seulement d'acquérir des valeurs, mais de pouvoir démontrer et documenter :
- la couverture des points critiques par des barrières (désinfection, maintien du résiduel, contrôle de turbidité, suivi d'indicateurs organiques type UV254, intégrité hydraulique) ;
- la capacité à détecter, qualifier, horodater et traiter les écarts dans des délais compatibles avec le risque ;
- la fiabilité et l'exploitabilité de la donnée (métrologie, traçabilité, qualité de données, auditabilité).
Defis techniques a anticiper des la conception
Representativite hydraulique du point de mesure
Une mesure en continu n'a de valeur que si le point de mesure est représentatif. En réseau, les régimes d'écoulement varient (débits nocturnes, faibles renouvellements, mélange de ressources), et l'installation doit prévenir les biais liés à la prise d'échantillon : pertes de charge, bulles, dépôts, vitesse minimale, compatibilité matériaux, risques de stagnation en ligne de prélèvement, ou temps de transit vers une cellule de mesure. Ces facteurs peuvent biaiser le chlore libre, la turbidité, la conductivité et les mesures UV-Vis, et retarder la détection.
Maintenance, encrassement et dérives capteurs
Les capteurs multiparamètres en ligne limitent l'usage de réactifs selon les technologies, mais restent exposés à l'encrassement (biofilm, dépôts minéraux, MES), aux dérives optiques et aux contraintes de nettoyage/étalonnage. Une architecture cohérente avec un PGSSE doit prévoir : maintenance préventive, éléments de diagnostic (état capteur, codes qualité), gestion des indisponibilités (mode dégradé), et documentation métrologique.
Données : fragmentation, latence et horodatage
Dans un système hétérogène (qualité, pression/debit, télémétrie, SCADA, SIG, GMAO), la fragmentation des données est un risque majeur : serveurs multiples, unités incohérentes, latences variables, pertes de transmission, horodatages non synchronisés et règles d'alarme disparates. La synchronisation temporelle est un point critique : un décalage de quelques secondes à minutes peut empêcher la corrélation entre un événement hydraulique (chute de pression, variation de débit) et une réponse qualité (turbidité, UV254, chlore), compliquant l'analyse et la justification PGSSE.
Traçabilité et cybersécurité OT/IT
Le PGSSE impose une logique documentaire : preuves de surveillance, enregistrements, justification des seuils, rapports d'événements et démonstration d'efficacité des mesures de maîtrise. En parallèle, l'ouverture OT vers IT (accès distant, APIs, cloud, télérelève) accroît l'exposition cyber. La conception doit intégrer segmentation, gestion des accès, durcissement et supervision, en s'appuyant sur des référentiels reconnus, par exemple le guide ANSSI La cybersécurité des systèmes industriels.
Methodologie de deploiement d'une surveillance continue
Traduire les scenarios PGSSE en exigences instrumentees
La première étape consiste à formaliser une spécification de besoins orientée risques :
- scénarios (perte de désinfectant, turbidité transitoire, intrusion, mélange de ressources, hausse de charge organique, nitrates, etc.) ;
- paramètres sentinelles (détection) et confirmatoires (diagnostic) ;
- temps de détection cible (TTD) et temps de réponse cible (TTR) ;
- contraintes site (alimentation, génie civil, accès, communication, exigences spécifiques) ;
- exigences d'historisation (durée, résolution, intégrité).
Cette formalisation évite l'écueil du « déploiement de capteurs sans stratégie d'exploitation » : on vise un niveau de service de surveillance aligné sur les risques.
Concevoir la couverture : ou instrumenter et pourquoi
La couverture est généralement structurée en couches :
- Traitement : suivi de performance procédés (turbidité, indicateurs organiques type UV254, oxydants selon filière) pour anticiper les dérives en sortie ;
- Stockage : détection de stratification, perte de résiduel, temps de séjour anormal ;
- Distribution : points sentinelles (zones sensibles, extrémités, faibles renouvellements, interconnexions, secteurs à historique d'incidents).
Le dimensionnement intègre hydraulique locale, temps de transit, facilité d'accès et télécommunications. Lorsque la mesure directement en conduite est techniquement possible, elle peut réduire les biais liés aux lignes d'échantillonnage (volume mort, temps de réponse).
Selection des capteurs et coherence metrologique
Panier de paramètres : rapides, organiques, désinfectants
Une architecture robuste combine généralement :
- Paramètres rapides : température, conductivité, turbidité ;
- Signature organique : UV254 / spectrométrie UV-Vis (corrélations possibles vers certains indicateurs comme COT/DOC selon matrices et modèles) ;
- Désinfectants : chlore libre/total (et autres oxydants selon filière) ;
- Contexte : pression et débit pour interpréter correctement les variations qualité.
L'approche multiparamètres est déterminante : un événement réel se traduit souvent par une variation cohérente de plusieurs grandeurs (par exemple hausse turbidité + variation UV254 + baisse chlore), alors qu'un artefact (bulle, encrassement local) peut impacter un seul canal.
Repères normatifs pour parler performance capteur
Pour cadrer le vocabulaire et les essais de performance des dispositifs de mesure en continu, on peut s'appuyer sur des référentiels comme :
- la norme NF EN ISO 15839 (terminologie et caractéristiques de performance des matériels d'analyse / capteurs directs) ;
- les travaux relatifs aux exigences d'essais de performance pour les dispositifs de mesure en continu, notamment présentés par le LNE sur l'évaluation des performances métrologiques des dispositifs de mesure de la qualité de l'eau.
Ces repères aident à structurer les exigences (temps de réponse, dérive, répétabilité, influence température, conditions d'essai) et à rendre les choix plus défendables en audit.
Architecture donnees : SCADA, alarmes et qualite
Synchronisation des horloges et preuve temporelle
La synchronisation des horloges (capteurs, enregistreurs, passerelles) est une condition de corrélation cause/effet. En pratique, l'objectif est d'obtenir une chronologie fiable des événements, depuis la variation hydraulique jusqu'à la réponse qualité, en maîtrisant le pas de mesure et les latences de transmission.
Alarmes : du seuil fixe a la detection d'evenements
Pour limiter les faux positifs et produire des alertes actionnables, on combine généralement :
- seuils statiques (sécurité) ;
- seuils dynamiques (baseline horaire/journalière) ;
- règles multiparamètres (cohérence d'un événement) ;
- temporisations et qualification (maintenance vs événement réseau).
Cette logique est en phase avec les attentes terrain : « quoi, où, depuis quand, niveau de confiance, quelles vérifications ? ».
Qualite de donnees : codes, metadonnees, auditabilite
Une donnée exploitable dans le cadre d'un PGSSE doit être accompagnée de métadonnées : état capteur, statut de nettoyage, code qualité, dérive détectée, maintenance en cours, perte communication. Sans ces informations, un tableau de bord peut masquer une indisponibilité ou interpréter une dérive instrumentale comme un événement réseau.
Mise en service et validation operationnelle
De "voir une valeur" a valider la chaine complete
La mise en service est une phase de validation système, et non un simple constat de valeurs. Elle inclut typiquement :
- vérification de l'installation (positionnement, purge, absence de bulles, hydraulique de prélèvement le cas échéant) ;
- tests de réponse (variations contrôlées, comparaison à une mesure de référence) ;
- validation télétransmission (latence, pertes, reprise sur incident, store-and-forward si nécessaire) ;
- validation des alarmes (scénarios simulés, acquittement, escalade) ;
- constitution du dossier de preuve (configuration, procédures, éléments métrologiques).
Materiaux au contact : point de vigilance regulatoire
Lorsqu'une installation implique des matériaux au contact de l'eau destinée à la consommation humaine, il convient de vérifier la conformité au cadre applicable. En France, un texte de référence est l'arrêté du 29 mai 1997 relatif aux matériaux et objets utilisés dans les installations fixes de production, de traitement et de distribution d'eau destinée à la consommation humaine, qui encadre notamment les conditions d'aptitude sanitaire des matériaux.
Retours d'experience : enseignements et limites
Hydraulique + qualite : corrélation indispensable
Sur le terrain, l'interprétation d'un signal qualité exige souvent de le relier au contexte hydraulique (débit, pression, transitoires). Sans cette couche de contexte, on augmente le risque de fausses interprétations et d'actions inutiles.
Detection utile : priorite a l'explicable
Les exploitants privilégient généralement une détection d'événements explicable (écart à une signature dynamique, cohérence multiparamètres, règles qualifiables) plutôt qu'un modèle difficile à justifier en exploitation ou en audit.
Un exemple documenté en distribution d'eau potable : le service public belge Farys a déployé une surveillance multiparamètres connectée au SCADA, avec détection d'événements et alarme. Les paramètres incluaient notamment turbidité, UV254, chlore libre, conductivité et indicateurs organiques (dont TOC/DOC), et une alarme de type "pattern" a pu être générée après un changement de provenance (différence de conductivité) pour accélérer la prise en compte opérationnelle. Cet exemple illustre l'intérêt d'une mesure multiparamètres et d'une détection orientée événement, au-delà de seuils fixes.
Limites : encrassement, dérives, charge d'alarmes
Une architecture continue échoue rarement pour des raisons théoriques ; elle échoue lorsqu'elle devient difficile à exploiter : trop d'alarmes, trop de maintenance, manque de pièces, compétences insuffisantes, ou intégration IT/OT inaboutie. Les points à anticiper incluent :
- Encrassement : plan de nettoyage (manuel ou automatisé), choix des matériaux, suivi d'état capteur ;
- Dérive : routines de validation, comparaisons périodiques, alarmes de dérive instrumentale ;
- Multiplication des points : stratégie de criticité (priorités "must-have" vs "nice-to-have") ;
- Latence télécom : dimensionnement de la chaîne d'acquisition et buffers locaux ;
- Cybersécurité : segmentation, gestion des accès, journaux, durcissement.
Perspective : le secteur évolue vers des architectures plus modulaires (déploiement progressif), davantage centrées sur la qualité de données (codes qualité, validation automatique) et une intégration plus étroite avec la GMAO et les workflows d'incident.
Produits cites et briques fonctionnelles
Capteurs et logiciels pour une chaine instrumentee
Pour illustrer concrètement les briques nécessaires a une surveillance continue multiparamètres, on peut citer :
- capteurs multiparamètres en ligne : i::scan ;
- sondes UV-Vis : uv::lyser V3 ;
- supervision de stations : moni::tool ;
- gestion et validation de donnees : vali::tool ;
- analyse d'evenements et detection : ana::tool ;
- station de surveillance : micro::station.
Conclusion : rendre le PGSSE mesurable et defensable
Benefices et passage a l'action
Une conformité PGSSE robuste ne se limite pas à disposer de mesures : elle exige une architecture instrumentee capable de detecter, qualifier, tracer et soutenir la decision sur l'ensemble du système AEP. Les bénéfices opérationnels attendus sont concrets : réduction du temps de détection, meilleure compréhension cause/effet (hydraulique vs qualité), diminution des faux positifs via des règles multiparamètres, et production d'éléments auditables (données historisées, métadonnées, dossier de preuve).
Pour concevoir ou faire évoluer votre architecture de surveillance continue (capteurs, stations, intégration SCADA, stratégie d'alarmes, qualité de données et support à l'exploitation), vous pouvez solliciter s::can France afin d'obtenir un devis et un cadrage technique adapté à votre contexte (ressource, traitement, stockage, distribution).
Partager cet article
Produits concernés par cet article
-
i::scanSonde spectrophotométrique multiparamètres
S-CAN
9 contenus liés1 professionnels intéressés2017 consultations récentesRecevoir un devis -
micro::stationStation de surveillance de la qualité de l'eau
S-CAN
2 contenus liés1 professionnels intéressés1243 consultations récentesRecevoir un devis -
ana::toollogiciel de détection d'événements
S-CAN
10 contenus liés1 professionnels intéressés498 consultations récentesRecevoir un devis -
moni::toolGestion de stations
S-CAN
7 contenus liés1 professionnels intéressés329 consultations récentesRecevoir un devis -
uv::lyser V3Sonde spectrométrique
S-CAN
8 contenus liés1 professionnels intéressés252 consultations récentesRecevoir un devis -
vali::toolLogiciel de contrôle de données
S-CAN
7 contenus liés1 professionnels intéressés203 consultations récentesRecevoir un devis