En France, l’industrie nucléaire a adopté des règles pour évaluer le niveau marin extrême, par conséquent les risques d’inondation et les niveaux de protection à mettre en œuvre. La tempête de 1999 a conduit à remettre en cause leurs fondements pour revoir l’évaluation, complexe, de ces risques.
Fin décembre 1999, on ne parlait que du bug de l’an 2000 et du risque de pannes des systèmes informatiques. À la centrale du Blayais, en Gironde, les équipes d’EDF sont mobilisées. Mais, surprise, c’est à une inondation d’envergure qu’elles vont devoir faire face. Dans la nuit du 27 au 28 décembre 1999, la tempête Martin fait rage sur une large moitié sud de la Métropole avec des vents autour de 200 kilomètres par heure à l’embouchure de la Gironde. Cette tempête exceptionnelle fera 27 morts en France et provoquera des dégâts considérables.
À la centrale du Blayais, située à une quarantaine de kilomètres de la côte, au milieu de l’estuaire de la Gironde, les vagues submergent la digue de protection, coupant pendant plusieurs heures la route d’accès au site. L’eau s’infiltre et inonde les sous-sols de deux des quatre réacteurs, endommageant des pompes et des équipements importants pour la sûreté de la centrale. Cet incident, unique en son genre, qui sera classé au niveau 2 de l’échelle internationale des événements nucléaires par l’Autorité de sûreté nucléaire (ASN), révèle les insuffisances du dispositif d’évaluation du risque d’inondation marine et de protection des sites nucléaires français.
Parmi les 18 centrales nucléaires françaises en fonctionnement en 2022, 5 sites sont en façade maritime : Gravelines, près de Dunkerque, Penly et Paluel, en Normandie, Flamanville, dans le Cotentin, et Le Blayais, en Gironde. Avantage de cette localisation côtière : disposer de l’eau nécessaire au refroidissement des réacteurs nucléaires. Inconvénient : la nécessaire protection contre les risques de submersion.
Anticiper une inondation décamillénale
Comment les évaluer ? Tout dépend, dans la zone considérée, de la fréquence de l’intensité et de la durée des inondations extrêmes. Pour cela, il est nécessaire de déterminer le niveau marin et d’étudier les deux facteurs qui le déterminent : la marée astronomique et la surcote. Phénomène physique régulier qui dépend de la rotation de la Terre et de l’attraction gravitationnelle qu’exercent sur elle la Lune et le Soleil, la marée est prévisible alors que la surcote (la différence entre le niveau marin observé et celui qui résulterait seulement de la marée astronomique) est aléatoire et difficile à anticiper car liée aux conditions météorologiques notamment au vent et à la pression atmosphérique.
En 1999, pour les sites nucléaires en bord de mer et d’estuaire comme Le Blayais, la règle de sûreté en vigueur concernant le risque de submersion était celle définie par l’ASN en 1984 : elle consistait à prendre en considération la valeur maximum entre, d’une part, la conjonction de la plus grande marée astronomique avec la surcote de pleine mer millénale (celle qui se produit en moyenne une fois tous les mille ans) et, d’autre part, la conjonction de cette même marée avec la crue millénale du fleuve rejoignant l’estuaire.
Pour respecter cette règle, EDF avait construit une digue en front de Gironde. Pourtant, le 27 décembre 1999, alors que les conditions de marée n’étaient pas extrêmes, la combinaison de la surcote et des vagues engendrées par la tempête Martin a provoqué l’inondation de la centrale.
À la suite de cette inondation, EDF a renforcé la protection du site : installation de portes étanches à l’entrée des bâtiments, rehaussement des digues et construction d’un mur pare-houle, mise en place de moyens mobiles de pompage, etc. Et, en 2001, tous les acteurs du nucléaire français ont amorcé une démarche de grande ampleur pour réévaluer la sûreté de l’ensemble des centrales face aux risques d’inondation. Menée avec l’appui d’experts en hydrologie et hydrométéorologie, la démarche a débouché en 2013 sur la promulgation par l’ASN d’un guide établissant de nouvelles règles. Celui-ci vise la protection de toutes les installations nucléaires contre une inondation décamillénale, que celle-ci soit marine, fluviale, liée à de fortes pluies, des remontées de nappes phréatiques, à la conjonction de plusieurs phénomènes incluant un séisme, etc. Pour le risque de submersion, deux évolutions notables sont introduites : la prise en compte des vagues et l’impact du changement climatique.
Prédire la surcote
L’inondation du Blayais a souligné la difficulté à évaluer le risque de submersion marine et conduit à revisiter les méthodes utilisées jusque-là. « En France, nous considérons que la variable d’intérêt caractéristique du phénomène est la surcote, explique Yasser Hamdi, chercheur de l’IRSN sur la statistique des événements hydrométéorologiques et climatiques extrêmes. Pour cette variable, nous disposons d’observations et enregistrements qui permettent d’établir un modèle de comportement statistique à partir duquel on peut ensuite estimer la valeur correspondant à la probabilité recherchée. »
Le schéma (a) montre l’évolution prévisible de la marée (courbe verte), la mesure du niveau marin fournie par les marégraphes (courbe rouge) sur laquelle on peut lire le niveau marin extrême ainsi que la surcote (surface grisée), différence entre les deux. L’IRSN a testé différents modèles d’estimation du niveau marin basés sur la surcote horaire (courbe bleue du schéma b) ou sa valeur maximale ou encore sur la surcote de pleine mer (schéma c), différence entre la hauteur de pleine mer observée et la hauteur de pleine mer prédite, leur occurrence pouvant être décalée dans le temps. © IRSN
« Mais comment extrapoler une surcote millénale à partir d’observations sur seulement quelques dizaines d’années ? pointe le chercheur. Sans compter que ces séries trop courtes de données sont parfois de mauvaise qualité : il manque des données (quand un marégraphe tombe en panne, voire qu’une tempête l’endommage) et certaines valeurs peuvent sembler incohérentes. Dans une série de mesures, il peut en effet y avoir une mesure beaucoup plus élevée qui apparaît aberrante alors qu’elle est tout à fait correcte. On appelle cela un « horsain » [en patois normand, un horsain est quelqu’un d’étranger à la région ; en statistique, c’est une observation qui s’écarte significativement des autres, ndlr]. » Ajuster le modèle statistique de niveau marin extrême avec une telle donnée exceptionnelle ne fausse-t-il pas l’extrapolation ? Aujourd’hui, la règle consiste à retenir comme valeur de surcote millénale la borne supérieure de l’intervalle de confiance à 70 % — l’intervalle supposé contenir la valeur que l’on cherche à estimer avec 70 % de chances et à majorer cette valeur de 1 mètre pour tenir compte de ces incertitudes dues à un horsain.
« À partir de 2014, raconte Yasser Hamdi, pour réduire les incertitudes, nous avons cherché à compléter les mesures des marégraphes avec d’autres formes d’enregistrement des inondations exceptionnelles, par exemple des données historiques en exploitant les archives de la presse locale, une démarche courante pour estimer les inondations fluviales. »
L’IRSN fait pour cela appel en 2016 à un historien, Emmanuel Garnier, alors à l’université de La Rochelle, dans l’idée d’étudier le cas de la région de Dunkerque. Celui-ci explore les archives historiques communales, départementales et régionales, les moindres coupures de presse, il questionne les personnes âgées, débusque toutes les informations exploitables comme les repères d’inondation sur des bâtiments. Il réunit ainsi une grande quantité de données sur cinq siècles. « Il est rare de disposer d’une information précise sur le niveau d’eau atteint, mais dans certains documents on apprend qu’un quai a été submergé ou qu’une partie de la ville a été inondée, précise Lise Bardet, responsable de l’équipe à l’IRSN. Cela constitue une donnée quantifiable dont il faut ensuite limiter l’incertitude. Pour cela, nous avons développé une méthodologie permettant de déterminer les surcotes en croisant des informations de natures diverses. »
Corriger les modèles face au manque de données
« En complétant ainsi l’échantillon statistique, nous avons pu ajuster notre modèle d’estimation de surcote de manière à intégrer toutes les données, même celles d’apparence exceptionnelle », précise Yasser Hamdi. À la lumière de ces travaux, les risques d’inondation marine retenus jusque-là pour Le Blayais et Gravelines se révèlent sous-estimés. Les protections sont réévaluées en conséquence et des travaux engagés à Gravelines et au Blayais. D’autres mesures pourraient être engagées sur les centrales de Penly, Paluel et Flamanville à l’issue des évaluations en cours.
Construction de la digue à Gravelines. © IRSN
Ces conclusions n’ont finalement rien d’étonnant : tout statisticien sait qu’un modèle est d’autant plus juste qu’il repose sur des données nombreuses. Or si l’on peut espérer collecter des données en grand nombre sur les niveaux marins exceptionnels en raison de leurs conséquences visibles, cela n’est pas le cas pour les surcotes. Même exceptionnelles, celles-ci passent parfois inaperçues du fait qu’elles n’entraînent aucun dommage. Comment corriger ce biais ?
Ces trois schémas montrent la difficulté à prendre en compte un horsain (ici, la tempête de 1953 à Dunkerque) dans l’estimation de la surcote extrême à l’échelle millénale. Un modèle statistique basé sur les seules données des marégraphes (schéma a) ne permet pas d’expliquer la valeur exceptionnelle que constitue le horsain dans les prévisions. Un modèle prenant en compte l’information régionale (schéma b) affine l’intervalle de confiance mais le horsain apparaît toujours comme une valeur aberrante. En ajoutant les données historiques dans lesquelles figurent des surcotes du même ordre que la tempête de 1953 (points rouges du schéma c), l’ajustement est nettement amélioré et compatible avec l’ensemble des données. © IRSN
Laurie Saint-Criq a étudié cela dans le cadre de sa thèse en cotutelle avec un laboratoire de l’université Gustave-Eiffel, à Nantes, et l’Institut national de la recherche scientifique, à Québec (Canada) : « Pour évaluer et corriger les biais liés aux lacunes des séries de données usuellement exploitées, elle a par exemple utilisé les mesures du marégraphe de Brest, en fonctionnement depuis 1848 sans interruption sauf pendant la Seconde Guerre mondiale, explique Yasser Hamdi, qui a coencadré la doctorante. Ce qui lui a permis, sur la base de simulations statistiques avec la série complète ou une partie de ces données, de concevoir un nouveau modèle. » Celui-ci combine surcotes mesurées par les marégraphes et niveaux marins établis grâce aux données historiques.
La France est, pour l’instant, le seul pays nucléarisé à avoir exploré cette démarche fondée sur des données historiques. Il reste néanmoins encore à faire pour conforter les premiers résultats obtenus. « Collecter des données pour améliorer les modèles statistiques est un travail sans fin ! », conclut Lise Bardet.
Par l’IRSN, publié le 22 février 2023, (POUR LA SCIENCE N° 545)
Photo en titre : Digue en cours de construction qui doit protéger la centrale de Gravelines.© IRSN
https://www.pourlascience.fr/sr/article-partenaire/comment-reduire-le-risque-de-submersion-marine-des-centrales-nucleaires-24785.php
Commentaires récents