Nous publions avec l’accord des éditions Loco l’essai de Sylvestre Huet issu du livre Fessenheim. Visible/Invisible. Photographies d’Eric Dexheimer.
La gueule menaçante d’un chien tenu en laisse par un gardien occupe le premier plan de l’image. Une double clôture complète le tableau, renforcé par l’esthétique du noir et blanc et les choix de cadrage du photographe. Le militant opposé à l’usage de l’énergie nucléaire pour l’électricité va sauter sur l’image, tant elle charrie d’émotions négatives, de crainte. Une autre photo met en scène des cygnes,
l’oiseau noble de l’imaginaire médiéval au point que seuls les seigneurs pouvaient en disposer à table, se déplaçant tranquillement sur une eau calme. Au fond, les silhouettes caractéristiques d’une centrale nucléaire se profilent, dans un paysage qui mêle l’industrie productive mais sans rejets visibles et la campagne paisible. Le communicant d’EDF va sauter sur la scène, tant elle suggère une vision positive de l’activité d’une centrale nucléaire. Ces deux photos sont dans ce livre, prises par le même photographe, Éric Dexheimer, dans le cadre d’un travail photographique sur les personnels de la centrale de Fessenheim, commandé par les activités sociales de l’entreprise (CCAS et CMCAS).
Cette opposition binaire illustre l’un des traits les plus regrettables du débat public sur l’énergie nucléaire en France. La plupart des acteurs ne recherchent souvent que propagande et publicité. Le recours aux images ne se fait donc qu’à l’aune de ces objectifs et elles ne jouent guère d’autre rôle que renforcer préjugés et idées préconçues, en suggérant des réponses simplistes et dénuées de souci informatif. Le travail d’Éric Dexheimer, conduit sans s’inscrire dans l’un ou l’autre de ces discours, illustre toutefois toute l’ambiguïté possible du recours à l’image pour décrire une réalité. Ce chien et ce garde renvoient à la peur ? Certes, mais également à l’une des accusations des associations antinucléaires : les centrales ne seraient pas bien gardées contre d’éventuels terroristes. Et donc, l’image peut se retourner, si elle s’inscrit dans une réponse de l’industriel ou de l’État : « Mais si, les précautions nécessaires sont prises, voyez comme nous protégeons ces installations. » Quant aux cygnes, ils peuvent tout aussi bien démontrer la sûreté de la centrale — voyez comme ils sont tranquilles —qu’éveiller la crainte de voir la nature, un jour, dévastée par un accident.
Il fut une époque où EDF organisait force visites de ses centrales, pour les populations proches notamment. Les personnels en charge de ces initiatives les réalisaient de bonne foi. Sans chercher à duper les visiteurs. Mais les machines ou la salle de conduite du réacteur nucléaire que montrent les photos d’Éric Dexheimer posent la même question : voir, est-ce comprendre ? Un bon dessin, dit-on souvent, vaut un long discours. Mais une photo, même très réussie de différents points de vue — esthétique, technique, journalistique —, peut-elle révéler ce qui est invisible ? Les atomes et leurs fissions le sont, comme les rayonnements irradiants qui en découlent. Que dit une photographie d’un fût de déchets radioactifs ? Qu’un conteneur orné d’un symbole de danger est là. Représente-t-il un risque sanitaire ? Mystère. Que dit une photographie de techniciens devant les panneaux de la salle de conduite d’un réacteur ? Que derrière ces écrans et dispositifs d’information et de commande se cache un ensemble complexe qui pilote un réacteur nucléaire. Peut-on lui faire confiance ? La photo ne le dira jamais. La manière de la prendre peut inciter à répondre oui, ou non, à la question.
Que disent, que montrent, donc, les photos d’Éric Dexheimer ? Elles permettent à chacun de voir ce que voient les travailleurs du nucléaire. Qu’une centrale nucléaire, c’est une usine. Avec des équipements électriques ou mécaniques, du béton, du métal, des galeries souterraines, des circulations de fluides, des pompes, des vannes, des câbles, des grosses et des petites machines… Ces photos permettent de pénétrer les entrailles de notre société, des entrailles cachées à la plupart d’entre nous. Il n’y a là rien d’anodin, car cela touche à l’une des ruptures anthropologiques provoquées par la révolution industrielle, puis par l’usage massif de technologies toujours plus puissantes dans nos actes de production et de vie quotidienne. Cette rupture, c’est la « perte de vue » directe de l’origine de nos moyens de vie.
Jusqu’aux années 1850, la plupart des êtres humains savent d’où proviennent leurs aliments, leurs objets quotidiens, et connaissent le fonctionnement de ces derniers. Les savoirs agricoles sont largement répandus, même dans les populations urbaines. Les techniques sont « transparentes », l’origine de l’énergie qu’elles utilisent comme leur mode opératoires sont connus. Aujourd’hui, la population des pays développés a perdu ce lien. La plupart des urbains n’ont qu’une représentation fantasmagorique des activités agricoles mais aussi industrielles. Ils ignorent tout d’une mine, d’une usine sidérurgique ou chimique comme de l’origine des matières premières qui servent de base à notre économie. Une ignorance renforcée en France où, après trente années de désindustrialisation et de fermetures, plus de 90 % des matières premières non agricoles utilisées par notre économie ou pour notre consommation sont importées et donc extraites du sol loin de nos yeux. Le fonctionnement des machines qui nous permettent de vivre — d’un réacteur nucléaire comme d’un téléphone portable, de la théorie de la gravitation d’Einstein, indispensable à la précision du GPS, à la puce de leur lave-vaisselle — demeure un mystère profond pour la plupart d’entre nous. Jusqu’au devenir de nos déchets, qui disparaissent de la vue, de la cuvette des toilettes aux poubelles de ville. Cette rupture anthropologique, sans précédent historique, est grosse de périls. L’ignorance constitue rarement une bonne base pour la discussion démocratique et les choix. Elle souligne un nouveau défi posé à la volonté de vivre en démocratie, dont l’un des prérequis implicites, mais pourtant l’un des plus délicats à obtenir, réside dans une décision prise « en connaissance de cause » par les citoyens.
Les photos d’Éric Dexheimer permettent-elles de résoudre cette contradiction ? Non. Elles ne constituent, au mieux, qu’un point de départ. Prenons ses images liées à la radioactivité. Ce thème est nécessairement très présent dans une centrale nucléaire. Le photographe nous montre des salariés se prêtant à de multiples contrôles de cette radioactivité, à laquelle leur corps, parfois montré nu et donc vulnérable, a pu être exposé. Ou testant une combinaison étanche, ventilée, qui permet de travailler dans une atmosphère ayant subi une contamination radioactive légère. Elles montrent également les prélèvements et analyses effectués dans l’environnement de la centrale nucléaire, pour surveiller une éventuelle contamination dans les sols, l’air, l’eau, les végétaux, le lait. Ces images montrent des dispositifs de contrôle ou de protection qui peuvent rassurer... ou inquiéter, selon le préjugé de l’observateur.
Sur certaines images, le symbole même de la radioactivité semble indiquer qu’elle est bien là. Sauf qu’un regard plus averti devine qu’elle est là... surtout sur d’autres images, dont ce symbole est absent. Comme celles de la manutention d’éléments combustibles dans la piscine où ils sont stockés, après leur séjour en réacteur et en attente de leur transfert par trains à l’usine Areva de la Hague. Où celle d’un « château », le conteneur d’acier et de plomb dont les ailettes de métal servent à diffuser la chaleur produite par les désintégrations radioactives qui s’y produisent, dans lequel ces combustibles usés sont confinés pour leur transfert. À l’exception du moment où l’on décharge le « cœur » du réacteur, ce sont bien ces combustibles usés, dans la piscine, le « château de plomb » ou les wagons du train, qui contiennent le plus de radioactivité. Ce que le visiteur de l’exposition photographique ou le lecteur du livre ne devinera pas nécessairement au vu d’un salarié de la centrale, quasi au contact d’un de ces « châteaux » lors d’une opération de manutention, un pied sur une rambarde, dans une attitude témoignant d’une absence de danger ressenti, et en réalité de sa connaissance. Il sait que, dans le « château », gît une radioactivité concentrée, intense, mortelle, mais que son confinement solide et efficace permet de la côtoyer sans risque. Quant à l’endroit le plus radioactif d’une centrale, son réacteur en fonctionnement, il n’est sur aucune photo. Logique puisque personne n’accède alors à la cuve pleine d’eau où il se trouve. Un mauvais esprit en tirerait la conclusion qu’Éric Dexheimer nous cache l’essentiel. Mais personne n’a jamais photographié, de l’intérieur, en fonctionnement, un réacteur d’avion ou une cuve de l’industrie chimique.
Nous avons fabriqué de l’invisible avec nos technologies alors qu’elles nous ont habitués, à l’inverse, à nous révéler de l’invisible. Étrange, non ? Nos microscopes à force atomique sont capables de « visualiser » sur un écran le touche-touche qu’ils effectuent à un niveau moléculaire, voire celui d’un atome, avec la matière qu’on leur soumet. La représentation de cette matière au niveau atomique sur l’écran d’ordinateur ne doit pourtant pas tromper. Ce sont des objets si petits que, même si l’on multipliait leur taille par un million, ils demeureraient invisibles à nos yeux. Nos télescopes nous révèlent des étoiles, des galaxies, du gaz, des comètes ou des astéroïdes que nos yeux sont bien incapables de percevoir. Les radio-télescopes nous donnent accès à l’univers du froid, des poussières gelées du cosmos, en utilisant des ondes beaucoup trop longues pour notre appareil de vision. Ceux spécialisés en rayons X ou gamma nous permettent d’explorer l’univers de la violence et de la chaleur, des rayonnements aussi invisibles pour nous.
Simultanément, sur Terre, nous fabriquons des machines qui utilisent des énergies si fortes et si concentrées qu’elles doivent demeurer des boîtes noires pour nos sens. Personne ne jettera, jamais, un coup d’œil ou ne réalisera une photo à l’intérieur d’un réacteur nucléaire en fonctionnement, de même que les physiciens se gardent bien de le faire avec leurs accélérateurs de particules. Même pour les scientifiques ou les ingénieurs, habitués à dialoguer avec la matière par l’intermédiaire des instruments de mesure et des équations mathématiques, cette impossibilité d’utiliser ses sens — de la vision, du toucher, de l’ouïe — pour un contact direct avec la matière étudiée constitue une difficulté pour la pensée. Alors, pour le reste de l’humanité, moi, vous, lecteurs, il y a là une sorte de défi lancé à la compréhension, à la représentation de ces objets et machines. Si cela n’était qu’un problème culturel ou académique, il serait déjà fascinant. Mais ces objets et machines sont puissants. Ils peuvent donc rendre de grands services et provoquer de gigantesques dégâts s’ils échappent à la main de l’homme. La réaction en chaîne contrôlée d’un réacteur nucléaire permet de générer une puissante énergie, de la chaleur tout d’abord, qui permet de disposer de vapeur d’eau en grande quantité, puis de l’électricité via le rotor et le stator d’un générateur. Cette électricité est précieuse, comme en témoigne la rudesse de la vie des populations qui en sont privées. Mais la technologie utilisée pour la produire va-t-elle se retourner contre nous ? C’est, au fond, le débat public qu’impose le recours à la fission nucléaire. Un débat où les mots et les images sont comme la langue d’Ésope. Ils peuvent être utilisés pour duper, tromper, voiler la réalité, ou pour tenter de la révéler, et d’éclaircir les idées, point de départ de toute discussion honnête, et donc de la conversation démocratique.
Sur les photos d’Éric Dexheimer, les hommes et les femmes de la centrale de Fessenheim apparaissent parfois concentrés, sérieux, parfois souriants, et le lecteur de ce livre peut même s’arrêter sur un visage carrément hilare. Très curieusement, cette image a priori positive a fait parfois tordre le nez de communicants d’EDF. Une réaction étrange qui pourrait s’expliquer par la crainte de voir cette hilarité interprétée comme une absence de sérieux. Et donc, « faire peur ». Comme s’il était interdit de sourire au boulot, voire de rire à gorge déployée. Pourtant, si la peur ne permet pas d’éviter le danger, le rire n’interdit pas de travailler sérieusement. Et l’on souhaite de nombreux rires aux hommes et aux femmes qui conçoivent, construisent, exploitent, surveillent et contrôlent les centrales nucléaires. Des rires francs, comme doivent l’être leurs échanges d’informations, afin de traquer, jour après jour, toute anomalie ou tout défaut à corriger afin de conserver aux installations nucléaires le niveau de sûreté nécessaire.
Cette sûreté repose certes sur des machines et des composants industriels — une cuve en acier, des systèmes de commande et de pilotage du réacteur nucléaire, des vannes, des pompes, des tuyaux, des enceintes de confinement... — dont le niveau de robustesse exigé est relatif à la formidable quantité d’énergie concentrée que dégagent les réactions de fission de l’uranium. Mais, in fine, tous ces dispositifs sont conçus, fabriqués, entretenus et surveillés par des hommes et des femmes. Si l’un de ces dispositifs lâche, ou se trouve dépassé par un événement naturel plus puissant que ceux pris en compte lors de la conception, comme au Japon en 2011, c’est à une pensée ou un geste humain qu’il faudra remonter pour comprendre l’origine profonde de l’incident ou de l’accident. En définitive, la sûreté nucléaire repose bien sur le travail humain, intellectuel et manuel. Celui des physiciens et chimistes, des ingénieurs, des techniciens, des ouvriers. Curieusement, ces hommes et ces femmes sont très peu présents dans le débat public sur l’usage de l’électronucléaire, confisqué par les militants pro ou anti, par les discours publicitaires ou propagandistes. Faudrait-il les écouter plus ?
Écouter les travailleurs du nucléaire permet de constater qu’ils sont divers quant à leurs opinions. Vous ne raterez pas l’ingénieur toujours sûr de son savoir et persuadé que « sa » centrale ne peut faillir. Mais le doute est bien plus répandu qu’on ne le pense. Lorsqu’en mars 1986 toutes les « balises » des centrales nucléaires de l’Hexagone se sont mises à sonner l’alerte, titillées par les particules radioactives échappées de la centrale de Tchernobyl, en Ukraine, le trouble a régné dans les esprits. Les membres des équipes de conduite des centrales, qui s’exercent régulièrement sur de puissants simulateurs à réagir à des scénarios d’accidents, comme celui que provoquerait une brèche ouverte dans le circuit dit « primaire », celui de l’eau en contact avec le cœur du réacteur nucléaire, ne peuvent ignorer ce questionnement. Ils seraient en première ligne en cas de défaillance, comme l’ont été les travailleurs de la centrale japonaise de Fukushima Daiichi en 2011. Et la santé de leurs familles, qui vivent la plupart du temps à proximité des centrales, ne peut que demeurer au premier rang de leurs préoccupations. C’est pourquoi ils prennent souvent très mal les caricatures, les bobards, les slogans qui dénigrent leurs activités, leur sérieux, leurs compétences. Il n’en reste pas moins que c’est sur eux que repose en premier lieu la sûreté nucléaire, tant pour la conduite des centrales qu’en réaction à une anomalie ou un accident. Une responsabilité qui s’étend aux personnels des entreprises qui ont conçu et fabriqué les équipements des centrales, comme de celles qui les entretiennent.
Si la construction du parc de centrales actuel a pu s’accompagner d’un esprit « Far West », négligeant parfois rigueur et précautions, ce temps s’est éloigné. Cela se lit dans les doses de radioactivité reçues par les travailleurs du nucléaire, salariés d’EDF ou de sociétés de sous-traitance. Au milieu des années 1990, on comptait plusieurs centaines de salariés dépassant des doses de 20 milli-sieverts [1] par an — devenue la limite légale en 2003 —, alors qu’on les compte sur les doigts d’une main depuis plusieurs années, voire qu’aucun dépassement n’est enregistré, comme en 2013. Aujourd’hui, la dose moyenne reçue chaque année par les travailleurs du nucléaire est inférieure à 1,5 millisievert, soit moins que celle due à la radioactivité naturelle moyenne en France. C’est le résultat d’une action régulière, systématique et minutieuse, pour diminuer ces doses selon le principe Alara (sigle en anglais signifiant viser la dose la plus basse raisonnablement possible et non se contenter de respecter la norme réglementaire). Pourtant, les conditions dans lesquelles s’activent les équipes de maintenance des centrales n’ont pas évolué favorablement, avec le recours massif à la sous-traitance, qui transforme des techniciens d’EDF en vérificateurs d’un travail qu’ils ne font plus eux-mêmes. Un processus d’éloignement de l’activité concrète et de bureaucratisation du contrôle de la sûreté ou de la qualité du travail qui pourrait bien être à l’œuvre derrière des incidents récents. Est-il en cause dans la spectaculaire chute d’un générateur de vapeur — une pièce géante de près de 500 tonnes — à la centrale de Paluel en Normandie lors d’une opération de manutention destinée à le remplacer ? C’est ce que l’enquête demandée par l’Autorité de sûreté nucléaire permettra de savoir.
Les écouter permet surtout de jauger la profondeur de l’abîme qui sépare le spécialiste des autres travailleurs et citoyens. Le savoir scientifique et technique mobilisé par les travailleurs du nucléaire se situe très loin des connaissances communes. On y parle américium, isotopes, rhéologie, complexation, radiolyse, ou polarisation anodique. Et lorsqu’un mot courant fait son apparition, comme crayon, détrompez-vous. L’objet ainsi désigné n’a rien à voir avec celui qui vous permet de dessiner, puisqu’il s’agit d’un assemblage de petites pastilles de combustible nucléaire. Mais est-ce là une spécificité de cette technologie ? Cet abîme sépare en réalité chacun de chacun, ou presque, dans nos sociétés où les savoirs scientifiques et professionnels ne sont réellement connus que des personnes qui les mettent en œuvre. Vous ne comprenez pas bien ce que vous explique le chaudronnier ou le neutronicien à propos de leur centrale nucléaire ? Rassurez-vous — ou non —, mais le chimiste, qui travaille lui aussi dans la centrale nucléaire, ne comprend pas grand-chose à leurs jargons, du moins tant qu’il n’a pas passé un peu de temps à l’élucider. La vérification de la véracité du propos par chacun se heurte alors à un mur de méconnaissances réciproques. Et aucune photo de l’un de ces ouvriers, techniciens et ingénieurs ne percera à elle seule ce mur qui les sépare de la plupart des citoyens.
Cette dimension du débat sur toute technologie issue des sciences développées depuis 150 ans n’a rien d’anecdotique. Elle signale que la démocratie, actuelle et future, ne peut reposer sur l’idéal des Lumières et de l’Encyclopédie de Diderot et d’Alembert, qui ambitionnait de transformer chaque citoyen et travailleur en connaisseur suffisamment averti des technologies pour les utiliser, mais aussi débattre de leurs usages dans l’espace public pour une prise de décision démocratique. Le sociologue Edgar Morin exprimait cette idée à sa manière dans La Voie [2] : « Il nous faut dissiper l’illusion qui prétend que nous serions arrivés à la société de la connaissance. En fait, nous sommes parvenus à la société des connaissances séparées les unes des autres, séparation qui nous empêche de les relier pour concevoir les problèmes fondamentaux et globaux tant de nos vies personnelles que de nos destins collectifs. »
Devant cette situation, il n’existe que deux options cohérentes. La première consiste à renoncer à toute technologie inventée depuis la révolution industrielle. C’est un choix peu défendu, car renoncer à ces technologies signifierait, réellement, le retour « à la bougie » ou à la médecine pré-scientifique, lorsque l’espérance de vie n’atteignaient pas le demi-siècle, que les maladies infectieuses ravageaient les enfants et que la simple subsistance alimentaire n’était pas garantie dans des sociétés pourtant composées d’agriculteurs pour leur écrasante majorité. La seconde consiste à tenter de bâtir une maîtrise démocratique collective de l’usage des technologies. Une maîtrise s’exerçant par l’action des gouvernements, des assemblées élues, d’un système de surveillance et de contrôle fondé sur une expertise scientifique publique et transparente, aiguillonnés par l’action vigilante des citoyens organisés en associations, syndicats ou partis politiques. C’est une voie complexe et dont le succès n’est jamais garanti par les seules constitutions politiques puisqu’elle suppose un système d’expertise et une vie politique de qualité, où règnent compétence et transparence et d’où la corruption ou le népotisme sont exclus. Un rêve ? Certes, mais un rêve nécessaire puisqu’il faut tenter de le réaliser, petit à petit, patiemment, sans se laisser impressionner par sa difficulté. Au bout, il y a ce Graal moderne : obtenir des technologies qu’elles contribuent puissamment au progrès social et humain tout en évitant leur usage dangereux, volontaire ou accidentel.
Aux débuts du nucléaire, la sûreté, c’est l’affaire des ingénieurs qui conçoivent les premiers réacteurs et des techniciens qui les pilotent. C’est le règne de l’autocontrôle, des décisions prises en tout petits groupes, d’une confiance implicite des pouvoirs politiques envers ce monde étrange pour lui et tout nouveau pour les physiciens et les ingénieurs. Pourtant, petit à petit, la nécessité de bâtir un contrôle et une surveillance des activités nucléaires externes aux exploitants des installations s’est imposée. Les accidents de Three Miles Island aux États-Unis en 1979 — sans conséquences sanitaires malgré la fonte du cœur du réacteur — et de Tchernobyl, en 1986, furent dévastateurs pour une culture de l’arrogance et du déni du risque. S’y est ajoutée, dans les années 1980, l’expérience de responsables politiques confrontés à des dossiers très techniques, comme celui du sang contaminé par le virus du sida, et qui se sont retrouvés devant un tribunal pour avoir pris des décisions sur le seul conseil de membres de leur cabinet ministériel. Avec la montée des contestations sur certains usages des technologies de la génétique ou de l’informatique, nombre de gouvernements se sont décidés à éloigner du pouvoir exécutif les fonctions d’expertise et de contrôle des technologies à risques. Pour de bonnes raisons — s’assurer de la compétence, de l’indépendance et de la transparence avec lesquelles ces fonctions seront remplies. Et pour de moins bonnes raisons — car un tel dispositif permet aux gouvernants d’éloigner d’eux les conséquences politiques ou judiciaires d’éventuelles fautes commises ou de mauvaises décisions sur le mode « responsables mais pas coupables ».
En France, cette évolution a donné naissance à plusieurs agences publiques pour les médicaments, les biotechnologies ou la protection de la vie privée contre la puissance des ordinateurs [3]. Elle a également abouti pour le nucléaire à un système de surveillance et de contrôle dont le socle législatif ne date que de la loi « Transparence et sûreté nucléaire » votée en 2006. Auparavant, c’est un service du ministère de l’Industrie qui assurait cette fonction, une tutelle élargie au ministère de l’Environnement en 1991, puis à celui de la Santé en 2002. Depuis 2006, ce système repose sur une Autorité de sûreté nucléaire (ASN) érigée en Autorité administrative indépendante, dont la direction collégiale de cinq membres, irrévocables, est nommée par le président de la République (pour trois commissaires) et par les présidents de l’Assemblée nationale et du Sénat (un chacun). Cette ASN et ses près de 500 ingénieurs et inspecteurs s’appuient sur l’Institut de radioprotection et de sûreté nucléaire (IRSN). Un centre d’expertise et de recherche où plus de 1 700 personnes travaillent dans un cadre lui aussi indépendant au plan institutionnel et budgétaire des industriels ou du CEA (le Commissariat à l’énergie nucléaire et aux énergies alternatives) qui l’abritait auparavant.
L’émergence de cette Autorité de sûreté nucléaire indépendante ne s’est pas faite sans difficultés. Les responsables politiques n’ont pas toujours vraiment compris ce qu’ils avaient voté. Peu de députés et sénateurs sont capables, au débotté, d’expliquer le contenu de la loi TSN de 2006. On a aussi pu le vérifier lorsque le Parti socialiste, lors de discussions pour un accord électoral en 2011 avec EELV, s’est mis à évoquer un « audit » promis à son partenaire sur la sûreté de l’EPR en construction à Flamanville. Or, puisque le PS ne remet pas en cause la loi TSN, c’est tout simplement le travail de l’ASN de réaliser non un audit ponctuel, mais de surveiller et contrôler en permanence la sûreté de l’EPR lors de sa construction et de sa future exploitation. Demander un « audit » — et à qui ? — serait nier les prérogatives de l’ASN et détruire le système de contrôle patiemment édifié. Parmi les responsables politiques ayant du mal à accepter l’indépendance de l’ASN, on peut aussi compter Nicolas Sarkozy, alors président de la République, très fâché des déclarations de son collège, alors dirigé par André-Claude Lacoste, contre des exportations précipitées de technologies nucléaires vers des pays instables comme la Libye de Khadafi.
Du côté des exploitants, les relations sont parfois très tendues. On se souvient du bras de fer, survenu en 2011, à propos du coût du stockage géologique prévu pour l’enfouissement des déchets les plus radioactifs, lorsque l’ASN a dû rappeler à EDF que la loi confère à l’Andra (l’Agence nationale pour la gestion des déchets radioactifs) la responsabilité de le concevoir. Ou encore de la rudesse avec laquelle l’ASN a traité le CEA lors du démantèlement de l’Atelier de technologie du plutonium à Cadarache en 2009. Lorsque l’on cherche à comprendre pourquoi la construction de l’EPR de Flamanville a pris tant de retard, si la cause principale en est une annonce initiale de délais et de coûts sous-estimés, puis des erreurs sur la conduite du chantier, la sévérité des contrôles effectués par l’ASN n’y est pas pour rien.
Même les opposants les plus irréductibles à l’usage du nucléaire pour l’électricité n’imaginent pas que les concepteurs et les exploitants des centrales opteraient volontairement pour des actes dangereux, se traduisant par une contamination radioactive majeure de l’environnement. En revanche, ils craignent l’incompétence, la mauvaise décision de maintenance ou d’investissement de sûreté guidée par des objectifs financiers, ou le déni du risque. Or, ils ne peuvent vérifier par eux-mêmes si ces craintes sont justifiées ou non. Mais comment opère-t-on lorsque l’on conduit sa voiture au garage pour une révision ? Le mécanicien vous rappelle pour vous annoncer les interventions qu’il juge nécessaires pour votre sécurité — il faut changer les plaquettes de frein par exemple. Allez-vous vérifier leur état ? Non. Il vous revient de faire confiance, ou non, au technicien, à sa compétence et à sa probité. À une échelle bien supérieure, c’est le même problème pour toute technologie complexe. Et la question est : peut-on faire confiance au système, et aux personnes qui le dirigent, tel qu’il est aujourd’hui ? Par exemple lorsque le rapport annuel de l’IRSN affirme, comme en 2014, « qu’aucun événement significatif n’a conduit à une dégradation de la sûreté des réacteurs ».
Dans son principe, ce système semble correctement institué. L’exploitant est le premier responsable de la sûreté de ses installations. Mais le système de contrôle et de surveillance est doté de pouvoirs et des moyens étendus par la loi TSN de 2006. Des pouvoirs lui permettant de stopper toute usine ou centrale nucléaire si l’ASN le juge nécessaire. De punir un exploitant qui renâclerait à appliquer l’une de ses prescriptions de sûreté par une astreinte financière journalière. Aucun document et aucun site nucléaire ne peut être caché à ses inspections sous peine de sanction judiciaire. Lors des examens de sûreté qui surviennent tous les dix ans environ, des milliers de vérifications sont faites. Et le réacteur ne peut redémarrer si l’épreuve finale — la mise sous une pression supérieure à celle de fonctionnement de sa cuve et de son enceinte de confinement — n’est pas un succès. Autrement dit, on ne peut redémarrer une centrale qui fuit…
L’ASN peut également imposer des travaux et investissements de sûreté. Après l’accident japonais, l’Autorité de sûreté nucléaire a exigé d’EDF la formation d’une Force d’action rapide (la FARN), dotée de moyens puissants, capable d’apporter si nécessaire par hélicoptère des équipements lourds (alimentation électrique notamment). Puis la décision a été prise de construire auprès de chaque réacteur un « noyau dur », une salle de commande bunkérisée, ainsi qu’une source d’électricité autonome, elle aussi bunkérisée, protégée contre des agressions d’un niveau plus élevé que le maximum envisagé lors de la conception. Si l’on cumule les prescriptions prises dans le cadre de la prolongation de la durée d’exploitation des centrales nucléaires au-delà de 40 ans et celles prises après la catastrophe de Fukushima Daiichi, EDF va investir environ un milliard d’euros par réacteur. Une somme nettement plus élevée que celle exigée ailleurs, aux États-Unis par exemple. Les comparaisons internationales montrent que l’ASN est certainement l’autorité la plus sévère au monde. Une situation pour le moins normale au regard de la densité des installations nucléaires en France. Un exemple de cette sévérité ? En 2015, l’ASN a infligé un retard conséquent, et donc coûteux, au redémarrage d’un réacteur de la centrale du Blayais pour un problème purement documentaire sur un nouveau générateur de vapeur. En novembre 2016, l’ASN n’a pas hésité à contraindre EDF à arrêter 5 réacteurs, alors en fonctionnement, afin d’examiner l’état de générateurs de vapeur dont la fabrication, parfois ancienne, en France et au Japon, avait fait l’objet d’anomalies jusqu’alors non connues et découvertes à la suite d’investigations. Une décision très lourde, qui va coûter plusieurs centaines de millions d’euros à EDF.
L’effort de transparence réalisé par l’ASN et l’IRSN est aussi remarquable. Rapports, courriers aux exploitants, lettres de suivi des inspections (près de 2 000 par an), déclarations d’incidents... tout est publié sur leurs sites Internet. L’ASN a invité les associations de citoyens qui surveillent la radioactivité dans l’environnement à s’associer au Réseau national [4], et certifié les instruments de mesure de celles qui l’acceptaient. Lors de la catastrophe nucléaire survenue au Japon en 2011, son action pour informer les citoyens, le discours rigoureux et ferme de ses dirigeants ont contrasté avec les propos lénifiants de certains industriels et responsables politiques. Cette attitude a été saluée jusque dans les milieux écologistes.
Depuis sa création comme autorité administrative indépendante en 2006, l’ASN a donc montré de multiples preuves de sa capacité et de sa volonté d’exercer sans faiblesse ni compromis sa mission de surveillance du risque nucléaire. Et l’IRSN, depuis sa sortie du CEA et son indépendance, a donné des gages en ce sens. Leurs premiers dirigeants, André-Claude Lacoste et Jacques Repussard, aujourd’hui à la retraite, n’y sont pas pour rien. Leur pugnacité et leur franc-parler ont souvent été soulignés. Les ayant souvent rencontrés comme journaliste, notamment lors des jours noirs de la catastrophe japonaise, je peux témoigner de leur état d’esprit, marqué par l’idée que la protection des populations doit demeurer la priorité absolue et pénétré de leur responsabilité.
Pourtant, la confiance des citoyens envers l’action de l’ASN et de l’IRSN, peu connue, demeure basse. Le baromètre de l’IRSN qui fait le point chaque année sur les opinions des Français montre dans sa dernière édition (2015) que si plus de 76 % des sondés estiment l’ASN « compétente », ils sont moins de 39 % à penser qu’elle leur dit la vérité sur les risques du nucléaire. Des chiffres qu’il faut prendre avec précaution, puisque la même enquête montre qu’ils sont 92 % à estimer le CNRS compétent et 61 % pensent que cet organisme de recherche leur dit la vérité sur le nucléaire, alors que les laboratoires du CNRS travaillent très peu sur ce sujet et ne s’expriment pas sur la sûreté des centrales nucléaires. Le plus significatif dans cette enquête est que l’opinion des Français a très peu changé sur la confiance qu’ils accordent à l’ASN avant et après la loi de 2006. Mais est-ce étonnant puisque les élus qui ont vot é ce changement majeur n’ont jamais cherché à l’expliquer à leurs électeurs ? Le même sondage indique d’ailleurs une défiance terrible à l’égard des responsables politiques et de la presse. Les premiers ne sont jugés compétents sur ce sujet que par 10 % des sondés et ne disant la vérité que par 5 %. Les chiffres pour les seconds sont de 24 % (une vision trop optimiste selon mon expérience) et 29 %.
La confiance ne se décrète pas. Si les principes de fonctionnement de l’ASN semblent bons, si ses dirigeants montrent une claire volonté d’exercer leur rôle sans faiblesse, cela ne suffira pas à l’établir. Surtout que, montrent les sociologues, la confiance des citoyens envers des institutions publiques à caractère technique ou d’expertise est directement indexée sur celle qu’ils accordent... aux pouvoirs politiques. Or, la défiance des citoyens envers les gouvernants se situe aujourd’hui à un niveau historiquement élevé, en raison de l’incapacité des partis qui se succèdent au pouvoir depuis 30 ans à résoudre les problèmes économiques et sociaux. Il faudrait donc un miracle pour que cette situation ne se répercute pas sur l’image que les citoyens se font de l’action de l’ASN.
Avoir un système de contrôle efficace, compétent et honnête ne suffit pourtant pas. Il ne peut rattraper des erreurs majeures de conception des machines — sauf à en ordonner l’arrêt immédiat et définitif — ni un exploitant, industriel ou organisme de recherche, qui faillirait à ses devoirs élémentaires. La responsabilité première de la sûreté revient aux exploitants et non aux contrôleurs. Les réacteurs utilisés en France sont-ils sûrs par conception ? Leur fabrication a-t-elle été parfaitement réalisée et contrôlée ? Les équipes d’EDF sont-elles en capacité de les exploiter sans faille ?
Une réponse simpliste et faussement rassurante serait de remarquer l’absence d’accident majeur, provoquant une contamination de l’environnement, depuis leur mise en service. Il serait ridicule également d’affirmer qu’il n’y a aucun problème ni difficulté. La découverte récente d’anomalies dans d’anciens dossiers de fabrication de composants cruciaux pour la sûreté des centrales nucléaires — cuve du réacteur, générateurs de vapeur... — dans les usines appartenant aujourd’hui à Areva le montre. Même si le fait que ces équipements fonctionnent correctement depuis leur mise en service plaide pour leur solidité, cette rigueur insuffisante n’est pas acceptable, a déclaré l’actuel président de l’ASN, Pierre-Franck Chevet. Cette affaire donnera donc lieu à des opérations de vérification et de contrôle sur les équipements concernés.
Au-delà des aspects techniques de la sûreté — c’est l’affaire d’ingénieurs, de spécialistes en métallurgie, en chimie, en neutronique... —, il faut mettre les équipes dans des conditions leur permettant de travailler sereinement. La liberté de parole doit être totale, et nul ne doit être inquiété, quel que soit son niveau hiérarchique, lorsqu’il signale un défaut mettant en cause la sûreté. Le financement des investissements de sûreté ne doit jamais être mis en cause au profit de versement de dividendes. Le prix de l’électricité doit garantir aux fabricants et aux exploitants qu’ils auront les moyens de la sûreté. Les directions d’entreprises doivent accorder à la sûreté leur attention prioritaire... et non au cours de Bourse des actions. Toutes ces conditions ont été jusqu’à présent réunies pour l’essentiel. Mais des changements profonds dans la structure et l’économie du marché de l’électricité sont susceptibles de les écarter à l’avenir. La privatisation partielle d’EDF, avec la séparation entre réseau, production et vente, la fin du monopole historique, les investissements massifs à l’étranger, l’instauration d’une concurrence artificielle, l’obligation faite à EDF de vendre de l’électricité à des concurrents, ou de leur céder des capacités de production hydraulique et d’acheter toute production renouvelable... tout cela a déstabilisé l’entreprise. Et ne joue pas en faveur de la sûreté en mettant les directions et les personnels sous tension, en leur imposant des priorités où la sûreté ne serait pas au premier rang.
La déstabilisation du marché de l’électricité en Europe est une très mauvaise nouvelle de ce point de vue. Les subventions massives aux énergies renouvelables — 300 milliards en près de 20 ans en Allemagne, 3,5 milliards par an en France — ont déséquilibré le système en créant notamment des surcapacités énormes en Allemagne. Aujourd’hui, le marché spot de l’électricité — là où les entreprises peuvent acheter au jour le jour, en gros, de l’électricité pour leurs clients — affiche des prix totalement déconnectés des coûts de revient réels. Les conséquences en sont parfois étonnantes ou à rebours de toute logique. Avec des prix « négatifs » sur le marché de gros, lorsqu’une surabondance d’électricité « fatale » — éolienne et solaire allemande pour l’essentiel et jouissant d’une obligation d’achat et d’une priorité d’accès au réseau — se croise avec une période de basse consommation. Les consommateurs n’en bénéficient pas, puisque les prix de vente aux particuliers et aux entreprises, eux, n’ont cessé de monter ces dernières années. À l’inverse, début novembre 2016, les prix se sont affolés, en raison de l’arrêt de 12 réacteurs d’EDF, prescrit par l’ASN, pour vérifier l’état des générateurs de vapeur après la découverte d’anomalies de fabrication par l’usine de Creusot Forge et de l’industriel japonais JCFC. Cette perte de production massive a entraîné des pics des prix de gros dépassant les 800€ par MWh en France ou en Grande-Bretagne, à l’heure de pointe de consommation du soir. Bousculé, ayant « perdu le nord », le marché de l’électricité ne donne plus de signaux corrects aux entreprises. Le découplage entre les prix de gros et les prix de revient réels, non pas de chaque moyen de production isolément mais d’un système électrique complet, assurant l’équilibre entre production et consommation tout au long de l’année, décourage les investissements nécessaires. Du coup, les autorités de régulation se voient obligées de lancer des « marchés de capacité » afin d’éviter la menace d’un black-out général par manque de moyens de production.
Les gouvernements et la Commission européenne seraient-ils en train de « jouer » avec l’électricité pour des raisons idéologiques ? On peut le penser lorsque l’on apprend que la Commission envisage de déplafonner les prix de gros du marché spot, au prétexte que des prix extrêmement élevés sur de très courtes périodes — lorsque l’on craint la pénurie et le black-out — pourraient permettre de financer des investissements lourds. Un système « pousse au crime » consistant à mettre en péril l’approvisionnement en espérant que des crises sortira une bonne politique énergétique. Ce jeu dangereux se déroule au détriment des deux besoins prioritaires des populations : la garantie d’une électricité répondant à la demande et la sûreté des installations industrielles. Pour l’instant, ce « jeu » est possible en raison d’une stagnation de la consommation et des équipements existants. Mais il est dangereux pour l’avenir, tant pour la garantie de l’approvisionnement que pour la sûreté nucléaire.
Un système de sûreté nucléaire ne peut pas protéger la société plus qu’elle ne le demande. En France, la demande de protection des populations semble aller de soi. La perception du risque nucléaire est très élevée. Voire très exagérée, puisque de très nombreux Français croient, à tort, que les populations environnantes des centrales sont en moins bonne santé qu’ailleurs. Ou que les productions agricoles autour des centrales sont de moins bonne qualité, ce qui n’a aucun fondement. Cette exigence très élevée est pourtant une très bonne chose. Elle a fortement contribué à l’amélioration du système français, un résultat paradoxal de l’action des militants anti-nucléaires. Cette exigence fait que l’on parle beaucoup du risque nucléaire, ce qui est le meilleur moyen de se mobiliser en permanence pour éviter sa réalisation.
À l’inverse, si l’on s’interroge sur les causes profondes de l’accident de Fukushima Daiichi, au Japon, on s’aperçoit que parmi elles se trouve, paradoxalement, une demande insuffisante de protection de la société japonaise. Comme l’a fait remarquer le directeur de la centrale dévastée, Masao Yoshida, lorsqu’il était interrogé par la commission d’enquête gouvernementale : « Il ne s’agit pas que de la sûreté des centrales nucléaires. Le tsunami de mars 2011 a fait 23 000 victimes. Qui les a tuées ? Un séisme de magnitude 9. » [5] La réticence de la société japonaise, des citoyens aux gouvernants, à regarder en face le risque de tsunami sur la côte est du pays — malgré un séisme survenu au même endroit en 1896 et dont le tsunami consécutif avait déjà tué plus de 20 000 personnes — a débouché sur des précautions insuffisantes. Yoshida le dit à sa façon : « Bien sûr, protéger une centrale nucléaire est important, mais si l’on n’a pas de plan d’ensemble, on ne peut pas parler de mesure de protection. » Autrement dit, la centrale nucléaire de Fukushima Daiichi était mal protégée contre ce risque naturel, mais pas moins bien que les logements de la population riveraine de la côte, les usines, bâtiments industriels, lignes de chemin de fer, routes, hôpitaux, écoles… tous dévastés par le tsunami. Or, protéger cette centrale contre un tsunami de cette intensité aurait obligé la société et les pouvoirs publics japonais à se demander comment éviter les autres dégâts provoqués par la même cause. Pourtant, outre l’exemple de 1896 au Japon, une terrible piqûre de rappel avait été infligée par la nature. Le tsunami survenu dans l’océan Indien le 26 décembre 2004 a en effet provoqué la mort de plus de 250 000 personnes, en Indonésie, au Sri Lanka et en Inde.
Les ingrédients de la catastrophe japonaise vont donc au-delà du risque naturel. Les relations incestueuses entre les partis de gouvernement et les entreprises privées qui exploitent les centrales nucléaires. Une Autorité de sûreté dont les responsables pouvaient « pantoufler » après leur carrière publique sur des postes très bien payés et à faible responsabilité chez les électriciens. Le refus de tenir compte de standards internationaux, comme la mise en place de dispositifs capables de recombiner l’hydrogène en cas de fusion du cœur afin d’éviter des explosions chimiques (celles qui ont eu lieu à Fukushima), décidée après l’accident de Three Miles Island en 1979... Ce n’est pas pour rien que le président de l’ASN, longtemps avant 2011, exprimait sa crainte devant le système nucléaire japonais.
L’une des différences majeures entre France et Japon se situe là. L’exigence très forte de sa propre sécurité vis-à-vis de l’industrie nucléaire qu’exprime la population française a conduit à une évolution du système de contrôle vers une autonomie, une puissance et une sévérité sans équivalents au Japon. Et vers une « doctrine » stipulant que l’objectif fixé à l’exploitant n’est pas seulement de respecter les normes en vigueur au moment de l’autorisation de mise en service d’un réacteur nucléaire. Mais, dès lors qu’il semble possible d’améliorer la sûreté, de faire les investissements nécessaires. De ce point de vue, l’expression vigoureuse des opposants à cette technologie lui a paradoxalement rendu service.
Le nucléaire est-il une horreur, une aubaine, un crime, un moyen d’apporter l’électricité salvatrice indispensable à la vie quotidienne et à l’économie ?… Ne choisissez pas, il est tout cela à la fois. Ses qualités et ses défauts ne sont pas de principe, mais circonstanciels. Selon le pays où vous habitez, sa géographie physique, ses risques naturels, son économie, sa démographie, son système politique et son degré de développement social, sa capacité à gérer le risque de cette technologie et les déchets qu‘elle produit, ce qui est avantage ici sera un obstacle ou une raison majeure de ne pas y recourir ailleurs.
Bien sûr, un déchet nucléaire demeure un déchet et sa radioactivité ne varie pas selon les latitudes ou les systèmes politiques. Mais c’est la capacité à le gérer qui en détermine la véritable dangerosité. Il n’y a rien là qui soit spécifique de cette technologie. Les dangers de l’eau polluée, des déchets ménagers, des usines chimiques, des pesticides agricoles... ou des constructions d’immeubles en zones d’intenses séismes sont certes liés aux caractéristiques physiques ou chimiques de ces produits, mais l‘organisation sociale, ses règles et leur respect, déterminent en grande partie les risques réels courus. Installer une centrale nucléaire dans une zone où les tremblements de terre sont particulièrement violents signifie prendre un risque élevé, à moins d’être certain d’avoir anticipé toutes les conséquences de ces séismes. Lorsque ce n’est pas le cas, comme au Japon, et qu’en outre le système de contrôle de l’industrie nucléaire est corrompu et incapable d’imposer des mesures de sécurité pourtant adoptées en Europe après l’accident de Three Miles Island, le choix nucléaire peut sembler irraisonné.
Où se situe l’enjeu de ce débat ? D’abord dans les immenses services que rend l’électricité. Comparer les Indices de développement humain des pays (santé, éducation, espérance de vie, accès à l’information et la culture...) à leur niveau de consommation énergétique, et singulièrement d’électricité, montre une loi d’airain. Si les consommations d’énergie les plus élevées traduisent des gaspillages, dès que l’on passe en dessous de 2,5 tonnes d’équivalent pétrole par habitant, IDH et consommations sont étroitement liés dans la plupart des pays. Avec une règle simple : moins d’énergie signifie en général des IDH plus bas, des populations privées de droits fondamentaux à l’eau propre, à un logement décent, à la santé et à l’éducation. Quant à l’électricité, une comparaison en montre l’utilité. Les Français en utilisent chacun environ 7 000 kWh par an. Au Niger, on compte seulement 30 kWh par an et par habitant. Ces derniers sont-ils sobres ? Non, plutôt très pauvres, sans école, sans médecin, sans emploi qualifié, sans moyens de transport... Comment conserver au frais un médicament dans un village du Sahel sans électricité pour alimenter un réfrigérateur ? Dans les pays où les systèmes électriques ne sont pas fiables, où pannes et coupures se succèdent, c’est la course aux moyens autonomes de production, souvent à l’aide de générateurs à pétrole, polluants et chers. L’électricité, comme l’éducation, c’est lorsqu’elle manque que l’on comprend à quel point elle est utile.
En outre, cette forme d’énergie est celle qui croît le plus, tant elle correspond au mode de vie urbain et aux nouvelles technologies – la consommation due à Internet équivaut ainsi dans notre pays à celle des transports ferroviaires (trains, métros et trams). La disponibilité et le prix plutôt bas de l’électricité dans nombre de pays développés conduisent les populations à se désintéresser de son origine. Pourtant, nul miracle. Tous les moyens de production présentent avantages et inconvénients, nécessitent des décisions d’investissement, des stratégies industrielles, impriment leur marque sur les économies et les paysages. Quels sont ceux de l’électro-nucléaire à l’échelle française ?
Lorsque la décision de s’engager dans l’option nucléaire pour l’électricité fut prise en France, le dossier climatique n’existait pas comme sujet de l’agenda politique. Dans les laboratoires de climatologie, il demeurait une interrogation, déjà très ancienne puisqu’elle fut posée dès la fin du xixe siècle par le scientifique suédois Svante Arrhénius, prix Nobel de chimie en 1903. En 1896, ce dernier publie un article sur l’effet de serre, où il estime qu’un doublement du taux de dioxyde de carbone (le CO2) dans l’atmosphère pourrait augmenter la température moyenne de la planète de 5°C. Or, à l’époque, le charbon est utilisé de plus en plus massivement dans l’industrie et pour le chauffage. Toutefois, Arrhénius utilise des calculs qui seront ensuite fortement contestés, et surtout les scientifiques manquent de données sur les climats passés, sur la teneur de l’atmosphère en CO2 et son évolution, et ne savent guère dépasser des calculs très simplifiés pour anticiper une évolution climatique forcée par nos émissions de CO2 et d’autres gaz à effet de serre.
Au cours des années 1970, devant l’augmentation considérable de ces émissions depuis la fin de la Seconde Guerre mondiale, quelques chercheurs, des climatologues mais aussi des économistes, se disent qu’il faudrait se pencher avec plus d’attention sur le sujet. Ils disposent en effet d’un élément supplémentaire. Depuis 1958, la teneur de l’atmosphère en CO2 est correctement mesurée par une équipe américaine, au sommet du volcan éteint du Mauna Loa, sur l’île d’Hawaï. Or, elle montre une augmentation régulière. Aussi, dès 1979, un rapport de l’Académie des sciences des États-Unis d’Amérique met ce problème en exergue. Puis, en 1987, c’est une équipe française — dirigée par Jean Jouzel et Claude Lorius — qui analyse les glaces forées en Antarctique par les scientifiques soviétiques à la station Vostok. Elle y découvre les relations entre la teneur de l’atmosphère en CO2 et en méthane — un autre gaz à effet de serre libéré par l’agriculture et l’élevage — et l’évolution des températures. Le dossier s’emballe : les gouvernements créent le GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat) en 1988, puis, lors du « sommet de la Terre » à Rio de Janeiro en 1992, l’Assemblée générale de l’ONU adopte la Convention climat qui proclame la volonté des États de limiter le changement climatique provoqué par nos émissions de gaz à effet de serre à un niveau non dangereux pour les générations futures.
Quelle relation entre électro-nucléaire et climat ? Tout simplement le fait que l’électricité d’origine nucléaire est massivement « décarbonée », avec des émissions de gaz à effet de serre rapportées au kW/h produit de même ordre de grandeur (en tenant compte de toutes les opérations, de l’extraction de l’uranium à la gestion des déchets) que l’hydraulique, l’éolien, le solaire ou d’autres énergies renouvelables comme la géothermie ou le biométhane.
C’est ainsi que la plupart des pays qui produisent une électricité massivement décarbonée utilisent du nucléaire et des énergies renouvelables, surtout de l’hydraulique. En Europe, les pays dont les systèmes électriques émettent le moins de gaz à effet de serre sont l’Islande, la Suisse, la Norvège, la Suède et la France avec des taux de « décarbonation » supérieurs à 80 %. En Islande, c’est l’hydraulique et la géothermie qui le permet. En Suisse, c’est un mix nucléaire plus hydraulique. En Norvège, c’est l’hydraulique à 95 %. En Suède, c’est un mélange de nucléaire et d’hydraulique plus un peu d’éolien et de biomasse. En France, le taux de décarbonation frise les 95 % grâce à une production nucléaire atteignant en moyenne 75 % du total, auquel il faut ajouter l’hydraulique, l’éolien, le solaire, la biomasse et une centrale marémotrice. Cette place majeure du nucléaire en France explique l’essentiel de l’écart avec l’Allemagne pour les émissions totales de CO2, chaque Allemand émettant 40 % de plus que chaque Français. D’où provient cet écart considérable ? En 2014, selon Eurostat, l’Allemagne a consommé 240 millions de tonnes de charbon, contre 14 seulement en France, surtout pour produire de l’électricité. Et notre voisin a également consommé 107 millions de tonnes de produits pétroliers, contre 75 millions en France, et 64 millions de tonnes d’équivalent pétrole de gaz, contre 32 millions en France.
Réussir la transition énergétique vers un monde utilisant le moins possible de combustibles fossiles afin d’atténuer la menace climatique qui pèse sur les générations futures peut se réaliser, en France, par une production électrique majoritairement nucléaire. Pour les usages actuels de l’électricité, mais également, à l’avenir, en cherchant à électrifier au maximum le transport des personnes et des marchandises, afin de s’attaquer à l’usage majoritaire des produits pétroliers (et d’économiser l’essentiel de la facture pétrolière). C’est possible puisque, si l’on imagine propulser les trois quarts du parc actuel de voitures et camions par des moteurs électriques, dix réacteurs de la taille de celui en construction à Flamanville suffisent pour les alimenter. Une telle mutation aurait un effet radical sur la propreté de l’air dans les villes et le long des grandes voies de circulation en éliminant les gaz et particules fines émises par les moteurs à pétrole responsables de décès prématurés par milliers chaque année. Et l’on pourrait entendre les oiseaux le long des boulevards.
Le nucléaire permet une production électrique massive, sans émission de particules et de gaz polluants dans l’atmosphère. Le niveau de pollution très élevé des villes chinoises s’explique par les centrales à charbon, comme à l’époque du « smog » mortel sur Londres ou Los Angeles dans les années 1950. On l’oublie souvent, car le durcissement bienvenu des normes de propreté de l’air donne l’impression, fausse, que « c’était mieux avant ». Avant, c’est par exemple cette semaine du début décembre 1952 où, à Londres, la pollution due au charbon tue 12 000 personnes et en cloue 100 000 au lit. Aujourd’hui encore, les 280 centrales électriques au charbon qui fonctionnent dans l’Union européenne continuent de tuer. Pas moins de 23 000 morts prématurées par an, en raison des émissions de particules fines, démontre un rapport [6] publié en juillet 2016. Et comme la pollution atmosphérique se rit des frontières, les centrales allemandes ou polonaises, les plus nombreuses, tuent ailleurs et jusqu’en France.
À l’échelle mondiale, nul ne peut dire quel sera le rôle de l’électro-nucléaire dans le mix énergétique futur. Mais les scénarios énergétiques montrent que, sans son apport à la décarbonation de l’électricité, les objectifs climatiques de la Convention climat, fixés à la COP21 tenue à Paris en décembre 2015, seront très difficiles à atteindre. À la date du 13 septembre 2016, 450 réacteurs nucléaires produisent de l’électricité et 60 sont en construction. La Chine aura d’ici dix ans un parc de réacteurs de la taille de la France et envisage d’égaler rapidement celui des États-Unis, avec une centaine de réacteurs. La Russie, l’Inde, les États-Unis, le Brésil, pour ne prendre que de grands pays, affichent leur volonté de recourir à cette technologie. Si cette volonté se traduit en réalité, l’électro-nucléaire pourra apporter une contribution significative à l’atténuation de la menace climatique à l’horizon du siècle. La ressource en uranium naturel le permet, car, si cette technologie est déployée à une très grande échelle, s’ouvre alors la possibilité de l’utiliser dans des réacteurs dits à neutrons rapides. Cette technologie n’est pas une simple théorie. Le réacteur Phénix, en France, a fonctionné avec ce principe durant des décennies. En 2015, la Russie a connecté au réseau électrique le réacteur à neutrons rapides Beloyarsk-4 de 800 MW. Or, comme elle peut utiliser l’uranium-238 — 99 % de l’uranium naturel —, cette technologie permet de produire cinquante fois plus d’électricité pour la même quantité d’uranium extrait du sous-sol que les réacteurs actuels, à neutrons ralentis. Pour la France, la seule réserve en uranium appauvri déjà constituée permettrait d’alimenter un parc de réacteurs de la puissance actuelle durant plus de 1 000 années sans aucune importation. Si nul ne sait si cette possibilité technique d’un recours massif au nucléaire sera décidée, elle existe.
C’est le point clé du débat public sur l’électro-nucléaire. Et plus exactement, le risque d’un accident avec dissémination massive de particules et de gaz radioactifs dans l’environnement. Une précision cruciale, montre l’accident grave survenu à la centrale de Three Miles Island aux États-Unis en 1979. Lors de cet accident, la perte du refroidissement a provoqué sa fusion pour près de la moitié du cœur. Mais ce cœur fondu mélangé au métal, lui aussi fondu, des structures du réacteur par la chaleur, n’est pas sorti de la cuve, se déposant au fond. Certains gaz radioactifs (xénon et iode) sont sortis de la centrale [7], sans provoquer de risques sanitaires décelables. Mais l’enceinte de confinement a conservé la presque totalité des gaz et particules radioactives à l’intérieur du bâtiment. À l’origine de cette industrie, ses partisans ont nié ce risque de fusion du cœur… tout en implantant des dispositifs de sûreté destinés à empêcher sa survenue. Leur prétention d’avoir ainsi éradiqué cette menace s’est écroulée à Tchernobyl, en avril 1986, puis au Japon, à la centrale de Fukushima Daiichi, en 2011.
L’accident de Tchernobyl est bien plus grave au plan sanitaire que celui de Fukushima, à l’inverse de ce que croient nombre de Français, qui jugent ce dernier « plus effrayant » selon le baromètre de l’IRSN. Dans les semaines après l’accident, sur les 600 travailleurs et membres des équipes de secours présents sur le site, 237 personnes furent hospitalisées. Parmi elles, 134 ont été victimes d’un syndrome d’irradiation aiguë, dont 28 sont décédées dans les quatre mois qui ont suivi l’accident. Puis, entre 1987 et 2006, 19 autres intervenants sont décédés des séquelles de leur syndrome. L’accident provoque des maladies et des morts différées, par cancers ou en raison du stress et des maladies engendrées par les déplacements de populations (plus de 300 000 personnes ont dû quitter leur habitation et leur emploi), la perte de repères sociaux, de cadre de vie, de relations sociales. De vastes zones sont toujours contaminées, certaines pour des durées dépassant toute anticipation à l’échelle d’une vie humaine. Cette perte de territoire constitue l’un des effets spécifiques d’un accident nucléaire si l’on compare à d’autres risques industriels. Le bilan sanitaire restera à jamais in-complet, car les États concernés — Ukraine, Russie, Biélorussie — n’ont pas mis en place les moyens d’un suivi médical et épidémiologique exhaustif. Pour certains des groupes les plus exposés, comme les militaires qui ont effectué des survols en hélicoptère de la centrale embrasée pour y déverser des matériaux afin d’étouffer l’incendie, peu d’informations sérieuses sont disponibles. À l’inverse, d’autres groupes sont mieux connus. C’est le cas des près de 7 000 enfants, de moins de 18 ans en 1986, atteints d’un cancer de la thyroïde provoqué par l’inhalation d’iode radioactive ou son ingestion avec du lait contaminé. Ils ont subi une opération avec l’ablation de leur glande thyroïde entre 1991 et 2005. Si ce traitement efficace permet d’éviter des conséquences graves, cela aurait pu être évité, ou du moins atténué, par une évacuation rapide lors de l’accident.
C’est également le cas de certains groupes de « liquidateurs » de l’accident, 600 000 au total, dont les 300 000 les plus exposés en 1986 et 1987. Des études internationales montrent que certains cancers (leucémie) ont vu leur incidence augmenter parmi cette population, mais leur nombre demeure faible au regard du total des cancers. Ainsi, pour le groupe des 150 813 liquidateurs ukrainiens suivis médicalement entre 1986 et 2010, 196 cancers de la thyroïde ont été diagnostiqués. Pour les liquidateurs biélorusses, russes et baltes, une étude du Centre international de recherche sur le cancer (CIRC) a observé 60 cas de leucémie, et 117 chez les Ukrainiens. Ces chiffres, bien établis, montrent un effet des radiations subies. Ils suggèrent que d’autres cancers sont survenus ou surviendront, en nombre plus important que les leucémies, mais qui seront plus difficiles à mettre en évidence, car masqués par un nombre beaucoup plus grand de cancers similaires d’origine autre que les radiations. Mais ces chiffres montrent également que les affirmations spectaculaires sur des « centaines de milliers de morts » dues à l’accident ne sont pas crédibles et relèvent de la désinformation. Ils n’ont pas surpris les médecins et épidémiologistes, car ils correspondent aux connaissances sur le risque des radiations ionisantes.
Si vous êtes, vous lecteur, surpris, c’est probablement par manque d’éléments de comparaison. La dose moyenne reçue par les liquidateurs de Tchernobyl est estimée par les spécialistes à environ 120 millisieverts (une unité qui mesure l’effet biologique, sanitaire, d’une exposition à la radioactivité). Alors que la dose annuelle due à la radioactivité naturelle est de l’ordre de 2,4 millisieverts en France ou que la dose maximale pour un travailleur du nucléaire est de 20 millisieverts par an.
Dans les populations des zones contaminées, il n’a pas été observé d’augmentation des malformations d’enfants nés après l’accident en comparaison avec des régions proches mais non contaminées, ni du cancer du sein chez les populations des territoires évacués, y compris de la zone de Prypyat, entre 1990 et 2011. Surtout, les dégâts sanitaires les plus nombreux et graves sont liés aux effets sociaux et psychologiques de la catastrophe, dont témoigne l’apparition de stress post-traumatiques chez les trois quarts des personnes évacuées, avec des effets divers allant jusqu’au suicide. De même, les médecins notent une forte diminution du système immunitaire des populations exposées, sans qu’une causalité avec les contaminations ait pu être établie.
Au Japon, si les conséquences sanitaires directement liées à la radioactivité seront beaucoup plus faibles — pour l’instant, aucun décès ne lui est imputable, et la surveillance étroite des enfants de la préfecture de Fukushima n’a pas montré d’augmentation des tumeurs à la thyroïde —, celles liées à l’évacuation rapide et donc brutale de plus de 100 000 personnes sont massives et peuvent aller jusqu’au décès pour des personnes âgées ou fragiles. Là aussi, les conséquences sanitaires les plus graves ne proviennent pas des contaminations radioactives, mais d’autres facteurs comme le déplacement et le stress. Comme à Tchernobyl, mais pour des surfaces beaucoup plus petites, certaines zones autour de la centrale nucléaire ne seront pas ouvertes au retour des populations pour une vie normale à un horizon prévisible.
Quant au coût de l’accident, une étude japonaise l’évalue à 100 mil-liards d’euros… mais c’est là une sous-estimation. Elle prend certes en compte de nombreux coûts — sanitaires, le chantier sur la centrale dévastée, l’évacuation des populations, etc. Mais elle oublie les conséquences sur la politique énergétique du Japon. Le pays a dû importer massivement gaz, charbon et pétrole pour pallier la fermeture des centrales nucléaires. Et si ces dernières ne sont pas remises en fonctionnement, mais qu’elles sont destinées à un démantèlement total, alors, le coût réel de l’accident pour l’économie japonaise pourrait être dix fois plus élevé.
Ce coût est « compatible » avec une étude réalisée en 2013 par un économiste, Patrick Momal, à la demande de l’Institut de radioprotection et de sûreté nucléaire (IRSN) sur un accident survenant en France. Un « accident grave, avec fusion du cœur du réacteur, mais des rejets limités, contrôlés et non massifs, coûterait à la France environ 120 milliards d’euros, 6 % du PIB annuel », expliquait Patrick Momal [8]. Sur ce total, 6 représentent les coûts du site accidenté, 9 sont dus à la contamination radiologique, 11 au territoire contaminé à gérer. L’essentiel vient des 44 milliards résultant d’un arrêt accéléré du nucléaire et des 47 milliards de pertes économiques dues à l’image abîmée de la France, pour l’exportation de produits agricoles et le tourisme, indépendamment d’effets radiologiques réels. Sur un tel accident, le nombre de « réfugiés radiologiques », forcés de quitter leur domicile, va de zéro à 10 000 en fonction des cas étudiés. Dans le cas d’un « accident majeur » de type Fukushima, avec des rejets massifs non contrôlés, la facture grimpe à 430 milliards d’euros. Dont 8 pour le site, 53 pour les conséquences radiologiques sur les êtres humains, 110 pour les territoires contaminés, 90 pour l’arrêt accéléré du nucléaire et 166 milliards pour les effets d’image, agriculture et tourisme. Le calcul est fondé sur une moyenne de 100 000 réfugiés radiologiques. Là aussi, ce sont les coûts d’image et d’abandon rapide du nucléaire qui en constituent l’essentiel. « De tels coûts économiques et les souffrances humaines constitueraient un traumatisme dont l’histoire garderait la trace durant des décennies », avertit Patrick Momal.
Les dimensions sanitaires, environnementales et économiques d’un accident majeur entraînant une dissémination massive de radioactivité sont telles qu’elles annihilent les avantages de l’option nucléaire. Elles expliquent pourquoi c’est l’IRSN qui a commandé cette étude, sans en demander l’autorisation à quiconque et notamment au pouvoir politique. Jacques Repussard, son directeur général à l’époque, précisait [9] qu’« il faut se servir de l’étude de Patrick Momal comme d’un argument pour financer correctement la sûreté, pas comme d’un épouvantail. C’est aussi une manière de mieux expliquer notre formule “il n’y a pas de risque zéro” en précisant que notre objectif est bien sûr zéro accident grave et dissémination de radioactivité. Notre rôle est de parler de l’accident nucléaire pour mieux l’éviter ».
En avril 2016, le gouvernement a annoncé qu’il allait apporter 3 milliards d’euros à EDF, dont l’État est le principal actionnaire, avec 85 % du capital. Autrement dit, EDF est toujours, en écrasante majorité, la propriété du peuple français, le gouvernement en étant le gestionnaire. Un gouvernement qui nomme 90 % des membres du conseil d’Administration, et le PDG d’EDF en Conseil des ministres. Cet apport donne-t-il raison aux discours prétendant que « le nucléaire est trop cher ». Pas vraiment. À quand remonte le précédent apport d’argent de l’État à EDF ? À 1981. Il y a 35 ans. Et depuis, EDF verse à l’État non seulement ses taxes et impôts rubis sur l’ongle, à la différence de la plupart des grandes entreprises privées, qui jouent de l’optimisation fiscale pour limiter leurs impôts, mais, en outre, les gouvernements successifs ont prélevé des milliards dans la caisse d’EDF.
Depuis 2005, EDF n’est plus un établissement public mais une société anonyme, avec la vente d’actions, 15 % de son capital mis à la Bourse de Paris… dont le produit de la vente est allé à l’État. Depuis 2005, chaque année, l’entreprise a distribué des dividendes, sur instructions des gouvernements successifs. Des dividendes correspondant à 60 % en moyenne du bénéfice annuel, un taux de distribution supérieur à celui pratiqué par la plupart des entreprises du CAC 40. Les gouvernements obligeant ainsi EDF à se comporter de manière encore plus « capitaliste » que les entreprises privées. Et 85 % de ces dividendes ont été versés au budget de l’État, au mépris des intérêts de l’entreprise et de l’entretien du système électrique, et sans justification économique puisque le parc de production actuel a été financé par emprunt et sur fonds propres et non par apport d’argent public. Combien ? Beaucoup plus que les 3 milliards d’apports en 2016. Depuis 2006, EDF verse environ 2 milliards d’euros de dividendes chaque année à ses actionnaires, dont 1,7 milliard est allé à l’État. Ce n’est qu’à partir de 2013 que cette ponction annuelle a commencé à diminuer, l’État se rémunérant en actions et non en numéraire. Dans un rapport de la Cour des comptes publié en novembre 2015, on peut lire ces mots terriblement accusateurs pour les gouvernements de 2009 à 2013 : « La préoccupation majeure de l’État actionnaire a été que le groupe continue à servir un dividende substantiel, malgré une situation financière fragile et même au prix d’un surcroît d’endettement. »
Si les comptes d’EDF sont aujourd’hui si dégradés, c’est pour l’essentiel à des décisions politiques qu’on le doit. À la dérégulation du marché de l’électricité en Europe. À l’obligation de vendre à bas prix de l’électricité à ses concurrents pour créer artificiellement un marché. À une compensation incomplète du surcoût provenant de l’obligation d’acheter de l’électricité produite par les éoliennes et les panneaux photovoltaïques à un tarif élevé fixé par l’État, alors que cette production suit les évolutions de la météo et non celle de la consommation. À des investissements à l’étranger (aujourd’hui, plus de 40 % du chiffre d’affaires d’EDF est réalisé hors de France). Cette expansion a fait perdre des centaines de millions d’euros en Amérique du Nord et du Sud dans des aventures sans lendemain. Pour ces investissements à l’étranger, la Cour des comptes précise dans un rapport que « le montant total des pertes de valeur cumulées de 2009 à 2013 s’élève à 5,2 milliards d’euros », auquel il faudrait ajouter, pour la seule année 2014, une perte de 1 milliard d’euros. Ces chiffres mettent en cause la stratégie d’expansion internationale, résultat direct de la privatisation partielle d’EDF et de sa mise en Bourse, conduite au nom d’une ambition — « devenir l’électricien mondial de référence » — dont on se demande en quoi elle correspond à l’intérêt des Français, véritables propriétaires collectifs de l’entreprise.
Ce n’est pas au parc nucléaire actuel — il constitue à l’inverse l’essentiel de la création de valeur pour l’entreprise — qu’il faut attribuer la dégradation financière d’EDF, avec une dette de 37 milliards d’euros [10]. Comme le montrent les rapports successifs de la Cour des comptes sur le coût complet de la production nucléaire d’électricité — intégrant toutes les dépenses de recherche publique, et celles, actuelles et prévisibles, de la gestion des déchets nucléaires et du démantèlement des installations —, ce coût est tout à fait compétitif par rapport aux autres sources d’électricité. C’est d’ailleurs la raison principale pour laquelle les tarifs de l’électricité en France, tant pour les consommateurs particuliers que pour les entreprises, sont parmi les plus bas d’Europe. Ils sont ainsi deux fois moins chers qu’en Allemagne ou au Danemark, où le prix de l’électricité acquitté par les consommateurs particuliers et les petites et moyennes entreprises est plombé par les subventions massives (près de 300 milliards d’euros en 20 ans en Allemagne pour les énergies nouvelles renouvelables dont l’éolien et le solaire).
Les dépenses futures liées au parc nucléaire ne bouleversent pas cet équilibre. Le « grand carénage » — les dépenses liées à la prolongation de la durée d’exploitation des centrales au-delà de 40 ans et celles liées aux dispositifs de sûreté complémentaires décidées par l’Autorité de sûreté nucléaire après l’accident japonais de Fukushima Daiichi — peut impressionner avec 55 milliards d’euros entre 2014 et 2025, annonce EDF, voire 100 milliards au total à l’horizon 2030 selon d’autres estimations qui intègrent les coûts de fonctionnement. Mais ces dépenses permettent une production supplémentaire d’électricité dont la valeur est bien supérieure. Quant aux dépenses liées à la gestion des déchets nucléaires — avec le projet d’enfouissement géologique près de Bure [11] — et au démantèlement des centrales après leur arrêt, elles doivent être couvertes par les provisions réalisées via les factures d’électricité. On peut estimer que la moitié de ces dépenses futures sont aujourd’hui couvertes. Elles le seront correctement si les centrales nucléaires fonctionnent quarante ans en moyenne et si ces sommes sont gérées de manière à être disponibles le moment venu.
Mais cette vision du futur pourrait s’écrouler si le chiffre très imprudemment choisi par le gouvernement de François Hollande d’une part de la production d’électricité d’origine nucléaire de 50 % en 2025, contre 75 % aujourd’hui, était atteint, comme l’indique la loi sur la transition énergétique votée au Parlement. L’origine de ce chiffre et de cette date peut sembler mystérieuse. Aucun document, aucune étude n’a été réalisée ou citée par le gouvernement à l’appui d’une telle décision, qui la justifierait par des arguments techniques, économiques ou financiers. Elle ne s’inscrit pas non plus dans une stratégie énergétique de plus long terme, alors que les installations nucléaires ont une durée de vie qui exige une telle stratégie pour être gérées de manière rationnelle. Il semble que ce fameux 50 % provient plutôt d’un pur calcul politicien, fondé sur les relations entre le Parti socialiste et le mouvement écologique EELV afin de permettre la participation de ce dernier au gouvernement. Ce deal politicien peut ainsi être présenté par les responsables d’EELV comme un premier pas vers l’abandon total de cette source d’électricité, tandis que le Parti socialiste le présente à l’inverse comme la poursuite d’une stratégie incluant le nucléaire dans la politique énergétique de long terme. Ce flou stratégique a été vécu en direct par une délégation de salariés de la centrale de Fessenheim lorsqu’ils ont rencontré François Hollande en 2012. « Cette absence de vision de l’actionnaire principal d’EDF », m’indique un ingénieur de Fessenheim, illustre la différence entre l’échelle de temps de cette industrie et l’obsession des gouvernants pour le court terme des échéances électorales.
L’arrêt prématuré de 15 à 20 réacteurs nucléaires d’ici 2025 permettrait de faire descendre la production au niveau souhaité. De même que la sous-utilisation des réacteurs si aucun n’était fermé. Mais ce serait un désastre économique et financier pour EDF, et la cause d’une augmentation considérable du coût de l’électricité pour les consommateurs. Le remplacement de cette production par les seules énergies renouvelables, surtout éolienne et photovoltaïque, aboutirait inéluctablement à ce résultat. Déjà, ponctionnées sur les factures d’électricité, les subventions à ces deux sources d’électricité ont atteint 3,5 milliards d’euros en 2015 pour une contribution très modeste à la production (3,9 % pour l’éolien et 1,4 % pour le solaire). Une comparaison s’impose, pour le moins édifiante : dix ans de subventions à ces deux énergies au niveau de 2015 dépassent de 10 milliards le coût total sur 140 ans du projet d’enfouissement des déchets nucléaires les plus radioactifs (ceux issus des combustibles usés et du démantèlement des centrales), puisqu’il est estimé à 25 milliards par le gouvernement.
Si le nucléaire est plutôt une bonne affaire pour l’économie française depuis 30 ans, et pour le budget des ménages, cela ne signifie pas que la conduite de cette industrie soit facile. Les déboires actuels d’Areva, démantelée au profit d’EDF, proviennent d’erreurs majeures de sa direction, nommée par le pouvoir politique. Il est difficile de comprendre comment la direction de cette entreprise a cru qu’elle pourrait seule conduire le chantier d’une centrale prototype, en Finlande, alors qu’elle n’avait aucune expérience dans ce domaine. Ou comment elle a pu perdre plus d’un milliard dans l’achat aventureux d’une mine d’uranium en Namibie. Sa diversification dans l’éolien se révèle également un désastre financier de plusieurs centaines de millions d’euros. Elle vient de se terminer par la vente piteuse, à très bas prix, de la filiale éolienne à un consortium mené par Siemens. Mais la question industrielle ne peut être éludée. Après la construction à marche forcée des centrales actuelles, les industries privées qui s’étaient lancées sur ce marché éphémère ont logiquement coulé puisque le marché disparaissait sans être totalement remplacé par celui de la maintenance. L’État a pris le relais. Aujourd’hui, il doit répondre à cette question : veut-il maintenir ouverte l’option nucléaire pour le long terme ? Si oui, il est nécessaire de conduire une politique industrielle sur la durée, en phase avec cet objectif. Ce n’est pour l’instant pas le cas.
Le nucléaire permet-il, ou pas, l’indépendance pour la fourniture d’électricité ? Cette question provient de l’argument avancé en 1974, puis en 1980, lorsque les décisions politiques, prises par les duos Pompidou/Messmer, puis Giscard d’Estaing/Barre, confirmées par Mitterrand/Mauroy en 1981, ont lancé le programme de construction des centrales actuelles. À l’époque, il s’agissait de parer la hausse vertigineuse du prix du pétrole, la majorité de la production d’électricité s’opérant dans des centrales à fioul. Cette origine de la décision de se doter d’une production nucléaire de masse est souvent oubliée.
En voici les chiffres essentiels. En 1973, la France importait 122 millions de tonnes de pétrole, dont près de 40 millions de tonnes de fioul lourd pour les centrales électriques. En 1990, alors que l’essentiel du parc nucléaire est en activité, la France n’utilise plus que quelques millions de tonnes de fioul lourd, tandis que sa consommation totale de produits pétroliers a chuté d’un quart, malgré l’augmentation considérable du nombre de voitures et de camions, qui se traduit par une multiplication par deux de la consommation de carburants. C’est l’écroulement de l’usage du fioul lourd des centrales électriques et la diminution drastique des chauffages à mazout qui expliquent cette évolution remarquable, utile pour améliorer la balance de paiements du pays et pour lutter contre la pollution de l’air. S’affranchir de la « contrainte extérieure » que représentait le prix du pétrole importé, mais aussi le risque d’une rupture d’approvisionnement (c’est l’époque où l’on décide de constituer des stocks correspondants à trois mois de consommation de produits pétroliers), était donc avancé comme un argument décisif pour se lancer dans l’option nucléaire.
Mais cet argument de l’indépendance est-il valable ? Si l’on vise l’indépendance totale, il fonctionne uniquement si vous avez tout : uranium, enrichissement de l’uranium en isotope fissile (dans l’uranium naturel seul 0,7 %, l’isotope 235, est fissile) et fabrication du combustible, construction des réacteurs, exploitation de ces derniers, doctrine de sûreté, système de contrôle, gestion des déchets issus des combustibles usés. Très peu de pays peuvent y prétendre. Aucun petit pays ne le peut, car le volume de production d’électricité nécessaire pour amortir des investissements dans le cycle du combustible (de la mine à l’éventuel retraitement en passant par la fabrication) serait très largement supérieur à ses besoins propres. Des pays comme la Belgique ou la Finlande (la première a décidé d’arrêter le nucléaire, la seconde de le poursuivre) sont ainsi dans une dépendance totale vis-à-vis de leurs fournisseurs de combustible comme de réacteurs. À l’inverse, les plus grands pays (Russie, États-Unis, Chine) peuvent espérer l’indépendance totale. La France est dans une situation intermédiaire : elle a tout, sauf l’uranium, qu’elle importe. Seule la technologie des réacteurs dits « rapides » — comme Superphénix — pourrait lui donner une totale indépendance. Car le stock d’uranium appauvri — la part issue de l’enrichissement qui n’est pas utilisée — déjà disponible en France couvrirait des milliers d’années de fonctionnement d’un parc de réacteurs de cette technologie. Mais survient toutefois une différence majeure avec une importation massive de combustibles fossiles. Le cycle de production des combustibles nucléaires est si lent que plus de cinq ans de production de l’ensemble des réacteurs d’EDF sont « stockés » sous la forme des combustibles en cours de fabrication sur le territoire national. Un choix stratégique d’augmenter ce stock serait tout à fait possible et peu coûteux puisque le combustible nucléaire ne pèse que 5 % du coût de l’électricité produite. La France peut donc disposer d’un temps de réaction assez long pour faire face à un éventuel arrêt de ses importations d’uranium (l’extraction minière a cessé sur le territoire national en 2001) d’un de ses fournisseurs (Canada, Niger et Kazakhstan, où Areva exploite des mines). Cela n’est pas possible pour le pétrole, le charbon ou le gaz. Les slogans affirmant que le nucléaire, c’est l’indépendance, ou à l’inverse qu’il déclenche une dépendance aussi forte que les combustibles fossiles importés, sont donc peu pertinents. La vérité est plus nuancée. Avec son industrie nucléaire, la France peut disposer d’un matelas de plusieurs années de stock de combustible si elle le désire. C’est un avantage certain au regard de la dépendance en flux tendu pour le pétrole, le gaz… et le charbon de nos usines sidérurgiques.
L’une des craintes majeures des Français concerne les déchets nucléaires. À juste titre. L’ensemble des déchets nucléaires (historiques, médicaux, industriels et issus des centrales et usines nucléaires) est pris en charge par l’Andra (Agence nationale pour la gestion des déchets radioactifs). Une agence publique, financée à 97 % par des taxes prélevées sur les producteurs de déchets selon le principe pollueur/payeur. Elle collecte les déchets, contrôle leur conditionnement selon des normes très strictes et gère les sites de stockage de ces déchets. Pour les déchets dits de très faible, faible ou moyenne activité et de « période » [12] inférieure à 30 ans, les stockages sont en surface et devront être surveillés durant 300 ans. Le sérieux, la compétence et l’esprit de service public avec lesquels cette activité est conduite permettent d’en attendre un très haut niveau de protection pour les populations et la biosphère… ce qui ne signifie pas que tout est parfait. Il ne sera question ici que des déchets les plus dangereux, les matières issues du « combustible » qui représentent l’essentiel de la radioactivité produite dans les réacteurs et surtout des radioéléments à longue période, supérieure à 30 ans.
Lorsque l’on enlève du réacteur les combustibles usés, ils comprennent encore 95 % d’uranium et 1 % de plutonium. Ces deux matières sont séparées à l’usine de la Hague d’Areva à l’aide de procédés chimiques dans le cadre d’une filière de retraitement et de recyclage. L’uranium est conservé, car il est susceptible d’être réutilisé pour fabriquer de nouveaux combustibles. Quant au plutonium, il est incorporé dans des combustibles dit MOX et renvoyé en réacteur. Le devenir à long terme de ces matières nucléaires dépendra des politiques énergétiques futures. Si le nucléaire demeure une option au-delà même du siècle en cours, elles seront toujours des sources d’énergie. Si le nucléaire est abandonné, elles deviendront à leur tour des déchets.
Après cette séparation, restent enfin 4 % de véritables déchets. Surtout des « produits de fission », des atomes radioactifs formés lorsque les noyaux d’uranium se sont scindés en deux, dont le césium 134 et 137 ou le strontium 90. Puis les « produits d’activation » comme le cobalt 60. Et enfin les atomes plus lourds, formés par capture de neutrons, dits actinides mineurs, comme l’américium 241 et le curium 244. Ces déchets concentrent 96 % de la radioactivité totale à gérer. À la Hague, ils sont fondus et mélangés au niveau moléculaire à une matrice de verre, puis versés dans des cylindres de métal où ils refroidissent. Ces objets font environ 500 kg. La stabilité et la résistance de ces verres en font des conditionnements extrêmement sûrs, car il faudrait en briser l’architecture moléculaire, les dissoudre, pour qu’ils relâchent les atomes radioactifs. La durée de vie de ces verres se compte en centaines de milliers d’années.
Le volume de ces verres n’est pas impressionnant. L’inventaire national des déchets radioactifs, publié sur Internet et régulièrement révisé, l’estime à 5 300 m3 à l’horizon 2030. Mais c’est là une vision fausse de la place qu’ils doivent prendre. Elle doit être appréhendée à l’aide du projet d’enfouissement géologique, la solution de référence adoptée par la loi votée en 2006.
L’idée de stocker à grande profondeur, dans une couche géologique imperméable et stable, capable de confiner les déchets assez longtemps pour que toute fuite devienne inoffensive, n’a rien de spécifique à la France. La plupart des pays qui utilisent l’énergie nucléaire poursuivent le même objectif. Ainsi, au moment où j’écris ce chapitre, j’apprends que l’Autorité de sûreté suédoise vient de rendre un avis positif au dossier déposé par l’homologue de l’Andra pour l’enfouissement des déchets nucléaires suédois.
Ce projet repose sur des connaissances géologiques fondamentales. Si l’enveloppe d’acier et le béton des structures souterraines sont capables de confiner les atomes radioactifs durant des centaines d’années — durant lesquelles la radioactivité va décroître —, le principe du stockage est de stipuler leur disparition à très long terme. Les calculs de durée de confinement sont donc réalisés en ne tenant compte que des verres et des propriétés hydrologiques, physiques et chimiques de la couche géologique. Ainsi, la couche d’argilite prévue pour l’accueillir à 500 mètres de profondeur, aux confins de la Meuse et de la Haute-Marne près du village de Bure, a été formée il y a près de 160 millions d’années. Cette couche d’environ 120 mètres d’épaisseur est trop profonde pour être affectée par les évolutions de la surface : érosion, glaciation et déglaciation, ou par des séismes. Très résistante au plan mécanique, elle est presque totalement imperméable. L’eau n’y réside que dans des pores minuscules et n’y circule qu’à vitesse très lente, au point qu’elle présente des caractéristiques chimiques distinctes des couches inférieures et supérieures depuis des dizaines de millions d’années. Enfin, l’argile présente l’avantage de capturer la plupart des atomes radioactifs, en particulier les atomes lourds. Seuls les éléments légers, iode 129 et chlore 36, sont susceptibles de se déplacer avec l’eau… donc très lentement. Les calculs conduits pour estimer leur impact sur la biosphère sont très prudents, avec d’importantes marges de sécurité. Ils aboutissent à un risque de sortie après 100 000 ans, mais pour des valeurs très inférieures à la radioactivité naturelle. Avec la décroissance de la radioactivité, à très long terme, le risque d’un tel stockage ressemble à celui… d’un gisement d’uranium.
L’ampleur du projet se mesure à sa durée et à son coût — environ 25 milliards sur 140 ans selon le gouvernement, ce qui ne représente qu’environ 1 % à 2 % du prix de production de l’électricité nucléaire correspondant à ces déchets, et donc nettement moins de 1 % du prix de vente de l’électricité. Mais aussi à la place qu’il occupe en sous-sol, estimée à 15 km². Pour assurer sa sûreté face à la chaleur résiduelle des déchets, les alvéoles où seront glissés les colis de déchets seront en effet espacés.
Il serait possible d’écrire très longuement sur ce projet (qui a fait l’objet d’études détaillées) d’un laboratoire souterrain à Bure et a produit des dizaines de milliers de pages d’informations, disponibles à la lecture sur le site Web de l’Andra. Les quelques informations présentées ici n’épuisent donc pas le sujet. La sûreté du stockage à long terme dépend aussi de la manière dont la roche va réagir au creusement, à la manière dont les ouvertures créées seront scellées, son étendue dépendra de la durée d’utilisation du nucléaire et des décisions qui seront prises pour l’uranium et le plutonium à la fin des programmes nucléaires… Mais, là aussi, qui va les lire ? Pas l’ensemble des citoyens. Et j’ai pu vérifier que la plupart des journalistes ou militants qui prétendent informer sur ce sujet ne prennent que très rarement le temps de se plonger dans cette documentation abondante. Si l’aiguillon citoyen et associatif demeure indispensable, il ne peut suffire. Là aussi, c’est dans la constitution d’une expertise collective publique et dans des structures de gestion des déchets fiables et dignes de confiance que se situe l’enjeu réel. Les avons-nous ?
Le contrôle de cette activité est assuré par l’ASN et l’IRSN. Mais ils sont aidés par une « Commission nationale d’évaluation des recherches et études relatives à la gestion des déchets radioactifs », dite CNE. Elle n’existe que depuis 2006... Mais elle a pris la suite d’une CNE à l’œuvre depuis 1995. Tous ses rapports sont en ligne, en toute transparence, sur le Web [13]. Ce contrôle est-il bon ? Il suffit de lire les analyses détaillées sur les divergences d’estimation du coût du stockage entre l’Andra et EDF par la CNE pour vérifier que le contrôle est strict et sans indulgence pour l’industriel. Les messages de prudence réitérés par l’ASN en direction du gouvernement sur les délais du chantier et la nécessité d’un débat public mené jusqu’au bout plaident également en faveur d’un bon contrôle.
Les connaissances mobilisées par l’Andra sont-elles fiables ? Là aussi, c’est un élément extérieur qui permet de s’en assurer. Toutes les études menées par l’Andra sont publiques. Et surtout elles comportent un grand nombre de thèses universitaires, plus de cinquante, par définition soumises au regard critique de jurys constitués de scientifiques indépendants des industriels et de l‘Andra. Par ailleurs, de nombreuses études sont réalisées avec des chercheurs et des laboratoires du CNRS ou du BRGM (le Bureau des recherches géologiques et minières), donc publiées et critiquées par les spécialistes. L’époque où ces questions n’étaient étudiées qu’en vase clos, entre ingénieurs du CEA ou de l’industrie nucléaire, est révolue. Et il faudrait un « complot » particulièrement étendu et efficace pour que tous les scientifiques ayant accès à ces informations et capables de les comprendre cachent de concert la vérité aux citoyens et aux gouvernements.
Pour autant, tout n’est pas parfait dans le système. Je me suis par exemple élevé contre la décision du gouvernement de nommer comme PDG de l’Andra un député. Et cela sans prendre en considération ni sa personne ni son étiquette politique. Il me semble que cette agence ne peut pas être dirigée par un député... qui va ensuite voter à l’Assemblée la taxe avec laquelle l’Andra est alimentée. Ou agir comme rapporteur à l’Assemblée pour la loi précisant le degré de réversibilité du site de stockage, le 11 juillet dernier. Ou négocier avec le gouvernement pour de nombreux aspects de l’activité de l’agence. Cette confusion des rôles n’est pas souhaitable. Mais le plus important me semble la question du financement de la gestion des déchets (comme d’ailleurs du démantèlement complet des centrales nucléaires). Certes, une part de la facture d’électricité est explicitement destinée à ce financement. Et les industriels (EDF et Areva) ont l’obligation légale de « mettre de côté » cet argent qui se compte en milliards. Mais comment font-ils ? En le plaçant dans des obligations ou des actions, voire en comptabilisant des actifs industriels, en France et à l’étranger. Mais rien ne garantit que la valeur de ces actifs sera la bonne lorsque les dépenses seront à effectuer. On peut donc s’interroger sur la fiabilité de ce dispositif, décidé par les gouvernements successifs. Et il serait judicieux d’explorer d’autres solutions, comme de « prêter » cet argent à l’État — donc aux citoyens-contribuables —charge à lui (à nous) de le rendre au moment voulu.
Les deux réacteurs de la centrale nucléaire de Fessenheim seront un jour arrêtés définitivement. Vidés de leurs derniers « cœurs », puis démantelés. Mais quand ? Le gouvernement en place a donné instruction à EDF de déclencher le processus de fermeture de l’installation en application de l’accord entre le Parti socialiste et EELV lors de l’élection présidentielle de 2012. François Hollande avait alors promis à ses alliés de fermer la centrale avant la fin de son mandat. La loi de transition énergétique votée en 2015 prévoit, elle, de plafonner la puissance installée des centrales nucléaires du pays à 63,2 GW, autrement dit le « parc » actuel. Or, l’EPR de Flamanville, lorsqu’il sera en service, dépassera ce plafond. L’affaire semble donc entendue. Le gouvernement doit préparer un décret pour mettre fin à l’activité de la centrale. Il a même déjà décidé de verser à EDF environ 400 millions d’euros pour compenser la perte de production d’électricité entraînée par sa décision. Cette somme peut sembler considérable, surtout lorsque l’on songe au déficit permanent du budget de l’État et à sa dette. Mais elle se révèle plutôt maigre au regard des 200 millions d’euros annuels de bénéfices que, selon EDF, Fessenheim lui rapporte.
Le redémarrage d’un réacteur après un arrêt, même long, ne pose pas de problèmes techniques. En revanche, les délais administratifs pour revenir en arrière sur un tel décret, et donc refaire toute la procédure d’autorisation d’une installation nucléaire, durent deux ans minimum. Et toute guérilla administrative d’opposants est susceptible d’allonger ce délai de façon importante. Donc d’empêcher toute remise en question de cette décision.
L’arrêt simultané des deux réacteurs de la centrale de Fessenheim pose des problèmes sociaux et économiques majeurs. L’impact sur le bassin d’emploi local sera fort, par le départ de nombreux salariés d’EDF et la perte de travail pour des milliers de sous-traitants. Si les salariés d’EDF ont la garantie de l’emploi, un atout social précieux, la mobilité géographique n’a rien de facile pour des familles entières où l’emploi du conjoint comme les relations sociales des enfants peuvent souffrir d’un départ. Les plus jeunes ne peuvent s’engager dans des projets de vie, sachant qu’ils devront probablement quitter la région. Si l’arrêt d’un réacteur est inéluctable lorsqu’il arrive en fin de vie, la préparation des actions à conduire pour en limiter les conséquences sociales et économiques ne peut s’éluder. Or, affirme un élu au comité d’hygiène et sécurité de la centrale, « les salariés ont le sentiment d’être trahis, traités comme des numéros », d’autant plus que la communauté de travail de la centrale est singulièrement serrée et solidaire. D’où une réaction très vive, comme en témoignent les 82 % de grévistes lors d’une réunion du comité central d’entreprise consacrée à ce sujet.
Si la réaction du personnel de la centrale est si forte, c’est aussi que les raisons données pour la fermer dès fin 2016 ne sont guère convaincantes et laissent penser qu’il s’agit uniquement d’un deal politicien entre les dirigeants du PS et les Verts. Passons-les en revue.
Pourquoi plafonner la puissance nucléaire à 63,2 GW plutôt qu’à 64,8 GW ?
Il n’y a aucun calcul technico-économique derrière ce chiffre. Le parc nucléaire actuel représente un peu moins de la moitié de la puissance installée totale (130 GW), même s’il produit 75 % de l’électricité. Y ajouter les 1 600 MW de l’EPR de Flamanville ne changera pas l’équilibre global du système. Ce prototype a essentiellement pour objectif de tester en situation industrielle un nouveau réacteur, choisi pour remplacer petit à petit les réacteurs actuels lorsqu’ils cesseront leur activité. Il est donc logique de le mettre en service, sur plusieurs années, avant de s’engager dans un processus de remplacement, afin de s’assurer qu‘il remplit toutes ses fonctions correctement.
Avec cet EPR, la France ou EDF seront-elles en surcapacité de production ? Pour répondre à cette question, il faut se tourner vers la demande maximale actuelle, en situation de grand froid. La dernière date du 7 février 2012. Elle est passée par un pic de consommation de 102 098 MW, donc bien au-delà de la puissance nucléaire installée, à supposer qu’elle soit à 100 % disponible. Pour y répondre, les producteurs d’électricité ont mobilisé 63 % de nucléaire, 13 % d’hydraulique, 5 % de charbon, 5 % de fioul, 4 % d’éolien, 3 % de gaz et moyens de pointe et 6 % de moyens « autres » (obligation d’achat, thermique diffus, etc.). S’y ajoutaient 7 300 MW d’importations des pays limitrophes, soit environ 7 % de la consommation. Ces importations n’avaient pas pour but de « sauver la France du noir », puisqu’une capacité de production hydraulique équivalente était disponible. Mais les règles de gestion du système électrique exigent de conserver en permanence une marge de puissance, entre 3 000 et 4 000 MW mobilisable rapidement, donc pour l’essentiel hydraulique, pour faire face à tout aléa soudain. Toutefois, ces importations montrent que la capacité actuelle, certes confortable sur la durée et permettant des exportations bénéfiques à notre balance commerciale, se révélerait un peu juste en cas de vague de froid similaire à celle de 1987, plus longue et plus intense qu’en 2012.
Les rapports de RTE — Réseau et transport d’électricité — sur la prospective de l’équilibre entre l’offre et la demande le soulignent régulièrement. D’autant plus que depuis 2012, en application des règlements sur la propreté de l’air, plusieurs centrales à charbon ont été définitivement fermées. Et que les scénarios étudiés par RTE envisagent de diminuer la puissance thermique classique (charbon, gaz et fioul) des 12 GW actuels à entre 8 et 2,5 GW vers 2021. Or, la puissance future installée en éolien et solaire, considérable, ne peut compenser cette perte dès lors qu’il fait nuit, et/ou qu’il vente peu. Dans ces conditions, ergoter sur 1,6 GW de plus ou de moins sur 130 GW de puissance installée actuelle relève de l’idéologie et non de la technique ou de l’économie.
Fessenheim est la plus vieille, donc elle doit fermer en premier
L’argument semble d’évidence, puisque les réacteurs de Fessenheim furent construits de 1970 à 1977, et le premier fut mis en service en janvier 1978. Pourtant, il n’est pas si futé que cela. Il vaudrait mieux décider de l’ordre de fermeture des réacteurs les plus anciens en fonction de critères un peu plus intelligents. Par exemple, non pas l’âge de la centrale, mais celui des équipements lourds remplaçables, comme les générateurs de vapeur (ceux du réacteur n°1 ont été remplacés en 2002, ceux du réacteur n°2 en 2011 et 2012, ils sont donc pratiquement neufs). Ou de l’état métallurgique de la cuve, toutes ayant des microfissures, mais plus ou moins. Et surtout d’un lissage calculé sur 20 ans au moins, en liaison avec le calendrier des constructions de remplacement. Cet argument de « la plus vieille » n’a pas de pertinence technique, il n’est utile que dans une approche rudimentaire, guidée par la seule idée de ne plus avoir de centrales nucléaires du tout
.
Fessenheim serait « plus dangereuse » que les autres
De nombreux arguments sont avancés. La présence de la vaste nappe phréatique rhénane. Celle du canal du Rhin. Le risque sismique...
À chacun de ces arguments répondent des contre-arguments techniques, le tout exigeant des centaines de pages et des compétences très variées pour se faire une idée. Qui va lire ces documents ? Qui peut les analyser ? Là aussi, le plus raisonnable est d’aller voir ce qu’en disent l’ASN et l’IRSN. L’exploitation au quotidien de la centrale donne satisfaction puisque, dans son dernier rapport annuel pour 2015, l’ASN classe Fessenheim parmi les « bons élèves » de la classe. En 2009 et 2012, les troisièmes visites décennales des deux réacteurs — un arrêt long où tous les équipements sont vérifiés — se sont terminées par une autorisation de redémarrage pour dix ans, toutes les épreuves ayant été passées avec succès. En outre, dans le cadre des prescriptions de sûreté post-Fukushima, l’ASN a contraint EDF à couler du béton sous les cuves des réacteurs, afin de renforcer la résistance du radier à un accident majeur comprenant le percement de la cuve par un réacteur en fusion. Et à installer un système de refroidissement de secours supplémentaire.
En juillet 2016, à la suite de la découverte d’anomalies dans les dossiers de fabrication, en 2008, d’un générateur de vapeur par l’usine Creusot Forge d’Areva — un générateur neuf, installé sur le réacteur n°2 de Fessenheim —, l’ASN a immédiatement retiré son « certificat » permettant de l’utiliser. Le réacteur n°2 ne pourra donc pas redémarrer avant que Areva et EDF n’aient démontré à l’ASN que la partie concernée du générateur de vapeur (la « virole basse », autrement dit la partie inférieure cylindrique) possède les caractéristiques chimiques et mécaniques requises pour assurer sa fonction en toute sûreté. Cet épisode montre de nouveau que le système de surveillance et de contrôle du risque nucléaire fonctionne et n’hésite pas à stopper un réacteur dès lors qu’il y a un doute sur un élément important pour sa sûreté.
Il est bien sûr possible de ne pas faire confiance à l’ASN et à l’IRSN qui ont expertisé ces risques et prescrit ces travaux. Mais le prix de cette attitude est de renoncer définitivement à l’électricité nucléaire, de Fessenheim comme de n’importe quelle centrale.
L’âge des réacteurs de Fessenheim conduira nécessairement à les arrêter parmi les premiers du parc actuel. Un tel arrêt n’aura rien de nouveau. Déjà huit réacteurs de puissance d’EDF ont été arrêtés définitivement, à Chinon, Saint-Laurent, Bugey ou Creys-Malville, pour des raisons techniques, économiques ou politiques. Quand aura lieu cet arrêt ? Entre quarante et cinquante ans d’exploitation ? Un peu après cinquante ans ? Cela semble plausible au plan technique. Cela semble très intéressant au plan économique et pour la maîtrise du coût de l’électricité. Mais en fixer la date sur la seule base d’un accord ambigu entre deux forces politiques — l’une plaidant pour l’abandon définitif de cette technologie et l’autre affirmant que le nucléaire reste une option de long terme pour le pays — est-il raisonnable ? Une telle attitude mettrait au premier rang des critères de gestion de l’équipement électrique du pays ni la sûreté nucléaire, ni l’économie, ni la programmation de long terme, mais un calcul politicien.
FESSENHEIM, VISIBLE / INVISIBLE. Éric Dexheimer (photographies)/ Sylvestre Huet (textes). 176 pages, 90 reproductions. 25 euros.
[1] Le sievert est une unité de mesure des effets biologiques d’un rayonnement ionisant. En France la dose moyenne reçue par les habitants et par an est d’environ 4 millisieverts, l’essentiel provenant de sources naturelles.
[2] La Voie, Fayard, 2011.
[3] ANSM, Anses, HCB, CNIL…
[4] Réseau national de mesure de la radioactivité dans l’environnement : http://www.mesure-radioactivite.fr/public/
[5] L’Accident de Fukushima Daiichi. Le récit du directeur de la centrale. Volume II. Seuls, Presses des Mines, 2016, p. 395.
[6] Europe’s Dark Cloud : How coal-burning countries make their neighbours sick réalisé par le WWF, l’Alliance pour la santé et environnement (HEAL), le Réseau action climat Europe (CAN Europe) et Sandbag. Lire aussi : http://huet.blog.lemonde.fr/2016/07/05/les-morts-du-charbon-en-europe/
[7] Cette « fuite » aurait pu être évitée, car elle provient d’une erreur de conception, la fermeture automatique de tous les tuyaux entrant et sortant du bâtiment du réacteur à la suite d’une injection de sécurité n’avait pas été prévue.
[8] Ces propos sont tirés d’un article que j’ai publié ici : http://sciences.blogs.liberation.fr/home/2013/03/fukushima-2-ans-le-vrai-co%C3%BBt-dun-accident-nucl%C3%A9aire.html
[9] Idem.
[10] Un chiffre optimiste, car il s’agit de la dette nette : la dette brute monte à 64 milliards d’emprunts et dettes financières dont sont soustraits 28 milliards de trésorerie, actifs financiers disponibles à la vente, etc.
[11] Le projet Cigeo, dont le coût correspond à 1 % ou 2 % du coût de production de l’électricité nucléaire sur la période de production des déchets, soit nettement moins de 1 % du prix de vente de l’électricité aux consommateurs.
[12] La période d’un radioélément est la durée au bout de laquelle sa radioactivité diminue de moitié (autrement dit que la moitié des atomes radioactifs présents au début se sont stabilisés).