Archives de Catégorie: Problématiques énergétiques

Le projet CIGEO d’enfouissement en profondeur des déchets nucléaires à Bure : Comment l’aventurisme des nucléocrates s’apprête à engager la France dans un désastre sans précédent qui pourrait bien, un jour, être qualifié de crime contre la biosphère

par Hans Zumkeller

Je me présente. Je travaille depuis longtemps au CEA dans le secteur de la thermique. C’est-à-dire autour de tout ce qui tourne autour de la production de vapeur, des turbines, de leur couplage avec les alternateurs. Mes responsabilités s’étendent également dans le domaine de la sécurité et du refroidissement des coeurs  en cas d’arrêt d’urgence. J’ai également participé à des études concernant la circulation du sodium fondu dans les réacteurs à neutrons rapides. J’ai un poste de chef de service. Mais je n’ai pas de responsabilités dans le domaine de la neutronique, de la tenue des matériaux face à leur irradiation, de leur fragilisation, du retraitement, du comportement des nouveaux combustibles, etc. Mes connaissances d’ancien élève d’une des plus prestigieuses Grandes Ecoles françaises font que j’ai a priori plus de moyens pour aborder les problèmes qu’un simple technicien. A la différence de nombreux collègues, ma curiosité foncière fait que j’ai acquis au fil des ans un ensemble de connaissances couvrant pas mal de domaines, même si je ne les couvre pas tous.

Immédiatement, tout le monde comprendra que je ne saurais m’exprimer en dehors de la protection par un pseudonyme. La réaction serait immédiate. Ceci étant, nombre de collègues ont un point de vue identique au mien, ou très voisin, et gardent le silence. Il est rare que nous en parlions entre nous de  façon directe. A notre niveau, qui est celui de responsables importants de la filière, je dois convenir que les problèmes sont plutôt évoqués dans notre milieu fermé, à mots couverts ou sous forme de plaisanteries. Prudence exige.

Voici mon point de vue. S’agissant de stockage souterrain il y a deux types de stratégies. Soit on se propose d’entreposer sous terre des éléments qu’on pourrait qualifier de « passifs », comme par exemple de l’amiante, soit il s’agit de déchets « actifs », qu’il s’agisse de déchets issus de l’industrie chimique ou de l’industrie nucléaire. Cette « activité » peut s’entendre sous deux points de vue. Des déchets « actifs » peuvent simplement évoluer. Constitués de « colis » composites, leurs contenus les plus toxiques et dangereux peuvent se trouver libérés, du fait de la dégradation de leur système d’entreposage, ou parce que leur évolution donne naissance à des sous-produits capables de migrer plus facilement. On pense évidemment à l’émission de substances sous forme gazeuse.

Le stockage souterrain, sur le long terme, est toujours dangereux, parce que peu accessible et donc très difficile à contrôler[1]. Un mouvement de terrain, le développement de fissures, l’extension d’un réseau phréatique peut entraîner une pollution irréversible, extrêmement dommageable pour la santé de personnes, sur des superficies considérables[2].

L’entreposage souterrain de déchets nucléaires entre sans équivoque dans la catégorie de la gestion de déchets très actifs. On sait par exemple que les déchets constitués par de la matière plastique se décomposent en produisant de l’hydrogène. Ces molécules, les plus petites qui soient, passent au travers de n’importe quoi. Ca n’est qu’une question de temps. Le danger majeur de l’entreposage envisagé à Bure, dans le cadre du projet CIGEO, est le confinement très important qui y est envisagé. Dans un confinement souterrain émerge immédiatement un problème fondamental. Les liquides conduisent mieux la chaleur que les gaz, et c’est la raison pour laquelle on procède à un pré-stockage des éléments les plus chauds,  issus du déchargement de coeurs, dans de l’eau, pendant des années quand le combustible est de l’uranium, temps qui atteindra 50 à 60 années pour le combustible MOX[3], où l’éléments thermogène est le plutonium. Dans les solides, tout mouvement de convexion est par définition impossible et, si on excepte les métaux,  ce sont les milieux les moins conducteurs de la chaleur qui soient.

Ainsi toute alvéole, toute galerie contenant des colis dégageant de la chaleur est susceptible de se transformer en four.

Il y a d’ailleurs une sorte de dérision consistant à présenter l’opération ultime de stockage sous la forme d’alvéoles munies d’opercules scellées par des briques de bentonite, laquelle a la propriété de se dilater en absorbant l’eau[4].  Comme si on s’imaginait qu’en logeant des débris à longue durée de vie de cette manière très compacte, on s’en protégerait au maximum. S’agissant de « réversibilité », si la bentonite se dilate en présence d’eau, elle libérera en revanche son contenu aqueux en cas de chauffage intempestif. Ainsi  cette idée de scellement durable est-elle sujette à caution. Elle a plutôt été proposée par des gens habitués aux travaux de tunnellerie, où le problème d’un chauffage subit ne se pose évidemment pas, et cette idée a aussitôt été considérée comme providentielle par ceux qui tiennent à ce que ce projet d’enfouissement des déchets nucléaires aboutisse rapidement, coûte que coûte (et « quoi qu’il en coûte » au contribuable).

Selon ce projet de stockage dans une configuration de facto confinée, et n’importe quel ingénieur thermicien le confirmerait immédiatement, le moindre dégagement de chaleur, même s’il ne s’agit pas d’une explosion brutale, transformerait un logement, nécessairement exigu en four.

Dans cette optique, les systèmes de stockage et de confinement envisagés deviennent dérisoires. Le verre, par exemple, donne une image de stabilité, à l’échelle d’âges géologiques. Toutes les mers du monde contiennent des verreries qui ont gardé leurs propriétés et leurs géométries au fil de millénaires. Et cela est encore plus visible quand leur entreposage a été effectué dans de l’air, dans des nécropoles. Ce qui a ainsi « tenu » pendant des milliers d’années semble présenter l’assurance de tenir pendant des dizaines de milliers d’années, voire plus.

Cela se joue ainsi en termes de produit de solubilité. Quand la structure est cristalline, l’assurance de pérennité est encore accrue. Pour reprendre le titre d’un film de James Bond : «  les diamants sont éternels[5] ». Des diamants se révéleront inaltérables dans de l’eau de mer, comme « le coeur de l’océan », du film « Titanic ». Il en est de même pour l’inaltérabilité de certains métaux, comme l’or, absolument intacts après des milliers d’années en immersion. Sur le plan chimique, l’or, les diamants sont insolubles dans l’eau, dans les acides et dans les bases.

Mais la stabilité chimique, l’insolubilité ne sont pas les seuls critères à prendre en compte. Bien qu’il soit exclu d’envisager de stocker des déchets dangereux dans des enveloppes de diamant, ou d’or, on trouvera aisément que le diamant brûle à une température dépassant 600 à 800°C. Quant à l’or, il fond à mille degrés, ce qui est une température aisément obtenue dans le four le plus sommaire.

Revenant à la question du stockage des déchets nucléaires, on sait que la longévité des classiques bidons métalliques est de brève durée, vis-à-vis des temps à prendre en compte, au bout desquels leurs contenus peuvent être considérés comme inoffensifs. A terme, ils se corroderont. Et c’est encore pire quand ils sont au contact de l’eau (immersions dans la Manche, stockage dans la mine de sel allemande d’Asse, victime d’une infiltration issue de sa fissuration sous l’effet de contraintes mécaniques, liées au creusement des galeries ).

Ne parlons pas du bitume, qui s’enflamme à 300° et se ramollit au-dessus de 60°. Le béton constitue lui aussi une protection illusoire. Ce composé n’est pas stable. Il ne faut pas oublier que le béton est le produit d’une réaction d’hydratation. Quand il est armé par des tiges de fer, ces armatures internes ne sont pas à l’abri d’une oxydation. L’oxydation entraîne une dilatation des tiges, donc la fragilisation des structures (on parle alors de « cancer du béton »). Quand on pense au stockage souterrain, qu’adviendra-t-il des arceaux de soutènement des très nombreuses galeries, que ceux-ci soient métalliques ou en béton armé ?

Revenant sur la tenue en température, se pose alors la question du conditionnement des déchets à vie longue, les plus dangereux, dans leurs sarcophages de verre. La question du « point de fusion du verre » ne se pose pas, car le verre, amorphe, « non cristallin », n’est pas un solide au sens strict du terme. On a pu lire qu’on avait mesuré un affaissement de certains éléments de vitraux, dus à la gravité. Mais tout cela est lié au mode de fabrication. Le verre possède une certaine viscosité. Mais à la température ordinaire, la géométrie des verres ordinaires n’évolue pas, même à l’échelle de temps géologiques, même sur des milliards d’années. Ce conditionnement, si on vise une dispersion minimale semble donc optimal, s’ajoutant à une très faible solubilité dans l’eau et à une excellente résistance aux attaques chimiques.

Reste son point faible : sa faible tenue thermique.

Le verre se comporte comme un fluide à une température  de 1400-1600°C, toujours aisément atteignable dans un four. Par four il faut entendre un dispositif à l’intérieur duquel de la chaleur est dégagée, et ne peut que très difficilement être évacuée vers l’extérieur[6]. La conductivité de l’argilite callovo-orxfordienne est faible.

Les renseignements que l’on peut trouver[7] ne sont pas très abondants, concernant les résultats des expériences concernant la tenue thermique de cet environnement argileux. Par contre, on lit qu’au moment de leur enfouissement les colis dégageront des flux thermiques allant de 200 watts, jusqu’à 500 et 700 watts pour ceux qui contiennent des déchets issus des coeurs ou du retraitement.

C’est absolument énorme.

Dans ce même document, on dit que le contrôle thermique devra être assuré de telle façon que la température de l’argile se maintienne en dessous de 70 à 90°C pour éviter tout remaniement structural, à l’aide d’une ventilation[8]. En d’autres termes le matériau dans lequel on envisage d’opérer cet enfouissement est foncièrement instable vis-à-vis de la température. Or 90° sera une température aisément atteinte si la réfrigération des galeries et même des alvéoles n’est pas assurée pendant un temps suffisant.

Il y a, a priori, deux sources d’échauffement possibles. Celles issues des décompositions radioactives, qui sont calculables et celles, accidentelles, qui découleraient de l’inflammation d’hydrogène dégagé au fil de la décomposition de matières plastiques, qui ne sont ni calculables, ni prédictibles, ne serait-ce que parce qu’on ne dispose pas d’un inventaire précis des contenus de chaque colis scellé.

Revenons à cette question de la tenue thermique des « colis ».  C’est là que le bât blesse, ce me semble. Si des containers en verre massif présentent une bonne garantie à la température ordinaire, il n’en est pas de même dès que la température monte de quelques centaines de degrés. Dans une verrerie, on travaille ce matériau à des températures allant de 400 à 600°. Le verre se présente alors sous la forme d’une pâte visqueuse, malléable. A partir de 1400°, c’est un fluide. Ces températures seront aisément atteintes dans une structure confinées et isolée thermiquement, donc dans une alvéole ou galerie.

A propos du béton, sa tenue thermique est également limitée[9]. A une température de 700 à 1000° le béton s’écaille. On dit même « qu’il se pèle comme un oignon ». S’ajoute un phénomène de choc thermo-hydrique, qui fait que le béton « explose littéralement ». On en a des témoignages récents  après examens d’incendies dans des tunnels. Lire le très intéressant document cité en référence, illustré par des photos très suggestives[10]. Empressons-nous de préciser que ces dégagements de chaleur, accidentels, ne correspondent qu’à des phénomènes de brève durée.

En règle générale, le béton se décompose chimiquement au delà de 1100° ce qui est une température relativement basse[11]. Il se … déshydrate, tout bêtement et, lorsqu’on s’est livré, au CEA, à des simulations de pénétration d’un « corium » au travers d’un radier de béton ( dont l’épaisseur est de 8 mètres à Fukushima ) les bulles qu’on voyait apparaître à la surface n’étaient autres que de la vapeur d’eau.

Ces considérations rapides font que la conclusion s’impose, vis à vis d’un projet comme CIGEO. Le seul système de stockage tout à la fois actuellement praticable et politiquement responsable est un stockage en surface, qui permet une évacuation illimitée de calories, à un rythme élevé et continu, par convexion, sans risque de surchauffe accidentelle, avec accessibilité garantie.

Le stockage en milieu confiné, qui ne permet d’évacuer cette chaleur, en l’absence de moyens mis en oeuvre avec dépense d’énergie (ventilation), que par conduction est par essence dangereux, surtout quand le dégagement thermique peut s’avérer brutal, lors d’explosions pouvant engendrer des fissurations, la destruction d’un système de ventilation, l’endommagement d’un puits, de galeries d’accès.

Des fissurations résulteront également du creusement de nombreuses galeries, comme cela a été le cas à Asse, en Allemagne[12]. L’argilite a les défauts de ses qualités. C’est un matériau très hétérogène, d’un niveau de cristallinité faible. Cela le dote de faibles qualités mécaniques. Il se désagrège dans l’eau. Son étanchéité n’est ainsi nullement garantie, avec des épaisseurs aussi faibles ( 130 mètres ), situant ce filon entre une couche de calcaire oxfordien en partie supérieure et une couche de calcaire dogger en partie inférieure[13]. Les couches calcaires qui entourent cette fine couche d’argile se prêtent à l’apparition d’une structure karstique. A la moindre pénétration d’eau dans le système de galeries, par le haut, aussi minime que puisse être une fissure, de quelque origine que ce soit, celle-ci donnerait rapidement passage à un flux liquide par phénomène de « puits de Fontis[14] » ( érosion vers le haut ).

En règle générale, la production électronucléaire, outre sa dangerosité et l’impossibilité de démanteler les installations, représente une erreur technologique de notre temps. L’accumulation de déchets ingérables, d’origine nucléaire, s’inscrit dans l’ensemble des activités humaines, dans la mesure où celles-ci se sont résolument écartées de toute idée d’équilibre naturel. Ce n’est que très récemment, dans notre histoire, que l’humanité a forgé l’expression, le label du « bio-dégradable ». Tout ce que produit la nature est par essence bio-dégrable, depuis les excréments, les rejets gazeux, jusqu’aux structures pourrissantes. Les incendies, la respiration des animaux produisent du CO2, qui est recyclé par les plantes. Les tissus animaux ou végétaux sont transformés par des créatures nécrophages, à toutes les échelles. Une infinité de mécanismes sont en place qui débouchent sur une régulation, un équilibre de la biosphère, qui avait fait ses preuves jusqu’à l’apparition de l’homo technologicus.

L’espèce humaine, longtemps négligeable à l’échelle de la planète, génère aujourd’hui des nuisances dans tous les domaines, elle est la source de tous les déséquilibres, et va faire sombrer le navire « Terre » à moins qu’elle n’apprenne au plus vite à se réguler elle-même. Elle réduit, comme le dit Bourguignon, l’agriculture au niveau de la gestion d’une pathologie végétale, l’agriculteur moderne ayant tué toute vie sous la surface du sol qu’il entend exploiter. L’homme, outre la surexploitation qu’il en fait, a empoisonné ses océans, ses rivières, ses lacs et bientôt son atmosphère. Le monde de la consommation et du profit est aussi celui du superflu, du périssable, de l’obsolète, synonymes de gâchis et de mauvaise gestion.  En jouant dangereusement avec la génétique l’homme risque d’endommager le patrimoine génétique de la planète, dans tous les règnes, en réduisant comme peau de chagrin un élément régulateur indispensable de la biosphère : sa biodiversité naturelle.

L’homo technologicus est un accumulateur de déchets de longue durée de vie. Les déchets de l’industrie nucléaire ne font qu’étendre la gamme des déchets en tous genres. La caractéristique des déchets nucléaires est leur capacité de dispersion planétaire, par voie aérienne, ou en utilisant poissons et autres animaux comme vecteurs. Une autre caractéristique est leur dangerosité à dose infinitésimale (le plutonium) et leur durée de vie considérable. Aucun agent biologique ou chimique ne peut les dégrader.

L’idée d’entreposer des déchets, dont la durée de vie se chiffrerait en milliers de générations humaines, dans des galeries ajoute le risque d’une contamination de la croûte terrestre, sur des étendues que personne aujourd’hui ne saurait suspecter, du fait des incontrôlables circulations phréatiques; si ce système venait à se développer, comme on peut le craindre s’il est donné suite au projet CIGEO, pour de simples et évidentes raisons de profits et pour enlever des pieds des nucléocrates cette épine appelée « déchets ».

Si la dangerosité des matières nucléaires est à craindre, une solution consisterait non à les placer sous la surface du sol, mais dans des grottes, accessibles, taillées à flancs de falaises, légèrement surélevées pour mettre leur contenu hors d’atteinte d’une inondation, naturellement ventilées et placées sous bonne garde. Il ne pourrait s’agir que d’une façon de gérer les actuels déchets, non d’y stocker des déchets d’une activité nucléaire qu’on entendrait poursuivre. Sur ce plan, bien « qu’étant de la maison » et y ayant fait toute ma carrière (je suis à quelques années de mon départ en retraite) je rejoins totalement l’ex-responsable américain de l’équivalent de l’Autorité de Sûreté Nucléaire française, à savoir Gregory Jaczko, qui fut de 2010 à 2012 responsable du NRC américain (Nuclear Regulatory Commission). Pour lui, comme pour une quantité d’autres, dont je fus, la catastrophe de Fukushima joua un rôle de révélateur. Dans une vidéo[15], il déclare sans ambages :

Bure-1

Enfin il est stupéfiant de voir des scientifiques tabler sur des conditions d’évolution d’un ensemble technologique, sur des durées qui sont des deux ordres de grandeur supérieures à l’âge de notre technologie d’aujourd’hui.

Je rappelle que le Néo-Zélandais Ernest Rutherford découvrit l’atome en 1905, il y a 111 ans à peine.

En un demi-siècle la technologie nucléaire a pris son essor, le prétexte initial étant militaire[16]. En un demi-siècle, avec l’avènement d’un premier plasma de fusion, sur la machine anglaise JET de Culham, les températures de notre technologie ont fait un bon d’un facteur 10’000.

En 2005, dans le laboratoire Sandia, Nouveau Mexique, une température de trois milliards de degrés ayant été obtenue, c’est un nouveau gain de 3 109 / 1,5 108 qui a été obtenu, ce qui correspond à un facteur 20, par rapport aux températures visées dans les machines à fusion. Selon le spécialistes de ces types de compresseurs électromagnétiques, cette température ne serait nullement limitée au sens où, par opposition à la fusion[17] envisagée sur ITER, les instabilités, la turbulence électromagnétiques accroissent la température obtenue en fin de compression, comme la turbulence le fait dans les cylindres de nos automobiles, alors que dans les tokamaks comme ITER cette turbulence, prenant le nom de disruption, fait s’effondrer la température en un millième de seconde.

Non seulement ce nouveau progrès, traduit par cet accroissement des températures ouvre la voie à une fusion directement électrogène aneutronique, ne produisant pas de neutrons et, comme déchet, de l’hélium le plus ordinaire, mais l’obtention de ces ultra-hautes températures débouche sur une technologie nucléaire totalement différente de celle que nous connaissons actuellement. Il ne faut pas oublier, quand on est confronté à des déchets moléculaires toxiques, que les solutions ultimes envisagées impliquent des élévations de température et des modification de la pression, de manière à inciter ces substances toxiques à se muer en espèces plus stable et non toxiques.

La physique nucléaire n’est rien d’autre qu’une chimie des noyaux, dont nous sommes très loin d’avoir fait le tour, un peu comme des primitifs qui, ayant inventé le feu, seraient à mille lieues d’imaginer ce que la chimie pourrait réserver à leurs descendants.

C’est grâce à la catalyse que sont réalisées nombre de synthèses chimiques de notre temps. Ces sont les états métastables qui ont donné naissance au laser. L’électrochimie a donné naissance aux piles, aux accumulateurs, aux techniques électrolytiques. La physique quantique, ignorée au début du siècle dernier, a engendré la supra-condution, la semi-conductivité, et nombre de techniques impensables jusque-là, défiant toute logique. La mise en oeuvre de lois comme celle de Le Chatelier ont permis de diriger des réactions chimiques vers des buts précis. Pourquoi cette « chimie nucléaire » serait-elle moins riche que la chimie dite « minérale » ?

C’est la réelle maîtrise de cette moderne « chimie des noyaux » qui, en mettant en oeuvre des mécanismes qui, à haute température, permettront d’orienter les processus de transmutations, rendront possible de réellement retraiter ces dix millions de tonnes de déchets nucléaires dont nous ne savons que faire, que nos descendants, quand ils sauront maîtriser ces technologies, peut-être dans moins d’un siècle au train où vont les choses, seront alors bien en peine de récupérer, si nous décidons de donner suite à ce projet de stockage profond, qui risquerait de conduire à la plus grande catastrophe environnementale de tous les temps, rigoureusement irrémédiable qui, un jour peut-être sera qualifiée de crime contre la biosphère.


[1] Le concept de “réversibilité”, ajouté au projet CIGEO, fait sourire l’ingénieur que je suis. Ca n’est qu’un voeu pieux.

[2] Je n’ai pas été sans noter que le filon callovo-oxfordien où se situe le projet CIGEO présente un pendant de plus d’un degré en direction du nord ouest, c’est à dire du … Bassin Parisien.

[3] Je remarque au passage que CIGEO n’a nullement été conçu pour stocker les déchets qui seront issus du MOX (combustible nucléaire constitué d’environ 7 % de plutonium et 93 % d’uranium appauvri).

[4] La bentonite est très largement utilisée dans les travaux de construction, le forage des tunnels, du fait de sa capacité de colmatage et d’étanchéification de coffrages. http://fr.wikipedia.org/wiki/Bentonite

[5] Du moins sur des échelles de temps considérable. En effet le diamant tend à se transformer en graphite, qui est une forme carbonée plus stable, mais en un temps excédant l’âge de l’univers.

[6] La conductivité thermique de l’argilite du callovo-oxfordien du site d’enfouissement de Bure est de 1,3 à 2,7 W/m/°K. Source : http://fr.wikipedia.org/wiki/Laboratoire_de_Bure#S.C3.A9lection_du_site_de_Bure

[8] Pendant combien de temps et sur la base de quelle source d’énergie ?

[11] Source : Bruno Tarride, professeur à l’Institut National des Sciences et Techniques Nucléaires : Physique, fonctionnement et sûreté des réacteurs à eau pressurisée. Maîtrise des situations accidentelles du réacteur. http://books.google.fr/books?id=4cU2AAAAQBAJ&pg=PA213&lpg=PA213&dq=tenue+en+température+du+béton%2Bcorium&source=bl&ots=_MluGEb8x_&sig=gx5sp-pEbVPuTfkOp-g3NP2SUPw&hl=fr&sa=X&ei=Bu_XUrSpNqTI0AXduYHoAw&ved=0CE8Q6AEwBQ#v=onepage&q=tenue%20en%20température%20du%20béton%2Bcorium&f=false

[12] Les experts avaient assuré que ce dôme de sel présentait une stabilité garantie sur des millions d’années, conclusion chaudement approuvée par le député Bataille. Certes, … à condition de ne pas créer des trous dedans ! Il en est de même pour le filon d’argile de Bure, considéré comme stable “depuis cent millions d’années”, sans ses futures galeries…

[16] Il en est hélas de même, aujourd’hui, pour le développement de la fusion aneutronique, sous le couvert du secret défense, au USA et en Russie.

[17] La fusion deuterium-tritium n’est qu’une réaction de fusion parmi une foule d’autres. C’est simplement celle qui nécessite la température la plus basse.

3 Commentaires

Classé dans Actualité, Catastrophes, en français, Problématiques énergétiques

Contrairement à la France, la Suisse reconnaît la dangerosité accrue des centrales nucléaires

Association pour l’Appel de Genève II (APAG2)
Communiqué de presse 300114. Embargo : jeudi 6 février 2014.

La Suisse vient d’élargir de 20 à 50 kilomètres la zone, autour des centrales nucléaires, dont les habitants recevront à leur domicile des pastilles d’iode stable. Ces pastilles sont destinées à saturer d’iode stable la thyroïde des personnes exposées à une contamination radiologique lors d’un accident dans une centrale nucléaire avec relâchement d’iode radioactif. Ce dernier, l’isotope I131, d’une période de 8 jours (c’est-à-dire dont la radioactivité diminue de moitié en 8 jours), est susceptible de provoquer, très rapidement après l’accident, de graves dommages, notamment d’induire un cancer, s’il se fixe dans la glande thyroïde, particulièrement dans celle des embryons, des enfants et des jeunes gens. A notre connaissance, rien n’est prévu concernant les animaux domestiques et le bétail.

Les autorités helvétiques justifient cette mesure par le retour d’expérience de la catastrophe de Fukushima. Mais cette mesure est aussi et surtout justifiée par le vieillissement des centrales nucléaires suisses qui figurent parmi les plus âgées à l’échelle mondiale. L’élargissement du périmètre de distribution d’iode stable fera passer la population suisse concernée de 1,2 million à 4, 34 millions d’habitants, soit plus de la moitié de la population suisse. Par cette mesure, la Suisse reconnaît donc officiellement que le danger présenté par les cinq centrales nucléaires suisses est nettement plus important qu’estimé jusqu’ici.

Il est intéressant de relever que les autorités françaises n’ont, jusqu’ici, rien entrepris de tel. Seules les personnes habitant dans un rayon de 10 kilomètres autour des centrales nucléaires, ou des sites d’armes nucléaires, se voient encore offrir gratuitement des comprimés d’iode stable. Or, en tout cas dans la vallée du Rhône parsemée de centrales et d’autres installations nucléaires, il se justifierait d’instaurer un système tout autre, compte tenu aussi des vents du nord et du sud fréquents et prédominants.

Le Bureau de l’APAG2 prend acte de l’initiative suisse, mais la juge loin d’être adéquate et suffisante compte tenu des autres radiotoxiques libérés lors des accidents nucléaires de Tchernobyl et Fukushima. Il invite les populations concernées à se mobiliser pour exiger de leurs autorités politiques des mesures adéquates pour conjurer sans délai le péril croissant de contamination radiologique accidentelle de leurs pays respectifs et des Etats voisins, du fait de la fragilisation des centrales nucléaires due à leur vieillissement.

APAG2, Case postale 113, CH-1211 Genève 17
appel2geneve@fastmail.fm
Tél. : M. Paul Bonny +41 22 755 46 31
http://www.apag2.wordpress.com

Poster un commentaire

Classé dans Actualité, en français, Problématiques énergétiques, Suisse

Jean-Pierre Dupuy, Pour un catastrophisme éclairé

Jean-Pierre Dupuy, Pour un catastrophisme éclairé, Quand l’impossible est certain, Essais, Editions du Seuil, Paris, 2002, 219 pages. (Causerie diffusée sur Radio Zones le 18 février 2014)

 

Aujourd’hui, Ivo Rens, vous nous présentez un auteur inclassable : Jean-Pierre Dupuy. En effet, c’est tout à la fois un ingénieur, un philosophe, un ancien compagnon d’Ivan Illich et probablement pas un écologiste. Qui est donc ce Jean-Pierre Dupuy qui a retenu votre attention ?

Jean-Pierre Dupuy est un philosophe et épistémologue français contemporain. Né en 1941, il a une formation d’ingénieur de l’Ecole polytechnique et l’Ecole des mines de Paris. Mais il s’est rapidement intéressé aux sciences humaines, en passant par les sciences cognitives, puis a consacré la majeure partie de son œuvre, considérable, à la philosophie sociale et politique. Plus que d’autres philosophes français, il  a été marqué par des penseurs anglo-saxons. Comme ses amis René Girard et Michel Serres, il a aussi enseigné à la prestigieuse Université de Stanford en Californie.

Je me contenterai de citer ici quelques-uns de ses livres, ceux que j’ai lus peu après leur parution : La trahison de l’opulence, écrit avec Jean Robert, paru en 1976, Le sacrifice et l’envie. Le libéralisme aux prises avec la justice sociale, paru en 1992, Pour un catastrophisme éclairé, Quand l’impossible est certain, paru également en 1992, Petite métaphysique des tsunamis, paru en 2005 et Retour de Tchernobyl, Journal d’un homme en colère, paru en 2006. C’est d’ailleurs là une liste très incomplète des ses œuvres.

La pensée de Jean-Pierre Dupuy est interdisciplinaire et donc à contre-courant de la spécialisation des sciences sociales et de la philosophie académique. Il a été marqué assurément par Henri Bergson, Hans Jonas et Ivan Illich, mais aussi par les philosophies  de Leibniz, d’Adam Smith et de Jean-Jacques Rousseau, par les économistes néo-classiques, par Popper et Hayek, mais davantage par Leonard Savage et John von Neumann qui furent, au lendemain de la IIe Guerre mondiale, les fondateurs de la théorie de la décision. Curieusement, il ne cite jamais le bioéconomiste Nicholas Georgescu-Roegen non plus que  le Rapport de Donella et Dennis Meadows sur Les limites à la croissance, paru en 1972, qui pourtant figurent parmi les pionniers de la problématique écologique mondiale.  Ultérieurement à l’ouvrage que je présente, Jean-Pierre Dupuy sera marqué aussi par le catastrophisme de Gunter Anders, l’ex-époux de Hannah Arendt qu’il présente comme le philosophe de l’âge atomique dans sa préface à Hiroshima est partout paru en 2008. L’édition originale en allemand date de 1995.

En quoi la pensée de Jean-Pierre Dupuy participe-t-elle de la prise de conscience écologique ?

En tant que collaborateur et principal diffuseur en langue française, avec Jean Robert, de la pensée iconoclaste de Ivan Illich, il contribua indéniablement dans les années 1970 à l’essor de l’écologie politique. Le concept central de l’ouvrage que je me propose de commenter – le catastrophisme – même s’il n’appartient pas en propre à la pensée écologique, relève assurément de la prise de conscience écologique, en tout cas depuis Hiroshima et Nagasaki. C’est d’ailleurs ce que Jacques Grinevald et moi avions souligné dès 1975 dans une étude intitulée “Réflexions sur le catastrophisme actuel“.

Cela dit, il est vrai que Jean-Pierre Dupuy a davantage médité sur les sciences sociales et la vertigineuse dialectique de l’équilibre de la terreur que sur la problématique de l’évolution ou sur la crise de la biodiversité. D’ailleurs il ne cite guère de biologistes et jamais les écologues, ni français, ni étrangers. Roger Dajoz, Fançois Ramade, Patrick Blandin et Philippe Lebreton, par exemple, lui sont apparemment inconnus, de même que Evelyn Hutchinson, Rachel Carson, Barry Commoner, les frères Odum, ou Paul Ehrlich, dont les réflexions sont à l’origine de l’irruption de l’écologie et de la problématique environnementale dans le débat politique à l’échelle mondiale. Quant à la question des dangers pour le vivant inhérents à l’industrie électronucléaire, elle ne s’impose véritablement à lui qu’avec son livre sur Tchernobyl paru en 2006 et donc après la parution de l’ouvrage que j’ai retenu. En revanche, l’écriture de ce livre porte la marque de l’attentat de l’hyper-terrorisme du 11 septembre 2001.

Comment s’organise donc Pour un catastrophisme éclairé ?

L’approche de Jean-Pierre Dupuy, dans cet ouvrage, est principalement épistémologique, c’est-à-dire relative aux conditions de la connaissance que nous pouvons nous faire des menaces qui pèsent sur nos sociétés industrielles, sur l’espèce humaine et, plus généralement, sur le monde vivant. Elle a aussi de fortes composantes éthique et politique et une ambition anthropologique et métaphysique. Mais elle s’organise essentiellement en fonction des réflexions de l’auteur sur la théorie de la décision.

Plutôt que de l’analyser en détail, je me concentrerai sur deux ou trois de ses idées, celle de principe de précaution, celles de catastrophe et de catastrophisme, en l’occurrence éclairé ou rationnel, puis celle du destin à conjurer, et je tenterai ensuite d’évaluer la pertinence, mais aussi les limites, de cette approche.

Exposez-nous donc l’apport de Dupuy à la notion de principe de précaution.

Jean-Pierre Dupuy consacre au principe de précaution plusieurs dizaines de pages à la lumière de la théorie de la décision qui, selon lui, n’est qu’un autre nom de la démarche économique “coût-avantage“.

Curieusement, il ne signale pas où et quand il s’est imposé – soit à la Conférence des Nations Unies sur l’environnement et le développement qui s’est tenue à Rio en 1992 – et il en fait une critique sévère en se fondant sur la seule version juridique française de ce principe – la loi Barnier de 1995 – et non sur son énoncé dans la Déclaration de Rio, et sans même mentionner que la loi française diffère substantiellement de son énoncé dans la Déclaration de Rio.

Voici ce fameux principe, tel qu’énoncé dans la Déclaration de Rio en 1992 : « En cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives visant à prévenir la dégradation de l’environnement. »

Et voilà la version légale française : « L’absence de certitudes, compte tenu des connaissances scientifiques et techniques du moment, ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir un risque de dommages graves et irréversibles à l’environnement à un coût économiquement acceptable ».

Il est évident que la version française introduit deux conditions qui n’existent pas dans la Déclaration de Rio. Pour que les mesures de précaution soient adoptées en France, encore faut-il qu’elles soient proportionnées et que leur coût soit économiquement acceptable. Proportionnées à quoi ? demande Dupuy. Et acceptable par qui ? – aurait-il pu ajouter.

Tout défenseur conséquent de l’environnement ne peut qu’approuver le texte onusien et rjeter sa version française.

Mais critique-t-il le principe lui-même ou sa version française ?

Comme il ne distingue pas la version française de son modèle international, on peut se poser la question.

Je pense néanmoins qu’il critique l’idée même de précaution en tant qu’elle se distinguerait de la prévention.

Invoquant le philosophe Hans Jonas, pourtant l’un des inspirateurs du principe de précaution, Dupuy affirme notre ignorance irrémédiable des conséquences possibles des applications de nos techniques toujours plus puissantes.

La notion de risques de dommages graves perd toute rigueur du moment que l’on ne peut les mesurer statistiquement, faute d’occurrences.

On est donc dans l’ignorance. Mais le principe de précaution – dans sa version française, ce qu’omet de préciser Dupuy – laisse entendre que, avec le temps, les progrès de la science pourraient y remédier.

Dupuy oppose trois arguments à cet optimisme scientiste :

1.- Du fait de leur complexité, les écosystèmes possèdent une extraordinaire stabilité et une remarquable résilience qui leur permettent de résister à quantité d’agressions. Mais, passé un certain degré d’agression, sans qu’on en connaisse le seuil, ils basculent vers des régimes différents que l’on ne connaît pas. Et qui sont même imprédictibles.

2.- Les systèmes techniques peuvent se combiner avec les systèmes naturels et former des systèmes hybrides. Or, les systèmes techniques comportent des boucles de rétroaction positives qui peuvent conférer aux systèmes hybrides des développements totalement imprévisibles.

3.- Toute prévision dépendant d’un savoir futur est rigoureusement impossible.

Du fait de sa puissance technique, et malgré toute sa science, l’humanité se trouve donc menacée de périls graves et irréversibles et de risques qu’elle ne peut ni connaître ni gérer.

Si je comprends bien, le catastrophisme éclairé de Jean-Pierre Dupuy est un autre nom de l’heuristique de la peur prônée par Hans Jonas…

Elle en est plutôt une interprétation qui se veut plus subtile et plus efficace que celle de son illustre prédécesseur car elle conteste la démarche des “gestionnaires du risques“ qui se sont imposés dans les Etats, et particulièrement en France, depuis la parution du Principe responsabilité de Hans Jonas, en allemand en 1979 et en français 1997.

Je cite Jean-Pierre Dupuy critiquant ces experts du risque :

« Le changement climatique, la pollution des océans, les dangers de l’énergie nucléaire ou du génie génétique, le déclenchement de nouvelles épidémies ou endémies : l’humanité saura bien s’en accommoder ou trouver les réponses techniques adéquates. La catastrophe a ceci de terrible que non seulement on ne croit pas qu’elle va se produire alors même qu’on a toutes les raisons de savoir qu’elle va se produire, mais qu’une fois qu’elle s’est produite elle apparaît comme relevant de l’ordre normal des choses. »

Le malheur de notre époque, selon Dupuy, c’est que l’on ne croit pas ce que pourtant l’on sait. La catastrophe est annoncée par d’éminents scientifiques, mais nous préférons croire que les experts officiels pourront nous l’éviter. Je le cite à nouveau :

« C’est cette métaphysique spontanée du temps des catastrophes qui est l’obstacle majeur à la définition d’une prudence adaptée aux temps actuels. »

Mais que faire contre cette malédiction ?

Contre cette métaphysique spontanée maléfique, Jean-Pierre Dupuy va élaborer une métaphysique qui se veut la voie étroite conduisant au salut , métaphysique que  je vais maintenant présenter synthétiquement. Dans le temps limité qui m’est imparti, je ne puis toutefois pas retracer dans tous ses détails et ses paradoxes le raisonnement de Jean-Pierre Dupuy. Ce dernier veut rendre performant, c’est-à-dire efficace, le discours du “prophète de malheur“ qu’est le “catastrophiste éclairé“.

Pour ce faire, il oppose le temps de l’histoire, qui est celui où le passé nous apparaît comme déterminé par diverses causes et où l’avenir est ouvert sur des embranchements de possibles, au temps du projet où le passé et l’avenir sont figurés en boucle de rétroaction, la représentation d’un avenir suprêmement détestable pouvant influer le présent et éviter cet avenir-là.

Nous nous retrouvons alors dans une situation voisine de celle qui exista durant la guerre froide, que l’on qualifia de destruction mutuelle assurée en cas d’agression, en anglais Mutual Assured Destruction (MAD). C’est réellement fou ! Pour cela, il suffit que l’avenir en question revête les traits de la fatalité.

Je cite une dernière fois Pour un catastrophisme éclairé :

« Le catastrophisme éclairé consiste à penser la continuation de l’expérience humaine comme résultant de la négation d’une autodestruction – une autodestruction qui serait inscrite dans un avenir figé en destin. Avec l’espoir, comme l’écrit Borges, que cet avenir, bien qu’inéluctable, n’ait pas lieu. »

Que penser de cette métaphysique ?

Il me semble tout d’abord que, contrairement à ce qu’affirme Dupuy, cette proposition ne relève pas de la métaphysique, mais de la stratégie, de la rhétorique, de l’argumentation, de la psychologie individuelle et collective, bref du discours politique au sens noble du terme. Le seul élément ressortissant à la métaphysique est sa référence sibylline à la fatalité, au destin. Au demeurant, l’intervention sur le présent des représentations négatives que l’on se fait de l’avenir est connue des penseurs de l’antiquité gréco-latine et surtout de la tradition hébraïque ou chrétienne comme l’atteste toute la littérature apocalyptique.

Pour tenter d’en évaluer l’efficacité, il me semble utile de consulter deux livres ultérieurs de cet auteur, Petite métaphysique des tsunamis, paru en 2005 et Retour de Tchernobyl, journal d’un homme en colère, paru en 2006.

Alors que Jean-Pierre Dupuy avait achevé le texte d’une conférence que lui avait demandée l’Université de Lyon II pour célébrer en 2005 le triple anniversaire du tremblement de terre de Lisbonne en 1755, de la découverte d’Auschwitz-Birkenau en janvier 1945 et des bombes atomiques lâchées en août 1945 sur Hiroshima et Nagasaki, survint le tsunami de décembre 2004 qui ravagea Sumatra et plusieurs pays riverains de l’Océan indien. C’est cette circonstance, totalement imprévisible, qui lui inspira le titre du premier de ces opuscules où affleure le catastrophisme de Günter Anders, l’auteur de L’obsolescence de l’homme, dont le premier tome parut en français en 2001, alors qu’il était paru en allemand en 1956. A l’imprévisibilité des désastres de Lisbonne et Sumatra s’oppose la prévisibilité des deux autres désastres qui n’ont pu être évités bien qu’ils eussent été prévus par certains.

Mais la responsabilité humaine est quand même tout autre pour les événements prévisibles !

Certes ! J’y viens à présent avec Retour de Tchernobyl. Cet ouvrage est constitué du journal que tint Jean-Pierre Dupuy lors du séjour qu’il fit en Ukraine et notamment à Tchernobyl en aout 2005 puis à son retour à Paris jusqu’en février 2006.

Il effectua ce déplacement pour participer (à Kiev) à une université d’été consacrée à l’analyse des conséquences de la catastrophe nucléaire de Tchernobyl, à l’approche du vingtième anniversaire de celle-ci, survenue le 26 avril 1986.

La première colère que relate Dupuy dans Retour de Tchernobyl, journal d’un homme en colère, est provoquée par certains de ses interlocuteurs ukrainiens qui faisaient état de centaines de milliers de morts causés par la l’accident. Puis, sa colère se retourne contre l’évaluation du nombre des victimes par le Forum de Tchernobyl, mis en place en 2002 par l’Agence internationale de l’énergie atomique (AIEA, dont le siège est à Vienne), l’Organisation mondiale de la santé (dont il ne mentionne pas qu’elle a abdiqué ses compétences en matière nucléaire à l’AIEA) et plusieurs autres institutions des Nations Unies. Après de savantes enquêtes et évaluations, ledit Forum avance le chiffre de 4’000 morts. Nouvelle colère de Dupuy qui juge ce chiffre trompeur et retient le chiffre de 40’000 morts. Pour ma part, j’incline à penser que ce dernier chiffre est encore largement sousestimé puisque, en 2010, l’Académie des sciences de New-York devait dénombrer 985’000 vies perdues du fait de la catastrophe entre 1986 et 2004, soit tout près d’un million. J’incline donc à penser que la colère de Dupuy trouve sans doute son origine  ailleurs encore, dans des zones de sa psychè qu’il se garde de sonder.

L’initiative de l’université d’été à laquelle participa Jean-Pierre Dupuy émanait du « Laboratoire d’analyse sociologique et anthropologique des risques (LASAR) de l’Université de Caen et plus spécialement à l’un de ses chercheurs, le sociologue Frédérick Lemarchand.» (p. 20) Et il relate longuement les échanges qu’il eut avec différents membres de ce LASAR tant à Kiev et Tchernobyl qu’après son retour à Paris.

Au passage, Dupuy s’émerveille de la connaissance du français qu’ont les participants ukrainiens à cette manifestation. « Il est vrai, précise-t-il, que plusieurs des participants sont membres du projet ETHOS-CORE, dont certains des fondateurs furent des chercheurs français. Le projet, qui s’est d’abord développé en Biélorussie, le pays le plus touché par la catastrophe se déploie à présent en Ukraine. Ses objectifs ont quelque chose à voir avec la science-fiction.  « “Comment vivre le plus sainement possible après une apocalypse nucléaire ?» pourrait en être le slogan.» (p. 23,24) En réalité, les compagnons de Jean-Pierre Dupuy, membres du LASAR, étaient vraisemblablement associés à ce projet.

Si, dans ses échanges avec Lemarchand et ses collègues, Dupuy met en doute la possibilité d’apparition d’une “culture du risque“ radioactif, il semble  en revanche avoir oublié sa prévention contre les “gestionnaires du risque“ et ne s’interroge nullement sur les implications de leur projet pour la préparation de situations accidentelles ailleurs que dans la région de Tchernobyl.

Mais le projet EHOS-CORE  ne relève-t-il pas de l’humanitaire ?

Je crains que non. Voici ce qu’en pense une chercheuse française.

Dans son remarquable ouvrage La France nucléaire. L’art de gouverner une technologie contestée, paru au Seuil, en septembre 2013, Sezin Topçu, historienne et sociologue des sciences, chargée de recherche au CNRS, rappelle que les responsables français de l’électronucléaire ont longtemps affirmé qu’un accident grave, comportant des conséquences sur la santé publique, était impossible en France. Toutefois, après Tchernobyl, ils ont progressivement changé de discours. C’est ce que signale l’article paru dans Le Monde le 21 octobre 2008 sous le titre “La France se prépare aux conséquences d’un accident de type Tchernobyl sur son sol.“ (S. Topçu, op. cit. p. 242)

Selon Sezin Topçu, il semble que la genèse de cette évolution doive être recherchée du côté de deux experts français : « l’un directeur du bureau d’études Mutadis – un cabinet spécialisé dans la gestion des activités à risque -, et l’autre, sociologue-psychanalyste de l’Université de Caen, qui se sont vu confier par la Commission européenne le Programme européen pour l’évaluation des conséquences de l’accident de Tchernobyl (1991-1995). (S. Topçu, p. 225) Cette société avait été très active dans le lancement du projet Ethos visant à aider les populations d’un district de Biélorussie, déplacées ensuite de l’accident, à retourner en zone contaminée pour y apprendre à “vivre autrement“ en gérant elles-mêmes leur contamination radiologique. Cette politique aboutit à “l’individualisation des risques“ qui avaient été pris par les autorités soviétiques. Curieusement, le gouvernement suisse a accepté de cofinancer, avec la Commission européenne, une deuxième étape de ce projet. (S. Topçu, p. 226)

En 2003,  un vaste programme international nommé Core (Coopération pour la réhabilitation des conditions de vie dans les territoires contaminés de Biélorussie) a été lancé pour déployer Ethos dans d’autres districts de Biélorussie, avec à nouveau une participation financière suisse. (S. Topçu, p. 238)

Le projet EHOS-CORE serait-il alors une émanation des promoteurs français du nucléaire ?

D’après Sezin Topçu, il émane non seulement des promoteurs français du nucléaire, mais aussi des instances de l’Union européenne.

En 2002 – écrit-elle – peu avant le lancement de ce programme, un projet européen  a vu le jour qui se propose d’élaborer un guide de culture radiologique pratique à destination du grand public. Selon S. Topçu, ce programme a deux volets : « Le premier est celui d’une pédagogie de la catastrophe, l’objectif étant d’habituer les individus à l’idée d’un changement profond et irréversible de leurs conditions de vie. Et le second volet traite d’une pédagogie de la responsabilité, de la responsabilisation préalable des individus avant même que la catastrophe ne survienne pour qu’ils aient connaissance du rôle actif et permanent qu’ils seront amenés à jouer dans un contexte post-accidentel. »(S. Topçu, p. 240,1)

Et il faut savoir que les experts français d’Ethos sont bien à l’œuvre à Fukushima, comme en Biélorussie et en Ukraine, où ils accumulent un savoir en vue de notre avenir.

Mais Jean-Pierre Dupuy pouvait ne pas prévoir ces développements !

Certes ! Mais n’aurait-il pas dû se préoccuper de ce qu’était le projet ETHOS-CORE en 2005 et en rechercher la signification pour l’avenir de la France et de l’Europe ?

Pour ma part, ce Retour de Tchernobyl, m’a incité à une nouvelle lecture de Pour un catastrophisme éclairé.

Son auteur s’est-il interrogé sur la responsabilité de la France et de ses élites intellectuelles dans le risque de catastrophe inhérent à la nucléarisation exceptionnelle de son pays ?

Quelle a été sa position face au mouvement antinucléaire français et européen qui, lui, depuis maintenant quarante ans, n’a cessé de dénoncer ce risque, non point au nom du principe de précaution, mais tout simplement pour prévenir une catastrophe ?

Comment a-t-il réagi aux avertissements nombreux qui s’élevèrent dès 1976 contre la construction du surgénérateur Super-Phénix de Creys-Malville de 1200 MWé, comportant près de cinq tonnes de plutonium, l’une des substances radioactives les plus toxiques, et refroidi avec quelque 5’000 tonnes de sodium, un métal qui peut s’enflammer spontanément à l’air et explose au contact de l’eau ?

Et que pense-t-il de la récente décision des autorités françaises qui, malgré l’échec ruineux du Super-Phénix, ont décidé de construire le surgénérateur Astrid de 600 MWé, prévu lui aussi pour fonctionner avec des tonnes de plutonium et de sodium liquide ?

A ma connaissance, il ne se pose pas ces questions et, en tout cas, n’en débat-il jamais. Il n’a pas écouté les lanceurs d’alarme et, s’il les a entendus, il ne leur a répondu que par son silence. Le prophète du catastrophisme éclairé me paraît avoir  été passablement inconséquent avec ses principes.

Mais qu’aurait-il pu faire ?

Pour prévenir la catastrophe que préparent les promoteurs français du nucléaire, l’ingénieur-philosophe qu’il est  aurait dû commencer par s’interroger sur les conditions particulières qui ont permis et favorisé cette périlleuse évolution.

Il y a tout d’abord, me semble-t-il, l’héritage idéologique du saintsimonisme et du marxisme dans l’intelligentsia française, notamment dans les grandes écoles, particulièrement à l’Ecole polytechnique et à l’Ecole des mines, qui ont fourni tant de dirigeants du Commissariat à l’énergie atomique (CEA) et de l’électronucléaire français. Rappelons que le communiste Frédéric Joliot-Curie fut le premier patron du CEA.

Il y a l’héritage gaulliste de la volonté de grandeur qui a trouvé un exutoire dans ce domaine à haut risque, plus ou moins délaissé par les autres grandes puissances en raison de sa dangerosité.

Il y a aussi l’impécuniosité des universitaires français, parmi les moins bien payés en Europe, ce qui induit la vénalité d’une frange d’entre eux qui se laissent séduire par les promoteurs d’activités douteuses en mal de crédibilité, dont celles relatives au nucléaire.

Il y a, sans doute, bien d’autres circonstances qu’un esprit aussi érudit et averti que Jean-Pierre Dupuy aurait pu détecter et qui lui auraient permis de contribuer à épargner à la France le désastre auquel ses nucléocrates ont pu impunément choisir de l’exposer, si seulement il avait eu le courage de s’émanciper de la solidarité clanique des grandes écoles et du Corps des mines, dont il est issu.

Jean-Pierre Dupuy a préféré présider le Comité d’éthique et de déontologie de l’Institut de radioprotection et de sûreté nucléaire (IRSN) dont la charte d’éthique et de déontologie ignore, tout simplement, le principe de précaution, même dans sa version édulcorée par le Parlement français !

Poster un commentaire

Classé dans Actions et Politiques, Catastrophes, en français, Problématiques énergétiques

Le mythe de la sûreté et de l’excellence nucléaires françaises par Jean-Pierre Petit

L’article que l’on va lire sous ce titre, en cliquant sur le lien figurant au bas de ces lignes, a été écrit par Jean-Pierre Petit, physicien des plasmas, ancien directeur de recherches au CNRS (Centre national de la recherche scientifique), en décembre 2013, et publié sur son site.

 Les non-Français ont de la peine à s’expliquer comment, à l’occasion du premier choc pétrolier, en 1973, sous la présidence de Georges Pompidou et le Gouvernement de Pierre Mesmer, les Français avaient pu prendre le risque d’engager leur pays dans une nucléarisation forcenée de leur production d’électricité. Encore moins, ont-il compris comment ils avaient pu se lancer, peu après, dans la construction du surgénérateur géant Super-Phénix de Creys-Malville de 1200 MWé, comportant près de cinq tonnes de plutonium, l’une des substances radioactives les plus toxiques, et refroidi avec quelque 5’000 tonnes de sodium, un métal qui s’enflamme spontanément à l’air et explose au contact de l’eau.

 Cette audacieuse expérience a connu des pannes en série qui ont entraîné la mise à l’arrêt définitive de ce surgénérateur en juin 1997. La même année, la Cour des comptes estima que l’opération avait coûté 60 milliards de francs  français, soit quelque 9,1 milliards d’euros. Il y a tout lieu de penser que cette estimation, sans doute conservatrice, est complètement dépassée par les coûts du démantèlement, toujours en cours, de ce prototype gigantesque et que cette mésaventure, avec quelques autres, sont pour beaucoup dans la difficile situation économique et budgétaire de la France de François Hollande.

 Au siècle dernier, le Parti des Verts, doctrinalement antinucléaire, s’était vigoureusement opposé au SuperPhénix. Leurs successeurs actuels semblent avoir changé d’avis puisqu’ils ont accepté d’entrer dans le Gouvernement Ayrault moyennant l’abandon par ce Gouvernement d’un seul des 58 réacteurs nucléaires fonctionnant dans ce pays – le plus vieux, celui de Fessenheim, dans le Haut-Rhin – et qu’ils ont endossé en catimini la mise en chantier d’un nouveau surgénérateur baptisé Astrid de 600 MWé, nonobstant les risques immenses inhérents à cette technologie tributaire du plutonium et du sodium. En outre, le Gouvernement français s’efforce de vendre des réacteurs nucléaires de divers types à divers Etats, surtout hors d’Europe, dans l’espoir de se renflouer financièrement et de combattre le chômage, mais sans égard aux risques de prolifération militaire et de pollution radioactive de l’environnement. Et ce, alors que, instruits par la catastrophe de Fukushima,  l’Allemagne, la Belgique, l’Italie et la Suisse,  pour ne mentionner que des Etats européens, ont décidé de renoncer à terme à la production d’électricité nucléaire.

 L’article de Jean-Pierre Petit met en lumière plusieurs aspects peu connus de cette politique  tissée depuis quarante ans à l’insu de l’immense majorité des Français.

 Bureau de l’APAG2

http://www.jp-petit.org/NUCLEAIRE/mythe_excellence_francaise/mythe_excellence_francaise.htm

Poster un commentaire

Classé dans Actualité, en français, Problématiques énergétiques

The Origin and Purpose of the Geneva Appeal II.

In 1978, a group from the University of Geneva launched an Appeal to the elected officials of Europe as well as to the European Parliament with a view to finding an alternative to the Super-Phoenix breeder reactor at Creys-Malville (France) and to the plutonium era. This was the Geneva Appeal.

Thirty-five years later, a group of friends, aware of the ever greater – and insoluble – problems posed by the nuclear sector overall, are profoundly disturbed by the disinformation surrounding the seriously devastated and contaminated Japan. It would appear that this lack of information is being maintained in the hope that the world will rapidly forget this “incident” and thus allow the nuclear industry to continue to sell its reactors. It is a text intended as wake up call from the current general torpor and was thus drafted by persons both competent and reliable: it is the Geneva Appeal II.

Fate would have it that this citizen initiative should be launched in Geneva during the year that this city is celebrating the 150th anniversary of the invention of the Red Cross, the initiator of which was Henry Dunant, a Geneva citizen. While it was praiseworthy to tend the wounds caused by human folly, our duty is today to prevent this folly from causing a cascade of disasters.

 This text should be diffused widely by all receiving it to persons of their choice, especially through on-line networks, in order to provoke an awakening of conscience, processes and publications, in short, any actions that might incite our authorities to assume their responsibilities in the face of the ever increasing danger that this energy of mass destruction represents.

Although our means are modest, our ambition is on a scale with the danger we face, in spite of ourselves, because of everything nuclear. It is imperative that we abandon this energy in all haste, an energy that has already twice demonstrated the    incalculable damage it can cause.

For further information: Ivo.Rens@unige.ch

Poster un commentaire

Classé dans Actions et Politiques, Actualité, in English, Problématiques énergétiques

Eclaircissements sur l’exemplarité du Japon dans le désastre de Fukushima

Lors de ce désastre, le Japon a arrêté immédiatement toute son industrie électronucléaire. Ce faisant il a démontré qu’un tel arrêt est possible. C’est tout ce que déclare l’Appel de Genève 2.

Pour nous, l’exemplarité du Japon se limite à cet arrêt immédiat. Elle n’englobe nullement ses modalités, en particulier son recours à la production massive d’électricité par la combustion d’hydrocarbures.

Les initiateurs de l’Appel de Genève 2  et l’Association pour l’Appel de Genève 2 sont conscients des perspectives alarmantes du réchauffement climatique et ce serait leur faire un mauvais procès que de leur imputer l’option japonaise improvisée dans l’urgence, ainsi que la gestion actuelle du désastre.

Il n’est pas question de choisir entre la peste et le choléra. Il faut refuser l’une et l’autre. C’est non seulement possible, mais nécessaire.

Ivo Rens

5 novembre 2013.

Poster un commentaire

Classé dans Actualité, Catastrophes, en français, Problématiques énergétiques

Astrid, le surgénérateur qui renaît de ses cendres

J.P.Petit, Physicien des plasmas, Ancien directeur de recherche au CNRS

Jppetit1937@yahoo.fr

Le 31 juillet 1977, soixante mille manifestants, Français, Italiens, Suisses, s’étaient rassemblés, convergeant vers le terrain où le gouvernement français avait prévu de construire Superphénix, un surgénérateur à neutrons rapides. Face à eux, le préfet a déployé des moyens importants : 5 000 CRS, gendarmes et gardes mobiles, des hélicoptères, des véhicules amphibies, des ponts mobiles, un régiment de gendarmes parachutistes et des membres des brigades anti-émeutes pour leur en interdire l’accès. Pourtant ça n’est qu’un terrain. Il n’y a rien à détruire, à endommager, pas d’engins de chantier, rien. Mais ce terrain est un symbole.

Le symbole de ce qui a toujours existé en France : une symbiose totale entre le pouvoir nucléocratique, le pouvoir politique et le pouvoir policier. L’affrontement est extrêmement violent. Les “forces de l’ordre” font usage de grenades offensives et répliquent aux jets de pierres par des tirs tendus. Un manifestant de 31 ans, Michalon, est atteint. Une grenade offensive, tirée à bout portant, le touche et lui explose les poumons. Il décédera peu après. L’assaut des forces de l’ordre fait plusieurs dizaines de blessés. L’un perdra une main, l’autre un pied. Le préfet, questionné sur un plateau de télévision le soir même, déclare qu’il assume complètement ces événements, précisant que le rôle des forces de l’ordre est de veiller à la sécurité “des personnes et des biens”.

Quatre décennies plus tard, que sont devenues ces luttes ?

Il n’y a plus rien que des pantomimes ridicules, des gens qui “font des chaînes” en se tenant par la main. Les associations qui sont censées “mener le combat antinucléaire” ont totalement perdu leurs cibles de vue. Quant aux scientifiques, ils se soucient de ces choses comme d’une guigne, et la plupart du temps n’y entendent pas plus que le péquin moyen.

Les machines de mort ont changé de nom, et personne ne semble s’en apercevoir. Six semaines après son élection, le président français François Hollande a machinalement signé l’autorisation de lancement du projet ASTRID, baptisé “réacteur de IV° génération”. Une décision passée pratiquement inaperçue, au point que cet événement essentiel n’a même pas été cité lors de la diffusion sur France 3 d’une émission intitulée “Nucléaire, l’exception française”.

Vu à travers cette émission, l’exception, c’est le nombre des réacteurs, cinquante-huit, que tout le monde connaît. La France est le pays le plus nucléarisé du monde, par tête d’habitant. Mais le pire est à venir. Le 17 novembre 2011, le nucléo-député Christian Bataille, dirigeait une session de l’OPECST, Office Parlementaire d’Etude des Choix Scientifiques et Techniques. Ces exposés et débats ont été enregistrés. Il est assisté par Bruno Sido, sénateur et Président du Conseil Général de Haute Marne, région où, précisément, se situe le projet CIGEO, axé sur le stockage profond des déchets à vie longue. Ayant téléchargé ces enregistrements, j’ai pu les revisionner en en notant chaque détail.

Thème de cette réunion : “ L’avenir du nucléaire français après la catastrophe de Fukushima”.

Bataille commence par rendre compte d’un voyage de trois jours qu’il a fait au Japon, prenant note des déclarations faites par les responsables locaux. Là-bas, dit-il, il n’y a eu que deux blessés, et deux morts, par noyade, à la suite du tsunami. Des gens ont été irradiés, bien sûr, mais les doses ont toujours été inférieures aux normes, etc, etc..

Ce qui inquiète le député Bataille, qui est l’auteur d’une loi qui porte son nom et qui prône l’enfouissement profond des déchets radioactifs à vie longue, c’est le fait que le Japon, après cette catastrophe, a mis à l’arrêt tous ses réacteurs, et il cite la conclusion des experts : cet arrêt coûtera au pays deux points de PIB.

Il faut passer le temps nécessaire pour écouter, réécouter les interventions des uns et des autres. Des intervenants soigneusement choisis par Bataille : le CEA, Edf, AREVA, le CNRS, gens que le député désigne comme “des acteurs principaux de la filière”. Pas un mot sur le risque, le coût humain, les dommages environnementaux. Il serait souhaitable que ces fichiers soient téléchargés sur Youtube ou Dailymotion, car ce sont des modèles du genre. On n’y parle que de chiffres, pourcentages, filières, cycles, retours sur investissements, exportations, coût du kilowatt-heure, calendrier, R & D (recherche et développement), REP, EPR, RNR, MOX, exportations, importations, bouquet énergétique.

Tous ces gens s’entre-félicitent. Au milieu de cette foule, le député “Vert” Cochet a du mal à faire face à des gens qui ne cherchent nullement à masquer leurs sourires, en écoutant son plaidoyer en faveur des “énergies vertes”: solaire et éolien.

Je me demande ce que retiendrait un simple quidam, qui serait aussitôt étourdi par ces discours, fleuris de nombreux termes techniques. Savez-vous par exemple que les “actinides” ne sont pas des être planctoniques ou des divinités grecques, mais tout atome dont la masse dépasse celle de l’actinium qui est de 89. Donc le plutonium, l’uranium, le thorium, etc.. etc…

Ces discours montrent que rien n’a changé. Le plan français suit son cours.

Qui connaît l’essence de ce plan ? Qui en parle ?

Les choses sont pourtant limpides. Le minerai d’uranium se présente sous la forme d’un mélange de deux isotopes. La proportion est de 99,3 % d’uranium 238 contre 0,7 % d’uranium 235. Le second est fissile, le premier ne l’est pas.

La fission a fait son entrée en physique avec l’explosion de deux bombes, lâchées sur le Japon. L’une d’elle était une bombe à uranium. Pour qu’elle fonctionne, il avait fallu laborieusement enrichir ce produit à hauteur de 90 % d’uranium 235. Sinon cette bombe n’aurait pas fonctionné. Plusieurs procédés d’enrichissement ont été utilisés, et nous n’allons pas tous les décrire, en ne retenant que celui qui a été le plus médiatisé : l’enrichissement par centrifugation.

Les bombes à fission fonctionnent-elles avec de l’uranium ? La réponse est non. Cet enrichissement serait trop laborieux, trop coûteux. C’est l’Italien Enrico Fermi qui trouva le moyen de produire par transmutation une autre matière fissile, le plutonium 239, découvert en 1940, beaucoup plus commode à séparer, puisque ne possédant pas les mêmes propriétés chimiques que la substance, l’uranium 238, à partir de laquelle on le fabriquait.

Comment ? Enrico Fermi invente le “réacteur nucléaire”. Celui-ci peut fonctionner avec de l’uranium naturel, à condition d’en réunir suffisamment pour obtenir un début de “criticité”. Le schéma est simple. Les atomes d’uraniums 235 sont instables. Ils se décomposent en émettant des neutrons, plusieurs (en moyenne deux et demi). Si ces neutrons ont la chance de trouver sur leur chemin un autre atome fissile, un autre atome d’uranium 235, celui-ci se scinde à son tour, en émettant lui aussi plusieurs neutrons.

Il se produit alors une réaction en chaîne. La quantité d’énergie dégagée dépend du volume du mélange qu’on a rassemblé. S’il est trop faible, les neutrons s’échappent, quittent le réacteur, sans provoquer de réactions secondaires, ou très peu. A l’extrême limite, dans une bombe, le nombre de réactions de fission obtenu est extrêmement élevé et le dégagement d’énergie extrêmement rapide. Le milieu se comporte alors comme un explosif.

En rassemblant des barres de minerai, et en contrôlant soigneusement le régime, on peut tabler sur un certain flux de neutrons. Mais ceux-ci ne font pas que s’échapper, quitter le réacteur, qu’aller se perdre dans une couverture protectrice, ou déclencher de nouvelles fissions. Ils donnent lieu à une transmutation qui est la clé des bombes à fission :

Les neutrons émis sont capturés par les noyaux d’uranium 238, qui se transforment en plutonium 239.

Celui-ci est fissile mais son cortège électronique, qui détermine ses propriétés chimiques, diffère de deux unités, de deux électrons, de celui des isotopes de l’uranium. On peut donc extraire ce précieux explosif par voie chimique, sans centrifugeuses, sans ces multiples et coûteux systèmes d’enrichissement.

On connaît l’histoire. En 1942, Fermi fait fonctionner, sous les gradins du stade de Chicago, le premier réacteur nucléaire. Bien que la puissance d’un tel réacteur ne soit que d’un demi-watt l’émission de neutrons est mise en évidence.

reacteur_Fermi

Le premier réacteur nucléaire construit à Chicago par Enrico Fermi, en 1942

reacteur_Fermi_controle

La fission de l’uranium produit les neutrons attendus

C’est la formule gagnante. Il ne reste plus qu’à construire d’immenses réacteurs, à Hanford, sur les berges de la rivière Colombia, pour se mettre à produire massivement du plutonium 239. Celui-ci n’existait pas dans la nature, car sa durée de vie est trop brève : seulement 24.000 ans.

Où sont créés les atomes dont tout est constitué, en dehors de l’hydrogène et de l’hélium, qui préexistaient avant la naissance des premières étoiles ? Au commencement du tout commencement, dirait Kipling, il n’y avait que de l’hydrogène. Quand l’univers était encore très chaud, quand sa température était de centaines de millions de degrés, il fonctionna comme un réacteur à fusion, donnant de l’hélium (quatre nucléons au lieu d’un seul pour l’hydrogène). Puis, quand l’expansion fit décroître température et densité, cette réaction s’arrêta, le processus de fusion n’ayant transformé en hélium que 10 % de l’hydrogène primitif.

L’affaire sera relancée au coeur des étoiles, toujours par fusion. Celles-ci produisent de l’hélium, puis du carbone, de l’oxygène, éléments relativement légers. C’est là qu’intervient le spore cosmique, la supernova, une étoile dont la masse dépasse huit fois celle du Soleil. On sait que sa fin est paroxystique. Elle explose en dispersant aux quatre vents du cosmos tous les noyaux possibles et imaginables, et tous leurs isotopes. Seuls subsisteront les isotopes stables, dont les durées de vie sont suffisamment importantes. Ces durées de vie sont extrêmement variables selon les noyaux créés. Certains se décomposent en une fraction de millième de seconde.

Il n’y a rien de plus radioactif que l’environnement d’une supernova. Bien sûr, celle-ci produit massivement les deux uraniums, le 238 et le 235 et du plutonium 239, tous en quantités comparables. Rien n’est stable au sein de ces atomes lourds. L’uranium 238 a une durée de vie de quatre mille milliards d’années. Quatre cent fois l’âge de l’univers. Ca laisse le temps de voir venir. Sa radioactivité est donc infime. Pour le 235, on tombe à sept cent millions d’années. Il est donc radioactif. En se décomposant, il émet des “particules alpha”, des “noyaux d’hélium”. Cette décomposition dégage de la chaleur et c’est celle-ci qui entretient la chaleur du noyau terrestre.

Le plutonium est également radioactif, émet aussi des “noyaux alpha”. Mais du fait de sa courte durée de vie, il en émet infiniment plus, trois cent mille fois plus. C’est ce qui le rend biologiquement dangereux à très faible dose. Si un individu inhale ou ingère un milligramme de plutonium, cette infime poussière ira se loger tout contre les cellules d’organes divers, y causant des désordres cancérigènes, mortels.

Les spécialistes parlent de “durée de vie biologique” pour les éléments radioactifs. Certains sont éliminés relativement rapidement dans les urines, les fèces. Mais la “durée de vie biologique” du plutonium est de quarante années. Quand vous en inhalez ou en ingérez, vous … mourrez avec, c’est aussi simple.

Avant de parler du plutonium, j’ai jugé bon d’expliquer pourquoi ce produit était hyper dangereux, infiniment plus dangereux que l’uranium 235.

L’atome entre dans l’histoire, en tant que machine à tuer. Et elle tue bien, beaucoup, longtemps. Il faudra du temps avant qu’on envisage d’exploiter l’énergie qu’il dégage, en l’exploitant sous forme thermique, afin de créer de la vapeur, de faire tourner des turbines, lesquelles actionneront des alternateurs, produisant de l’électricité. Partout, ce “nucléaire civil” n’est qu’une retombée d’un nucléaire militaire. Pour les militaires, c’est clair, les réacteurs n’ont qu’une seule fonction : servir à transmuter de l’uranium 238 pour en faire du plutonium 239. Comme pour l’uranium, le plutonium “de qualité militaire”, celui des bombes, doit contenir 90 % de 239.

Quand on envisage un nucléaire civil, électrogène, les pourcentages sont beaucoup plus faibles. On a dit que le minerai naturel d’uranium ne contenait que 0,7 % d’uranium fissile, de 235. Si on monte ce taux à 3 %, on peut faire fonctionner un réacteur nucléaire et c’est avec ce mélange de 97 % d’uranium 238 et de 3 % d’uranium 235 que sont chargés les réacteurs civils de la “première et seconde génération”.

En concentrant des “barres de ce combustibles nucléaire” dans un “coeur”, on obtient un dégagement de chaleur qui se maintient pendant plusieurs années. La chaleur produite est évacuée par de l’eau ordinaire, qui joue au passage un autre rôle. Elle “ralentit les neutrons de fission”. Il se trouve que ces neutrons, ainsi ralentis, ont plus de chance de déclencher une autre fission dans un autre noyau d’uranium 235, voisin. On peut donc, grâce à ce “modérateur”, qui joue en plus le rôle de “fluide caloporteur”, obtenir un fonctionnement rentable avec un enrichissement portant la teneur du mélange à seulement 3 % d’U235.

Quand les deux tiers de l’uranium 235 ont été “brûlés”, quand il ne reste plus que 1% de cet isotope dans le coeur, le fonctionnement cesse d’être rentable. Il faut alors arrêter le réacteur, attendre que la température de l’eau diminue, ouvrir le couvercle, sortir les barres, les transporter pour aller les plonger dans une “piscine”.

Pourquoi ne pas les mettre à l’air libre ? Pourquoi ces précautions, puisque la diminution de la densité spatiale de 235 (en changeant la géométrie du chargement et en maintenant les barres à des distances suffisantes) a supprimé tout risque de criticité ? Parce que les produits de réaction sont aussi instables et se décomposent en produisant radioactivité et chaleur. Il faudra attendre cinq ans pour que tout cela se calme, qu’on puisse sortir ces barres de l’eau, les manipuler et conditionner ces “déchets à vie longue”.

En ralentissant les neutrons émis par la fission de l’uranium 235, on a accru les chances de produire de nouvelles fissions dans les atomes de 235 voisins. On a aussi réduit l’énergie véhiculée par ces neutrons pour qu’ils aient assez de force, en percutant un noyau d’uranium 238, pour le transformer en plutonium 239.

Est-ce à dire qu’un réacteur civil ne produit pas de plutonium, à la différence des réacteurs militaires, “plutinogènes”, où on ne ralentit pas les neutrons ? Non. Même si l’eau ralentit notablement les neutrons, il en subsiste suffisamment pour transmuter l’uranium 238 en plutonium 239. Dans ce qui émerge d’un coeur à uranium, la majeure partie de ce qui était jusqu’ici considéré comme un déchet c’est … du plutonium. Un pour cent de la masse de ce coeur en fin de vie.

C’est là qu’a émergé l’idée du surgénérateur à neutrons rapides. L’idée était de produire du plutonium à des fins civiles. Pour ce faire, il était exclu d’utiliser de l’eau pour évacuer la chaleur. Celle-ci aurait ralenti les neutrons de fission. La solution a donc été de rechercher un fluide qui soit “transparent” vis à vis de ce flux de neutrons. Et ce fluide, c’était du sodium fondu, circulant à 500°C (il entre en ébullition à 900°).

Vous avez sans doute entendu parler de ce métal étrange, le zirconium. Avant que n’émerge le nucléaire, on s’en servait pour faire des bijoux ( en “zircon”). Pourquoi être allé chercher ces atomes chez les bijoutiers ? Parce qu’il est “transparent” vis-à-vis des neutrons de fission. Il les laisse passer librement. Si ça n’était pas le cas, les “gaines” contenant les “pastilles” d’oxyde d’uranium se mettraient à chauffer et fondraient, libérant leur contenu.

Mais, et ceci nous amène à évoquer la catastrophe de Fukushima, le zirconium est avide d’oxygène. A une température relativement basse, dans de la vapeur d’eau surchauffée, il “pique“ aux molécules d’eau leur oxygène, libérant leur hydrogène. C’est cette libération d’hydrogène, consécutive à l’oxydation des gaines de zirconium, qui a provoqué les explosions spectaculaire des réacteurs japonais, quand cet hydrogène est entré au contact avec l’air atmosphérique.

Doté d’un fluide caloporteur sous la forme de sodium fondu, un réacteur à fission devient un RNR, un “réacteur à neutrons rapides”, plutonigène. Il est même possible, en rendant son coeur suffisamment actif, émissif, de lui faire produire autant ou plus de matière fissile qu’il n’en consomme, sous forme de plutonium 239.

Et là naît le concept de surgénérateur à neutrons rapides, dont Superphénix fut le prototype. Dans ce cas, inutile de démarrer l’opération avec un coeur à uranium. Le chargement-type correspond à un coeur contenant 80 % d’uranium 238 et 20 % de plutonium 239. Pourquoi ce pourcentage plus élevé ? Pour que l’irradiation par les neutrons, dans une “couverture fertile” d’uranium 238 soit plus intense et la transmutation plus efficace, plus rapide. Le coeur type d’un tel surgénérateur contient alors quelque cinq tonnes de plutonium.

On a évoqué plus haut la dangerosité foncière du plutonium, liée à sa durée de vie relativement courte et à sa détestable capacité de s’intégrer de manière durable aux organismes humains, qu’il s’agisse de leur appareil respiratoire ou digestif.

Les réacteurs nucléaires français actuels, types, sont “à eau pressurisée”. Pourquoi pressurisée ? Parce que sous 150 bars l’eau reste liquide de 280° (entrée) à 320°(sortie) et peut donc emporter plus aisément la chaleur.

Mais l’examen des entrailles d’un tel réacteur reste possible, parce que l’eau a la providentielle propriété d’être transparente à la lumière. De plus, l’eau ne s’enflamme pas dans l’air. Quand la température d’un réacteur à eau a suffisamment baissé, que la pression est descendue, on peut dévisser les boulons, enlever le couvercle et aller jeter un oeil à l’intérieur, avec un simple système optique.

Avec le sodium, ces deux opérations sont impossibles. Primo le sodium est opaque. Secundo, il s’enflamme spontanément au contact de l’air. Enfin, cerise sur le gâteau, mis au contact d’eau, il explose.

Lors des assises de la commission française, de l’Office d’Evaluation des Choix Scientifiques et Techniques, en novembre 2011, on put entendre un des intervenants soulever ce problème. Un ingénieur du CEA, Christophe Béart, lui répond : “Nous travaillons sur cette question”. L’homme évoque alors une imagerie par ultrasons, mais précise qu’actuellement on ne dispose pas de sources et de capteurs d’ultrasons capables de dépasser 180°. Bref, impossible de savoir ce qui se passe à l’intérieur d’un réacteur refroidi au sodium. La solution, ajoute notre expert, est de tout prévoir de façon qu’on n’ait pas à se poser ces questions. Vous entendrez alors les mots de “modularité, de détectabilité, de réparabilité…. “

Il existe un certain nombre de surgénérateurs dans le monde, dont un au Japon, à Monju. Comme il est impossible d’ouvrir le couvercle d’un générateur fonctionnant au sodium, il faut mettre en oeuvre des techniques complètement folles pour aller manipuler ses intérieurs, à l’aveuglette. Le système de base, assurant le déchargement-rechargement du coeur s’appelle un “barillet”.

Le sodium, un alcalin, n’est pas chimiquement neutre. Les barillets sont donc des sources de disfonctionnements. Le réacteur Japonais de Monju a connu une fuite de 640 kilos de sodium, suite à la rupture de la gaine d’un capteur, liée au vibrations occasionnées par la circulation du sodium dans la cuve.

Au milieu des années soixante-dix, des gens étaient assez nombreux pour pouvoir se mobiliser massivement contre l’émergence de cette technologie suicidaire. Superphénix connut des pannes nombreuses. Citons quelques anecdotes. Le bâtiment contenant pompes, échangeurs, alternateurs avait été dessiné à Paris, où les chutes de neige sont peu importantes. Mais Superphénix était implanté dans le département de l’Isère, dans les Alpes (à proximité de la ville de Genève, de l’Italie). Le 8 décembre 1990, il tomba 80 cm de neige sur ce toit, qui s’effondra. Heureusement, ce jour-là, le réacteur était à l’arrêt.

Je tiens d’un ingénieur allemand d’autres anecdotes, moins connues. Ce réacteur était le fruit d’une collaboration franco-italo-allemande. Les Italiens avaient à charge de construire un pont roulant, pour les manipulations. Quand celui-ci fut mis en place et chargé, il … s’effondra. Quant aux Français, ils avaient prévu d’installer une piscine, d’un volume conséquent, pour entreposer des éléments du coeur, après extraction et lavage. Comme une étude du sol n’avait pas été faite en rapport avec ce projet, le poids de la piscine fit s’enfoncer le sol et le réacteur acquit un dévers de plusieurs centimètres, ce qui n’était pas sans soulever des problèmes, s’agissant de la circulation du sodium par convexion, dans la cuve (la chaleur est extraite à l’aide de tubulures contenant elles aussi du sodium, et celle-ci est emmenée vers un second échangeur et transférée à de l’eau).

Schéma_réacteur_neutrons_rapides_caloporteur_sodium

Réacteur à neutrons rapides, refroidi au sodium

Je pense que vous avez maintenant une idée schématique suffisante de ce que peut être un surgénérateur à neutrons rapides. Voici maintenant en quoi cette machine, sortie tout droit de l’enfer, est la pièce maîtresse du dispositif français concernant “l’avenir du nucléaire”.

La France possède à ce jour un peu plus de 200 cent tonnes de plutonium “civil” (le tonnage de plutonium militaire est couvert par le secret défense). Celui-ci est stocké dans un nombre incalculable de piscines, un peu partout en France mais essentiellement à la Hague, dans le Cotentin. Là se situe “l’usine de retraitement”, qui est en fait un centre de récupération du plutonium. Le but visé (rappelé lors de cette séances de novembre 2011 à l’Assemblée Nationale) est d’atteindre les 1000 tonnes. Avec un chargement type de 15 tonnes, il serait alors possible de mettre en batterie 65 réacteurs-surgénérateurs qui consommeraient … de l’uranium 238, actuellement stocké comme déchet.

D’où le mot “ Phénix “. Vous savez que cet oiseau mythique “renaissait de ses cendres”. En déployant un tel parc de surgénérateurs à neutrons rapides, la France, qui possède un stock de 200.000 tonnes d’uranium 238, issu de l’enrichissement du minerai, extrait du Limousin, puis acheté en Afrique, deviendrait ainsi indépendante énergétiquement pour les … 5000 ans à venir.

L’idée tient toujours. Tous ses avantages ont été décrits lors de cette session à l’Assemblée Nationale. Il serait hautement souhaitable que les citoyens Français, et ceux de pays voisins, connaissent la teneur de ces échanges, pour savoir à quelle sauce ils seront nucléarisés, irradiés, quel héritage mortifère nos nucléopathes envisagent de laisser aux générations à venir.

Quel est le fer de lance de cette opération ?

C’est le surgénérateur à neutrons rapides ASTRID, 600 MW, fonctionnant au sodium :

vueartisteastrid

Une remarque concernant cette famille des futurs générateurs, qui ne saute pas aux yeux de prime abord. Ceux-ci sont conçus pour offrir une moindre vulnérabilité, vis-à-vis des attaques de terroristes ou d’opérations guerrières. Leurs structures se situeront donc en dessous du niveau du sol.

Astrid est conçu comme un démonstrateur. Je vais maintenant citer des chiffres émanant de cette docte assemblée, dont les membres dépassaient le plus souvent les soixante ans (67 pour Christian Bataille, 61 pour Bruno Sido ).

Le projet final, c’est le déploiement des surgénérateurs, qui débuterait en 2060 pour s’achever en 2100 (non, vous ne rêvez pas !).

L’EPR (European Pressurized Reactor, réacteur à eau pressurisée ) aurait pour fonction d’assurer la transition. Alors que les surgénérateurs à sodium sont rebaptisés “réacteurs de IV° génération”, les EPR constituraient la III° et les actuels REP (réacteurs à eau pressurisée) la seconde.

Quelle différence entre un EPR et un REP ?

Cela fait déjà des années que les Français ont commencé à utiliser le plutonium récupéré dans les opérations de retraitement menées dans leur usine de la Hague comme combustible, en produisant des mélanges contenant 93 % d’uranium 238 , et 7% de plutonium. La France exporte ce combustible, en particulier au Japon.

L’EPR est un réacteur refroidi à l’eau (qui donc ralentit les neutrons), mais il est conçu pour fonctionner avec 100 % de MOX (MOX pour mixed oxydes, c’est à dire un mélange d’oxydes d’uranium 238 et de plutonium 239).

EPR

Les actuels réacteurs à eau pressurisée (ou à eau bouillante, comme ceux des Japonais et des Américains) ne peuvent fonctionner avec 100 % de combustible MOX. En France, comme au Japon, la moitié des réacteurs fonctionnent avec un chargement du coeur comprenant par moitié du combustible uranium, et par moitié du MOX, donc du combustible au plutonium.

Pour qui sait voir, lire et entendre, l’EPR n’est là que pour assurer la transition vers ce déploiement des surgénérateurs au sodium, rebaptisés “réacteurs de IVème génération” et dont ASTRID est le prototype, des réacteurs où le pourcentage de plutonium sera monté à 20%.

Dites-vous bien une chose : Je ne suis pas sûr que des gens comme François Hollande, ou Geneviève Fioraso, sa ministre de la recherche et des universités sauraient expliquer au contribuable ce que je viens de décrire ici. Mais, quand on est élu, on signe quotidiennement tant de choses, sans même savoir ce que cela implique !

Le contenu des débats et les conclusions publiées par l’Office Parlementaire d’Evaluation des Choix Scientifiques et Technique est téléchargeable sur le site de l’Assemblée Nationale à cette adresse :

http://www.assemblee-nationale.fr/13/cr-oecst/rapport-final-surete-nucleaire-20111215.pdf

. Vous y trouverez cette courbe, qualifiée de “trajectoire raisonnée” en matière de nucléaire. Elle parle d’elle-même. Ainsi cette vingtaine “d’experts”, retraités ou à peu d’années de la retraite, ont tracé le futur des générations à venir. Aucun d’entre eux ne sera, statistiquement parlant, encore vivant quand commencera le déploiement des “générateurs de génération IV”, en … 2060.

Trajec

Notons au passage que cette courbe “raisonnée” se fonde sur l’idée que notre physique n’aura pas changé d’un atome dans les 87 années qui viendront.

Parmi ces exposés, le plus remarquable est celui d’un certain Jean Claude Duplessis, membre de l’Académie des Sciences, 72 ans, président de la Commission Nationale d’Evaluation (CNE), qui produisit une courbe chiffrant la quantité de plutonium qui aura pu être “mise de côté” en 2150 selon les différentes formules retenues : REB, EPR ou RNR.

150 ans

Voilà donc un septuagénaire qui spécule sur les différentes formules du nucléaire français pour les 137 années à venir.

Ce serait drôle si ça n’était pas si tragique.

2 Commentaires

Classé dans en français, Problématiques énergétiques

ITER : chronique d’une faillite annoncée

Interview de Jean-Pierre Petit, Physicien des plasmas,
ancien directeur de recherche au Centre National de la Recherche Scientifique français,
par Pierre Bonhomme, journaliste.

Un physicien des plasmas décide de mener son enquête

  • PB : Jean-Pierre Petit, vous avez mis sur votre compte Youtube cinq vidéos1 où vous présentez, avec les talents de vulgarisateur qui sont les vôtres, les principes de fonctionnement d’ITER, en donnant à vos lecteurs la possibilité de se faire leur propre idée sur la question2. Quant à votre conclusion personnelle elle est très négative. Depuis combien de temps vous être vous intéressé à ce sujet ITER, et pourquoi ?
  • JPP : C’est relativement récent, de même que mon intérêt pour le nucléaire en général. Il se trouve que j’habite à 20 km de Cadarache, où se trouve le site d’ITER. Il y a deux choses qui m’ont interpellé. La première a été la catastrophe de Fukushima, et la seconde le triplement du budget d’ITER, en 2011. A ce sujet une délégation du Parlement Européen était descendue à Aix-en-Provence à cette époque pour entendre des explications fournies par ITER-ORGANIZATION. Là, il m’a été assez facile de réaliser que ces parlementaires n’avaient pas la moindre idée de ce qu’était ce projet, et que les discours qui leur étaient servis n’étaient autre que de la simple propagande, qui ne dépassait pas ce qu’on trouvait sur le net : “ le Soleil dans une bouteille, etc…”. J’ai aussi été en contact avec des “anti-nucléaires traditionnels”, suffisamment pour me rendre compte qu’ils ne savaient rien non plus, rien de plus que ce qui était servi au public dans des vidéos. Enfin, subsidiairement, j’ai pu constater que j’étais tout simplement le seul scientifique présent, et même concerné, et qu’en règle générale la communauté scientifique n’avait guère porté d’attention à la question du nucléaire, qu’elle ne connaissait pratiquement pas. Mais j’aurais eu du mal à lui jeter la pierre, vu que jusqu’en 2011 cela avait été aussi mon cas.
  • PB : Vous avez alors voulu en savoir plus ?
  • JPP : Tout à fait, à la fois par curiosité scientifique et parce que ce gonflement délirant du budget d’ITER, véritable ogre, menaçait toute l’activité scientifique française. Je n’étais pas spécialiste des plasmas chauds, thermonucléaires. J’avais simplement une bonne expérience de théoricien et d’expérimentateur dans le domaine de ce qu’on appelle des “plasmas froids”, par opposition au plasmas thermonucléaires qui sont à des centaines de millions de degrés.
  • PB : Qu’appelle-t-on “ un plasma froid “ ?
  • JPP : Tout type de plasma qui n’est pas le siège potentiel de réactions thermonucléaires, qui se situent à des températures inférieures, attendu que 100 millions de degrés, c’est la température minimale pour obtenu une réaction de fusion, en l’occurrence celle d’un mélange de deux isotope de l’hydrogène, le deutérium et le tritium. Un tube fluorescent en fonctionnement contient un “plasma froid”. Mais la couronne solaire, qui est à un million de degrés, est aussi “un plasma froid”. Personnellement j’ai mené des recherches en utilisant une sorte de générateur de gaz chaud qui crachait de l’argon à 10.000° Mais c’était encore un “plasma froid”. Ces connaissances que j’avais m’ont permis en dix huit mois d’assimiler tout ce qui avait trait aux plasmas de fusion, de manière très approfondie.

La loi du silence dans le monde scientifique

  • PB : Comment avez-vous acquis ces connaissances ? En autodidacte ?
  • JPP : Pas exactement. J’ai été très efficacement guidé et aidé par des spécialistes des plasmas chauds, travaillant au CNRS.
  • PB : Qui, par exemple ?
  • JPP : Je me suis engagé à ne citer aucun nom. En effet, dans la communauté scientifique française, tout chercheur qui formulerait un avis défavorable vis à vis de projets comme ITER ou Megajoule le payerait immédiatement très cher.
  • PB : Très cher, comment ?
  • JPP : Suppression de crédits, difficulté ou même impossibilité d’obtenir des postes, des bourses de thèse, des crédits de mission, mutation, etc. Tout l’attirail de ce qui peut être utilisé pour réprimer efficacement un chercheur. En France le lobby nucléaire est extrêmement puissant, et fait sa loi dans le monde de la recherche.
  • PB : Donc vous avez pris des engagements de confidentialité.
  • JPP : Ce qui a permis une collaboration étroite et très intense pendant 18 mois. Ces gens avaient, de toute façon, une idée personnelle très négative du projet ITER et m’ont très efficacement aidé à éclairer le public, ce qui s’est traduit par ces cinq vidéos mises en ligne sur Youtube.
  • PB : Pouvez-vous nous résumer, si possible de manière accessible, ce qui a émergé de cette étude ?

Iter protégé par sa complexité

  • JPP : ITER a été protégé par sa complexité, dès le départ. Ces machines, les tokamaks (et ITER est un tokamak géant), fonctionnant avec des plasmas chauds, sont extrêmement complexes, à la fois au plan de l’ingénierie et au plan scientifique. J’ai fait de mon mieux pour en exposer les principes et les difficultés afférentes dans ces cinq vidéos. Cela représente 2 heures d’écoute. Dans cet ensemble, tout y est : je pense qu’on ne peut pas exposer ITER en dix minutes. Tous les internautes qui ont fait l’effort de suivre ces 5 vidéos du début jusqu’à la fin en ont retiré une compréhension complète et pertinente, non superficielle de la machine et de ses défauts.
  • PB : Cette machine est-elle dangereuse ?
  • JPP : En s’axant sur la dangerosité, les écologistes ont fait fausse route. Il y a effectivement un problème avec la manipulation du tritium, qui est un isotope de l’hydrogène, qui se décompose en 12,5 ans. Cet hydrogène peut prendre la place de l’hydrogène ordinaire dans n’importe quelle structure biologique et créer des désordres dans l’architecture des êtres vivants, par décomposition radioactive. C’est un fait.

Le plus fantastique gâchis scientifique de tous les temps.

  • JPP : Mais là n’est pas le danger majeur d’ITER.
  • PB : Quel est-il ?
  • JPP : Ce danger est que cette machine ne marchera pas, ne donnera jamais ce qu’on attend d’elle. Elle sera le plus fantastique gâchis scientifique de tous les temps, laissant derrière lui celui des célèbres avions renifleurs de notre président Giscard d’Estaing. C’est un tokamak géant, et les tokamaks sont des machines foncièrement instables. Les instabilités les plus dommageables s’appellent des disruptions. Dès 2011, quand j’ai commencé à me plonger dans ce dossier j’ai étudié la thèse d’un jeune chercheur nommé Cédric Reux, soutenue au CEA en 2010. Celle-ci ne relève pas du secret défense et on peut se la procurer sans problème. J’ai trouvé ce document de départ si important que j’ai fait en sorte qu’il soit téléchargeable à partir de mon propre site :

http://www.jp-petit.org/NUCLEAIRE/ITER/These_Cedric_Reux.pdf

  • PB : Vous recommanderiez donc à nos lecteurs de télécharger ce document et de se plonger dedans ?

  • JPP : Je n’ai jamais dit cela ! Mais, qu’il s’agisse de l’introduction ou des conclusions, s’il le télécharge, il pourra lire, par exemple dans le Résumé de la thèse, au tout début :

Les disruptions des plasmas de tokamak sont des phénomènes menant à la perte totale du confinement du plasma en quelques millisecondes. Elles peuvent provoquer des dégâts considérables sur les structures des machines, par des dépôts thermiques localisés, des forces de Laplace dans les structures et par la génération d’électrons de haute énergie dits découplés pouvant perforer les éléments internes. Leur évitement n’étant pas toujours possible, il apparaît nécessaire d’amoindrir leur conséquences, tout spécialement pour les futurs tokamaks dont la densité de puissance sera un de à deux ordres de grandeurs plus importante quand dans les machines actuelles.

Les colères d’ITER : les disruptions.

  • PB : Que sont ces disruptions ?

  • JPP : Avant que je n’emploie ce mot le public, et les politiques, en ignoraient totalement l’existence. En peu de mot, on vous a dit pendant des années et même des décennies « qu’ITER, c’était le soleil dans une bouteille ». Le Soleil est « une machine à créer de l’énergie par fusion ». Mais le Soleil est périodiquement le siège d’éruptions solaires d’une puissance phénoménale.

  • PB : Et-ce qu’on peut comparer ces deux milieux ?

  • JPP : Tout à fait. Une machine à fusion comme ITER, si elle fonctionnait, produirait des dizaines de mégawatts d’énergie par mètre carré de sa surface, sous forme radiative, comme le Soleil. Et c’est aussi l’ordre de grandeur de ce que produit le Soleil. Si on fournissait aux hommes assez de matériel pour enfermer le Soleil dans une enceinte, en évacuant à l’aide de pompes de taille … astronomique l’énergie dégagée, la chose serait au moins conceptuellement envisageable, sauf ….

  • PB : Sauf ?

  • JPP : Sauf si une éruption solaire se produisait. Alors toute l’installation serait immédiatement démolie, volatilisée. Les disruptions sont l’équivalent complet des éruptions solaires, dans les tokamaks. Ce n’est pas moi qui suis l’auteur de cette analogie. Elle est indiquée dans le rapport de 2007 publié par l’Académie des Science, sous l’égide de Guy Laval, membre de l’Académie des Sciences de Paris. Cette étude est consacrée à l’examen de la faisabilité de production d’énergie par fusion. Dans un machine comme ITER on a calculé qu’une disruption atteindrait une intensité (je parle d’un flux d’électrons) de 11 millions d’ampères. Cela figure dans les documents officiels d’ITER ORGANIZATION. Mais ce n’est pas le pire. Ces électrons sont relativistes, se trouvent accélérés à une vitesse proche de la vitesse de la lumière, exactement comme les jets de plasma émanant du Soleil.

  • PB : Pourquoi cette accélération ?

  • JPP : La surface du Soleil est à 6000°. Or les éruptions solaires, ces « disruptions solaires », fonctionnent comme des accélérateurs de particules naturels, qui accélèrent les particules à des vitesses relativistes. C’est tout simplement ce mécanisme qui permet au Soleil de porter sa couronne solaire, l’atmosphère de plasma qui l’environne, à un million de degrés, c’est à dire à une température 200 fois supérieure à celle de sa propre surface.

  • PB : Et dans les disruptions ?

  • JPP : Il se produit le même phénomène. Ces électrons relativistes endommageront la « première paroi », pourront la transpercer.

  • PB : On ne peut les éviter ?

  • JPP : Non. Le mécanisme exact qui leur donne naissance n’est pas connu. Il y autant de gens qui pensent qu’elles trouvent leur origine au cœur du plasma, que de gens qui pensent que ce sont des phénomènes superficiels qui en sont la cause. Ce phénomène est extrêmement brutal : il se développe en un millième de seconde.

  • PB : Est-ce qu’il y a une solution ?

  • JPP : Primo, cette rapidité exclut d’avoir le temps de mettre en œuvre quoi que ce soit à temps. Secundo la solution préconisée est celle du « pompier ». Elle consiste à inonder la chambre de gaz froid. On appelle cela une tentative de « mitigation  du plasma », par analogie avec les « mitigeurs » de nos salles de bain qui permettent de tiédir de l’eau brûlante en la mélangeant avec de l’eau froide. Mais cela ne fonctionne pas. C’est avéré. Le phénomène du confinement magnétique se retourne contre « les pompiers ». En effet, si ce champ magnétique a pour fonction d’empêcher le plasma de s’évader, il empêche également le flux de gaz froid injecté (de l’argon ou de l’hélium, qui s’ionise immédiatement) de pénétrer ! On alors envisagé de tirer des glaçons, solides, d’une taille millimétriques. Mais, pour une raison qu’on ne comprend pas, ceux-ci accroissent l’instabilité en créant «  des électrons relativistes ».

Un projet sous le signe de l’empirisme le plus complet.

  • PB : A vous entendre il semble que l’on soit dans l’empirisme le plus complet, Ce que vous nous dites, c’est que ces phénomènes ne sont pas du tout maîtrisés par les théoriciens.

  • JPP : Absolument. En donnant écho à la thèse de Cédric Reux, en 2011, j’ai levé le lièvre. Pour le CEA, ce qui a été grave, c’est que je l’ai fait à travers un document d’une vingtaine de pages, intitulé «  ITER, chronique d’une faillite annoncée » que la députée Michèle Rivasi a diffusé au sein de la commission du budget du Parlement Européen.

  • PB : Comment le CEA a-t-il réagi ?

  • JPP : Le service juridique du CEA a d’abord « piloté » le jeune Cédric Reux en lui faisant écrire une lettre où il m’accusait d’avoir détourné des parties de sa thèse. J’ai aussitôt répliqué en mettant en ligne dans mon site un texte où ce citais cette fois 170 phrases de cette même thèse ! Entre temps j’avais trouvé la thèse d’un Anglais nommé Andrew Thorton, soutenue en 2011, qui disait exactement les mêmes choses. Michèle Rivasi a proposé à Cédric Reux de débattre, face à moi, dans un bureau de l’Assemblée Nationale. Le pauvre garçon a aussitôt souhaité être « assisté » par Bernard Bigot, Administrateur Général du CEA, lequel comptait amener avec lui l’actuel directeur de l’Institut de recherche sur la Fusion Magnétique (IRFM), sis à Cadarache, un certain Bécoulet. Sur ce nous avons exigé que ce débat soit filmé et rendu public.

  • PB : Et alors ?

  • JPP : Madame Rivasi et moi, nous nous sommes retrouvés seuls. Le CEA a déclaré forfait, parce que la rencontre aurait été filmée et aussitôt diffusée sur le net et qu’elle risquait de se solder par la déroute des partisans d’ITER. Mais des « anonymes » de la maison ont installé sur le site du CEA un texte, en Français et en Anglais, de 10 pages, réfutant mes arguments3.

  • PB : Qui avait écrit ce texte ?

  • JPP : On n’a jamais pu le savoir. Questionné, le CEA a répondu qu’il s’agissait de gens qui ne tenaient pas à communiquer leurs noms. Je n’ai, quant à moi, pas pu obtenir de droit de réponse pour démonter à mon tour un texte qui est un tissu d’âneries. Les « experts » du CEA et de l’IRFM continuent fai9re des conférences, mais leurs discours ne sont que de la propagande, pas de la science, ni même simplement de la technique. Ils le font parce que jusqu’ici il ne s’était trouvé personne pour les battre sur leur propre terrain.

Cela ne se produira pas.

  • JPP : Je fais par exemple référence à une conférence donnée par Jérôme Pamela, de Cadarache, le directeur de l’agence ITER-France, un des principaux responsables du projet ITER. Quand on évoque devant lui la question des disruptions, il répond … que cela ne se produira pas. Ce qu’on appelle une « disruption majeure » est en effet si dommageable qu’elle mettrait aussitôt la machine hors service, très probablement définitivement.

  • PB : Mais, une machine, ça se répare ?

  • JPP : Il existe sur le site du CEA une vidéo, une animation, qui montre comment seront assemblées les principaux composants de la machine, avec une précision extrême. Un système robotisé positionne des pièces d’une masse impressionnante. Les éléments du bobinage supraconducteur, par exemple, pèsent le poids d’un Boeing 747. On n’a jamais construit, à ce jour, d’éléments supraconducteurs aussi grands.

  • PB : Ce sont ces immenses bobinages supraconducteurs, baignant dans de l’hélium liquide, à une température proche du zéro absolu, qui créeront le champ magnétique censé assurer le confinement magnétique. C’est la fameuse « bouteille magnétique » ?

  • JPP : Exactement.

  • PB : Mais c’est la technologie standard de toutes les machines à fusion ?

  • JPP : Certes, mais à chaque fois qu’on change d’échelle, des problèmes surviennent. Par exemple, Tore Supra, machine française, a été le premier tokamak doté d’enroulements supraconducteurs d’un diamètre important, de l’ordre du mètre. La particularité des enroulements supraconducteurs est qu’ils sont tout d’une pièce. Si l’un d’eux claque, et c’est immédiatement arrivé au premier essai de Tore Supra, il faut tout démonter. Ca a arrêté la machine pendant plus d’une année. Lorsque Jérôme Pamela est venu donner une conférence à Aix en Provence, à l’Ecole des Arts et Métiers, au printemps 2013 je lui ai demandé ce qui était prévu si d’aventure une des bobines d’ITER claquait, ce qui n’est pas inenvisageable (et même fort probable) quand on opère un tel changement d’échelle. Or, si vous avez regardé la vidéo, vous aurez vu qu’ITER est simplement indémontable, d’autant plus que, très vite, à cause de la radioactivité, ces opérations devraient être faites de manière robotisée.

  • PB : Et quelle a été sa réponse ?

  • JPP : Il a seulement dit. que ça n’arrivera pas.

  • PB : C’est donc le type de réponse qu’ITER ORGANIZATION fournit ?

  • JPP : Dans tous les domaines. Encore faut-il pouvoir avoir l’opportunité de poser ces questions. Lors de cette conférence, je n’ai pu poser que ces deux-là. Après, le « meneur de jeu » m’a dit « qu’il fallait laisser la parole aux autres ».

La mafia du nucléaire français.

  • PB : Donc, résumons. On pourrait dire, par curiosité d’intellectuel et de scientifique vous décidez de mettre le nez dans le dossier ITER. Et vous découvrez un projet qui, selon vos conclusions, et celles, dites vous, d’autres scientifiques français qui préfèrent rester à couvert, qui ne tient pas debout, ni scientifiquement, ni techniquement.

  • JPP : C’est exactement ça. Les projets français, en matière de nucléaire, sont initiés et gérés par des gens que je qualifierais d’irresponsables. Des gens qui ne tiennent nullement à affronter la critique, lors de débats publics.

  • PB : On dirait … que vous leur faites peur !

  • JPP : Personnellement, je serais prêt à débattre n’importe où, n’importe quand. Je possède maintenant ce dossier sur le bout des doigts, après avoir lu 1500 pages de thèses, d’articles, de rapports, et avoir aussi été beaucoup éclairé par des spécialistes, bâillonnés par leurs institutions. Mais ITER, qui n’a jamais fait l’objet d’un audit scientifique international en bonne et due forme et ne possède pas de responsable scientifique désigné, n’est qu’une facette de cette irresponsabilité du nucléaire, qui est généralisée.

A la première disruption majeure, la machine sera endommagée et irréparable.

  • Je fais peur à ces gens, parce que je leur oppose leurs propres études et leurs propres résultats, que je sais, moi, lire et décoder. Je vais vous donner un exemple. Quand les grandes colloques internationaux sur la physique des plasmas, comme celui qui s’est tenu début octobre au prestigieux PPPL (Plasma Physics Princeton Laboratory) le laboratoire de Princeton, New Jersey, USA, le plus grand laboratoire de physique des plasmas su monde. Richard Pitts est le responsable du groupe chargé, dans le département science d’ITER, des question concernant l’interaction entre le plasma et la paroi. Ce sont évidemment des questions cruciales. Ci-après vous trouverez une planche correspondant à sa présentation récente :

ITER-1-graph1

  • PB : Il faut être un spécialiste pour comprendre ce que contient ce tableau.

  • JPP : Ca n’est pas si difficile que cela en a l’air. Colonne de gauche, la valeur du courant plasma Ip », ce qui circule dans le plasma lorsque ITER sera en fonctionnement normal, c’est à dire 15 millions d’ampères. Le « mode » correspond à une configuration magnétique. L pour « Low confinement », confinement magnétique faible, H pour High confinement, confinement magnétique élevé. L’appareil ne pourra fonctionner qu’en mode « H ». La colonne suivante indique la puissance injectée, en mégawatts, qui correspond encore à un fonctionnement « nominal ». Colonne suivante la quantité d’énergie stockée dans le plasma, en mégajoules. Colonne suivante : la quantité d’énergie qui serait convertie en disruption. En haut, W est le signe du tungstène dans la table de Mendeleïev. On ne connaît pas de matériau ayant un point de fusion plus élevé (3000°). Il est donc prévu de protéger avec ce métal les parties les plus exposées de la machine, qui se situent en bas, dans ce qu’on appelle le « divertor ». La phrase « W melts at e  50 »   signifie que quand le paramètre e atteint une valeur de 50, le tungstène fond, se vaporise. Regardez maintenant la dernière colonne, à droite, qui donne l’évaluation de ce paramètre e et les chiffres en rouge. La dernière ligne se réfère à un fonctionnement « actif », où de l’énergie par fusion du D-T, du mélange deutérium-tritium est opéré. On voit que la « fourchette » de valeur se situe entre 105 et 1984. C’est en rouge, c’est à dire que c’est d’emblée supérieur à ce qui serait supportable. En bas, la conclusion de Pitts : « Les disruptions majeures qui ne seront pas atténuées feront fondre le tungstène ».

  • PB : Et cela signifie ?

  • JPP : On ne sait pas actuellement « atténuer » ces disruptions (le geste du « pompier », évoqué plus haut). Si la couverture de tungstène fond « modérément », de la vapeur métallique se redépose n’importe où et flanque en particulier tout le coûteux dispositif de pompage de la machine en l’air. Si cette fusion est importante, la section correspondante du divertor peut être gravement endommagée. Sa réparation prendra au mieux des mois ou sera, au pire s’avérera impossible.

  • PB : Et quelle est l’attitude des gens d’ITER face à de telles conclusions ?

  • JPP : Le discours reste inchangé. C’est comme pour un disfonctionnement d’une des bobines supraconductrice, évoqué plus haut : « comme un tel accident est impossible à envisager, ça n’arrivera tout simplement pas ».

  • PB : Comment ?

  • JPP : Ca, ça n’est pas dit dans la chanson, mais je viens de commenter un des tous derniers documents, présenté dans un grand colloque international, émanant des gens d’ITER. Face à des collègues étrangers qui connaissent bien la question, les gens d’ITER ne peuvent évidemment pas truquer leurs chiffres, présenter des valeurs inférieures.

  • PB : Ces disruptions sont des phénomènes qui apparaissent dans les tokamaks géants ?

  • JPP : Pas du tout. Ils apparaissent dans n’importe quel tokamak, quel que soit sa taille et on connait le phénomène depuis des dizaines d’années. Cela fait des dizaines d’années que ces « impacts de foudre thermonucléaire » endommagent des parois, volatilisent des revêtements. Tous les spécialistes savaient qu’en accroissant la taille de la machine, ces impacts atteindraient des puissances beaucoup plus importantes. C’est écrit noir sur blanc dans les thèses de Cédric Reux et d’Andrew Thornton.

Comment le projet ITER a-t-il été lancé et pourquoi.

  • PB : Mais on a quand même lancé le projet ITER.

  • JPP : Sans que des problèmes cruciaux ne soient maîtrisés, technologiquement, ou même scientifiquement. Ce phénomène a une signification physique simple, et vous comprendrez au passage l’analogie avec l’éruption solaire. Le Soleil produit de l’énergie en son centre, et en l’absence d’éruptions, cette énergie monte lentement vers la surface de l’astre. Sous la surface du Soleil se trouve une « couche convective », qui traduit un bouillonnement. C’est ce qui se traduit par cette surface porteuse de « grains de riz » (chacun ayant la surface de la France). Chacun de ces « grains de riz » marque l’aboutissement d’une colonne ascendante de plasma chaud. L’éruption solaire est une façon plus brutale, plus expéditive de transporter l’énergie vers l’extérieur. De même, la disruption expédie brutalement le contenu énergétique du plasma vers l’extérieur.

  • PB : on a lancé le projet en s’imaginant qu’on pourrait, chemin faisant, résoudre ce problème.

  • JPP : Des problèmes, il y en a beaucoup d’autres, même si celui-là était résolu. On ignore si la première paroi, en béryllium, résistera au flux de neutrons. Au départ il avait été envisagé de tapisser l’intérieur de la chambre de tuiles de carbone, analogues à celles dont on tapisse les ailes et le fuselage de la navette spatiale. Mais les expériences menées sur Tore Supra ont montré que ces tuiles absorbaient l’hydrogène comme des éponges. Et comme à terme cet hydrogène contiendrait par moitié du tritium, elles deviendraient radioactives ! De plus ce carbone est abrasé par le plasma. Des atomes de carbone envahissent la chambre en se combinant à l’hydrogène en donnant des carbures, également radioactifs, susceptible de se déposer partout. On a donc abandonné le carbone.

  • PB : Tout ceci n’avait pas été envisagé ?

  • JPP : Non.

  • PB : On ne peut pas lancer un projet industriel avec de tels aléas.

  • JPP : ITER n’est pas un projet industriel. C’est un projet politique, né dans la tête de deux grands physiciens qui se sont rencontrés en 1985 à Genève : Ronald Reagan et Michaïl Gorbatchev. En cette époque de dégel, ils ont recherché un projet nucléaire « pacifique « . Ils ont alors demandé aux scientifiques si ceux-ci avaient quelque chose qui pourrait faire l’affaire, et ceux-ci leur ont « vendu » le tokamak, qui n’a jamais été et ne sera jamais qu’une machine de recherche. Pour les spécialistes réellement honnêtes le maquillage de cet instrument de recherche en futur générateur d’électricité fut une aberration. Il arrive et il arrivera ce que tous les opposants avaient prévu et décrit.

  • PB : Pour le moment l’addition se monte à 30 milliards d’euros.

Le nucléaire : un festival de gâchis.

  • JPP : Avec ITER on ne fera que gâcher des dizaines de milliards d’euros. Même chose avec Megajoule, qui est un dossier que je connais aussi sur le bout des doigts. Comme le NIF américain ( National Ignition Facility, son équivalent outre Atlantique) est un échec patent, après la campagne d’essais de 2010-212 la logique voudrait de mettre immédiatement en stand by le projet français Megajoule (174 lasers contre 192 pour l’installation américaine). Le New York Times, en 2012, avait même rebaptisé l’installation californienne le NAIF (National Almost Ignition Facility : l’installation nationale où la fusion sera « presque » réalisée). On économiserait ainsi les 17 milliards d’euros de sa construction, ce qui correspond à la somme correspondant aux récentes augmentations d’impôts opérées par François Hollande. Mais cela ne se fera pas. L’activité de nos nucléocrates échappe à tout contrôle parlementaire ou politique.

Quand Superphénix renaît de ses cendres

  • JPP : Notons qu’en signant l’autorisation de construction du réacteur expérimental ASTRID, Hollande permet à nos nucléopathes de démarrer un projet suicidaire, en reprenant un projet de surgénérateur à neutrons rapides, refroidi au sodium. Et aucune revue de vulgarisation scientifique, aucune presse n’a signalé cela.

  • PB : Superphénix n’était-il pas basé sur cette même technologie ?

  • JPP : Exactement. Et vous savez qu’on ne parvient même pas à le démanteler, à extraire les 5000 tonnes de sodium radioactif qu’il contient, par exemple. Ce qu’il y a derrière tout cela est un projet sur du long terme, qui est de la démence pure et simple, projet dont les députés Bataille et Vido assurent la promotion, avec la complicité du CNRS. La France récupère les déchets que lui envoient les pays étrangers, pour les « retraiter » dans son usine de la Hague. En fait celle-ci permet de récupérer le plutonium. Le but est d’arriver à un stock de 3000 tonnes (la France en est presque au tiers) pour entreprendre le déploiement de surgénérateurs à neutrons rapides, rebaptisés « réacteurs de IV° génération ». Alors, dans ces surgénérateurs, on pourra utiliser les 300.000 tonnes du stock d’uranium 238, non fissile, qu’on possède, résidu d’un demi siècle d’enrichissement isotopique. Et la France deviendrait indépendante au plan énergétique pour les … siècles à venir. Ce déploiement (voir les discours des députés Bataille et Vido) devrait nous occuper jusqu’à la fin du siècle. Mais ces réacteurs sont hyper dangereux. C’est carrément du suicide. Je passe sur le fait qu’on est incapable de gérer les déchets, à la fois ceux-là et ceux du nucléaire en général.

  • PB : Encore une fois, on se lance dans une technologie non maîtrisée.

  • JPP : Et c’est en ayant fait le tour de tout ce panorama du nucléaire que j’adhère à vos conclusions. Il faut tout arrêter, pendant qu’il en est encore temps.

Que faire ?

  • PB : Alors, quelles solutions préconisez-vous en matière de production d’énergie pour le futur ?

  • JPP : Il existe tout un éventail de solutions, de tous ordres. On maîtrise aussi de longue date des techniques de transport de l’énergie électrique, sur de grandes distances, par courant continu haute tension. C’est même comme cela que les Français arrivent à revendre une partie du courant produit à Gravelines, dans le Pas de Calais, aux Anglais, par une ligne de 70 kilomètres qui traverse la Manche en diagonale. Avec un tel système l’énergie géothermique Islandaise serait par exemple à portée de pays comme l’Angleterre (3% de perte par mille kilomètres). Tout cela couterait de l’argent, impliquerait de profonds changements dans le paysage politique, économique et simplement dans le paysage lui-même. L’abandon du nucléaire est particulièrement urgent au Japon, qui possède encore nombre d’installations côtières à la merci d’un autre Tsunami. Vous savez que nous sommes en France passé à un cheveu d’une telle catastrophe lors de la tempête qui a atteint le site du Blayais, en Gironde, en 1999, qui était au ras de l’eau. Il ne s’agissait cette fois pas d’un Tsunami mais d’une bête tempête qui, en noyant l’un des deux groupes électrogènes de secours, a bien failli créer un Fukushima-bis en France, si le second groupe, également installé en sous-sol, avait été noyé. Alors les cœurs des réacteurs auraient cessé d’être refroidis. L’eau se serait évaporée, le cœurs auraient fondu. Nous avons aussi, dans le Pas de Calais un site situé aussi au ras des flots, le site de Gravelines.

  • PB : Vous pensez à un Tsunami ?

  • JPP : Un coup d’œil à l’histoire nous montre qu’en 1580 un séisme dont la magnitude à été évaluée entre 5,3 et 6,9 a frappé cette région et que son épicentre était pile sur Gravelines. Mais les nucléocrates répondront aussitôt « qu’il n’y a pas de risque zéro.

  • PB : De même que les Japonais n’avaient pas prévu à Fukushima que survienne un Tsunami d’une telle ampleur. Oubli du « principe de précaution ».

La différence entre les différents risques et les risques de nature nucléaire est qu’on ne peut pas envisager l’existence même d’un tel risque, dans la mesure où ses conséquences s’étendent immédiatement sur des laps de temps très importants, qui se chiffrent en dizaines de milliers d’années, voire plus, et où les dommages environnementaux peuvent affecter la planète entière. Dans le cas de l’enfouissement des déchets, il s’agit là encore d’une technologie non maîtrisée. Nous pourrions, en optant pour une telle formule, rendre à terme inhabitable des régions entières. Mais les ministres de Hollande, dès leur prise de fonction, ont immédiatement annoncé la couleur. Je vous ai dit que Hollande avait délivré aussitôt l’autorisation de construction du surgénérateur Astrid. Geneviève Fioraso, son ministre de la recherche et des université a déclaré, en inaugurant ITER , a déclaré avec emphase : « Nous serions fous de passer à côté de cette opportunité qu’est ITER, grâce auquel nous allons nous lancer à la conquête du soleil ». Quant à son ministre de l’écologie, Delphine Batho, après être descendue en février 2013 au fond de l’installation pilote de Bure, elle a déclaré « que l’enfouissement était la meilleure solution ». Tout cela respire l’incompétence et l’irresponsabilité.

  • PB : Revenons à ma question concernant les solutions de rechange.

  • JPP : Si les Japonais me posaient cette question, je leur répondrais que leur île comporte 70 % de terres inhabitées, constituées par des régions accidentées, de … montagnes. En équipant un infime partie des flancs exposés au soleil, et en implantant des installations éoliennes ils pourraient largement subvenir à leurs besoin.

  • PB : Est-ce que ça a été envisagé ?

  • JPP : Les solutions alternatives sont combattues, partout. Primo parce que le nucléaire est une source de profit pour des groupes puissants. Secundo parce que personne ne veut dépenser d’argent. Le dénominateur commun de tout ce qui a été entrepris par TEPCO à Fukushima est le souci de dépenser le moins d’argent possible.

Conclusion : en l’état, j’adhère au manifeste de l’Appel de Genève II

  • PB : En Résumé, vous êtes catégoriquement contre le nucléaire, sous toutes ses formes.

  • JPP : Contre ce nucléaire-là. Depuis 2005 des expériences menées au laboratoire Sandia, aux Etats Unis, ont permis d’obtenir des températures de 3,7 milliards de degrés. Beaucoup plus sans doute aujourd’hui, dans ce qu’on appelle les Z-machines. Des installations analogues sont en construction dans différents pays, en Russie, Chine.

  • PB : Evidemment pas en France ?

  • JPP : En France les gens du CEA n’en connaissent pas le fonctionnement. Ce sont des compresseurs MHD fonctionnant de manière impulsionnelle.

  • PB : Est-ce que cette température, d’emblée vingt fois supérieure à celle visée dans ITER change la donne ?

  • JPP : Elle rend possible de recourir à une réaction Bore11 + Hydrogène 1, non neutronique.

  • PB : Qu’entendez-vous par « non-neutronique » ?

  • JPP : La réaction deutérium-tritium donne un noyau d’hélium et un neutron. C’est ce neutron qui constitue tout le problème. En se logeant dans les structures de la machine, il les fragilise et les rend radioactives, par transmutations. Il rend ces matériaux « actifs ». La réaction Bore-hydrogène ne produit pas de neutrons, ou extrêmement peu.

  • PB : Mais comment extraire cette énergie, la convertir en électricité ?

  • JPP : Par « conversion MHD « directe », avec un rendement de 70 %. Ca a été fait dès les années cinquante, essentiellement en Russie. Une installation du type Z-machine aurait un coût cent à deux cent fois inférieur à celui d’ITER et ne présenterait rien de problématique, aucun danger, aucune retombée environnementale potentielle.

  • PB : Mais quelle différence avec des machines à fusion comme ITER ?

  • JPP : C’est la différence entre la machine à vapeur et le moteur à combustion interne, où la combustion est opérée de manière impulsionnelle. A ce que je sache, le moteur de votre automobile n’est pas une machine fonctionnant à la vapeur. ITER, même s’il fonctionnait, or ça ne sera pas le cas, serait la machine à vapeur du III° millénaire. C’est comme si on envisageait de créer, en 1900, après avoir vu l’avion d’Ader, une liaison transatlantique avec des avions à vapeur.

Mais l’illogisme de la politique nucléaire à l’échelle internationale ne doit pas nous faire oublier la dangerosité foncière, inacceptable, du nucléaire d’aujourd’hui, centré sur la fission, qui implique son abandon immédiat.

3 La “réfutation” publiée par le CEA : http://www-fusion-magnetique.cea.fr/en_savoir_plus/articles/disruptions/analyse_critiquearticle_petit_nexus_vf.pdf. On y lit : “Nous sommes affligés de la légèreté avec laquelle des informations scientifiques publiées dans des revues de renommée internationale, leurs auteurs, mais également les lecteurs de l’article lui-même, y sont manipulés à des fins étrangères à la recherche et aux progrès des connaissances.Par un tel comportement intellectuellement malhonnête, Mr J.P.Petit se disqualifie lui-même ipso facto du débat, qu’ils soit scientifique ou sociétal.

2 Commentaires

Classé dans Actualité, en français, Problématiques énergétiques