Accueil / Nouveau record du monde de probabilités

Nouveau record du monde de probabilités

Publié en ligne le 22 mars 2012 - Statistiques et probabilité -

Le 3 juin dernier paraissait sur le site de Libération un article de Bernard Laponche et Benjamin Dessus au titre surprenant de « Accident nucléaire : une certitude statistique » 1. Les auteurs prétendent y démontrer que la probabilité d’un accident nucléaire grave ou majeur dans les années à venir pulvérise tout ce qu’un probabiliste pourra accepter... puisqu’elle dépasserait 100 %.

Bernard Laponche est polytechnicien, physicien nucléaire, spécialiste en politique de l’énergie. Sur le site d’Éric Soufleux 2 (qui milite pour une réduction de notre consommation, notamment énergétique), il est décrit comme un opposant pragmatique et honnête au nucléaire. Quant à Benjamin Dessus, il est président de l’association écologiste Global Chance 3, économiste et ingénieur, ayant notamment travaillé pour EDF.

On a donc affaire à des gens sérieux et compétents. Pourtant, on se dit, à la lecture de l’article, que la passion est mauvaise conseillère, quand elle conduit à de grossières erreurs méthodologiques et calculatoires.

Deux petites erreurs pour commencer

L’idée de départ des auteurs est la suivante : pour estimer la probabilité qu’un accident nucléaire se produise en Europe ou en France au cours de la durée de vie des réacteurs en activité, n’utilisons pas des théories spéculatives fumeuses toujours sujettes à caution mais, au contraire, observons la réalité des faits. L’idée est d’estimer la probabilité, pour une centrale fonctionnant pendant un an, d’avoir un accident.

Ce point de départ est tout à fait raisonnable, disons-le tout de suite. Mais très vite, la machine s’emballe et les auteurs cumulent quelques bourdes...

Pour estimer le risque, les auteurs considèrent le nombre d’accidents graves ou majeurs qui ont eu lieu au cours des trente dernières années. Ils estiment que le nombre d’années-réacteurs correspondant à cette période est de 14 000 dans le monde. Or, il y eut au cours de cette période 5 accidents graves dont 4 majeurs – Three Mile Island (pas majeur), Tchernobyl, et 3 fois Fukushima –, ce qui conduit les auteurs à estimer la probabilité d’un accident majeur dans un réacteur donné sur une période d’un an à 4/14 000.

Pour que cette estimation ait un sens, il faut, en probabilité, vérifier au moins deux choses :

  1. D’abord, les événements (accidents) doivent être indépendants. Cela n’est pas le cas ici pour les 3 accidents comptés à Fukushima. Passons sur ce problème (pas si important qu’il y paraît).
  2. Ensuite, il faut que la période utilisée pour estimer la probabilité soit choisie « aléatoirement ». L’article paraît juste après les accidents de Fukushima, ce qui jette un doute sur le caractère aléatoire de la date. La même étude faite 2 mois plus tôt aurait donné une probabilité de 1/14 000 au lieu de 4/14 000, donc 75 % de moins. Une paille (mais on peut refaire le calcul avec 1/14 000 sans problème).

Une hypothèse osée et une grossière erreur de calcul

Implicitement, tous les résultats des auteurs se fondent sur des hypothèses non exprimées, dont une est plus que discutable : le caractère constant dans le temps de la probabilité d’accident. Les résultats prospectifs de l’article consistent en effet, après avoir trouvé la probabilité d’accident en étudiant le passé, à en déduire une mesure du risque d’accident pour l’avenir fondée sur cette valeur. Or, on imagine facilement que cette probabilité pourrait baisser, ne serait-ce que parce que chaque accident grave ou majeur est suivi d’un renforcement de la sécurité.

D’un autre côté, il est également tout à fait possible que cette probabilité augmente. Cela pour plusieurs raisons. D’abord parce qu’avec le temps la société humaine s’habitue à une technique apparemment fiable et que cela peut déboucher sur un relâchement des personnels travaillant dans les centrales. Ensuite parce que la volonté des actionnaires (y compris l’État) d’augmenter les dividendes peut les conduire à forcer l’entreprise à économiser sur la sécurité, ce qui se traduit déjà par le recours à un personnel très peu qualifié pour l’entretien des centrales. Enfin, bien sûr, par l’effet du vieillissement du parc nucléaire.

Difficile de dire donc si la probabilité augmente ou baisse, ce qui fait que les estimations des auteurs seront de toute manière discutables – ce qui est d’ailleurs le lot commun de toutes les estimations à long terme impliquant des facteurs humains.

Au centre même de l’article, alors que Laponche et Dessus « calculent » la probabilité d’un accident en France (50 %) et en Europe (plus de 100 %, sic), on tombe sur une énorme erreur qu’on pardonnerait difficilement à un élève de terminale. Cette erreur a été dénoncée et expliquée en détail par le mathématicien Étienne Ghys 4 de l’École Normale Supérieure de Lyon, qui montre que les auteurs ont certainement trouvé 129 % (ce qu’ils ne précisent pas dans leur papier...). Le plus incroyable n’est pas seulement l’erreur de calcul, certes désolante, mais le fait que, tels des étudiants souffrant d’un blocage en mathématiques, les auteurs ne s’étonnent pas qu’on puisse trouver une probabilité dépassant 100 % ! Eussent-ils même trouvé 100 % tout rond, cela aurait été une évidente erreur : on ne peut pas déboucher sur une certitude en supposant qu’un événement est probable mais non certain. Quand bien même la probabilité d’accident de chaque centrale serait de 99 %, il resterait possible qu’il n’y en ait pas dans les trente ans à venir.

Étienne Ghys, reprenant correctement le calcul, aboutit à une probabilité d’accident nucléaire majeur dans les 30 ans à venir en Europe de 72 %, ce qui n’est pas rien. Mais cela a-t-il un sens ?

Estimation

Soyons généreux le temps de quelques paragraphes, et admettons que (1) les deux petites erreurs évoquées plus haut ne sont pas importantes et (2) que l’hypothèse d’une probabilité d’accident constante est correcte. Que dirait un statisticien alors ? Que la probabilité est de 72 % ? Un peu trop brutal.

Le problème présent est une question d’estimation. « 72 % » est une estimation ponctuelle du risque, où une seule valeur est donnée. Mais nous savons tous que ces estimations ne sont pas très fiables. C’est la raison pour laquelle les statisticiens utilisent dans un cas comme celui-ci des intervalles de confiance. Il s’agit de donner non une valeur dont on n’a pas la moindre idée de la fiabilité, mais une fourchette de valeurs, associée à un certain risque d’erreur connu.

Classiquement, on calcule des intervalles de confiance au seuil de 95 %, ce qui signifie qu’il y a 95 chances sur 100 pour que la vraie valeur, de nous inconnue, se trouve dans l’intervalle. Les échecs répétés des sondages pré-électoraux sont en partie le résultat de la négligence des médias, qui ne donnent pas les fourchettes, surtout quand celles-ci ne permettent pas de trancher (que conclure de : « Au référendum, le oui obtiendra probablement entre 45 et 52 % de suffrages ? »...).

Avec les données de Laponche et Dessus et un seuil de 95 %, on trouve l’intervalle suivant pour les probabilités d’accident majeur dans un réacteur donné pendant une année : [0 % ; 0,06 %], ce qui conduit à la fourchette suivante de risque d’accident dans au moins une centrale en Europe au cours des trente prochaines années : 0 % – 92 %... pas très informatif.

Si l’on accepte un risque d’erreur plus grand, on peut réduire cet intervalle démesuré. Avec un seuil de 80 %, on obtient la fourchette 35 % – 88 %. Si on comptait Fukushima comme un unique accident et non trois, on obtiendrait alors 0 % – 72 %...

Intervalle de confiance

Si nous observons N fois une situation où un événement peut se produire, et que l’événement en question se produit n fois parmi les N observations, que pouvons-nous en conclure concernant la probabilité d’apparition p de l’événement ? (Les situations sont, dans le cas de cet article, les années-réacteurs ; et les événements sont les accidents majeurs.)

Une première idée est que la probabilité p doit être environ n/N. Pourtant, les observations que nous faisons sont aléatoires. Nous pouvons tomber par hasard sur un nombre d’événements particulièrement important ou, au contraire, particulièrement faible, pour des raisons liées au hasard. Pour donner une estimation de p un peu plus rigoureuse, il faut aller plus loin.

Lorsque N observations aléatoires sont faites à propos d’un événement de probabilité p, la « loi de probabilité » du nombre n d’événements constatés – qui est aléatoire – est connue. On l’appelle la loi binomiale de paramètres N et p. Grâce à la connaissance de cette loi, il nous est possible de déterminer un intervalle [pa, pb] qui contient p avec un risque d’erreur faible (5 % typiquement). Autrement dit, la méthode qui permet de déterminer l’intervalle [pa, pb] fonctionne dans 95 % des cas.

Pour en savoir plus, https://joseph.larmarange.net/?Inte... est un bon texte introductif.

Une raison de s’inquiéter ?

Le propos de Laponche et Dessus était de montrer que le risque d’accident nucléaire grave, malgré les discours lénifiants de l’administration, n’est pas faible. À la suite d’une série d’hypothèses non explicites, d’une grossière erreur statistique et de la négligence de certains problèmes d’échantillonnage, ils concluent à tort que cet accident est une « certitude ».

Pourtant, le fond du problème n’est pas dénué de sens et en négligeant les diverses entorses méthodologiques, on pourrait corriger leur conclusion de la manière suivante :

En supposant que la probabilité d’accident nucléaire reste constante au cours du temps et dans l’espace, nous pouvons dire avec une fiabilité de 80 % (autrement dit, en utilisant une méthode qui donne un résultat correct dans 80 % des cas) que la probabilité qu’il y ait, dans les trente prochaines années, au moins un accident nucléaire majeur en Europe, est comprise entre 35 % et 88 %. Ce résultat, bien plus raisonnable sur la méthode, est en lui-même inquiétant puisqu’il conduit à penser qu’un accident nucléaire majeur est loin d’être improbable... sans être pour autant une « certitude statistique ». Ce résultat reste toutefois éminemment discutable, puisqu’il est tributaire de plusieurs concessions méthodologiques importantes.

Pour finir, avouons que Laponche a habituellement un avis rationnel sur le nucléaire, et que son erreur relève plus de la bourde que de l’incompétence... mais peut-être est-elle révélatrice d’un aveuglement passionné.

La nécessité d’une perception équilibrée des risques technologiques

Dans un article documenté sur les conséquences du tsunami sur les sites industriels au Japon (hors sites nucléaires) Didier Pitrat1, chargé de mission au ministère du développement durable, souligne les paradoxes de l’information préventive des populations et s’interroge sur le lourd bilan humain au regard de la sophistication du dispositif d’alerte tsunami existant et du niveau de préparation des populations japonaises face à ce risque.

« Les vidéos et témoignages disponibles sur Internet montrent des personnes évacuant leur domicile dans les derniers instants, ou fuyant en voiture au mépris des consignes données depuis plusieurs décennies. L’alerte tsunami, lancée après le séisme survenu un peu plus d’un an avant au Chili, concernait 1,68 million de japonais, seuls 62 000 d’entre eux avaient rejoint les abris anti-tsunami. Des spécialistes parlent déjà du syndrome "Pierre et le Loup" ou du faux sentiment de sécurité apporté à la population par la présence d’ouvrages anti-tsunami dimensionnés pour ceux les plus fréquents, tous les 10 ans avec des vagues de 2 à 3 m, conjugué aux fréquentes fausses alertes du système en place. À l’heure où les mesures techniques de prévention toujours plus sophistiquées et des systèmes d’alerte performants sont installés pour rassurer les riverains des sites industriels à risques français, le comportement des populations côtières japonaises peut apporter des enseignements importants sur l’efficacité de l’information préventive. La tendance "naturelle" consistant à mettre en avant auprès du grand public l’efficacité de ces dispositifs face aux risques d’intensité moyenne les plus probables, ne doit pas masquer un message essentiel récemment rappelé par le président de l’ASN (Autorité de sûreté nucléaire) à propos du risque nucléaire : "personne ne peut garantir qu’il n’y aura jamais un accident grave en France". Comme pour les risques naturels, une perception équilibrée des risques technologiques par les riverains reste certainement l’une des clés de la bonne application de l’information préventive. »

Il n’est pas certain que l’atmosphère anxiogène qui a entouré le traitement médiatique de l’accident de Fukushima contribue à cette perception équilibrée.

Jean-Paul Krivine

1 Face au risque, n° 474 – Juin-Juillet 2011


Publié dans le n° 298 de la revue


Partager cet article


L' auteur

Nicolas Gauvrit

Chercheur en sciences cognitives au laboratoire Cognitions humaine et artificielle (CHArt) de l’École pratique des (...)

Plus d'informations