Skip to main content
logo
Lancer la vidéo

Cygnes noirs au-dessus de Fukushima

Numéro 4 Avril 2011 par Luc Barbé

avril 2011

En jan­vier 1697, l’explorateur néer­lan­dais Willem de Vla­mingh découvre en Aus­tra­lie des cygnes noirs (Cygnus atra­tus) en remon­tant une rivière incon­nue. Jusque-là, aucun Euro­péen n’avait jamais vu que des cygnes blancs. Sa sur­prise fut énorme. Notre connais­sance qui n’est basée que sur l’expérience n’est-elle pas fon­ciè­re­ment limi­tée ? La méta­phore a été uti­li­sée par Nas­sim Nicho­las Taleb, […]

En jan­vier 1697, l’explorateur néer­lan­dais Willem de Vla­mingh découvre en Aus­tra­lie des cygnes noirs (Cygnus atra­tus) en remon­tant une rivière incon­nue. Jusque-là, aucun Euro­péen n’avait jamais vu que des cygnes blancs. Sa sur­prise fut énorme. Notre connais­sance qui n’est basée que sur l’expérience n’est-elle pas fon­ciè­re­ment limi­tée ? La méta­phore a été uti­li­sée par Nas­sim Nicho­las Taleb, ancien agent de change à Wall Street et pro­fes­seur à l’université de New York, pour trai­ter des expli­ca­tions qui sont avan­cées à pos­té­rio­ri pour trai­ter des évè­ne­ments impré­vus1 ayant un grand impact. Selon Taleb, la vie de nos socié­tés est mar­quée bien plus qu’on ne le pense pas la sur­ve­nance d’une série de « cygnes noirs » qui per­turbent leur cours, quel que soit leur niveau d’organisation.

Nucléaire/finance même constat

La catas­trophe nucléaire de Fuku­shi­ma est-elle un « cygne noir » ? Pour les asso­cia­tions envi­ron­ne­men­tales, cela n’en est pas un. Cela fait long­temps qu’elles nous mettent en garde contre les risques d’un nou­vel acci­dent nucléaire grave. En revanche, pour Elec­tra­bel, les auto­ri­tés japo­naises de sécu­ri­té nucléaire, l’Agence inter­na­tio­nale de l’énergie ato­mique, cela ne fait pas de doute. N’est-ce pas étrange ? Ne devons-nous pas éton­ner qu’autant d’experts aient si mal éva­lué la situa­tion ? Pre­nons par exemple l’Agence de sécu­ri­té nucléaire japo­naise. En 2006, elle esti­mait à un sur cent-mille le risque d’un acci­dent grave en un an expo­sant les rive­rains d’une cen­trale nucléaire. Cinq ans plus tard, Fuku­shi­ma sur­ve­nait. Les experts s’étaient com­plè­te­ment trompés.

Pre­nez l’exemple de For­tis ou de Leh­man Bro­thers. Là aus­si les experts les plus com­pé­tents nous assu­raient que leurs pro­duits finan­ciers étaient les plus sûrs. Mais la crise finan­cière a mon­tré que leurs cal­culs n’étaient pas justes et qu’ils avaient sous-esti­mé les risques. Là aus­si, ceux-ci n’auraient pas dû dépas­ser un sur dix ou cent mille. Or dans le sec­teur nucléaire comme dans le sec­teur ban­caire, les consé­quences sont énormes pour toute la socié­té. Et c’est bien le cœur du pro­blème. Quel est l’impact quand cela échoue quand même ? La ques­tion se pose dans tous les sec­teurs. Si les câbles de l’ascenseur de Stré­py-Thieux cèdent, cela peut déclen­cher une catas­trophe et un drame humain ter­rible, mais l’ampleur du dom­mage sera bien moindre que celui géné­ré par la crise de For­tis ou par Fuku­shi­ma. L’ascenseur n’est pas « too big too fail ».

Accepter l’ignorance

C’est le centre de la démons­tra­tion de Taleb. Nous ne pou­vons pas tout savoir. Nous ne pou­vons pas éva­luer tous les risques. Bien plus, les « cygnes noirs » ne consti­tuent pas des risques que l’on peut éva­luer de manière scien­ti­fique. Il s’agit tout sim­ple­ment d’ignorance, d’une situa­tion où il est impos­sible d’évaluer la pos­si­bi­li­té de sur­ve­nance d’un évè­ne­ment très impor­tant, ce que des socié­tés aus­si mar­quées par la tech­no­lo­gie que le Japon ou l’Europe ont un mal fou à accep­ter. Parce que cela les ren­voie à l’état de néces­si­té auquel nos grands-parents étaient sou­mis et auquel la tech­nique est cen­sée nous avoir fait échap­per… Mais nous appre­nons sans cesse que l’imprévisible fait par­tie de la condi­tion humaine. Le nier conduit à la catas­trophe. Le recon­naitre peut nous ame­ner à des stra­té­gies nous per­met­tant de réagir à l’apparition de « cygnes noirs ». Autre­ment dit, alors que le pro­grès impli­quait jusqu’ici de ne pas accep­ter l’ignorance, nous devons par­ve­nir à une notion de pro­grès qui passe par l’acceptation de l’ignorance dans cer­tains domaines.

Taleb ne plaide pas pour un arrêt de toutes les acti­vi­tés com­por­tant des risques. Mais il nous invite à rendre nos sys­tèmes tech­no­lo­giques « robustes », afin d’être en mesure de sur­vivre aux « cygnes noirs ». Cela implique de pas­ser d’une ges­tion clas­sique des risques (« est-ce que la cuve du réac­teur est assez épaisse et le refroi­dis­se­ment d’urgence fonc­tionne-t-il ? ») à une ges­tion des « risques 2.0. » qui prend en compte les consé­quences pour l’ensemble de la socié­té d’un échec éven­tuel, même si le risque semble minime.

Des systèmes robustes

Exemple type : est-il rai­son­nable d’implanter six réac­teurs nucléaires dans un site comme celui de Fuku­shi­ma, avec pour consé­quence poten­tielle qu’en cas de pépin, des mil­lions de gens sont non seule­ment pri­vés d’électricité, mais doivent éga­le­ment prendre la fuite et que des mil­liers d’hectares sont ren­dus incul­ti­vables pen­dant des mil­liers d’années ? Il ne faut pas néces­sai­re­ment mettre un terme à tous les « grands sys­tèmes ». Non, il faut les revoir du point de vue de leur « robus­tesse », c’est-à-dire de leur capa­ci­té à résis­ter aux « cygnes noirs ». Et cela va bien plus loin que les stress-tests aux­quels il est ques­tion de sou­mettre les cen­trales nucléaires belges. Du reste, deux grandes banques irlan­daises avaient fran­chi sans pro­blème des stress-tests avaient d’être mises au bord du gouffre et ne devoir leur sur­vie qu’à une aide de l’État irlan­dais d’un mon­tant de dizaines de mil­liards d’euros.

Toutes les banques, toutes les grandes infra­struc­tures tech­niques ou finan­cières devraient être dotées d’une « touche Taleb », véri­fiant leur capa­ci­té à résis­ter aux « cygnes noirs ». Cela pren­dra du temps, de l’énergie et de la créa­ti­vi­té et for­ce­ra sans doute à des réformes sys­té­miques. Mais c’est aus­si une ques­tion de jus­tice. La fac­ture des failles de sys­tèmes qui ne sont pas robustes est ren­voyée qua­si sys­té­ma­ti­que­ment à des citoyens qui n’ont aucune res­pon­sa­bi­li­té. Nous devrons pro­ba­ble­ment payer tous la fac­ture de la crise ban­caire et la fac­ture de Fuku­shi­ma sera payée par des mil­lions de citoyens japo­nais (et par des dizaines de mil­lions de citoyens par­tout dans le monde qui devront payer des primes d’assurances plus éle­vées afin de com­bler les défi­cits des réassureurs).

Au XVIIe siècle, Willem de Vla­mingh vou­lut rap­por­ter quelques cygnes noirs aux Pays-Bas, mais les gra­cieux vola­tiles ne sur­vé­curent pas au voyage. L’explorateur, lui, tra­ver­sa moult tem­pêtes impré­vues et finit par ren­trer chez lui. Un capi­taine robuste sur un navire robuste.

  1. Nas­sim Nicho­las Taleb, Le cygne noir, La puis­sance de l’imprévisible, Les Belles Lettres, 2008.

Luc Barbé


Auteur