Skip to main content
logo
Lancer la vidéo

La numérisation de l’économie est-elle durable ?

Numéro 4 - 2017 par José Halloy

mai 2017

La minia­tu­ri­sa­tion du tran­sis­tor per­met la puis­sance de cal­cul des pro­ces­seurs. Cepen­dant, elle risque d’atteindre d’ici vingt ans une limite phy­sique fon­da­men­tale. Outre l’enjeu d’une effi­ca­ci­té éner­gé­tique et tech­nique encore mal prise en compte, la crois­sance de la consom­ma­tion élec­trique consti­tue une contrainte majeure sur le déve­lop­pe­ment de l’électronique. S’y ajoutent les contraintes liées aux stocks limi­tés des matières pre­mières, dont l’extraction et le raf­fi­nage sont extrê­me­ment cou­teux en éner­gie et ont un impact envi­ron­ne­men­tal néga­tif. Il faut donc réin­ven­ter la manière de construire les sys­tèmes élec­tro­niques afin de la rendre durables.

Dossier

Des inventions majeures au sortir de la Seconde Guerre mondiale

C’était à Aul­nay-sous-Bois, fau­bourg de Paris, de 1945 à 1948. Les phy­si­ciens alle­mands Her­bert F. Mata­ré et Hein­rich J. Wel­ker inven­taient le pre­mier tran­sis­tor fran­çais, appe­lé le « tran­sis­tron », basé sur des semi-conduc­teurs cris­tal­lins faits de ger­ma­nium. Inven­tion pour laquelle ils dépo­sèrent une demande de bre­vet le 13 aout 1948 à 15h44. De l’autre côté de l’Atlantique, à Mur­ray Hill dans le New Jer­sey près de New York City, dans les labo­ra­toires Bell, l’après-midi du 23 décembre 1947, Wal­ter Brat­tain fai­sait une démons­tra­tion à ses col­lègues d’un nou­veau tran­sis­tor réa­li­sé à par­tir d’un cris­tal de ger­ma­nium. En 1956, les cher­cheurs des Bell Labs, John Bar­deen, Wal­ter H. Brat­tain et William B. Sho­ck­ley reçurent le prix Nobel de phy­sique « pour leurs recherches sur les semi-conduc­teurs et leur décou­verte de l’effet tran­sis­tor ». Ces inven­tions conco­mi­tantes consti­tuent le début d’une révo­lu­tion indus­trielle majeure du XXe siècle sur laquelle reposent toutes les tech­no­lo­gies de cal­cul et de télé­com­mu­ni­ca­tion, autant dire la clé de voute du monde occi­den­tal actuel. Dès le début, le creu­set de ces inno­va­tions est celui des télé­com­mu­ni­ca­tions, à l’aube des appels télé­pho­niques inter­con­ti­nen­taux et des nou­veaux cal­cu­la­teurs élec­tro­niques, pas­sés à la pos­té­ri­té sous le nom d’ordinateur.

La conduc­ti­vi­té élec­trique d’un semi-conduc­teur est inter­mé­diaire entre celles des métaux et des iso­la­teurs. Cette conduc­ti­vi­té élec­trique peut être contrô­lée par dopage, c’est-à-dire en intro­dui­sant une petite quan­ti­té d’impuretés dans le maté­riau cris­tal­lin pur, pour pro­duire un excès ou un défi­cit d’électrons. Des semi-conduc­teurs dopés dif­fé­rem­ment peuvent être connec­tés pour créer des jonc­tions. Cela per­met de com­man­der la direc­tion et la quan­ti­té de cou­rant cir­cu­lant à tra­vers le dis­po­si­tif. Cette pro­prié­té est à la base du fonc­tion­ne­ment des com­po­sants de l’électronique moderne : diodes, tran­sis­tors, etc.

Je n’ai pas la place ici pour chan­ter l’épopée scien­ti­fique et tech­nique qui sui­vra en invo­quant des célé­bri­tés comme Claude Shan­non, expo­sé pour le moment au Musée des arts et métiers à Paris ou l’austère et bel­li­queux John von Neu­mann ou encore le mythique Alan Turing dont l’hagiographie existe tant au ciné­ma que dans la lit­té­ra­ture. Il ne fau­drait pas oublier les hordes d’ingénieurs astu­cieux et les cohortes de femmes, scien­ti­fiques et tech­ni­ciennes, qui fai­saient fonc­tion­ner ces nou­velles machines à cal­cu­ler et à com­mu­ni­quer, foules essen­tielles trop sou­vent délais­sées par l’histoire des sciences. Il s’agirait aus­si de conter les grandes sagas indus­trielles du domaine incluant les entre­prises phare de la Sili­con Val­ley aux États-Unis pour ne citer que les Intel Cor­po­ra­tion, Hew­lett Packard Enter­prise et autres Apple Com­pu­ter et les entre­prises d’ailleurs comme IBM, Texas Ins­tru­ments, Moto­ro­la et de ne pas oublier les indus­triels japo­nais (Toshi­ba, Nip­pon Elec­tric, Mat­su­shi­ta) et euro­péens (Sie­mens, AEG-Tele­fun­ken, Thom­son-CST, Sescosem).

Des améliorations techniques permettant des gains considérables d’échelle

Pour­tant, il est utile de rap­pe­ler les quelques prouesses tech­niques ver­ti­gi­neuses qui ont per­mis à l’électronique d’être omni­pré­sente dans le monde occi­den­tal. C’est tout d’abord l’énorme effi­ca­ci­té de minia­tu­ri­sa­tion, c’est-à-dire l’accroissement de la quan­ti­té de tran­sis­tors qu’il est pos­sible d’intégrer par uni­té de sur­face. Gor­don Moore, chi­miste, fon­da­teur en 1968 d’Intel avec Robert Noyce, phy­si­cien, inven­teur d’une ver­sion du cir­cuit inté­gré, for­mu­la une obser­va­tion empi­rique : le nombre de tran­sis­tors qu’il est pos­sible d’intégrer dans un cir­cuit double chaque année depuis le début des années 1970. De quelques mil­liers de tran­sis­tors en 1971, les pro­grès d’intégration per­mettent de pla­cer de nos jours quelque 3000 mil­liards de tran­sis­tors dans un cir­cuit inté­gré de quelques cen­taines de mil­li­mètres car­rés, pour les pro­ces­seurs de cal­cul. Cette fabu­leuse minia­tu­ri­sa­tion va per­mettre d’accroitre consi­dé­ra­ble­ment les capa­ci­tés de cal­cul et de trans­mis­sion de l’information et de pla­cer des cir­cuits inté­grés dans presque tous les dis­po­si­tifs tech­niques connus. Cepen­dant, il est pro­bable que nous arri­vons à la fin des capa­ci­tés d’intégration avec les tech­no­lo­gies connues. En effet, de nos jours un tran­sis­tor atteint la taille d’environ 7 nano­mètres. Un atome de sili­cium a une taille d’environ 0,22 nano­mètre de dia­mètre. Les pro­cé­dés de gra­vure les plus avan­cés per­mettent donc de construire sur envi­ron 32 atomes de sili­cium ! Nous attei­gnons les limites de ce qu’il est pos­sible de faire car en des­sous de cette échelle les effets quan­tiques, c’est-à-dire la phy­sique avec les chats de Schrö­din­ger et le reste, peuvent deve­nir instables pour le fonc­tion­ne­ment, à tem­pé­ra­ture ambiante, de l’électronique de calcul.

Ensuite, ces prouesses tech­niques pro­di­gieuses vont amé­lio­rer l’efficacité éner­gé­tique des puces com­po­sées de tran­sis­tors. Grâce à la minia­tu­ri­sa­tion, les puis­sances de cal­cul ont explo­sé. Les cal­cu­la­teurs passent de quelques mil­liers de cal­culs par seconde dans les années 1970 à quelques mil­liers de mil­liards d’instructions par seconde de nos jours. Paral­lè­le­ment, cette crois­sance for­mi­dable de la puis­sance de cal­cul s’accompagne d’une énorme amé­lio­ra­tion de l’efficacité éner­gé­tique. Début des années 1970, le nombre de cal­culs réa­li­sés par kWh était de quelques dizaines de mil­lions. De nos jours, un ordi­na­teur por­table peut faire de l’ordre de dix mil­lions de mil­liards de cal­culs par kWh. Un kilo­watt heure est une uni­té d’énergie qui cor­res­pond à 3,6 mil­lions de joules, soit 860 kilo­ca­lo­ries (nous man­geons envi­ron 2500 kilo­ca­lo­ries par jour) ou encore l’énergie libé­rée par com­bus­tion d’environ 100 mil­li­litres d’essence.

Ces deux fac­teurs tech­niques cor­ré­lés, minia­tu­ri­sa­tion et effi­ca­ci­té éner­gé­tique pour le cal­cul, ont per­mis, entre autres, l’invention des dis­po­si­tifs tech­niques per­son­nels et mobiles tels qu’ordinateurs et télé­phones por­tables ain­si que l’essor des ordi­na­teurs per­son­nels et leur inclu­sion fur­tive dans la télé­pho­nie fixe, la télé­vi­sion, la radio et la repro­duc­tion du son, de l’image et de la musique, pour ce qui concerne les appli­ca­tions grand public.

Des technologies devenues ubiquitaires

L’omniprésence de l’électronique dans notre vie quo­ti­dienne est donc due à des amé­lio­ra­tions tech­niques extra­or­di­naires qui, au cours des soixante der­nières années, ont mul­ti­plié par des mil­liards cer­taines pro­prié­tés clés de ces équi­pe­ments. Ces gains d’échelle inouïs équi­valent à pas­ser de la taille d’une mon­tagne à celle d’une bac­té­rie et sont sans doute sans pré­cé­dent dans l’histoire des tech­no­lo­gies. Cepen­dant, l’extrapolation pour les années qui viennent de ces pro­grès tech­niques semble atteindre des limites. L’amélioration des tech­no­lo­gies actuelles dépend de nou­velles décou­vertes en phy­sique et du dépas­se­ment de cer­taines limites phy­siques connues. Par exemple, à la vitesse actuelle d’amélioration, en 2041, il serait pos­sible d’atteindre la limite de Feyn­man, limite théo­rique fon­da­men­tale d’un tran­sis­tor com­po­sé de seule­ment trois atomes. Et ceci pour autant que l’on découvre la pos­si­bi­li­té tech­nique de le construire de manière stable, ce qui est loin d’être le cas actuel­le­ment. Ces contraintes phy­siques fortes font qu’il faut s’attendre à un ralen­tis­se­ment signi­fi­ca­tif, voire à une stag­na­tion, des pro­grès tech­niques concer­nant les semi-conduc­teurs néces­saires pour fabri­quer l’électronique et les cir­cuits intégrés.

Ces tech­no­lo­gies ont per­mis l’élaboration pro­gres­sive depuis les années 1970 d’une éco­no­mie numé­rique qui est basée sur la mise en place de grandes infra­struc­tures consom­ma­trices de matière et d’énergie. Ces infra­struc­tures sont les réseaux de télé­com­mu­ni­ca­tions, les réseaux infor­ma­tiques ain­si que les grands centres de trai­te­ments des don­nées (data cen­ter), véri­tables usines infor­ma­tiques à faire du cal­cul mas­sif pour un trai­te­ment rapide d’un flux d’information sans cesse gran­dis­sant. À ces grandes infra­struc­tures peuvent se connec­ter tous les ter­mi­naux des uti­li­sa­teurs. Ces ter­mi­naux indi­vi­duels de connexion sont, par exemple, les télé­phones et ordi­na­teurs por­tables, les ordi­na­teurs per­son­nels, les ser­veurs, les appa­reils domes­tiques tels que les télé­vi­seurs et les équi­pe­ments hifi. À cela, il faut ajou­ter l’ensemble des appa­reils élec­tro­mé­na­gers domes­tiques. Du côté indus­triel, il est dif­fi­cile, sinon impos­sible, de trou­ver une acti­vi­té qui n’est pas, peu ou prou, infor­ma­ti­sée. Le monde occi­den­tal repose donc sur un socle de dis­po­si­tifs tech­no­lo­giques deve­nus qua­si inévi­tables, basés sur l’électronique et en par­ti­cu­lier les cir­cuits inté­grés à base de tran­sis­tors. Ces dis­po­si­tifs sont deve­nus omni­pré­sents et indis­pen­sables au fonc­tion­ne­ment quo­ti­dien de nos sociétés.

Une consommation d’électricité importante et croissante

Dans un pre­mier temps, il faut esti­mer la consom­ma­tion élec­trique des prin­ci­pales infra­struc­tures. Cette esti­ma­tion est dif­fi­cile à réa­li­ser car il s’agit d’abord d’établir un inven­taire des appa­reils et des infra­struc­tures ins­tal­lés. Or, il s’agit d’activités indus­trielles pri­vées pour les­quelles il n’y a pas, ou peu, de sta­tis­tiques offi­cielles. Ensuite, il s’agit d’estimer une puis­sance asso­ciée à cha­cun des appa­reils sui­vant dif­fé­rentes hypo­thèses. Ces inven­taires et ces esti­ma­tions des puis­sances sont des sujets de recherche com­pli­qués tech­ni­que­ment. Selon les hypo­thèses, les don­nées récol­tées, la défi­ni­tion des péri­mètres tech­niques et les esti­ma­tions pré­sentent des incer­ti­tudes ce qui explique la varia­bi­li­té des esti­ma­tions pro­po­sées par dif­fé­rentes études.

Selon une étude euro­péenne (Lan­noo et al., 2013), la consom­ma­tion totale d’électricité des réseaux infor­ma­tiques et de com­mu­ni­ca­tion, des centres de don­nées et des ordi­na­teurs per­son­nels croît à un rythme de 6,6 % par an. Dans l’ensemble ces dis­po­si­tifs ont consom­mé envi­ron 930 TWh en 2012. Si cette éner­gie était pro­duite à par­tir d’énergie nucléaire, il fau­drait plus de 100 réac­teurs, comme ceux de Tihange en Bel­gique, pro­dui­sant 1 GW d’électricité. La part rela­tive de ces dis­po­si­tifs dans la consom­ma­tion mon­diale totale d’électricité s’est accrue pas­sant d’environ 4 % en 2007 à 4,7 % en 2012. Cette quan­ti­té d’électricité ne prend pas en compte la consom­ma­tion d’autres appa­reils tels que les télé­vi­seurs et leurs déco­deurs, les télé­phones, les péri­phé­riques audio et bien d’autres objets fonc­tion­nant à l’électricité et conte­nant de l’électronique.

La part d’électricité mon­diale consom­mée par ces infra­struc­tures infor­ma­tiques de base est donc impor­tante et en crois­sance depuis les années 1970. Or cette pro­por­tion n’est que la par­tie émer­gée de l’iceberg, il reste une mul­ti­tude d’appareils infor­ma­ti­sés comme les voi­tures, les objets du quo­ti­dien tels les pho­to­co­pieuses, les impri­mantes et les dis­po­si­tifs tech­niques indus­triels incluant de l’électronique. S’il reste pos­sible d’améliorer encore l’efficacité éner­gé­tique des semi-conduc­teurs, la soif gran­dis­sante d’une bande pas­sante de don­nées tou­jours plus éle­vée, la recherche de meilleures réso­lu­tions vidéo, le mou­ve­ment actuel vers le sto­ckage de tout dans le nuage (« cloud ») plu­tôt que loca­le­ment, la pos­si­bi­li­té de com­mu­ni­quer même avec des objets du quo­ti­dien sur Inter­net (« Inter­net des objets »), l’ensemble de ces ten­dances conti­nue­ra pro­ba­ble­ment à faire aug­men­ter la demande énergétique.

Pour la durabilité des technologies l’efficacité énergétique ne suffit pas

En termes de dura­bi­li­té, le débat actuel porte sur la nature sup­po­sée dif­fé­rente de l’économie numé­rique et la pos­si­bi­li­té qu’elle offri­rait de décou­pler crois­sance éco­no­mique et consom­ma­tion d’énergie. Depuis les années 2010 seule­ment, la dis­cus­sion s’est enfin élar­gie à la ques­tion de la consom­ma­tion des maté­riaux néces­saires et non renou­ve­lables pour construire et main­te­nir l’ensemble de ces dis­po­si­tifs tech­no­lo­giques. La for­mu­la­tion de Nicho­las Negro­ponte, pro­fes­seur d’informatique au Mas­sa­chu­setts Ins­ti­tute of Tech­no­lo­gy, est res­tée célèbre : il y a une dif­fé­rence fon­da­men­tale entre les atomes et les bits (chiffres binaires qui codent l’information). Les atomes com­posent la matière et celle-ci est lourde et coute cher à trans­por­ter. Les bits sont imma­té­riels, il est donc facile, rapide et peu cher de les trans­por­ter. Une éco­no­mie numé­rique com­mer­cia­li­sant des bits à haute valeur ajou­tée se libè­re­rait donc en grande par­tie des contraintes maté­rielles. Ce rai­son­ne­ment pour­rait être un exemple de la pen­sée dua­liste très pré­gnante dans l’informatique. Il y aurait d’un côté « l’intelligence », équi­valent de « l’esprit », et de l’autre le « corps » car il faut bien incor­po­rer cet « esprit» ; d’un côté le « soft­ware » et de l’autre le « hard­ware ». La consé­quence est une forte foca­li­sa­tion des pen­sées sur les algo­rithmes, les for­mu­la­tions mathé­ma­tiques de l’information, et la par­tie « corps », trop peu pen­sée, est lais­sée prin­ci­pa­le­ment aux ingé­nieurs. C’est cette incor­po­ra­tion, la nature du « corps », qui ne peut plus être lais­sée pour compte à l’aune des ques­tions de dura­bi­li­té et qui doit être repen­sée dans une pers­pec­tive non dua­liste. Ce dua­lisme est deve­nu nui­sible en termes de dura­bi­li­té, s’il s’agit de rendre les tech­no­lo­gies de trai­te­ment d’information durable, il fau­dra pen­ser « l’esprit » et les « corps » comme irré­mé­dia­ble­ment liés et réin­tro­duire les contraintes maté­rielles dans la concep­tion « d’esprits artificiels ».

L’efficacité éner­gé­tique et tech­nique, bien qu’utile, ne doit pas mas­quer que la mise en place des réseaux de télé­com­mu­ni­ca­tions et infor­ma­tiques cor­res­pond à un accrois­se­ment glo­bal de la consom­ma­tion d’énergie. Ce para­doxe de l’efficacité, aus­si appe­lé para­doxe de Jevons, ou effet rebond, est connu depuis la mise en œuvre des machines à vapeur grâce à la consom­ma­tion de char­bon. L’économiste et logi­cien anglais, William S. Jevons, l’un des fon­da­teurs de l’économie mathé­ma­tique en 1862, observe que les amé­lio­ra­tions tech­no­lo­giques qui accroissent l’efficacité de la consom­ma­tion du char­bon mènent à une consom­ma­tion accrue. Amé­lio­rer l’efficacité éner­gé­tique des machines pro­duit donc l’effet contre-intui­tif d’un accrois­se­ment glo­bal de la consom­ma­tion d’énergie. Rai­son­ner uni­que­ment en termes d’efficacité éner­gé­tique non seule­ment ne suf­fit pas, mais peut mener à des effets indésirables.

En 1922 le mathé­ma­ti­cien et bio­phy­si­cien amé­ri­cain d’origine aus­tro-hon­groise, Alfred James Lot­ka, reprend une consi­dé­ra­tion bio­lo­gique du phy­si­cien Lud­wig Boltz­mann qui for­mu­la l’interprétation sta­tis­tique de l’entropie. Ce rai­son­ne­ment, fon­dé sur la ther­mo­dy­na­mique, sti­pule qu’au cours de l’évolution bio­lo­gique les orga­nismes qui sont effi­caces pour cap­tu­rer l’énergie dis­po­nible dans un éco­sys­tème auront un avan­tage pour la pré­ser­va­tion de leur espèce. Pour autant que des sources de matière soient éga­le­ment dis­po­nibles, ces orga­nismes vont donc enva­hir l’écosystème car ils seront favo­ri­sés par la sélec­tion natu­relle. Le taux de cir­cu­la­tion de matière dans l’écosystème va éga­le­ment aug­men­ter par mul­ti­pli­ca­tion de l’organisme en ques­tion. Il est donc impor­tant de sou­li­gner que les amé­lio­ra­tions de l’efficacité éner­gé­tique pro­duisent un accrois­se­ment de la consom­ma­tion glo­bale d’énergie et de matière.

Mal­heu­reu­se­ment, les gains d’échelle des com­po­sants semi-conduc­teurs ne peuvent plus pro­duire les mêmes gains en termes de per­for­mance, d’efficacité et de réduc­tion des couts que par le pas­sé, à moins de per­cées tech­no­lo­giques radi­cales. Or les mar­chés de l’électronique ne cessent de s’élargir et enva­hissent toutes les acti­vi­tés éco­no­miques. De nou­veaux ser­vices comme l’internet des objets (poten­tiel­le­ment des mil­liards d’objets connec­tés), les tech­no­lo­gies dites « intel­li­gentes » comme les comp­teurs élec­triques intel­li­gents (éga­le­ment des mil­lions d’objets rien qu’en France), les trans­ports auto­nomes, col­lec­tifs ou indi­vi­duels, les villes dites « intel­li­gentes » par l’ajout de vastes réseaux de cap­teurs et d’analyses mas­sives de don­nées font tou­jours croitre le déploie­ment des sys­tèmes élec­tro­niques. Il faut donc s’attendre à une consom­ma­tion accrue d’électricité et de matière.

La quantité de matériaux nécessaires pour la fabrication est une contrainte forte

Il ne s’agit pas seule­ment de faire fonc­tion­ner « l’esprit » à l’électricité, les algo­rithmes et les cal­culs, encore faut-il fabri­quer et main­te­nir les « corps » qui reçoivent ces « esprits ». Depuis les années 1950 ces corps reposent sur les semi-conduc­teurs cris­tal­lins. Les tran­sis­tors sont des maté­riaux cris­tal­lins faits de métal­loïdes, prin­ci­pa­le­ment le ger­ma­nium (depuis 1947) et le sili­cium (depuis 1954). D’autres com­po­sés typi­que­ment uti­li­sés com­prennent l’arséniure de gal­lium, le car­bure de sili­cium, le sili­cium-ger­ma­nium. Les mêmes types de maté­riaux semi-conduc­teurs sont éga­le­ment uti­li­sés pour pro­duire l’électricité pho­to­vol­taïque et l’éclairage LED. Les tech­no­lo­gies infor­ma­tiques sont prin­ci­pa­le­ment basées sur les puces CMOS (semi-conduc­teur d’oxyde métal­lique com­plé­men­taire), MOSFET (tran­sis­tor à effet de champ à semi-conduc­teur en métal). Ces types de maté­riaux sont uti­li­sés pour fabri­quer les cir­cuits consti­tués de portes logiques qui forment l’architecture de base des cir­cuits intégrés.

La pre­mière étape de fabri­ca­tion est de pro­duire des blocs de très haute pure­té pour ensuite décou­per des disques minces en maté­riaux semi-conduc­teurs, tels que le sili­cium, l’arséniure de gal­lium ou le phos­phure d’indium. Ces disques servent de sup­port à la fabri­ca­tion des micro­struc­tures néces­saires par des tech­niques telles que le dopage, la gra­vure et le dépôt d’autres maté­riaux. Dif­fé­rents pro­cé­dés sont uti­li­sés pour doper le maté­riau de la tranche en ajou­tant, à très faible concen­tra­tion, de l’ordre des par­ties par mil­lion (ppm), d’autres élé­ments tels que le bore, l’arsenic, le phos­phore, le gal­lium, le germanium.

Ces pro­cé­dés de fabri­ca­tion ont des impli­ca­tions impor­tantes en termes de pos­si­bi­li­tés de recy­clage car plus la concen­tra­tion est faible, plus il est dif­fi­cile de sépa­rer les élé­ments. Le recy­clage est une acti­vi­té dif­fi­cile parce que l’électronique est basée sur de nom­breux types de maté­riaux et cer­tains d’entre eux sont en faible concen­tra­tion. Le corps d’un ordi­na­teur est aus­si une struc­ture com­plexe consti­tuée de cir­cuits inté­grés, de cartes élec­tro­niques et de dif­fé­rents types d’emballages en poly­mères syn­thé­tiques, ce qui rend dif­fi­cile leur démon­tage. Cha­cun des com­po­sants, tels que les cir­cuits inté­grés, est éga­le­ment une struc­ture com­plexe qui est dif­fi­cile à démon­ter, ce qui rend la sépa­ra­tion des pro­duits chi­miques dif­fi­cile. Ce qui explique en par­tie que les taux de recy­clage des élé­ments chi­miques impli­qués sont géné­ra­le­ment très faibles (Reck, 2012).

L’ensemble des dif­fé­rents élé­ments chi­miques uti­li­sés pour pro­duire des corps d’ordinateur com­prend près de 80% du tableau pério­dique des élé­ments (Grae­del 2012, Pei­ro 2013). L’obtention de ces élé­ments chi­miques, en par­ti­cu­lier ceux néces­saires à la fabri­ca­tion des pièces élec­tro­niques, devient de plus en plus cri­tique. Le carac­tère cri­tique des élé­ments chi­miques peut être envi­sa­gé selon trois axes : risque d’approvisionnement, impli­ca­tions envi­ron­ne­men­tales et vul­né­ra­bi­li­té aux res­tric­tions d’approvisionnement (Grae­del, 2015). En termes de risque d’approvisionnement seule­ment, les élé­ments chi­miques consi­dé­rés comme les plus cri­tiques sont le ger­ma­nium, l’indium, le thal­lium, l’arsenic, l’étain, le bis­muth, le sélé­nium, l’argent, le cad­mium. Ces élé­ments sont essen­tiels à la construc­tion de pièces élec­tro­niques conte­nues dans tous les dis­po­si­tifs tech­niques men­tion­nés ici.

Les taux d’extraction de métaux et de métal­loïdes par l’industrie minière ont été en constante aug­men­ta­tion au cours du XXe siècle. Presque tous les élé­ments extraits ont atteint leur plus haut niveau d’extraction, en termes his­to­riques, au cours des der­nières années. Ces taux d’extraction crois­sants ne semblent pas ralen­tir, mais plu­tôt s’accélérer, pro­ba­ble­ment en rai­son de l’essor des mar­chés grand public de l’électronique. La ten­dance actuelle de l’industrie est de mul­ti­plier les appa­reils élec­tro­niques par mil­liards. Par exemple, de 2007 à 2015, envi­ron 1,4 mil­liard de smart­phones ont été ven­dus dans le monde. Ces fac­teurs encou­ra­ge­ront encore plus d’exploitations minières pour pro­duire les élé­ments chi­miques néces­saires (Bar­di, 2014 ; Hein­berg, 2010).

Une industrie minière sans cesse grandissante et énergivore

Les quan­ti­tés de mine­rais qui peuvent être extraites sont qua­si­ment épui­sées et cor­res­pondent aux stocks créés par l’évolution géo­lo­gique de la Terre. Ces stocks de mine­rais sont éva­lués par des ins­ti­tu­tions telles que la Uni­ted States Geo­lo­gi­cal Sur­vey (USGS). Sur la base de ces quan­ti­tés géo­lo­giques esti­mées, en extra­po­lant à par­tir des taux actuels d’extraction, il est pos­sible d’évaluer quand toutes les réserves connues d’un élé­ment chi­mique don­né seront extraites (Douce, 2016). Sur la base de diverses hypo­thèses plau­sibles d’extrapolation des taux d’extraction, les der­nières années d’exploitation pour cer­tains des élé­ments les plus deman­dés auront lieu au cours du XXIe siècle (Hein­berg, 2010 ; Bar­di, 2014).

L’extraction d’éléments chi­miques à par­tir de mine­rais a éga­le­ment besoin d’importantes quan­ti­tés d’énergie pour leur extrac­tion ain­si que leur trai­te­ment phy­sique et chi­mique pour pro­duire des lin­gots de métaux et de métal­loïdes. En 2014, on esti­mait à 400 mil­lions de tonnes l’équivalent de pétrole (400 Mtep ou 18 mil­liards de GJ) pour l’extraction des élé­ments métal­liques et métal­loïdes. En com­pa­rai­son, la consom­ma­tion totale d’énergie de l’Union euro­péenne (vingt-huit États membres) était d’environ 1600 Mtep. Ain­si, l’industrie minière mobi­li­sée pour pro­duire les matières pre­mières néces­saires à la fabri­ca­tion des maté­riaux com­plexes indis­pen­sables pour pro­duire de l’électronique consomme une part impor­tante de l’énergie. Les prin­ci­pales sources d’énergie uti­li­sées par l’industrie minière sont le char­bon et le pétrole. Par ailleurs, les concen­tra­tions en mine­rais exploi­tés dimi­nuent ce qui rend l’exploitation des mines de moins en moins ren­table. Il est à noter que pour la pro­duc­tion d’électricité sup­po­sée renou­ve­lable, il existe le même type de risque d’épuisement maté­riel, ce qui sus­cite des inquié­tudes quant à la dura­bi­li­té réelle de l’électricité pho­to­vol­taïque et des éoliennes (Fizaine, 2015).

L’électronique et la numérisation comme facteurs de résilience faible

Tous ces fac­teurs per­mettent de conclure que, en termes d’énergie et de maté­riaux, les tech­no­lo­gies infor­ma­tiques actuelles ne sont pas durables à long terme. Les ten­sions sur les consom­ma­tions d’énergie et de matière auront lieu au cours de ce siècle. Il existe un besoin crois­sant et pres­sant de réin­ven­ter la manière dont nous construi­sons des sys­tèmes élec­tro­niques, y com­pris des ordi­na­teurs et des robots, afin de les rendre durables. De nom­breuses incer­ti­tudes per­sistent, ce qui rend dif­fi­cile une stra­té­gie pros­pec­tive. Cepen­dant, la lit­té­ra­ture scien­ti­fique recon­nait que des limites impor­tantes seront atteintes au cours du XXIe siècle et que cette ques­tion est éga­le­ment étroi­te­ment liée à celles du chan­ge­ment cli­ma­tique et de la tran­si­tion éner­gé­tique. Compte tenu du temps néces­saire au déve­lop­pe­ment scien­ti­fique et tech­no­lo­gique, cela signi­fie que les recherches néces­saires pour déve­lop­per des solu­tions alter­na­tives doivent être entre­prises le plus tôt pos­sible et de manière intensive.

José Halloy


Auteur

professeur des universités en physique, université Paris Diderot