Skip to main content
Lancer la vidéo

La numérisation de l’économie est-elle durable ?

Numéro 4 - 2017 par José Halloy

mai 2017

La miniaturisation du transistor permet la puissance de calcul des processeurs. Cependant, elle risque d’atteindre d’ici vingt ans une limite physique fondamentale. Outre l’enjeu d’une efficacité énergétique et technique encore mal prise en compte, la croissance de la consommation électrique constitue une contrainte majeure sur le développement de l’électronique. S’y ajoutent les contraintes liées aux stocks limités des matières premières, dont l’extraction et le raffinage sont extrêmement couteux en énergie et ont un impact environnemental négatif. Il faut donc réinventer la manière de construire les systèmes électroniques afin de la rendre durables.

Dossier

Des inventions majeures au sortir de la Seconde Guerre mondiale

C’était à Aulnay-sous-Bois, faubourg de Paris, de 1945 à 1948. Les physiciens allemands Herbert F. Mataré et Heinrich J. Welker inventaient le premier transistor français, appelé le « transistron », basé sur des semi-conducteurs cristallins faits de germanium. Invention pour laquelle ils déposèrent une demande de brevet le 13 aout 1948 à 15h44. De l’autre côté de l’Atlantique, à Murray Hill dans le New Jersey près de New York City, dans les laboratoires Bell, l’après-midi du 23 décembre 1947, Walter Brattain faisait une démonstration à ses collègues d’un nouveau transistor réalisé à partir d’un cristal de germanium. En 1956, les chercheurs des Bell Labs, John Bardeen, Walter H. Brattain et William B. Shockley reçurent le prix Nobel de physique « pour leurs recherches sur les semi-conducteurs et leur découverte de l’effet transistor ». Ces inventions concomitantes constituent le début d’une révolution industrielle majeure du XXe siècle sur laquelle reposent toutes les technologies de calcul et de télécommunication, autant dire la clé de voute du monde occidental actuel. Dès le début, le creuset de ces innovations est celui des télécommunications, à l’aube des appels téléphoniques intercontinentaux et des nouveaux calculateurs électroniques, passés à la postérité sous le nom d’ordinateur.

La conductivité électrique d’un semi-conducteur est intermédiaire entre celles des métaux et des isolateurs. Cette conductivité électrique peut être contrôlée par dopage, c’est-à-dire en introduisant une petite quantité d’impuretés dans le matériau cristallin pur, pour produire un excès ou un déficit d’électrons. Des semi-conducteurs dopés différemment peuvent être connectés pour créer des jonctions. Cela permet de commander la direction et la quantité de courant circulant à travers le dispositif. Cette propriété est à la base du fonctionnement des composants de l’électronique moderne : diodes, transistors, etc.

Je n’ai pas la place ici pour chanter l’épopée scientifique et technique qui suivra en invoquant des célébrités comme Claude Shannon, exposé pour le moment au Musée des arts et métiers à Paris ou l’austère et belliqueux John von Neumann ou encore le mythique Alan Turing dont l’hagiographie existe tant au cinéma que dans la littérature. Il ne faudrait pas oublier les hordes d’ingénieurs astucieux et les cohortes de femmes, scientifiques et techniciennes, qui faisaient fonctionner ces nouvelles machines à calculer et à communiquer, foules essentielles trop souvent délaissées par l’histoire des sciences. Il s’agirait aussi de conter les grandes sagas industrielles du domaine incluant les entreprises phare de la Silicon Valley aux États-Unis pour ne citer que les Intel Corporation, Hewlett Packard Enterprise et autres Apple Computer et les entreprises d’ailleurs comme IBM, Texas Instruments, Motorola et de ne pas oublier les industriels japonais (Toshiba, Nippon Electric, Matsushita) et européens (Siemens, AEG-Telefunken, Thomson-CST, Sescosem).

Des améliorations techniques permettant des gains considérables d’échelle

Pourtant, il est utile de rappeler les quelques prouesses techniques vertigineuses qui ont permis à l’électronique d’être omniprésente dans le monde occidental. C’est tout d’abord l’énorme efficacité de miniaturisation, c’est-à-dire l’accroissement de la quantité de transistors qu’il est possible d’intégrer par unité de surface. Gordon Moore, chimiste, fondateur en 1968 d’Intel avec Robert Noyce, physicien, inventeur d’une version du circuit intégré, formula une observation empirique : le nombre de transistors qu’il est possible d’intégrer dans un circuit double chaque année depuis le début des années 1970. De quelques milliers de transistors en 1971, les progrès d’intégration permettent de placer de nos jours quelque 3000 milliards de transistors dans un circuit intégré de quelques centaines de millimètres carrés, pour les processeurs de calcul. Cette fabuleuse miniaturisation va permettre d’accroitre considérablement les capacités de calcul et de transmission de l’information et de placer des circuits intégrés dans presque tous les dispositifs techniques connus. Cependant, il est probable que nous arrivons à la fin des capacités d’intégration avec les technologies connues. En effet, de nos jours un transistor atteint la taille d’environ 7 nanomètres. Un atome de silicium a une taille d’environ 0,22 nanomètre de diamètre. Les procédés de gravure les plus avancés permettent donc de construire sur environ 32 atomes de silicium ! Nous atteignons les limites de ce qu’il est possible de faire car en dessous de cette échelle les effets quantiques, c’est-à-dire la physique avec les chats de Schrödinger et le reste, peuvent devenir instables pour le fonctionnement, à température ambiante, de l’électronique de calcul.

Ensuite, ces prouesses techniques prodigieuses vont améliorer l’efficacité énergétique des puces composées de transistors. Grâce à la miniaturisation, les puissances de calcul ont explosé. Les calculateurs passent de quelques milliers de calculs par seconde dans les années 1970 à quelques milliers de milliards d’instructions par seconde de nos jours. Parallèlement, cette croissance formidable de la puissance de calcul s’accompagne d’une énorme amélioration de l’efficacité énergétique. Début des années 1970, le nombre de calculs réalisés par kWh était de quelques dizaines de millions. De nos jours, un ordinateur portable peut faire de l’ordre de dix millions de milliards de calculs par kWh. Un kilowatt heure est une unité d’énergie qui correspond à 3,6 millions de joules, soit 860 kilocalories (nous mangeons environ 2500 kilocalories par jour) ou encore l’énergie libérée par combustion d’environ 100 millilitres d’essence.

Ces deux facteurs techniques corrélés, miniaturisation et efficacité énergétique pour le calcul, ont permis, entre autres, l’invention des dispositifs techniques personnels et mobiles tels qu’ordinateurs et téléphones portables ainsi que l’essor des ordinateurs personnels et leur inclusion furtive dans la téléphonie fixe, la télévision, la radio et la reproduction du son, de l’image et de la musique, pour ce qui concerne les applications grand public.

Des technologies devenues ubiquitaires

L’omniprésence de l’électronique dans notre vie quotidienne est donc due à des améliorations techniques extraordinaires qui, au cours des soixante dernières années, ont multiplié par des milliards certaines propriétés clés de ces équipements. Ces gains d’échelle inouïs équivalent à passer de la taille d’une montagne à celle d’une bactérie et sont sans doute sans précédent dans l’histoire des technologies. Cependant, l’extrapolation pour les années qui viennent de ces progrès techniques semble atteindre des limites. L’amélioration des technologies actuelles dépend de nouvelles découvertes en physique et du dépassement de certaines limites physiques connues. Par exemple, à la vitesse actuelle d’amélioration, en 2041, il serait possible d’atteindre la limite de Feynman, limite théorique fondamentale d’un transistor composé de seulement trois atomes. Et ceci pour autant que l’on découvre la possibilité technique de le construire de manière stable, ce qui est loin d’être le cas actuellement. Ces contraintes physiques fortes font qu’il faut s’attendre à un ralentissement significatif, voire à une stagnation, des progrès techniques concernant les semi-conducteurs nécessaires pour fabriquer l’électronique et les circuits intégrés.

Ces technologies ont permis l’élaboration progressive depuis les années 1970 d’une économie numérique qui est basée sur la mise en place de grandes infrastructures consommatrices de matière et d’énergie. Ces infrastructures sont les réseaux de télécommunications, les réseaux informatiques ainsi que les grands centres de traitements des données (data center), véritables usines informatiques à faire du calcul massif pour un traitement rapide d’un flux d’information sans cesse grandissant. À ces grandes infrastructures peuvent se connecter tous les terminaux des utilisateurs. Ces terminaux individuels de connexion sont, par exemple, les téléphones et ordinateurs portables, les ordinateurs personnels, les serveurs, les appareils domestiques tels que les téléviseurs et les équipements hifi. À cela, il faut ajouter l’ensemble des appareils électroménagers domestiques. Du côté industriel, il est difficile, sinon impossible, de trouver une activité qui n’est pas, peu ou prou, informatisée. Le monde occidental repose donc sur un socle de dispositifs technologiques devenus quasi inévitables, basés sur l’électronique et en particulier les circuits intégrés à base de transistors. Ces dispositifs sont devenus omniprésents et indispensables au fonctionnement quotidien de nos sociétés.

Une consommation d’électricité importante et croissante

Dans un premier temps, il faut estimer la consommation électrique des principales infrastructures. Cette estimation est difficile à réaliser car il s’agit d’abord d’établir un inventaire des appareils et des infrastructures installés. Or, il s’agit d’activités industrielles privées pour lesquelles il n’y a pas, ou peu, de statistiques officielles. Ensuite, il s’agit d’estimer une puissance associée à chacun des appareils suivant différentes hypothèses. Ces inventaires et ces estimations des puissances sont des sujets de recherche compliqués techniquement. Selon les hypothèses, les données récoltées, la définition des périmètres techniques et les estimations présentent des incertitudes ce qui explique la variabilité des estimations proposées par différentes études.

Selon une étude européenne (Lannoo et al., 2013), la consommation totale d’électricité des réseaux informatiques et de communication, des centres de données et des ordinateurs personnels croît à un rythme de 6,6 % par an. Dans l’ensemble ces dispositifs ont consommé environ 930 TWh en 2012. Si cette énergie était produite à partir d’énergie nucléaire, il faudrait plus de 100 réacteurs, comme ceux de Tihange en Belgique, produisant 1 GW d’électricité. La part relative de ces dispositifs dans la consommation mondiale totale d’électricité s’est accrue passant d’environ 4 % en 2007 à 4,7 % en 2012. Cette quantité d’électricité ne prend pas en compte la consommation d’autres appareils tels que les téléviseurs et leurs décodeurs, les téléphones, les périphériques audio et bien d’autres objets fonctionnant à l’électricité et contenant de l’électronique.

La part d’électricité mondiale consommée par ces infrastructures informatiques de base est donc importante et en croissance depuis les années 1970. Or cette proportion n’est que la partie émergée de l’iceberg, il reste une multitude d’appareils informatisés comme les voitures, les objets du quotidien tels les photocopieuses, les imprimantes et les dispositifs techniques industriels incluant de l’électronique. S’il reste possible d’améliorer encore l’efficacité énergétique des semi-conducteurs, la soif grandissante d’une bande passante de données toujours plus élevée, la recherche de meilleures résolutions vidéo, le mouvement actuel vers le stockage de tout dans le nuage (« cloud ») plutôt que localement, la possibilité de communiquer même avec des objets du quotidien sur Internet (« Internet des objets »), l’ensemble de ces tendances continuera probablement à faire augmenter la demande énergétique.

Pour la durabilité des technologies l’efficacité énergétique ne suffit pas

En termes de durabilité, le débat actuel porte sur la nature supposée différente de l’économie numérique et la possibilité qu’elle offrirait de découpler croissance économique et consommation d’énergie. Depuis les années 2010 seulement, la discussion s’est enfin élargie à la question de la consommation des matériaux nécessaires et non renouvelables pour construire et maintenir l’ensemble de ces dispositifs technologiques. La formulation de Nicholas Negroponte, professeur d’informatique au Massachusetts Institute of Technology, est restée célèbre : il y a une différence fondamentale entre les atomes et les bits (chiffres binaires qui codent l’information). Les atomes composent la matière et celle-ci est lourde et coute cher à transporter. Les bits sont immatériels, il est donc facile, rapide et peu cher de les transporter. Une économie numérique commercialisant des bits à haute valeur ajoutée se libèrerait donc en grande partie des contraintes matérielles. Ce raisonnement pourrait être un exemple de la pensée dualiste très prégnante dans l’informatique. Il y aurait d’un côté « l’intelligence », équivalent de « l’esprit », et de l’autre le « corps » car il faut bien incorporer cet « esprit» ; d’un côté le « software » et de l’autre le « hardware ». La conséquence est une forte focalisation des pensées sur les algorithmes, les formulations mathématiques de l’information, et la partie « corps », trop peu pensée, est laissée principalement aux ingénieurs. C’est cette incorporation, la nature du « corps », qui ne peut plus être laissée pour compte à l’aune des questions de durabilité et qui doit être repensée dans une perspective non dualiste. Ce dualisme est devenu nuisible en termes de durabilité, s’il s’agit de rendre les technologies de traitement d’information durable, il faudra penser « l’esprit » et les « corps » comme irrémédiablement liés et réintroduire les contraintes matérielles dans la conception « d’esprits artificiels ».

L’efficacité énergétique et technique, bien qu’utile, ne doit pas masquer que la mise en place des réseaux de télécommunications et informatiques correspond à un accroissement global de la consommation d’énergie. Ce paradoxe de l’efficacité, aussi appelé paradoxe de Jevons, ou effet rebond, est connu depuis la mise en œuvre des machines à vapeur grâce à la consommation de charbon. L’économiste et logicien anglais, William S. Jevons, l’un des fondateurs de l’économie mathématique en 1862, observe que les améliorations technologiques qui accroissent l’efficacité de la consommation du charbon mènent à une consommation accrue. Améliorer l’efficacité énergétique des machines produit donc l’effet contre-intuitif d’un accroissement global de la consommation d’énergie. Raisonner uniquement en termes d’efficacité énergétique non seulement ne suffit pas, mais peut mener à des effets indésirables.

En 1922 le mathématicien et biophysicien américain d’origine austro-hongroise, Alfred James Lotka, reprend une considération biologique du physicien Ludwig Boltzmann qui formula l’interprétation statistique de l’entropie. Ce raisonnement, fondé sur la thermodynamique, stipule qu’au cours de l’évolution biologique les organismes qui sont efficaces pour capturer l’énergie disponible dans un écosystème auront un avantage pour la préservation de leur espèce. Pour autant que des sources de matière soient également disponibles, ces organismes vont donc envahir l’écosystème car ils seront favorisés par la sélection naturelle. Le taux de circulation de matière dans l’écosystème va également augmenter par multiplication de l’organisme en question. Il est donc important de souligner que les améliorations de l’efficacité énergétique produisent un accroissement de la consommation globale d’énergie et de matière.

Malheureusement, les gains d’échelle des composants semi-conducteurs ne peuvent plus produire les mêmes gains en termes de performance, d’efficacité et de réduction des couts que par le passé, à moins de percées technologiques radicales. Or les marchés de l’électronique ne cessent de s’élargir et envahissent toutes les activités économiques. De nouveaux services comme l’internet des objets (potentiellement des milliards d’objets connectés), les technologies dites « intelligentes » comme les compteurs électriques intelligents (également des millions d’objets rien qu’en France), les transports autonomes, collectifs ou individuels, les villes dites « intelligentes » par l’ajout de vastes réseaux de capteurs et d’analyses massives de données font toujours croitre le déploiement des systèmes électroniques. Il faut donc s’attendre à une consommation accrue d’électricité et de matière.

La quantité de matériaux nécessaires pour la fabrication est une contrainte forte

Il ne s’agit pas seulement de faire fonctionner « l’esprit » à l’électricité, les algorithmes et les calculs, encore faut-il fabriquer et maintenir les « corps » qui reçoivent ces « esprits ». Depuis les années 1950 ces corps reposent sur les semi-conducteurs cristallins. Les transistors sont des matériaux cristallins faits de métalloïdes, principalement le germanium (depuis 1947) et le silicium (depuis 1954). D’autres composés typiquement utilisés comprennent l’arséniure de gallium, le carbure de silicium, le silicium-germanium. Les mêmes types de matériaux semi-conducteurs sont également utilisés pour produire l’électricité photovoltaïque et l’éclairage LED. Les technologies informatiques sont principalement basées sur les puces CMOS (semi-conducteur d’oxyde métallique complémentaire), MOSFET (transistor à effet de champ à semi-conducteur en métal). Ces types de matériaux sont utilisés pour fabriquer les circuits constitués de portes logiques qui forment l’architecture de base des circuits intégrés.

La première étape de fabrication est de produire des blocs de très haute pureté pour ensuite découper des disques minces en matériaux semi-conducteurs, tels que le silicium, l’arséniure de gallium ou le phosphure d’indium. Ces disques servent de support à la fabrication des microstructures nécessaires par des techniques telles que le dopage, la gravure et le dépôt d’autres matériaux. Différents procédés sont utilisés pour doper le matériau de la tranche en ajoutant, à très faible concentration, de l’ordre des parties par million (ppm), d’autres éléments tels que le bore, l’arsenic, le phosphore, le gallium, le germanium.

Ces procédés de fabrication ont des implications importantes en termes de possibilités de recyclage car plus la concentration est faible, plus il est difficile de séparer les éléments. Le recyclage est une activité difficile parce que l’électronique est basée sur de nombreux types de matériaux et certains d’entre eux sont en faible concentration. Le corps d’un ordinateur est aussi une structure complexe constituée de circuits intégrés, de cartes électroniques et de différents types d’emballages en polymères synthétiques, ce qui rend difficile leur démontage. Chacun des composants, tels que les circuits intégrés, est également une structure complexe qui est difficile à démonter, ce qui rend la séparation des produits chimiques difficile. Ce qui explique en partie que les taux de recyclage des éléments chimiques impliqués sont généralement très faibles (Reck, 2012).

L’ensemble des différents éléments chimiques utilisés pour produire des corps d’ordinateur comprend près de 80% du tableau périodique des éléments (Graedel 2012, Peiro 2013). L’obtention de ces éléments chimiques, en particulier ceux nécessaires à la fabrication des pièces électroniques, devient de plus en plus critique. Le caractère critique des éléments chimiques peut être envisagé selon trois axes : risque d’approvisionnement, implications environnementales et vulnérabilité aux restrictions d’approvisionnement (Graedel, 2015). En termes de risque d’approvisionnement seulement, les éléments chimiques considérés comme les plus critiques sont le germanium, l’indium, le thallium, l’arsenic, l’étain, le bismuth, le sélénium, l’argent, le cadmium. Ces éléments sont essentiels à la construction de pièces électroniques contenues dans tous les dispositifs techniques mentionnés ici.

Les taux d’extraction de métaux et de métalloïdes par l’industrie minière ont été en constante augmentation au cours du XXe siècle. Presque tous les éléments extraits ont atteint leur plus haut niveau d’extraction, en termes historiques, au cours des dernières années. Ces taux d’extraction croissants ne semblent pas ralentir, mais plutôt s’accélérer, probablement en raison de l’essor des marchés grand public de l’électronique. La tendance actuelle de l’industrie est de multiplier les appareils électroniques par milliards. Par exemple, de 2007 à 2015, environ 1,4 milliard de smartphones ont été vendus dans le monde. Ces facteurs encourageront encore plus d’exploitations minières pour produire les éléments chimiques nécessaires (Bardi, 2014 ; Heinberg, 2010).

Une industrie minière sans cesse grandissante et énergivore

Les quantités de minerais qui peuvent être extraites sont quasiment épuisées et correspondent aux stocks créés par l’évolution géologique de la Terre. Ces stocks de minerais sont évalués par des institutions telles que la United States Geological Survey (USGS). Sur la base de ces quantités géologiques estimées, en extrapolant à partir des taux actuels d’extraction, il est possible d’évaluer quand toutes les réserves connues d’un élément chimique donné seront extraites (Douce, 2016). Sur la base de diverses hypothèses plausibles d’extrapolation des taux d’extraction, les dernières années d’exploitation pour certains des éléments les plus demandés auront lieu au cours du XXIe siècle (Heinberg, 2010 ; Bardi, 2014).

L’extraction d’éléments chimiques à partir de minerais a également besoin d’importantes quantités d’énergie pour leur extraction ainsi que leur traitement physique et chimique pour produire des lingots de métaux et de métalloïdes. En 2014, on estimait à 400 millions de tonnes l’équivalent de pétrole (400 Mtep ou 18 milliards de GJ) pour l’extraction des éléments métalliques et métalloïdes. En comparaison, la consommation totale d’énergie de l’Union européenne (vingt-huit États membres) était d’environ 1600 Mtep. Ainsi, l’industrie minière mobilisée pour produire les matières premières nécessaires à la fabrication des matériaux complexes indispensables pour produire de l’électronique consomme une part importante de l’énergie. Les principales sources d’énergie utilisées par l’industrie minière sont le charbon et le pétrole. Par ailleurs, les concentrations en minerais exploités diminuent ce qui rend l’exploitation des mines de moins en moins rentable. Il est à noter que pour la production d’électricité supposée renouvelable, il existe le même type de risque d’épuisement matériel, ce qui suscite des inquiétudes quant à la durabilité réelle de l’électricité photovoltaïque et des éoliennes (Fizaine, 2015).

L’électronique et la numérisation comme facteurs de résilience faible

Tous ces facteurs permettent de conclure que, en termes d’énergie et de matériaux, les technologies informatiques actuelles ne sont pas durables à long terme. Les tensions sur les consommations d’énergie et de matière auront lieu au cours de ce siècle. Il existe un besoin croissant et pressant de réinventer la manière dont nous construisons des systèmes électroniques, y compris des ordinateurs et des robots, afin de les rendre durables. De nombreuses incertitudes persistent, ce qui rend difficile une stratégie prospective. Cependant, la littérature scientifique reconnait que des limites importantes seront atteintes au cours du XXIe siècle et que cette question est également étroitement liée à celles du changement climatique et de la transition énergétique. Compte tenu du temps nécessaire au développement scientifique et technologique, cela signifie que les recherches nécessaires pour développer des solutions alternatives doivent être entreprises le plus tôt possible et de manière intensive.

José Halloy


Auteur

professeur des universités en physique, université Paris Diderot
La Revue Nouvelle
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.