Skip to main content
logo
Lancer la vidéo

Nanoéthique, entre mythe et science

Numéro 11 Novembre 2011 par Mylène Botbol-Baum

octobre 2011

Une archéo­lo­gie du concept et de ses effets sur nos repré­sen­ta­tions s’im­pose avant d’é­vo­quer son impact sur notre manière d’é­va­luer, en termes éthiques, ces tech­no­lo­gies conver­gentes et leur appro­pria­tion ima­gi­naire par le post­hu­ma­nisme, qui s’ap­puie sur la cyber­né­tique et les nanos­ciences pour nour­rir le vieux rêve idéa­liste du dépas­se­ment du déter­mi­nisme bio­lo­gique. Cette asso­cia­tion signale la néces­si­té de repen­ser un modèle de réflexion éthique qui dépasse la simple éthique procédurale.

Les nanos­ciences et les nano­tech­no­lo­gies peuvent être défi­nies comme les sciences et les tech­no­lo­gies des sys­tèmes nano­sco­piques. Le pré­fixe nano ren­voie ici à la lon­gueur d’un nano­mètre, égal à un mil­lième de micron, soit un mil­lio­nième de mil­li­mètre, c’est-à-dire un mil­liar­dième de mètre.

Les nanos­ciences ras­semblent donc, comme le sug­gère leur éty­mo­lo­gie (du grec « nain »), les sciences des très petites échelles de lon­gueur. Comme la phy­sique quan­tique, elles nous pré­ci­pitent dans un autre monde, que nous ne pou­vons per­ce­voir à l’aide des prin­cipes qui orga­nisent notre com­pré­hen­sion du monde macroscopique.

Les nanos­ciences mettent en évi­dence un pou­voir fic­tion­nel de la rai­son scien­ti­fique qui est ins­crit dans la phy­sique contem­po­raine. L’expérience nano ou micro­phy­sique ne tra­duit pas une réa­li­té don­née et stable. De plus, elles nous forcent à pen­ser comme pro­ba­bi­li­té pen­sée mathé­ma­ti­que­ment avant d’être réa­li­sée expé­ri­men­ta­le­ment. Comme le disait déjà Bache­lard1, il faut, à cette échelle, pen­ser le réel à par­tir du pro­bable. À l’échelle cor­pus­cu­laire, l’intuition sen­sible n’a aucune prise sur les phé­no­mènes, et notre inter­ven­tion ins­tru­men­tale modi­fie l’objet cor­pus­cu­laire étu­dié, lequel n’existe que par l’expérimentation tech­nique. Ces nou­veaux objets appar­tiennent à un monde qui échappe à notre appré­hen­sion empi­rique. Le micro­phé­no­mène est construit de toutes pièces, il n’est jamais don­né. L’exemple du neu­tri­no en est l’archétype. Cette par­ti­cule élu­sive est née de cal­culs théo­riques et a été pos­tu­lée ration­nel­le­ment. Elle sup­pose un sché­ma­tisme à prio­ri qui per­met d’imaginer de nou­velles hypothèses.

Rompre avec l’expérience commune

Les nanos­ciences se situent à une autre échelle que celle de notre expé­rience phé­no­mé­nale. Elles exigent une rup­ture face aux cadres de pen­sée de l’expérience com­mune. Cela exige de modi­fier nos modes d’appréhension de la réa­li­té, car notre intui­tion basée sur l’expérience n’est plus valable pour ima­gi­ner, par exemple, le sens de la nano­fa­bri­ca­tion d’objets par les tech­nos­ciences. De plus, les nanos­ciences pro­posent une alter­na­tive à la seule minia­tu­ri­sa­tion, celle de la com­plexi­fi­ca­tion et de l’auto-organisation : « Il s’agit, à par­tir de la mise en œuvre de sys­tèmes chi­miques pro­gram­més, de lais­ser le dis­po­si­tif supra-molé­cu­laire s’édifier lui-même dans le sens d’une auto-fabri­ca­tion à par­tir d’unités molé­cu­laires trans­por­tant les infor­ma­tions requises », selon l’école de Prigogine.

Nous navi­guons dans une zone mal défi­nie entre mondes clas­sique et quan­tique. La dif­fé­rence essen­tielle se situe dans cette pos­si­bi­li­té de mani­pu­ler tech­no­lo­gi­que­ment des nano­tubes, par exemple, ou de mani­pu­ler la matière à l’échelle nano­mé­trique avec des appli­ca­tions tech­no-indus­trielles qui se sont éten­dues len­te­ment à la nano­mé­de­cine, le lieu où l’évaluation des risques et des béné­fices est le plus exigeant.

Mais ce qui semble spé­ci­fique aux nano-objets est qu’ils ne sont pas que le résul­tat d’équations et pro­duisent des effets dans le monde macro­sco­pique, dif­fi­ci­le­ment contrô­lables ou mesu­rables par cha­cun d’entre nous. Le modèle déli­bé­ra­tif de l’éthique de la dis­cus­sion semble peu appro­prié à régu­ler les effets de cette tech­no­lo­gie par le simple prin­cipe de précaution.

Le micro­scope à effet tun­nel per­met de voir les atomes à leur propre échelle, bien qu’il semble abu­sif de par­ler de voir. Il n’est pas en effet ques­tion d’images figu­ra­tives. Ce qui est figu­ré est une réa­li­té pen­sée mathé­ma­ti­que­ment. Nous sommes donc bien dans une pen­sée du comme si, qui ne sera pas ano­dine en termes d’évaluation éthique de ces tech­niques. Tout se passe comme si émer­geait un nou­veau niveau de sen­si­bi­li­té, média­ti­sé par la tech­nique et dif­fi­ci­le­ment tra­dui­sible dans le monde macroscopique.

Néan­moins, la dimen­sion bio­lo­gique des nano­tech­no­lo­gies n’implique pas néces­sai­re­ment de mathé­ma­ti­sa­tion. Il existe une filia­tion bio­tech­no­lo­gique des nanos­ciences qui met en jeu un nou­vel espace de per­cep­tion, échap­pant tou­jours aux condi­tions de notre per­cep­tion macro­sco­pique et ris­quant de nous faire com­mettre de graves erreurs éva­lua­tives quant aux consé­quences éthiques de ces changements.

Si la micro­sco­pie élec­tro­nique nous donne l’impression de voir le nano­monde, cette mani­pu­la­tion de ce qui nous reste phé­no­mé­no­lo­gi­que­ment invi­sible pose cer­taines ques­tions éthiques et épis­té­mo­lo­giques tout aus­si aigües d’un point de vue axiologique.

Ce chan­ge­ment d’échelle et de per­cep­tion remet en ques­tion nos modèles pré­dic­tifs, héri­tés du pas­sé. Il semble dès lors dif­fi­cile de pré­dire les retom­bées de nano­tech­no­lo­gies qui res­tent à venir et sus­citent des dis­cours de pro­phé­ties auto-réa­li­sa­trices (Drex­ler, Bos­trum, Vinge…).

C’est pré­ci­sé­ment ce qui porte à contro­verse. On ne peut s’y pro­je­ter que par la fic­tion, tant le dis­cours fic­tion­nel sup­plée à l’impossibilité de véri­fier les anti­ci­pa­tions dans un labo­ra­toire de manière clas­sique. Nous sommes dans l’obligation de navi­guer entre nar­ra­tion du réel et fiction,

Paral­lè­le­ment, les déve­lop­pe­ments asso­ciés du post­hu­ma­nisme et du trans­hu­ma­nisme (qui seront défi­nis plus loin) n’ont pour inté­rêt que de nous inter­ro­ger sur le sens que nous don­nons à l’humain et à sa néces­saire réin­ter­pré­ta­tion, si cette conver­gence est réelle, ce qui n’est pas encore démon­tré. Il s’agit de ce que Levy Strauss appe­lait un bri­co­lage dans La pen­sée sau­vage : «[…] une inces­sante recons­truc­tion à l’aide des mêmes maté­riaux […] d’anciennes fins appe­lées à jouer le rôle de moyens. »

Quel lien éta­blir dès lors entre les repré­sen­ta­tions des nanos­ciences et le post­hu­ma­nisme ? S’agit-il d’une futu­ro­lo­gie à visée pros­pec­tive, ou d’une idéologie ?

Le posthumanisme et l’artificialisation du corps

Si, sur le plan scien­ti­fique, les nano­tech­no­lo­gies ne peuvent être com­pa­rées aux OGM, du point de vue des opi­nions, les deux inno­va­tions s’inscrivent dans des pers­pec­tives de trans­for­ma­tion, voire de re-créa­tion de la Nature qui inquiètent ou fas­cinent. Les théo­ries de la post­hu­ma­ni­té s’appuient sur la cyber­né­tique et les nano­tech­no­lo­gies pour amé­lio­rer l’être humain. Cette vision vir­tuelle du corps par­ti­cipe en effet aux fan­tasmes d’artificialisation de la nature et s’oppose à la vision bio­mé­ca­nique de la moder­ni­té et à sa ratio­na­li­sa­tion syn­chro­nique du monde.

L’exemple emblé­ma­tique de cette rup­ture tient dans le rap­port NBIC2 de la Natio­nal Science Foun­da­tion (NST) publié en 2002, « Conver­ging Tech­no­lo­gies for Impro­ving Human Per­for­mances », qui contient en son titre même une pro­messe post­hu­ma­niste, avec pour spé­ci­fi­ci­té de confondre allè­gre­ment les niveaux du pos­sible de la science expé­ri­men­tale actuelle et le niveau uto­pique de la science-fic­tion. On y retrouve la pro­messe d’une manu­fac­ture molé­cu­laire ouvrant à la pos­si­bi­li­té d’utiliser des nano-robots auto­ré­pli­cants (nano­bots) pour la construc­tion en masse de tout type de maté­riel. Et cela arri­ve­ra, logi­que­ment et iné­luc­ta­ble­ment. Toute science en marche, à l’état de recherche fon­da­men­tale, est de la science-fic­tion. Ce point de vue efface la limite entre l’état actuel des appli­ca­tions des nano­tech­no­lo­gies et leurs déve­lop­pe­ments futurs, en spé­cu­lant sur la conver­gence, qui ins­crit les nano­tech­no­lo­gies dans une pers­pec­tive téléo­lo­gique, ce qui sup­pose leur déve­lop­pe­ment iné­luc­table. La fic­tion devient dès lors par­tie inté­grante de la ges­tion de la science et sti­mule des débats sociaux à l’ombre de la menace du « grey goo » qui devient un mythe natu­ré nous invi­tant à l’anticipation.

Ce texte sera sui­vi du rap­port euro­péen de 2004, « Conver­ging Tech­no­lo­gies Sha­ping the Future of Euro­pean Socie­ties », qui reprend cette figure de la conver­gence et l’étend aux sciences de l’homme et de la socié­té. La dif­fé­rence cultu­relle entre les deux textes implique que c’est à la « socié­té de connais­sance » de se for­ger elle-même ses prio­ri­tés de trans­for­ma­tion à par­tir des tech­no­lo­gies convergentes.

En effet, l’émergence d’un nou­veau sys­tème tech­nique entraine de fac­to l’apparition d’un ordre social et cultu­rel capable d’en main­te­nir les cohé­rences fonc­tion­nelles et de lui confé­rer un sens. Cette pers­pec­tive de déter­mi­nisme tech­no­lo­gique pour­rait contre­dire le pro­jet d’un choix social s’opposant à la conver­gence technologique.

Ce qui est inté­res­sant, en termes bio­po­li­tiques, est que nous sommes face à un brouillage des dis­tinc­tions caté­go­rielles qui per­mettent à l’humanité de se repé­rer dans le monde. Il est per­ti­nent de sou­li­gner éga­le­ment que la méta­phore de conver­gence ren­voie à une figure de concen­tra­tion des pou­voirs, qui sus­cite une nou­velle construc­tion nar­ra­tive ser­vant de cadre au déploie­ment de nom­breuses fic­tions, dans laquelle le post­hu­ma­nisme « converge », si je puis dire.

Nous sommes face à des mythes recy­clés, certes, mais dans la pers­pec­tive post­hu­ma­niste, l’histoire du vivant se réduit à celle de la com­plexi­té crois­sante des tech­no­lo­gies conver­gentes, comme long voyage ini­tia­tique visant le rêve uni­ver­sel de l’allongement de la vie (voir l’ouvrage emblé­ma­tique de l’informaticien et futu­ro­logue Kurz­weil, Fan­tas­tic voyage : live long enough to live for ever). L’homme n’y est plus la fina­li­té de l’univers et ne peut sur­vivre qu’en s’associant aux déter­mi­nismes fonc­tion­nels de la machine. Que de telles options de recherche soient exploi­tées est pour le moins dis­cu­table, alors que la conver­gence des sciences relève à ce stade plus du désir que de la réa­li­té. Néan­moins, la ques­tion n’est pas de savoir si les nano­ma­chines existent ou exis­te­ront. La ques­tion plus adé­quate est de savoir si elles appor­te­ront, et à quelles condi­tions, de meilleures solu­tions que celles issues de l’évolution. Il fau­drait donc uti­li­ser la science-fic­tion comme labo­ra­toire réflexif. Le futur des nano­tech­no­lo­gies serait insé­pa­rable des anti­ci­pa­tions plu­rielles et contin­gentes qui seront pro­po­sées, dans un pro­ces­sus d’évaluation dia­lec­tique d’un temps pro­je­té, par une science réflexive qui anti­cipe les consé­quences de ce qui sera un choix tech­no­lo­gique, plus qu’une science-fic­tion. Nous avons besoin d’un accom­pa­gne­ment réflexif du déve­lop­pe­ment des sciences, non pas pour une éthique du futur, comme le pro­pose Jean-Pierre Dupuy, ce qui pré­sup­po­se­rait une conver­gence des sciences et de l’éthique, mais une éva­lua­tion nor­ma­tive qui fasse tam­pon entre avan­cées scien­ti­fiques et appli­ca­tions technoscientifiques.

Le post­hu­ma­nisme, de son côté, reven­dique de ne pas avoir d’identité fixe. Il est asso­cié à l’idéologie cyborg et ques­tionne la limite entre humains et robots au niveau micro­sco­pique. Le post­hu­ma­niste reste, à ce stade, un être hypo­thé­tique qui vise à dépas­ser l’humain par un ima­gi­naire mélio­riste qui, sus­ci­tant la peur, induit des régu­la­tions qui lui donnent en retour une réa­li­té appar­te­nant à la fois à la culture popu­laire et à la pro­phé­tie scien­ti­fique. L’imaginaire post­hu­ma­niste jongle avec les termes « ingé­nie­rie géné­tique », « nano­tech­no­lo­gies », « sin­gu­la­ri­té », « trans­hu­ma­nisme », sans que leur conver­gence soit autre qu’opérationnelle. Là encore, une confu­sion épis­té­mo­lo­gique, qui relève d’un bri­co­lage plu­tôt que d’une théo­rie, pri­ve­rait des intui­tions fécondes que le post­hu­ma­nisme déve­loppe dans le labo­ra­toire réflexif de la science-fiction.

Nous sommes dans les deux cas face à une ver­sion fabri­quée de la réa­li­té. C’est cette intui­tion qui asso­cie les nano­tech­no­lo­gies au post­hu­ma­nisme, car émerge de cette ren­contre l’idée que l’homme puisse s’améliorer, se fabri­quer, grâce à la conver­gence entre science et technologie.

Le dis­cours autour des nano­tech­no­lo­gies laisse jusqu’à pré­sent émer­ger un lien fort entre elles et la science-fic­tion. Leurs pro­blèmes ont été anti­ci­pés, non seule­ment dans des romans nar­ra­tifs, mais encore dans des textes offi­ciels qui en dis­cutent les appli­ca­tions futures3. En émerge une vision d’un monde futur dans lequel de mul­tiples aspects du rap­port des humains au monde seraient chan­gés, selon la notion de sin­gu­la­ri­té de l’écrivain et mathé­ma­ti­cien Ver­nor Vinge4, qui a enva­hi le dis­cours non fic­tion­nel. La capa­ci­té de construire des objets à par­tir des élé­ments ultimes de la matière est une pro­messe des nano­tech­no­lo­gies qui éveille les espoirs de la conver­gence des sciences et des tech­no­lo­gies. La fic­tion a fonc­tion­né comme une expé­rience de pen­sée, un cyber-rêve per­met­tant d’échapper aux déter­mi­nismes de la condi­tion humaine, tout en vivant une logique scien­ti­fique anti­ci­pant son impact sur la socié­té et sa visée mélio­riste de l’humain.

Il s’agit tou­jours d’un monde pos­sible, mais pas tou­jours dési­rable, pas tou­jours cal­cu­lable. Pour Drex­ler : « Les assem­bleurs seront capables de faire pra­ti­que­ment n’importe quoi à par­tir de maté­riaux cou­rants et sans tra­vail humain, rem­pla­çant les usines pol­luantes par des sys­tèmes aus­si propres que des forêts5. » Ces moteurs de créa­tion seraient inévi­tables, car ils suivent le che­min ouvert par les tech­no­lo­gies molé­cu­laires com­bi­nées au pou­voir des nano-ordi­na­teurs, ouvrant poten­tiel­le­ment l’ère post­hu­maine. Mais tout cela reste anti­ci­pé et non véri­fiable, à moins de leur don­ner une réa­li­té expli­ci­te­ment liée à la capa­ci­té de mani­pu­ler la matière à l’échelle ato­mique, grâce à des machines qui seraient elles-mêmes nanoscopiques.

Mon hypo­thèse est que les nano­tech­no­lo­gies, et leurs appli­ca­tions en nano­mé­de­cine notam­ment, sont asso­ciées à une vision de l’auto-organisation qui échappe aux pla­ni­fi­ca­tions ration­nelles, voire à nos inten­tions, bien que la visée prag­ma­tique faible de la méde­cine ait une effi­ca­ci­té obser­vable, par exemple dans le trai­te­ment non inva­sif des tumeurs cancéreuses.

Les orga­nismes vivants ont long­temps été per­çus comme le résul­tat d’une acti­vi­té créa­trice sur­na­tu­relle. C’est l’argument créa­tion­niste qui récuse l’idée d’une ori­gine spon­ta­née de la vie. L’idée d’auto-organisation, dont le point de départ se situe dans les tra­vaux d’Alan Turing en 1952 sur la mor­pho­ge­nèse, n’est pas néan­moins le fruit du hasard, mais le résul­tat de méca­nismes décrits par des modèles théo­riques. Si, dans les années quatre-vingt, les modèles étaient géné­riques, en ce qu’ils ne par­taient pas de modèles empi­riques pré­cis, nous sommes à pré­sent face à la capa­ci­té d’offrir des modèles expli­ca­tifs, qui peuvent néan­moins pro­vo­quer au niveau macro­sco­pique des com­por­te­ments com­plexes et des situa­tions inédites.

Tout se passe comme si la com­bi­nai­son de cette com­plexi­té et du hasard, qui sem­blait être hété­ro­gène à l’ordre et à l’organisation, deve­nait à son tour mathé­ma­ti­sable et contrô­lable. Cela implique à la fois un regard neuf sur les sciences du vivant et sur des ques­tions phi­lo­so­phiques redou­tables, telles l’intentionnalité et la liberté.

« Il s’agit de conce­voir des modèles d’organisation capables de se modi­fier eux-mêmes et de créer des signi­fi­ca­tions impré­vues et sur­pre­nantes, même pour le concep­teur […] per­mettre au hasard d’acquérir à pos­te­rio­ri et dans un contexte don­né par une signi­fi­ca­tion fonc­tion­nelle, méca­niste, c’est cela qui résume fina­le­ment ce que peut être un pro­ces­sus auto-orga­ni­sa­teur6. »

Il s’agit de don­ner sens à « l’émergence spon­ta­née d’une orga­ni­sa­tion struc­tu­relle en état de non-équi­libre à un niveau macro­sco­pique, due aux inter­ac­tions col­lec­tives entre un grand nombre de sous-sys­tèmes micro­sco­piques7 ».

Tout cela est appli­cable au vivant, mais aus­si au non-orga­nique. L’indétermina­tion est donc liée à la com­plexi­té des inter­ac­tions, qui bien que connues au niveau local, deviennent intrai­tables, si ce n’est en termes sta­tis­tiques, au niveau glo­bal. Les pré­oc­cu­pa­tions des obser­va­teurs cri­tiques des nano­tech­no­lo­gies sont donc pré­ci­sé­ment ces effets impré­vi­sibles dus au hasard et à la com­plexi­té. Les nano­tech­no­lo­gies créent un pré­cé­dent par leur pré­dic­ti­bi­li­té limi­tée, voire inexis­tante, qui rend tout dis­cours éthique pro­blé­ma­tique en ce qu’il ne peut qu’être catastrophisme
pré­ven­tif. La modé­li­sa­tion bio­lo­gique des nano­par­ti­cules, appe­lées de manière contes­table vie arti­fi­cielle, est à l’origine de fan­tasmes autour des nanotechnologies.

Il est, dès lors, extrê­me­ment dif­fi­cile et impor­tant à la fois d’établir la généa­logie de ces concepts et de cla­ri­fier les enjeux du débat, afin d’éviter la confu­sion entre risques poten­tiels et ima­gi­naires, l’excès de pré­cau­tion n’étant pas sans risques non plus.

La spé­ci­fi­ci­té des nano­tech­no­lo­gies tient en l’usage nar­ra­tif qu’en font les post­hu­ma­nistes, qui les asso­cient au niveau des nar­ra­tions fic­tion­nelles à une science post­gé­no­mique. Cela nous per­met de men­tion­ner l’usage abu­sif des tech­no­lo­gies conver­gentes appli­quées à la géné­tique molé­cu­laire et par exten­sion aux nano­tech­no­lo­gies uti­li­sées en méde­cine, qui ne se basent que sur une éva­lua­tion risque-béné­fice à court terme. La situa­tion de l’épigénétique face aux tech­no­lo­gies conver­gentes nous per­met de ques­tion­ner le catas­tro­phisme cau­sal éta­bli entre nano­tech­no­lo­gies et un post­hu­ma­nisme qui en serait la consé­quence néces­saire. Notre hypo­thèse est qu’elle résulte d’une fusion inadé­quate entre théo­ries de l’information, géné­tique et repré­sen­ta­tions du monde nano. Le rôle des molé­cules ne se limite pas à une trans­mis­sion d’informations génétiques.

À quelles condi­tions de par­tage de connais­sances cha­cun peut-il répondre adé­qua­te­ment à ces ques­tions, afin de ne pas les réser­ver à des experts dont la visée est essen­tiel­le­ment fon­dée sur le para­digme de l’ingénierie du vivant ? Com­ment reprendre la ques­tion en termes de signi­fi­ca­tion à don­ner à des infor­ma­tions scien­ti­fiques ? S’agit-il véri­ta­ble­ment d’une ques­tion d’échelle, ou plu­tôt de la conver­gence de tech­no­lo­gies et du vivant, qui efface les fron­tières exis­tantes de nos repré­sen­ta­tions, et nous invite pré­ci­sé­ment à évi­ter fausses infé­rences entre objets incom­pa­rables épistémologiquement ?

Ain­si, l’élaboration d’une nanoé­thique n’aurait aucun sens dans ce contexte, car la dis­tance entre le faire tech­nos­cien­ti­fique et sa réa­li­té serait impos­sible à pré­dire, et toute déci­sion d’y mettre des limites absurde ou inopérante.

Nos modèles de déci­sions éthiques sont glo­ba­le­ment fon­dés sur l’articulation de trois moments : une intui­tion morale basée par­tiel­le­ment sur nos croyances, des normes bio­phy­siques qui sont lues plus ou moins en accord avec cette croyance, et une capa­ci­té réflexive qui sera capable ou non de don­ner des rai­sons à nos croyances ou à les décons­truire. Nous avons, face aux nano­tech­no­lo­gies, certes besoin d’imagination pros­pec­tive, mais aus­si, dans un second temps, d’une capa­ci­té à pen­ser au-delà des fonc­tions bio­lo­giques, dont le rem­part envers les risques exis­ten­tiels s’avère de plus en plus fragile.

Nous savons éga­le­ment que la déli­bé­ra­tion sans infor­ma­tion par­ta­gée ne fait qu’alimenter les ombres de la caverne. De plus, la déli­bé­ra­tion n’est pas la déci­sion, et nous nous situons donc ici dans une réflexion sur l’association entre nano­tech­no­lo­gies, mélio­risme et post­hu­ma­nisme. Cela don­ne­rait les moyens de dépas­ser les deux dis­cours du hype autour du mythe des nanos et de l’heuristique de la peur qu’il pro­voque, en ten­tant de pré­ci­ser la per­ti­nence d’un dis­cours éthique sur les nano­tech­no­lo­gies, s’il n’est pas pré­cé­dé d’une réflexion onto­lo­gique et épis­té­mo­lo­gique plus glo­bale sur ce que sont les nanos­ciences et leurs appli­ca­tions tech­no­lo­giques, mais sur­tout sur le sens que nous don­nons à ces techniques.

Une consis­tance théo­rique des tech­no-sciences a pour but de faire voir ce qui est en jeu dans la poro­si­té des fron­tières entre le vivant et l’inerte. Elle est une ten­ta­tive d’élucider phi­lo­so­phi­que­ment ce que l’on nomme science, tech­nique ou tech­no­lo­gie. Le terme « tech­nos­cience » fonc­tionne ain­si de manière polé­mique pour ceux qui dénoncent la vio­lence faite aux sciences et aux tech­niques, dans l’incapacité même à décrire la nou­veau­té des phé­no­mènes scien­ti­fiques et tech­niques (voir Gil­bert Hot­tois). Le dis­cours contre la tech­nos­cience est donc sou­vent per­çu comme le symp­tôme de la peur des lais­sés-pour-compte de l’avancée scien­ti­fique et tech­no­lo­gique, rare­ment comme celui d’un choix ration­nel contre les per­tur­ba­tions d’un monde com­mun et de sa culture cohésive.

Il y a donc impli­ci­te­ment un aprio­ri tech­no­phobe visant à dénon­cer l’aliénation ou la réuni­fi­ca­tion de la ratio­na­li­té ins­tru­men­tale. L’intérêt des dis­cours de Jean-Luc Nan­cy ou de Ber­nard Stie­gler dépasse cette tech­no­pho­bie pour mettre en lumière l’ambivalence du champ, dont la conno­ta­tion n’est plus péjo­ra­tive ou dénon­cia­trice. Ils s’attachent plus à décrire le vécu humain des sciences et des tech­niques, ain­si que l’interprétation de ce vécu. Les nano­sciences elles-mêmes en fai­sant par­tie, elles exigent à la fois une des­crip­tion rigou­reuse des phé­no­mènes scien­ti­fiques et tech­niques, et une capa­ci­té de dis­cer­ne­ment quant à leur impact social et au res­pect du plu­ra­lisme des convic­tions, chaque fois qu’une inno­va­tion tech­nique balaye la fron­tière fra­gile entre public et pri­vé, inté­rêt éco­no­mique et choix de vie.

La singularité

À ce stade, de nom­breuses revues de bioé­thique ou de phi­lo­so­phie de la tech­nique dis­cutent l’éthique des nano­tech­no­lo­gies comme si les effets des nanos­ciences étaient mai­tri­sables et leur adop­tion ne néces­si­tait qu’une éthique de la dis­cus­sion bien com­prise. C’est une forme d’incompétence, de super­che­rie, ou de col­la­bo­ra­tion avec les bailleurs de fonds, qui gagnent à la légi­ti­ma­tion sociale de ces tech­nos­ciences. Il s’agit de contrer ceux qui annoncent, dès lors très sérieu­se­ment, l’ère de la sin­gu­la­ri­té8, nom­mée ain­si en réfé­rence à la notion mathé­ma­tique qui pos­tule que l’accélération du pro­grès tech­no­lo­gique pro­vo­que­ra bien­tôt la trans­for­ma­tion radi­cale de notre condi­tion humaine. Nous sommes confron­tés à une pro­cé­du­ra­li­sa­tion des nano­tech­no­lo­gies, n’ayant rien de bien dif­fé­rent de la régu­la­tion d’autres bio­tech­no­lo­gies, dont l’ignorance sus­cite des peurs qui, loin de nous aver­tir de dan­gers objec­ti­vables, dénoncent la perte des repères exis­tants comme catas­tro­phique ou mes­sia­nique, selon l’opinion à prio­ri qu’ils adoptent. Nous ne sommes plus au stade de la science-fic­tion, mais à celui de l’expérimentation in vivo, avec des cri­tères d’évaluation de la recherche qui res­tent ceux de l’expérimentation classique.

Le champ des­crip­tif de la toxi­co­lo­gie nano ne cesse de s’étendre en san­té publique, pour faire de la notion de risque ce qui limite notre ima­gi­naire devant ce qui reste invi­sible à notre échelle, et ouvre à la caté­go­rie de risques poten­tiels et non mesu­rables et donc soit à une légi­ti­ma­tion en termes de risque-béné­fice, soit à une heu­ris­tique de la peur cen­sée rendre res­pon­sables les déci­deurs. Mais com­ment pour­tant répondre de ce que l’on ne com­prend pas ?

Dans ce conflit d’intérêt entre indus­tries et toxi­co­logues, peu s’aventurent à défi­nir les nano­tech­no­lo­gies de manière à enga­ger le dia­logue sur le lien entre risques et qua­li­té de vie. Les nano­tech­no­lo­gies ont été ren­dues pos­sibles par les pro­grès tech­no­lo­giques, notam­ment en bio­lo­gie grâce à l’avènement de tech­niques très sophis­ti­quées en micro­sco­pie, confo­cale, à fluo­res­cence, à sonde locale, à effet tun­nel, qui ont per­mis d’observer, puis de mani­pu­ler, des objets à l’échelle molé­cu­laire, voire ato­mique. Plus que la taille, c’est l’ignorance actuelle des dif­fé­rences entre pro­prié­tés de la matière dans les mondes nano et macro (à l’échelle humaine) qui est en jeu dans l’évaluation de la per­ti­nence éthique ou non de déve­lop­per cer­taines nano­tech­no­lo­gies plu­tôt que d’autres.

Com­ment éva­luer la des­crip­tion d’une tech­nos­cience que la plu­part d’entre nous peinent à com­prendre, tant elle est liée aux prin­cipes contre-intui­tifs de la méca­nique quan­tique, alors que para­doxa­le­ment ses effets tech­no­lo­giques enva­hissent notre quo­ti­dien dès le den­ti­frice du matin ? Aurions-nous per­du par là même la capa­ci­té d’être les auteurs de notre ave­nir ? Ou, au contraire, serions-nous enfin deve­nus capables de deve­nir les auteurs de notre ave­nir grâce aux outils tech­no­lo­giques com­bi­nés ? Cette indé­ter­mi­na­tion du dis­cours même montre en soi notre inca­pa­ci­té à régu­ler ce qui semble déré­gler nos repré­sen­ta­tions. Cette igno­rance est-elle, selon l’expression de Bru­no Latour, ce qui pré­vient de « faire entrer les sciences en démocratie » ?

Les écri­vains Irving John Good (en 1965 déjà) et Ver­nor Vinge uti­lisent le terme de sin­gu­la­ri­té pour décrire le moment de l’évolution humaine où les pro­grès tech­no­lo­giques seront si rapides que l’esprit humain ne pour­ra plus les com­prendre, étant limi­té par ses capa­ci­tés cor­po­relles spa­tio­tem­po­relles, alors que les machines fonc­tionnent dans le vir­tuel et donc dans la mul­ti­pli­ca­tion des pos­sibles. La ques­tion des post­hu­ma­nistes, face à cette décor­po­ra­tion, est de savoir si le corps est une chance ou une contin­gence à dépas­ser. Ce scé­na­rio me semble défi­nir très exac­te­ment l’aliénation, voire la réi­fi­ca­tion, de l’humain s’il est pré­sen­té comme des­tin d’une tech­no­lo­gie naturalisée.

Il n’est dès lors pas ano­din de consi­dé­rer l’hypothèse de la sin­gu­la­ri­té comme symp­tôme de cette muta­tion. Elle semble dépla­cer les fron­tières du réel d’une manière inva­sive, en ce que la fron­tière entre l’intérieur et l’extérieur, notre chair et la chair du monde, semble de plus en plus illu­soire, et la notion d’individu mena­cée en termes d’intégrité et par là même l’idée d’humanité liée au concept d’individualité cor­po­relle et juri­dique. Pour Ray Kurz­weil, auteur de The sin­gu­la­ri­ty is near9, ce moment pro­vo­que­ra l’avenir d’un monde qui res­te­ra humain, mais qui dépas­se­ra nos déter­mi­nismes biologiques.

L’idée qui tra­verse ce champ est que l’espèce humaine se trouve dans un évo­lu­tion­nisme mélio­riste radi­cal qui per­turbe l’idée de nature humaine et exige notre ima­gi­na­tion éthique pour pen­ser com­ment l’échelle de cette évo­lu­tion exige ou non de pen­ser le post­hu­ma­nisme comme étape sui­vant le post­mo­der­nisme. Il est de notre res­pon­sa­bi­li­té de prendre ces scé­na­rios au sérieux, et de nous poser la ques­tion en termes d’expérience de pen­sée avant qu’elle ne devienne, par notre pas­si­vi­té, un des­tin, une natu­ra­li­sa­tion des nanosciences.

Notre per­cep­tion phé­no­mé­no­lo­gique de nous-mêmes résiste à l’évolution des tech­no­struc­tures et aux émer­gences qui nous défi­nissent de manière de plus en plus pré­gnante. Si nous avons cru long­temps pou­voir en accom­pa­gner la tra­jec­toire de manière réflexive par des régu­la­tions éthiques, une telle démarche semble de plus en plus fra­gile et vul­né­rable, voire inopérante.

Nos capa­ci­tés à déve­lop­per les tech­niques ont dépas­sé nos capa­ci­tés cog­ni­tives à en sai­sir la com­plexi­té et ont abo­li la fron­tière entre ceux qui savent et ceux qui ne savent pas. Il sem­ble­rait que per­sonne ne sait plus vrai­ment et que ce soit la légi­ti­mi­té de la prise de risques en termes épis­té­mo­lo­giques ou éthiques qui pose pro­blème, d’où l’usage de la science-fic­tion pour ten­ter de se repré­sen­ter l’irreprésentable. Revient alors la ques­tion de la dis­tinc­tion entre vrais et faux prophètes.

Le déve­lop­pe­ment des tech­no­lo­gies est, en ce siècle, beau­coup plus rapide que le rythme de chan­ge­ment des para­digmes de la culture, fon­dés sur nos repré­sen­ta­tions par­ta­gées. La notion d’intériorité de la conscience serait mise ain­si au défi par une conscience externe qui effa­ce­ra les fron­tières entre le dedans et le dehors, entre le moi peau et la chair du monde, et signe­rait une autre bles­sure nar­cis­sique de l’humanité.

La solu­tion, comme cer­tains le sug­gèrent, est-elle de faire marche arrière ? Ou, de manière plus ima­gi­na­tive, de pro­po­ser des alter­na­tives en ques­tion­nant le contexte d’économie néo­li­bé­rale qui pro­meut la confu­sion entre le bon et l’utile ? La trans­for­ma­tion des choses par leur médium tech­no­lo­gique déter­mine d’une cer­taine façon la signi­fi­ca­tion que nous don­nons aux évè­ne­ments. Ce qui change, c’est que nous ris­quons d’être les témoins plu­tôt que les acteurs réels d’un moment évo­lu­tion­niste, tant les para­mètres sont com­plexes. Nous fai­sons face au déploie­ment en rhi­zome d’un sys­tème qui bifurque à l’infini, comme nous l’annonçait Deleuze. Telle est la doc­trine du trans­hu­ma­nisme. Défi­ni par Julian Hux­ley en 1957 comme un phé­no­mène par lequel « L’homme reste l’homme mais se trans­cende par la réa­li­sa­tion de pos­si­bi­li­tés nou­velles de la nature humaine10 ».

La vulnérabilité biologique doit-elle être effacée par la technologie ?

Tout se passe à terme comme si nous avions mieux le choix et la pos­si­bi­li­té entre pré­ser­ver nos déter­mi­nismes et notre intel­li­gence bio­lo­gique, ou la rem­pla­cer par une nou­velle intel­li­gence et une vie dite arti­fi­cielle, faite de neu­rones syn­thé­tiques, dont le poten­tiel serait mille fois supé­rieur aux per­for­mances de nos tis­sus biologiques.

Le dilemme selon lequel les humains devraient choi­sir leur vul­né­ra­bi­li­té bio­lo­gique ou la dépas­ser par le rejet de leur chair et de leur mor­ta­li­té pour atteindre la lon­gé­vi­té et l’intelligence est-il cré­dible ? Ou sommes-nous face à une réécri­ture du mythe grec avec des outils plus per­for­mants qui nous invitent à repen­ser notre tem­po­ra­li­té en strates, où le réel et l’imaginaire s’interpénètrent dan­ge­reu­se­ment ? Le rêve est en effet tou­jours le même, décou­vrir le secret de la matière, faire que des nano­bots imitent les glo­bules rouges en atten­dant de ne plus avoir besoin d’organes du tout pour exis­ter. Dans cette optique, la fron­tière s’efface quant à savoir s’il s’agit de pro­duire la connais­sance du réel ou le réel lui-même.

Le post­hu­ma­nisme doit donc être com­pris comme un dis­cours cri­tique des limites du méca­nisme. Il s’inscrit épis­té­mo­lo­gi­que­ment dans les caté­go­ries des­crip­tives uti­li­sées par la bio­lo­gie et la post­gé­no­mique, qui visent à décons­truire les iden­ti­tés closes, per­met­tant d’autres asso­cia­tions, et forment une inven­ti­vi­té trans­gres­sive de la gram­maire de l’humain. L’association des sciences, qui consti­tue la pos­si­bi­li­té d’émergence des nano­tech­no­lo­gies, fonc­tionne alors comme un para­digme de quelque chose qui per­met le pas­sage de l’idée à l’action dans un monde de plus en plus vir­tuel, mais éco­no­mi­que­ment très dynamique.

Nous affron­tons une asy­mé­trie entre les repré­sen­ta­tions onto­lo­giques et épis­té­mo­lo­giques que l’éthique est sup­po­sée arti­cu­ler et tra­duire. L’évolution et l’auto-organisation requièrent une approche empi­rique fon­dée sur les consé­quences. Le but ultime semble se limi­ter à ras­su­rer le public, sans pou­voir don­ner de pro­ba­bi­li­té objective.

Conclusion

Puisque les consé­quences de cette tra­jec­toire épis­té­mo-éthique sont indé­ter­mi­nées, la seule chose dont nous puis­sions être cer­tains est que le lien entre micro­phy­sique et nanos­ciences exige d’être nuan­cé par une sor­tie de la pers­pec­tive téléo­lo­gique. Le dis­cours nanoé­thique, qui se met au ser­vice de cette aven­ture, ne peut pré­tendre avoir les moyens de limi­ter les risques et aug­men­ter les béné­fices à par­tir de savoirs qui lui demeurent encore intra­dui­sibles. Nous devons sépa­rer les niveaux épis­té­mo­lo­gique et éthique, si le but est de pen­ser l’évaluation nor­ma­tive d’incertitudes ou la légi­ti­mi­té de déve­lop­per des tech­no­lo­gies dont les consé­quences sont hau­te­ment indé­ter­mi­nées. Nous ferions alors face à une nou­velle forme d’incertitude, asso­ciée à la com­plexi­té, qui rend le prin­cipe de pré­cau­tion inopé­rant, car nous ne pou­vons quan­ti­fier ce risque en termes exis­ten­tiels. C’est à par­tir d’une connais­sance des limites et des incer­ti­tudes des nanos­ciences qu’un dis­cours de régu­la­tion de ces nano­sciences pour­ra être éla­bo­ré, à condi­tion de contex­tua­li­ser l’approche éthique comme pro­jet de société.

La nanoé­thique fon­dée sur des modèles d’évaluation de risques uti­li­ta­ristes clas­siques ne nous donne pas les moyens de pen­ser une stra­té­gie de res­pon­sa­bi­li­sa­tion des acteurs, tant que ceux-ci doivent se sou­mettre à la ratio­na­li­sa­tion ins­tru­men­tale des indus­tries inté­res­sées. Le cadre consé­quen­tia­liste d’évaluation est insuf­fi­sant et inca­pable de répondre aux ques­tions socioé­thiques sou­le­vées par les retom­bées sociales des nano­tech­no­lo­gies. Il ne s’agit plus ici de savoir, mais d’intentionnalité éthique, celle de conti­nuer à don­ner de l’importance à la liber­té de dési­rer un futur qui aurait besoin de nous comme égaux. Éli­mi­ner l’irréductible sin­gu­la­ri­té des sujets, hété­ro­gène à la sin­gu­la­ri­té de Vinge, concen­trée sur le chan­ge­ment tech­no­lo­gique ou l’intelligence arti­fi­cielle, chan­ge­rait l’espèce humaine, la condam­nant au mélio­risme de survie.

  1. Gas­ton Bache­lard, Le nou­vel esprit scien­ti­fique (1934), Les Presses uni­ver­si­taires de France, dixième édi­tion, 1968.
  2. NBIC : Nano­tech­no­lo­gy, Bio­tech­no­lo­gy, Infor­ma­tion tech­no­lo­gy and Cog­ni­tive science : Conver­ging Tech­no­lo­gies for Impro­ving Human Performance.
  3. Notam­ment : Queen of angels, et Blood music, de Greg Beer ; Queen city jazz, Nan­cy éd., 2002 et Ima­gi­naires sans fron­tières, de Kath­leen Ann Goo­nan, dont les intui­tions se trouvent natu­ra­li­sées dans le dis­cours NBIC.
  4. Ver­nor Vinge, « Tech­no­lo­gi­cal Sin­gu­la­ri­ty », VISION-21 sym­po­sium sou­te­nu par le Nasa Lewis Research Cen­ter et l’Ohio Aeros­pace Ins­ti­tute, 30 – 31 mars 1993 (www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html).
  5. Éric Drex­ler, Engins de créa­tion, Vui­bert, 2005.
  6. Hen­ri Atlan, Le vivant post-géno­mique, ou qu’est ce que l’auto-organisation, Odile Jacob, 2010.
  7. Hen­ri Atlan, ibi­dem.
  8. Ver­nor Vinge, What is sin­gu­la­ri­ty?, mais aus­si La cap­tive du temps (1986), qui traite l’histoire d’un groupe d’humains qui auraient sur­vé­cu à la singularité.
  9. Ray Kurz­weil, The Sin­gu­la­ri­ty Is Near : When Humans Trans­cend Bio­lo­gy, The Viking Press (Pen­guin), 1re édi­tion 2005.
  10. Julian Hux­ley, « Trans­hu­ma­nism », dans New Bot­tles for New Wine, Chat­to & Win­dus, 1957, p. 13 – 17.

Mylène Botbol-Baum


Auteur