Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.
Nanoéthique, entre mythe et science
Une archéologie du concept et de ses effets sur nos représentations s’impose avant d’évoquer son impact sur notre manière d’évaluer, en termes éthiques, ces technologies convergentes et leur appropriation imaginaire par le posthumanisme, qui s’appuie sur la cybernétique et les nanosciences pour nourrir le vieux rêve idéaliste du dépassement du déterminisme biologique. Cette association signale la nécessité de repenser un modèle de réflexion éthique qui dépasse la simple éthique procédurale.
Les nanosciences et les nanotechnologies peuvent être définies comme les sciences et les technologies des systèmes nanoscopiques. Le préfixe nano renvoie ici à la longueur d’un nanomètre, égal à un millième de micron, soit un millionième de millimètre, c’est-à-dire un milliardième de mètre.
Les nanosciences rassemblent donc, comme le suggère leur étymologie (du grec « nain »), les sciences des très petites échelles de longueur. Comme la physique quantique, elles nous précipitent dans un autre monde, que nous ne pouvons percevoir à l’aide des principes qui organisent notre compréhension du monde macroscopique.
Les nanosciences mettent en évidence un pouvoir fictionnel de la raison scientifique qui est inscrit dans la physique contemporaine. L’expérience nano ou microphysique ne traduit pas une réalité donnée et stable. De plus, elles nous forcent à penser comme probabilité pensée mathématiquement avant d’être réalisée expérimentalement. Comme le disait déjà Bachelard1, il faut, à cette échelle, penser le réel à partir du probable. À l’échelle corpusculaire, l’intuition sensible n’a aucune prise sur les phénomènes, et notre intervention instrumentale modifie l’objet corpusculaire étudié, lequel n’existe que par l’expérimentation technique. Ces nouveaux objets appartiennent à un monde qui échappe à notre appréhension empirique. Le microphénomène est construit de toutes pièces, il n’est jamais donné. L’exemple du neutrino en est l’archétype. Cette particule élusive est née de calculs théoriques et a été postulée rationnellement. Elle suppose un schématisme à priori qui permet d’imaginer de nouvelles hypothèses.
Rompre avec l’expérience commune
Les nanosciences se situent à une autre échelle que celle de notre expérience phénoménale. Elles exigent une rupture face aux cadres de pensée de l’expérience commune. Cela exige de modifier nos modes d’appréhension de la réalité, car notre intuition basée sur l’expérience n’est plus valable pour imaginer, par exemple, le sens de la nanofabrication d’objets par les technosciences. De plus, les nanosciences proposent une alternative à la seule miniaturisation, celle de la complexification et de l’auto-organisation : « Il s’agit, à partir de la mise en œuvre de systèmes chimiques programmés, de laisser le dispositif supra-moléculaire s’édifier lui-même dans le sens d’une auto-fabrication à partir d’unités moléculaires transportant les informations requises », selon l’école de Prigogine.
Nous naviguons dans une zone mal définie entre mondes classique et quantique. La différence essentielle se situe dans cette possibilité de manipuler technologiquement des nanotubes, par exemple, ou de manipuler la matière à l’échelle nanométrique avec des applications techno-industrielles qui se sont étendues lentement à la nanomédecine, le lieu où l’évaluation des risques et des bénéfices est le plus exigeant.
Mais ce qui semble spécifique aux nano-objets est qu’ils ne sont pas que le résultat d’équations et produisent des effets dans le monde macroscopique, difficilement contrôlables ou mesurables par chacun d’entre nous. Le modèle délibératif de l’éthique de la discussion semble peu approprié à réguler les effets de cette technologie par le simple principe de précaution.
Le microscope à effet tunnel permet de voir les atomes à leur propre échelle, bien qu’il semble abusif de parler de voir. Il n’est pas en effet question d’images figuratives. Ce qui est figuré est une réalité pensée mathématiquement. Nous sommes donc bien dans une pensée du comme si, qui ne sera pas anodine en termes d’évaluation éthique de ces techniques. Tout se passe comme si émergeait un nouveau niveau de sensibilité, médiatisé par la technique et difficilement traduisible dans le monde macroscopique.
Néanmoins, la dimension biologique des nanotechnologies n’implique pas nécessairement de mathématisation. Il existe une filiation biotechnologique des nanosciences qui met en jeu un nouvel espace de perception, échappant toujours aux conditions de notre perception macroscopique et risquant de nous faire commettre de graves erreurs évaluatives quant aux conséquences éthiques de ces changements.
Si la microscopie électronique nous donne l’impression de voir le nanomonde, cette manipulation de ce qui nous reste phénoménologiquement invisible pose certaines questions éthiques et épistémologiques tout aussi aigües d’un point de vue axiologique.
Ce changement d’échelle et de perception remet en question nos modèles prédictifs, hérités du passé. Il semble dès lors difficile de prédire les retombées de nanotechnologies qui restent à venir et suscitent des discours de prophéties auto-réalisatrices (Drexler, Bostrum, Vinge…).
C’est précisément ce qui porte à controverse. On ne peut s’y projeter que par la fiction, tant le discours fictionnel supplée à l’impossibilité de vérifier les anticipations dans un laboratoire de manière classique. Nous sommes dans l’obligation de naviguer entre narration du réel et fiction,
Parallèlement, les développements associés du posthumanisme et du transhumanisme (qui seront définis plus loin) n’ont pour intérêt que de nous interroger sur le sens que nous donnons à l’humain et à sa nécessaire réinterprétation, si cette convergence est réelle, ce qui n’est pas encore démontré. Il s’agit de ce que Levy Strauss appelait un bricolage dans La pensée sauvage : «[…] une incessante reconstruction à l’aide des mêmes matériaux […] d’anciennes fins appelées à jouer le rôle de moyens. »
Quel lien établir dès lors entre les représentations des nanosciences et le posthumanisme ? S’agit-il d’une futurologie à visée prospective, ou d’une idéologie ?
Le posthumanisme et l’artificialisation du corps
Si, sur le plan scientifique, les nanotechnologies ne peuvent être comparées aux OGM, du point de vue des opinions, les deux innovations s’inscrivent dans des perspectives de transformation, voire de re-création de la Nature qui inquiètent ou fascinent. Les théories de la posthumanité s’appuient sur la cybernétique et les nanotechnologies pour améliorer l’être humain. Cette vision virtuelle du corps participe en effet aux fantasmes d’artificialisation de la nature et s’oppose à la vision biomécanique de la modernité et à sa rationalisation synchronique du monde.
L’exemple emblématique de cette rupture tient dans le rapport NBIC2 de la National Science Foundation (NST) publié en 2002, « Converging Technologies for Improving Human Performances », qui contient en son titre même une promesse posthumaniste, avec pour spécificité de confondre allègrement les niveaux du possible de la science expérimentale actuelle et le niveau utopique de la science-fiction. On y retrouve la promesse d’une manufacture moléculaire ouvrant à la possibilité d’utiliser des nano-robots autoréplicants (nanobots) pour la construction en masse de tout type de matériel. Et cela arrivera, logiquement et inéluctablement. Toute science en marche, à l’état de recherche fondamentale, est de la science-fiction. Ce point de vue efface la limite entre l’état actuel des applications des nanotechnologies et leurs développements futurs, en spéculant sur la convergence, qui inscrit les nanotechnologies dans une perspective téléologique, ce qui suppose leur développement inéluctable. La fiction devient dès lors partie intégrante de la gestion de la science et stimule des débats sociaux à l’ombre de la menace du « grey goo » qui devient un mythe naturé nous invitant à l’anticipation.
Ce texte sera suivi du rapport européen de 2004, « Converging Technologies Shaping the Future of European Societies », qui reprend cette figure de la convergence et l’étend aux sciences de l’homme et de la société. La différence culturelle entre les deux textes implique que c’est à la « société de connaissance » de se forger elle-même ses priorités de transformation à partir des technologies convergentes.
En effet, l’émergence d’un nouveau système technique entraine de facto l’apparition d’un ordre social et culturel capable d’en maintenir les cohérences fonctionnelles et de lui conférer un sens. Cette perspective de déterminisme technologique pourrait contredire le projet d’un choix social s’opposant à la convergence technologique.
Ce qui est intéressant, en termes biopolitiques, est que nous sommes face à un brouillage des distinctions catégorielles qui permettent à l’humanité de se repérer dans le monde. Il est pertinent de souligner également que la métaphore de convergence renvoie à une figure de concentration des pouvoirs, qui suscite une nouvelle construction narrative servant de cadre au déploiement de nombreuses fictions, dans laquelle le posthumanisme « converge », si je puis dire.
Nous sommes face à des mythes recyclés, certes, mais dans la perspective posthumaniste, l’histoire du vivant se réduit à celle de la complexité croissante des technologies convergentes, comme long voyage initiatique visant le rêve universel de l’allongement de la vie (voir l’ouvrage emblématique de l’informaticien et futurologue Kurzweil, Fantastic voyage : live long enough to live for ever). L’homme n’y est plus la finalité de l’univers et ne peut survivre qu’en s’associant aux déterminismes fonctionnels de la machine. Que de telles options de recherche soient exploitées est pour le moins discutable, alors que la convergence des sciences relève à ce stade plus du désir que de la réalité. Néanmoins, la question n’est pas de savoir si les nanomachines existent ou existeront. La question plus adéquate est de savoir si elles apporteront, et à quelles conditions, de meilleures solutions que celles issues de l’évolution. Il faudrait donc utiliser la science-fiction comme laboratoire réflexif. Le futur des nanotechnologies serait inséparable des anticipations plurielles et contingentes qui seront proposées, dans un processus d’évaluation dialectique d’un temps projeté, par une science réflexive qui anticipe les conséquences de ce qui sera un choix technologique, plus qu’une science-fiction. Nous avons besoin d’un accompagnement réflexif du développement des sciences, non pas pour une éthique du futur, comme le propose Jean-Pierre Dupuy, ce qui présupposerait une convergence des sciences et de l’éthique, mais une évaluation normative qui fasse tampon entre avancées scientifiques et applications technoscientifiques.
Le posthumanisme, de son côté, revendique de ne pas avoir d’identité fixe. Il est associé à l’idéologie cyborg et questionne la limite entre humains et robots au niveau microscopique. Le posthumaniste reste, à ce stade, un être hypothétique qui vise à dépasser l’humain par un imaginaire mélioriste qui, suscitant la peur, induit des régulations qui lui donnent en retour une réalité appartenant à la fois à la culture populaire et à la prophétie scientifique. L’imaginaire posthumaniste jongle avec les termes « ingénierie génétique », « nanotechnologies », « singularité », « transhumanisme », sans que leur convergence soit autre qu’opérationnelle. Là encore, une confusion épistémologique, qui relève d’un bricolage plutôt que d’une théorie, priverait des intuitions fécondes que le posthumanisme développe dans le laboratoire réflexif de la science-fiction.
Nous sommes dans les deux cas face à une version fabriquée de la réalité. C’est cette intuition qui associe les nanotechnologies au posthumanisme, car émerge de cette rencontre l’idée que l’homme puisse s’améliorer, se fabriquer, grâce à la convergence entre science et technologie.
Le discours autour des nanotechnologies laisse jusqu’à présent émerger un lien fort entre elles et la science-fiction. Leurs problèmes ont été anticipés, non seulement dans des romans narratifs, mais encore dans des textes officiels qui en discutent les applications futures3. En émerge une vision d’un monde futur dans lequel de multiples aspects du rapport des humains au monde seraient changés, selon la notion de singularité de l’écrivain et mathématicien Vernor Vinge4, qui a envahi le discours non fictionnel. La capacité de construire des objets à partir des éléments ultimes de la matière est une promesse des nanotechnologies qui éveille les espoirs de la convergence des sciences et des technologies. La fiction a fonctionné comme une expérience de pensée, un cyber-rêve permettant d’échapper aux déterminismes de la condition humaine, tout en vivant une logique scientifique anticipant son impact sur la société et sa visée mélioriste de l’humain.
Il s’agit toujours d’un monde possible, mais pas toujours désirable, pas toujours calculable. Pour Drexler : « Les assembleurs seront capables de faire pratiquement n’importe quoi à partir de matériaux courants et sans travail humain, remplaçant les usines polluantes par des systèmes aussi propres que des forêts5. » Ces moteurs de création seraient inévitables, car ils suivent le chemin ouvert par les technologies moléculaires combinées au pouvoir des nano-ordinateurs, ouvrant potentiellement l’ère posthumaine. Mais tout cela reste anticipé et non vérifiable, à moins de leur donner une réalité explicitement liée à la capacité de manipuler la matière à l’échelle atomique, grâce à des machines qui seraient elles-mêmes nanoscopiques.
Mon hypothèse est que les nanotechnologies, et leurs applications en nanomédecine notamment, sont associées à une vision de l’auto-organisation qui échappe aux planifications rationnelles, voire à nos intentions, bien que la visée pragmatique faible de la médecine ait une efficacité observable, par exemple dans le traitement non invasif des tumeurs cancéreuses.
Les organismes vivants ont longtemps été perçus comme le résultat d’une activité créatrice surnaturelle. C’est l’argument créationniste qui récuse l’idée d’une origine spontanée de la vie. L’idée d’auto-organisation, dont le point de départ se situe dans les travaux d’Alan Turing en 1952 sur la morphogenèse, n’est pas néanmoins le fruit du hasard, mais le résultat de mécanismes décrits par des modèles théoriques. Si, dans les années quatre-vingt, les modèles étaient génériques, en ce qu’ils ne partaient pas de modèles empiriques précis, nous sommes à présent face à la capacité d’offrir des modèles explicatifs, qui peuvent néanmoins provoquer au niveau macroscopique des comportements complexes et des situations inédites.
Tout se passe comme si la combinaison de cette complexité et du hasard, qui semblait être hétérogène à l’ordre et à l’organisation, devenait à son tour mathématisable et contrôlable. Cela implique à la fois un regard neuf sur les sciences du vivant et sur des questions philosophiques redoutables, telles l’intentionnalité et la liberté.
« Il s’agit de concevoir des modèles d’organisation capables de se modifier eux-mêmes et de créer des significations imprévues et surprenantes, même pour le concepteur […] permettre au hasard d’acquérir à posteriori et dans un contexte donné par une signification fonctionnelle, mécaniste, c’est cela qui résume finalement ce que peut être un processus auto-organisateur6. »
Il s’agit de donner sens à « l’émergence spontanée d’une organisation structurelle en état de non-équilibre à un niveau macroscopique, due aux interactions collectives entre un grand nombre de sous-systèmes microscopiques7 ».
Tout cela est applicable au vivant, mais aussi au non-organique. L’indétermination est donc liée à la complexité des interactions, qui bien que connues au niveau local, deviennent intraitables, si ce n’est en termes statistiques, au niveau global. Les préoccupations des observateurs critiques des nanotechnologies sont donc précisément ces effets imprévisibles dus au hasard et à la complexité. Les nanotechnologies créent un précédent par leur prédictibilité limitée, voire inexistante, qui rend tout discours éthique problématique en ce qu’il ne peut qu’être catastrophisme
préventif. La modélisation biologique des nanoparticules, appelées de manière contestable vie artificielle, est à l’origine de fantasmes autour des nanotechnologies.
Il est, dès lors, extrêmement difficile et important à la fois d’établir la généalogie de ces concepts et de clarifier les enjeux du débat, afin d’éviter la confusion entre risques potentiels et imaginaires, l’excès de précaution n’étant pas sans risques non plus.
La spécificité des nanotechnologies tient en l’usage narratif qu’en font les posthumanistes, qui les associent au niveau des narrations fictionnelles à une science postgénomique. Cela nous permet de mentionner l’usage abusif des technologies convergentes appliquées à la génétique moléculaire et par extension aux nanotechnologies utilisées en médecine, qui ne se basent que sur une évaluation risque-bénéfice à court terme. La situation de l’épigénétique face aux technologies convergentes nous permet de questionner le catastrophisme causal établi entre nanotechnologies et un posthumanisme qui en serait la conséquence nécessaire. Notre hypothèse est qu’elle résulte d’une fusion inadéquate entre théories de l’information, génétique et représentations du monde nano. Le rôle des molécules ne se limite pas à une transmission d’informations génétiques.
À quelles conditions de partage de connaissances chacun peut-il répondre adéquatement à ces questions, afin de ne pas les réserver à des experts dont la visée est essentiellement fondée sur le paradigme de l’ingénierie du vivant ? Comment reprendre la question en termes de signification à donner à des informations scientifiques ? S’agit-il véritablement d’une question d’échelle, ou plutôt de la convergence de technologies et du vivant, qui efface les frontières existantes de nos représentations, et nous invite précisément à éviter fausses inférences entre objets incomparables épistémologiquement ?
Ainsi, l’élaboration d’une nanoéthique n’aurait aucun sens dans ce contexte, car la distance entre le faire technoscientifique et sa réalité serait impossible à prédire, et toute décision d’y mettre des limites absurde ou inopérante.
Nos modèles de décisions éthiques sont globalement fondés sur l’articulation de trois moments : une intuition morale basée partiellement sur nos croyances, des normes biophysiques qui sont lues plus ou moins en accord avec cette croyance, et une capacité réflexive qui sera capable ou non de donner des raisons à nos croyances ou à les déconstruire. Nous avons, face aux nanotechnologies, certes besoin d’imagination prospective, mais aussi, dans un second temps, d’une capacité à penser au-delà des fonctions biologiques, dont le rempart envers les risques existentiels s’avère de plus en plus fragile.
Nous savons également que la délibération sans information partagée ne fait qu’alimenter les ombres de la caverne. De plus, la délibération n’est pas la décision, et nous nous situons donc ici dans une réflexion sur l’association entre nanotechnologies, méliorisme et posthumanisme. Cela donnerait les moyens de dépasser les deux discours du hype autour du mythe des nanos et de l’heuristique de la peur qu’il provoque, en tentant de préciser la pertinence d’un discours éthique sur les nanotechnologies, s’il n’est pas précédé d’une réflexion ontologique et épistémologique plus globale sur ce que sont les nanosciences et leurs applications technologiques, mais surtout sur le sens que nous donnons à ces techniques.
Une consistance théorique des techno-sciences a pour but de faire voir ce qui est en jeu dans la porosité des frontières entre le vivant et l’inerte. Elle est une tentative d’élucider philosophiquement ce que l’on nomme science, technique ou technologie. Le terme « technoscience » fonctionne ainsi de manière polémique pour ceux qui dénoncent la violence faite aux sciences et aux techniques, dans l’incapacité même à décrire la nouveauté des phénomènes scientifiques et techniques (voir Gilbert Hottois). Le discours contre la technoscience est donc souvent perçu comme le symptôme de la peur des laissés-pour-compte de l’avancée scientifique et technologique, rarement comme celui d’un choix rationnel contre les perturbations d’un monde commun et de sa culture cohésive.
Il y a donc implicitement un apriori technophobe visant à dénoncer l’aliénation ou la réunification de la rationalité instrumentale. L’intérêt des discours de Jean-Luc Nancy ou de Bernard Stiegler dépasse cette technophobie pour mettre en lumière l’ambivalence du champ, dont la connotation n’est plus péjorative ou dénonciatrice. Ils s’attachent plus à décrire le vécu humain des sciences et des techniques, ainsi que l’interprétation de ce vécu. Les nanosciences elles-mêmes en faisant partie, elles exigent à la fois une description rigoureuse des phénomènes scientifiques et techniques, et une capacité de discernement quant à leur impact social et au respect du pluralisme des convictions, chaque fois qu’une innovation technique balaye la frontière fragile entre public et privé, intérêt économique et choix de vie.
La singularité
À ce stade, de nombreuses revues de bioéthique ou de philosophie de la technique discutent l’éthique des nanotechnologies comme si les effets des nanosciences étaient maitrisables et leur adoption ne nécessitait qu’une éthique de la discussion bien comprise. C’est une forme d’incompétence, de supercherie, ou de collaboration avec les bailleurs de fonds, qui gagnent à la légitimation sociale de ces technosciences. Il s’agit de contrer ceux qui annoncent, dès lors très sérieusement, l’ère de la singularité8, nommée ainsi en référence à la notion mathématique qui postule que l’accélération du progrès technologique provoquera bientôt la transformation radicale de notre condition humaine. Nous sommes confrontés à une procéduralisation des nanotechnologies, n’ayant rien de bien différent de la régulation d’autres biotechnologies, dont l’ignorance suscite des peurs qui, loin de nous avertir de dangers objectivables, dénoncent la perte des repères existants comme catastrophique ou messianique, selon l’opinion à priori qu’ils adoptent. Nous ne sommes plus au stade de la science-fiction, mais à celui de l’expérimentation in vivo, avec des critères d’évaluation de la recherche qui restent ceux de l’expérimentation classique.
Le champ descriptif de la toxicologie nano ne cesse de s’étendre en santé publique, pour faire de la notion de risque ce qui limite notre imaginaire devant ce qui reste invisible à notre échelle, et ouvre à la catégorie de risques potentiels et non mesurables et donc soit à une légitimation en termes de risque-bénéfice, soit à une heuristique de la peur censée rendre responsables les décideurs. Mais comment pourtant répondre de ce que l’on ne comprend pas ?
Dans ce conflit d’intérêt entre industries et toxicologues, peu s’aventurent à définir les nanotechnologies de manière à engager le dialogue sur le lien entre risques et qualité de vie. Les nanotechnologies ont été rendues possibles par les progrès technologiques, notamment en biologie grâce à l’avènement de techniques très sophistiquées en microscopie, confocale, à fluorescence, à sonde locale, à effet tunnel, qui ont permis d’observer, puis de manipuler, des objets à l’échelle moléculaire, voire atomique. Plus que la taille, c’est l’ignorance actuelle des différences entre propriétés de la matière dans les mondes nano et macro (à l’échelle humaine) qui est en jeu dans l’évaluation de la pertinence éthique ou non de développer certaines nanotechnologies plutôt que d’autres.
Comment évaluer la description d’une technoscience que la plupart d’entre nous peinent à comprendre, tant elle est liée aux principes contre-intuitifs de la mécanique quantique, alors que paradoxalement ses effets technologiques envahissent notre quotidien dès le dentifrice du matin ? Aurions-nous perdu par là même la capacité d’être les auteurs de notre avenir ? Ou, au contraire, serions-nous enfin devenus capables de devenir les auteurs de notre avenir grâce aux outils technologiques combinés ? Cette indétermination du discours même montre en soi notre incapacité à réguler ce qui semble dérégler nos représentations. Cette ignorance est-elle, selon l’expression de Bruno Latour, ce qui prévient de « faire entrer les sciences en démocratie » ?
Les écrivains Irving John Good (en 1965 déjà) et Vernor Vinge utilisent le terme de singularité pour décrire le moment de l’évolution humaine où les progrès technologiques seront si rapides que l’esprit humain ne pourra plus les comprendre, étant limité par ses capacités corporelles spatiotemporelles, alors que les machines fonctionnent dans le virtuel et donc dans la multiplication des possibles. La question des posthumanistes, face à cette décorporation, est de savoir si le corps est une chance ou une contingence à dépasser. Ce scénario me semble définir très exactement l’aliénation, voire la réification, de l’humain s’il est présenté comme destin d’une technologie naturalisée.
Il n’est dès lors pas anodin de considérer l’hypothèse de la singularité comme symptôme de cette mutation. Elle semble déplacer les frontières du réel d’une manière invasive, en ce que la frontière entre l’intérieur et l’extérieur, notre chair et la chair du monde, semble de plus en plus illusoire, et la notion d’individu menacée en termes d’intégrité et par là même l’idée d’humanité liée au concept d’individualité corporelle et juridique. Pour Ray Kurzweil, auteur de The singularity is near9, ce moment provoquera l’avenir d’un monde qui restera humain, mais qui dépassera nos déterminismes biologiques.
L’idée qui traverse ce champ est que l’espèce humaine se trouve dans un évolutionnisme mélioriste radical qui perturbe l’idée de nature humaine et exige notre imagination éthique pour penser comment l’échelle de cette évolution exige ou non de penser le posthumanisme comme étape suivant le postmodernisme. Il est de notre responsabilité de prendre ces scénarios au sérieux, et de nous poser la question en termes d’expérience de pensée avant qu’elle ne devienne, par notre passivité, un destin, une naturalisation des nanosciences.
Notre perception phénoménologique de nous-mêmes résiste à l’évolution des technostructures et aux émergences qui nous définissent de manière de plus en plus prégnante. Si nous avons cru longtemps pouvoir en accompagner la trajectoire de manière réflexive par des régulations éthiques, une telle démarche semble de plus en plus fragile et vulnérable, voire inopérante.
Nos capacités à développer les techniques ont dépassé nos capacités cognitives à en saisir la complexité et ont aboli la frontière entre ceux qui savent et ceux qui ne savent pas. Il semblerait que personne ne sait plus vraiment et que ce soit la légitimité de la prise de risques en termes épistémologiques ou éthiques qui pose problème, d’où l’usage de la science-fiction pour tenter de se représenter l’irreprésentable. Revient alors la question de la distinction entre vrais et faux prophètes.
Le développement des technologies est, en ce siècle, beaucoup plus rapide que le rythme de changement des paradigmes de la culture, fondés sur nos représentations partagées. La notion d’intériorité de la conscience serait mise ainsi au défi par une conscience externe qui effacera les frontières entre le dedans et le dehors, entre le moi peau et la chair du monde, et signerait une autre blessure narcissique de l’humanité.
La solution, comme certains le suggèrent, est-elle de faire marche arrière ? Ou, de manière plus imaginative, de proposer des alternatives en questionnant le contexte d’économie néolibérale qui promeut la confusion entre le bon et l’utile ? La transformation des choses par leur médium technologique détermine d’une certaine façon la signification que nous donnons aux évènements. Ce qui change, c’est que nous risquons d’être les témoins plutôt que les acteurs réels d’un moment évolutionniste, tant les paramètres sont complexes. Nous faisons face au déploiement en rhizome d’un système qui bifurque à l’infini, comme nous l’annonçait Deleuze. Telle est la doctrine du transhumanisme. Défini par Julian Huxley en 1957 comme un phénomène par lequel « L’homme reste l’homme mais se transcende par la réalisation de possibilités nouvelles de la nature humaine10 ».
La vulnérabilité biologique doit-elle être effacée par la technologie ?
Tout se passe à terme comme si nous avions mieux le choix et la possibilité entre préserver nos déterminismes et notre intelligence biologique, ou la remplacer par une nouvelle intelligence et une vie dite artificielle, faite de neurones synthétiques, dont le potentiel serait mille fois supérieur aux performances de nos tissus biologiques.
Le dilemme selon lequel les humains devraient choisir leur vulnérabilité biologique ou la dépasser par le rejet de leur chair et de leur mortalité pour atteindre la longévité et l’intelligence est-il crédible ? Ou sommes-nous face à une réécriture du mythe grec avec des outils plus performants qui nous invitent à repenser notre temporalité en strates, où le réel et l’imaginaire s’interpénètrent dangereusement ? Le rêve est en effet toujours le même, découvrir le secret de la matière, faire que des nanobots imitent les globules rouges en attendant de ne plus avoir besoin d’organes du tout pour exister. Dans cette optique, la frontière s’efface quant à savoir s’il s’agit de produire la connaissance du réel ou le réel lui-même.
Le posthumanisme doit donc être compris comme un discours critique des limites du mécanisme. Il s’inscrit épistémologiquement dans les catégories descriptives utilisées par la biologie et la postgénomique, qui visent à déconstruire les identités closes, permettant d’autres associations, et forment une inventivité transgressive de la grammaire de l’humain. L’association des sciences, qui constitue la possibilité d’émergence des nanotechnologies, fonctionne alors comme un paradigme de quelque chose qui permet le passage de l’idée à l’action dans un monde de plus en plus virtuel, mais économiquement très dynamique.
Nous affrontons une asymétrie entre les représentations ontologiques et épistémologiques que l’éthique est supposée articuler et traduire. L’évolution et l’auto-organisation requièrent une approche empirique fondée sur les conséquences. Le but ultime semble se limiter à rassurer le public, sans pouvoir donner de probabilité objective.
Conclusion
Puisque les conséquences de cette trajectoire épistémo-éthique sont indéterminées, la seule chose dont nous puissions être certains est que le lien entre microphysique et nanosciences exige d’être nuancé par une sortie de la perspective téléologique. Le discours nanoéthique, qui se met au service de cette aventure, ne peut prétendre avoir les moyens de limiter les risques et augmenter les bénéfices à partir de savoirs qui lui demeurent encore intraduisibles. Nous devons séparer les niveaux épistémologique et éthique, si le but est de penser l’évaluation normative d’incertitudes ou la légitimité de développer des technologies dont les conséquences sont hautement indéterminées. Nous ferions alors face à une nouvelle forme d’incertitude, associée à la complexité, qui rend le principe de précaution inopérant, car nous ne pouvons quantifier ce risque en termes existentiels. C’est à partir d’une connaissance des limites et des incertitudes des nanosciences qu’un discours de régulation de ces nanosciences pourra être élaboré, à condition de contextualiser l’approche éthique comme projet de société.
La nanoéthique fondée sur des modèles d’évaluation de risques utilitaristes classiques ne nous donne pas les moyens de penser une stratégie de responsabilisation des acteurs, tant que ceux-ci doivent se soumettre à la rationalisation instrumentale des industries intéressées. Le cadre conséquentialiste d’évaluation est insuffisant et incapable de répondre aux questions socioéthiques soulevées par les retombées sociales des nanotechnologies. Il ne s’agit plus ici de savoir, mais d’intentionnalité éthique, celle de continuer à donner de l’importance à la liberté de désirer un futur qui aurait besoin de nous comme égaux. Éliminer l’irréductible singularité des sujets, hétérogène à la singularité de Vinge, concentrée sur le changement technologique ou l’intelligence artificielle, changerait l’espèce humaine, la condamnant au méliorisme de survie.
- Gaston Bachelard, Le nouvel esprit scientifique (1934), Les Presses universitaires de France, dixième édition, 1968.
- NBIC : Nanotechnology, Biotechnology, Information technology and Cognitive science : Converging Technologies for Improving Human Performance.
- Notamment : Queen of angels, et Blood music, de Greg Beer ; Queen city jazz, Nancy éd., 2002 et Imaginaires sans frontières, de Kathleen Ann Goonan, dont les intuitions se trouvent naturalisées dans le discours NBIC.
- Vernor Vinge, « Technological Singularity », VISION-21 symposium soutenu par le Nasa Lewis Research Center et l’Ohio Aerospace Institute, 30 – 31 mars 1993 (www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html).
- Éric Drexler, Engins de création, Vuibert, 2005.
- Henri Atlan, Le vivant post-génomique, ou qu’est ce que l’auto-organisation, Odile Jacob, 2010.
- Henri Atlan, ibidem.
- Vernor Vinge, What is singularity?, mais aussi La captive du temps (1986), qui traite l’histoire d’un groupe d’humains qui auraient survécu à la singularité.
- Ray Kurzweil, The Singularity Is Near : When Humans Transcend Biology, The Viking Press (Penguin), 1re édition 2005.
- Julian Huxley, « Transhumanism », dans New Bottles for New Wine, Chatto & Windus, 1957, p. 13 – 17.