Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.
Faut-il avoir peur des neurosciences ?
Ces quinze dernières années, nous avons appris à propos de notre cerveau davantage que pendant les dix mille ans qui ont précédé. Les progrès récents en matière de neurosciences sont fulgurants, passionnants et… interpelants. Nul doute qu’ils vont contribuer à modeler l’évolution de nos sociétés dans les années à venir. Dans quelle mesure, en quels sens, nos vies en seront-elles influencées ? Le point d’interrogation reste encore de mise. Cette incertitude ne nous dispense pas de tenter d’anticiper les ouvertures, mais aussi les périls que cette évolution apportera.
Il y a plusieurs façons d’être normal. Il y a notamment une manière statistique et une manière normative. On peut par exemple être anormalement grand, ou avoir une oreille exceptionnellement musicale. Ces manières d’être « anormal » n’interfèrent pas avec les capacités de l’individu à fonctionner dans la société. Par contre, quand le concept de normalité prend une tournure normative, des implications éthiques apparaissent. Car la question qui se pose est alors : dans quelle mesure ceux et celles qui divergent de la norme doivent-ils y être ajustés ?
Il est un fait que de nombreuses fonctions ou caractéristiques physiologiques ont bel et bien un optimum que l’on peut considérer comme une norme : une vision à 10/10 par exemple. Pour une infinité d’autres, par contre, c’est plus difficile : quel est l’optimum du don des mathématiques ? D’une émotion ? Quelle devrait être la norme d’une bonne capacité de concentration ? Ou encore, sachant que les fonctions de mémoire visuo-spatiale atteignent leur maximum dans la tendre enfance, faut-il considérer que tous les individus ayant dépassé cet âge sont déficients ? De même, on peut se demander où mettre la frontière entre un tempérament morose et une dépression. Ou entre un enfant turbulent et un « trouble des conduites » déviant. Et à partir de quelles limites les déficits de mémoire liés à l’âge devraient-ils passer de « conséquence normale de l’âge » à « pathologiques », voire « signes de démence » ? Le continuum de la normalité peut varier au fil de la vie d’un même individu.
De tous les déclins qui guettent nos fonctions cérébrales, la toute grande majorité apparait très progressivement. Comprendre les mécanismes à l’œuvre permettra non seulement de mieux traiter les déficits avérés, mais aussi de les dépister au plus tôt. Ce qui veut aussi dire que l’anormalité vient petit à petit chevaucher le champ de la normalité. Et cela ouvre de nouvelles questions : à partir de quand devient-on malade ? À partir de quand faut-il traiter ? Et pour atteindre quel objectif ?
S’ajoute à cela la dimension sociétale : ce qui est considéré comme normal dans une société change avec le temps. Il y a trente ans, avoir de mauvaises dents était chose banale ; aujourd’hui, on vous fait comprendre que « vous pourriez y faire quelque chose ». Trivial ? OK, cherchons un autre exemple. Nous attendons de nos enfants qu’ils soient intelligents, nous les drillons pour qu’ils réussissent les tests d’intelligence, et ce faisant, nous hissons vers le haut tant les normes de nos attentes envers eux que la pression sociale qui pèse sur leurs épaules. L’étau de la normalité risque bien de se resserrer de plus en plus.
Les paradoxes du diagnostic précoce
Les techniques de diagnostic actuelles atteignent un degré de raffinement jamais atteint dans notre histoire, tant dans le domaine de l’imagerie cérébrale que des tests génétiques, des marqueurs biochimiques, des testings neuropsychologiques, voire sur la base des critères statistiques de plus en plus détaillés du DSM-IV — l’inévitable manuel de diagnostic de la Société américaine de psychiatrie.
Il faut bien entendu s’en féliciter sur le plan de la santé publique. Nous pouvons désormais modifier notre style de vie ou prendre un traitement préventif si nous savons que nous sommes prédisposés à telle ou telle affection. Les maladies, prises plus tôt, sont moins pénibles, voire parfois carrément évitées. Mais débuter un traitement avant même l’apparition de ses premiers symptômes, c’est une décision dont les implications éthiques vont bien plus loin que la logique louable de prévention. Par exemple, faut-il administrer préventivement des neuroleptiques à un adolescent qui a une prédisposition familiale à la schizophrénie ? Ou dont on observerait à l’imagerie des « profils » cérébraux évocateurs (encore à définir), mais sans encore le moindre symptôme ? Ou sur la base d’un comportement « bizarre » comme en ont tant d’ados ? On connait la lourdeur de la psychiatrisation et son retentissement sur l’avenir identitaire d’un jeune esprit avide d’identifications. Mais on sait aussi que plus tard on entame un traitement de schizophrénie, plus lourds seront les handicaps psychosociaux et cognitifs à rattraper. Il s’agit là d’une question aujourd’hui ouverte dans le monde de la psychiatrie, et les progrès techniques à venir n’aideront pas nécessairement à la résoudre.
Un autre exemple : il ne se passe pas un jour sans qu’on nous annonce de nouvelles méthodes pour détecter la maladie d’Alzheimer de manière très précoce. Une pression médiatique savamment orchestrée par l’industrie pharmaceutique pousse quinquagénaires et sexagénaires affolés vers les consultations de mémoire. Une nouvelle catégorie de diagnostic a même été créée pour eux : le MCI, Minimal Cognitive Impairment, catégorie fourretout sans réelle base scientifique, qui accueille ceux pour lesquels on ne veut pas se prononcer, mais sur qui on laisse tout de même planer la menace : 10 à 15% d’entre eux « convertiront » leurs symptômes en démence vraie endéans les cinq ans.
La tendance actuelle est au « pari thérapeutique » : prescrire, avant que le patient ne devienne ouvertement symptomatique, des médicaments censés retarder le déclin fatidique, mais qui n’ont pas encore apporté la preuve de résultats véritablement convaincants. Une tendance aujourd’hui renforcée par d’immenses études cliniques à l’échelle mondiale, considérées par certains critiques comme des manœuvres cyniques de l’industrie pharmaceutique qui joue là sur l’anxiété spontanée de la population. Traiter préventivement : l’enjeu est ici mirobolant dans nos populations vieillissantes.
Les nouvelles technologies de diagnostic permettent aussi de faire des prédictions non seulement sur des maladies futures, mais aussi sur toute une série d’états mentaux. Certains spécialistes de l’imagerie promettent sous peu des « profils » de personnalités dépressives, agressives, « antisociales », de tendances pédophiles ou alcooliques, etc. Même les attitudes racistes ou les opinions politiques et religieuses seraient lisibles dans les ondes de l’EEG. Par conséquent, il ne faudrait pas s’étonner de voir proposer au public, dans un futur proche, et peut-être même en dehors de tout contexte médical, des dépistages tous azimuts, du comportement déviant à médicaliser au plus vite, au don musical à faire fructifier à tout prix…
Médicaliser la société
Un autre problème soulevé par l’extension du domaine diagnostique est celui des « nouvelles pathologies ». Par exemple, ces dernières années ont vu une augmentation impressionnante des nouveaux diagnostics en psychiatrie. Cela est en partie dû au perfectionnement des diagnostics, basés sur une meilleure compréhension du fonctionnement cérébral. Mais en même temps, de nombreuses situations autrefois considérées comme dans les limites de la normale, ont désormais basculé sur le versant de la pathologie, et pas seulement pour des raisons scientifiques, mais aussi sous la pression de certains intérêts commerciaux et/ou sociaux.
Il faut rappeler que le domaine psychiatrique est caractérisé par une quasi-absence de critères objectifs pour baliser les diagnostics. Le Diagnostic and Statistical Manual (DSM-IV et bientôt V) a donc été créé en 1952 dans le but d’harmoniser, à l’échelle des États-Unis (et donc du monde entier), ces critères de diagnostic beaucoup trop imprécis pour mener des études cliniques de grande envergure. C’était nécessaire : il fallait que les psychiatres de différents pays puissent converser de schizophrénie ou de dépression majeure en étant certains de parler de la même chose. Cette standardisation des critères de diagnostic a indéniablement été profitable tant pour les patients que pour la science psychiatrique. Mais, de l’avis de très nombreux praticiens, elle atteint aujourd’hui un tel degré de systématisation que les patients ne sont plus vus qu’à travers leurs symptômes, aussitôt assimilés aux pathologies auxquelles ils correspondent dans le DSM-IV, ce qui amène tout aussi automatiquement le traitement médicamenteux ad hoc, fourni par l’industrie. L’individu, avec sa souffrance globale, est médicalisé, mais n’est plus entendu.
Il est notoire qu’en matière de santé, toute étiquette médicale apposée sur n’importe quel problème de la vie quotidienne confère à ce problème une sorte de reconnaissance (et parfois d’exonération ?) aux yeux de la société. Une étiquette qui apporte de surcroit la promesse implicite (et parfois fallacieuse) d’un traitement. On assiste actuellement à l’élargissement de toute une série de concepts médicaux, qui, au fur et à mesure que le « bon sens populaire » s’en empare et l’interprète, perdent de leur précision et englobent de plus en plus de problèmes bénins, sans véritable justification médicale. L’exemple du trouble déficitaire de l’attention avec ou sans hyperactivité (TDAH) en est une bonne illustration, développée par le Néerlandais Micha De Winter. Selon ce spécialiste de l’éducation, de nombreux parents cherchent à obtenir cette « certification » pour leur enfant turbulent parce que cela leur fournit un droit à exiger pour lui des attentions spéciales tout en écartant toute responsabilité de leur part, liée à l’éducation par exemple. Le philosophe français Pascal Bruckner avait déjà pour sa part développé l’idée de « victimisation » qui évolue en parallèle à cette médicalisation de la société. Le rôle de l’industrie pharmaceutique et des associations de patients dans ce phénomène est extrêmement ambigu, puisque les patients réclament très logiquement des autorités les traitements les plus pointus pour leurs pathologies, ce qui sert les intérêts de l’industrie, qui à son tour, soutient (et parfois crée…) les associations de patients, généralement non subventionnées par les autorités.
Ce qui est préoccupant dans un tel fonctionnement est que l’accent est mis avec insistance sur les problèmes individuels et non sur le contexte social. À tel point que ce qui était considéré comme une problématique « sociale » dans les années septante a tendance à se parer aujourd’hui du label « neuro » Chercher les racines de l’agressivité des jeunes dans leurs gènes ou leurs « profils cérébraux » plutôt que dans leur environnement social est tentant. Et donner des médicaments pour calmer des enfants difficiles à l’école évite de devoir questionner la relation de l’enfant à son environnement familial et scolaire. La responsabilité est transférée de la société à l’individu, et la solution devient médicale.
Ce faisant, ne nous risquons-nous pas de médicamenter des maladies que nous avons nous-mêmes créées en modifiant nos repères culturels et sociétaux ? Et de transmettre à nos enfants l’idée que tout problème existentiel trouve sa solution dans une pilule ?
« Do not adjust your mind. The fault is in reality »
(graffiti anonyme).
Augmenter ses performances
La seconde frontière de la normalité est celle qui la sépare de la « supernormalité ». Là où traiter une maladie ramène un individu vers des normes typiques de son espèce, augmenter ses performances l’emporte au-delà de ces caractéristiques. Or l’homme a toujours été fasciné par l’idée de repousser les limites de sa condition. De la tasse de café matinale au dopage sportif, du Viagra aux drogues hallucinogènes, tous les moyens ont été explorés… et beaucoup ont déjà trouvé leur place dans notre vie quotidienne. Mais aujourd’hui, les nouveaux développements des neurosciences nous font entrevoir la possibilité d’aller bien plus loin encore. Bien sûr, les premiers à en bénéficier seraient théoriquement les malades atteints de déclin de certaines fonctions cognitives. Mais le pas sera vite franchi, du traitement à l’amélioration des fonctions normales (cognitives, émotionnelles, comportementales). Nous risquons alors d’assister à un déplacement des frontières de la normalité, avec beaucoup de nouvelles questions éthiques aussi bien individuelles que sociétales.
Jusqu’à présent, l’amélioration des performances a essentiellement été obtenue par l’usage de substances pharmacologiques sur prescription : stimulants améliorant la vigilance, antidépresseurs améliorant l’humeur, médicaments améliorant la mémoire, etc. La connaissance croissante de la pharmacologie cérébrale va permettre de mettre au point des molécules mieux ciblées, qui auront de ce fait moins d’effets secondaires. Elles pourraient donc probablement assez vite être disponibles sans ordonnance et faire l’objet de publicités, puisque sans danger. Ce ne seront même plus des médicaments, mais des molécules à usage récréatif.
Prenons l’exemple de la recherche sur les médicaments pour la mémoire. Développée dans le but louable de venir en aide aux personnes dont les facultés cognitives sont en déclin, elle a déjà obtenu certains succès (avec les réserves mentionnées plus haut). Mais un peu partout dans le monde, des start-ups sont entrées dans cette compétition à grand renfort de coups médiatiques et de prises de participations financières vertigineuses. Leur objectif avoué : l’amélioration pure et simple de la mémoire, sans aucune vocation thérapeutique. Un marché potentiel fabuleux. L’éthicien américain Paul Wolpe prédit que ces substances seront commercialisées dans les dix ans à venir, mais d’autres signalent qu’elles percolent déjà dans notre société. Il est d’ailleurs notoire que les étudiants des campus nord-américains consomment couramment du méthylphénidate, le médicament officiellement enregistré pour le traitement du TDAH, qui favorise la concentration. Cela commence aussi chez nous.
Le cas du modafinil est interpelant aussi. Ce médicament prescrit pour une maladie rare appelée narcolepsie (caractérisée par des accès de sommeil incoercibles) est aujourd’hui disponible sur internet. Les militaires y accordent énormément d’attention ; il se dit d’ailleurs de sources sérieuses que les soldats américains en mission en Irak en ont été copieusement approvisionnés.
Plus proche encore de nous, on peut s’interroger sur la tendance à prescrire des antidépresseurs — dont on connait bien aujourd’hui la relative innocuité — non plus uniquement pour soigner les dépressions légères ou les angoisses, mais simplement pour se sentir bien, ou plutôt « mieux que bien » Les Anglo-Saxons appellent ces produits des mood-brighteners. Un certain Aldous Huxley leur avait quant à lui donné le nom de « soma », il y a quelques décennies déjà…
La société du bonheur immédiat
« Où est le problème ? », demanderez-vous peut-être. N’est-il pas devenu exagérément puritain d’exiger qu’un résultat brillant soit précédé d’efforts pour l’obtenir ? L’idée selon laquelle ce n’est pas le résultat qui compte, mais le chemin parcouru pour y arriver n’est-elle pas d’une époque révolue ? Si les éthiciens s’inquiètent, c’est parce qu’ils craignent que certaines valeurs de base de notre société, fondées sur le mérite, ne s’effacent au profit de celles basées sur la performance à n’importe quel prix. L’exemple du sport de haut niveau est éloquent à ce sujet.
Dans le cas des mood-brighteners, le problème est un peu plus complexe. Car c’est de souffrance humaine qu’il s’agit. À partir de quel degré de souffrance est-il éthique de prescrire un médicament ? Les conceptions les plus récentes à propos de la douleur physique prônent indiscutablement d’agir avant même que la douleur n’apparaisse. Mais en est-il de même pour la douleur morale ? Une vie sans aucune souffrance morale, sans aucune frustration, sans aucun questionnement existentiel ne serait-elle pas dénuée de sens ? Dans une société où la réponse à toute question existentielle serait d’avaler une pilule, ne vivrait-on pas uniquement en fonction du moment présent, sans tirer de leçons du passé, sans prévoir le moins du monde l’avenir ? Il n’y aurait plus besoin de s’interroger sur le sens de la vie, puisque celle-ci se résumerait à jouir de l’instant présent.
Cela nous mène bien au-delà du cadre de la médecine et des médicaments. Il serait en effet terriblement paternaliste de considérer que seuls les médecins auraient le droit de juger si une douleur morale est acceptable ou pas et de détenir le sésame vers la pilule qui allège le poids des destins… C’est un pouvoir et une responsabilité qui dépassent de loin leurs compétences. Mais à qui reviennent-ils alors ?
Qui suis-je au juste ?
Finalement, la question devient essentiellement identitaire : « Qui suis-je en réalité ? » Certains craignent que l’usage répandu de substances modifiant notre perception du monde n’ouvre une nouvelle page dans le catalogue des troubles psychiques, celle des troubles de sa propre identité. Le médicament me rend-il étranger à moi-même, ou au contraire révèle-t-il le vrai moi ? Le médicament a‑t-il induit une nouvelle personnalité ou a‑t-il brisé les barrières qui m’empêchaient d’être moi-même ?
Car le cerveau est l’organe de l’identité personnelle ; c’est là que s’élabore notre personnalité, notre moi profond. Agir sur le cerveau n’est pas aussi anodin que transplanter un cœur ou retirer un lobe de poumon. Il est aujourd’hui possible d’implanter dans le cerveau des électrodes qui modifient profondément la personnalité. Des interventions chirurgicales qui suscitent l’admiration quand il s’agit de stopper les mouvements parasites d’une personne souffrant de maladie de Parkinson, mais qui en laissent plus d’un mal à l’aise quand on agit par la même voie sur des troubles obsessionnels compulsifs (TOC) ou sur des dépressions profondes.
Pourquoi ces deux poids, deux mesures ? Ne s’agit-il donc pas dans les deux cas de rétablir le fonctionnement de circuits neuronaux déficients ? Il nous est difficile de concevoir que notre cerveau soit à la fois corps et esprit. Mieux : que tout ce qui se passe dans notre esprit soit le résultat d’un phénomène se produisant physiquement dans notre encéphale. Pourtant, chacune de nos pensées correspond bel et bien à un corrélat neuronal que le pragmatisme de la science permet aujourd’hui de résumer à des mouvements de molécules à travers les membranes de nos neurones.
La fin du libre arbitre ?
Nous sommes tous persuadés, en tant qu’adultes en pleine possession de nos capacités d’être libres de nos actes et de nos pensées et donc également responsables de ceux-ci. Mais le concept de libre arbitre ne se laisse pas aisément enfermer dans le cadre neuroscientifique. L’imagerie cérébrale ouvre des fenêtres inattendues sur nos neurones, et donc sur le fonctionnement de nos esprits. Tellement inattendues qu’il nous faudra peut-être redéfinir les limites de la vie privée et de la liberté personnelle…
Tout le monde s’est déjà émerveillé d’apprendre que les scientifiques pouvaient dorénavant « voir le cerveau fonctionner » et donc comprendre les mécanismes sous-jacents à nos prises de décisions. Mais dans ce monde où tout va très vite, ils ne sont déjà plus les seuls à s’intéresser à ces fascinantes questions. Le monde de la finance et celui du marketing les ont déjà annexés, avec des logiques internes fort différentes de celles du monde scientifique, et en s’accommodant de règles éthiques probablement moins contraignantes.
Par exemple, la « neuro-économie », et plus particulièrement la « neuro-finance », suit de très près les recherches portant sur la manière dont nous effectuons des choix et prenons des décisions. Car nous sommes loin d’être aussi rationnels que nous le pensons et toutes les émotions parasites qui peuvent venir gripper des décisions aux conséquences financièrement périlleuses doivent être débusquées et maitrisées. Les tradeurs sont donc à la recherche d’outils nouveaux pour améliorer leurs performances, sous la forme de logiciels « d’analyse de sentiments » leur permettant de comprendre quand ils sont en train de surestimer l’un ou l’autre élément de leur échiquier décisionnel. La nouvelle tendance branchée du neurofeedback y contribue également ; en compilant les mesures d’activités cérébrales de transactions précédentes et en les corrélant à celle en cours, il leur serait possible d’optimiser en temps réel leurs prises de décisions. Nous gardons un prudent conditionnel car les preuves scientifiques de l’efficacité de toutes ces techniques d’amélioration des performances cérébrales font encore cruellement défaut. Ce qui n’empêche pas leur business de tourner…
Quant au neuromarketing, c’est une discipline déjà bien implantée depuis une dizaine d’années, notamment depuis l’expérience célèbre qui a montré que les consommateurs optent plutôt pour le Coca-Cola lorsque le nom de la marque leur est donné, alors qu’ils préfèrent généralement le gout du Pepsi quand ils doivent choisir à l’aveugle. Là aussi il s’agit de comprendre quels mécanismes sous-tendent les choix des consommateurs, de tester les spots publicitaires et de les optimaliser pour les rendre plus efficaces. Les neuromarketeurs font pour cela appel aux techniques classiques de l’imagerie cérébrale que sont le bon vieux électro-encéphalogramme et la résonance magnétique fonctionnelle — il se chuchote même que les appareils de nos hôpitaux universitaires belges tournent la nuit pour de lucratives expériences de ce type. En cernant les mécanismes neurologiques liés à la préférence, l’attention, la mémorisation et les émotions, nos décisions d’achat sont disséquées et mises à nu. Pauvres de nous qui croyons encore à l’impulsivité de nos achats… Néanmoins, si nul ne doute plus de la redoutable efficacité du marketing, de nombreux scientifiques restent sceptiques face à ce déploiement de techniques de pointe et haussent les épaules devant ce qu’ils qualifient de mystification. Tels sont pris ceux qui croyaient prendre ?
Lire dans mon cerveau ?
Mais la neurotechnologie la plus prometteuse, aux dires de Zach Lynch, l’un des observateurs les plus pointus (et ambigus ?) des neurosciences, ce sont les systèmes de détection de la vérité. Poussant toujours plus loin l’idée de lire dans nos pensées, ces approches ont connu un boom dans les années qui ont suivi le 11 septembre 2001. Les nouvelles techniques qui ont été développées sont bien plus ambitieuses que le basique polygraphe, qui détecte en fait les changements physiologiques lors des réactions émotionnelles supposées accompagner le mensonge.
C’est dorénavant à la source que les policiers tenteront d’aller chercher la signature du mensonge : dans le cerveau lui-même. Le Brain Fingerprint est une version améliorée de l’électroencéphalogramme. Un bandeau placé autour de la tête capte les ondes émises par le cortex cérébral lorsque l’individu reconnait des images ou des mots. L’appareil parvient ainsi à rendre un aperçu des informations qui sont stockées dans sa mémoire. Ainsi, même si un candidat terroriste prétend que les images d’un camp d’entrainement au Pakistan n’évoquent rien pour lui, sa mémoire peut affirmer le contraire.
Plus récemment encore, des chercheurs ont appelé à la rescousse la résonance magnétique fonctionnelle, cette technique qui ouvre véritablement des fenêtres sur l’esprit en fonctionnement. L’idée est cette fois de mettre en évidence des zones du cortex qui sont plus actives quand on ment que quand on dit la vérité. Car un menteur doit en effet exécuter plus de tâches que quelqu’un qui dit la vérité, puisqu’il doit imaginer un récit et veiller à ce qu’il soit cohérent. Ce n’est donc pas le mensonge lui-même que la machine détecterait, mais l’effort de réflexion imposé au cerveau, qui doit se souvenir non pas d’une, mais de deux informations contradictoires : la vérité elle-même et sa version travestie.
Ici aussi, le monde scientifique est loin d’être convaincu de la fiabilité des informations récoltées. Cela n’empêche pas certains juges de les utiliser comme preuves et de fonder dessus leurs condamnations. En Inde, pour la première fois au monde, une femme a ainsi été condamnée pour meurtre, en juin 2008, sur la base des résultats d’un détecteur de mensonge neurologique.
Quand le destin s’en mêle…
Il n’y a pas que les détecteurs de mensonges. Depuis quelques années, les scanners et autres examens neurologiques sont de plus en plus souvent évoqués par les avocats américains lors de procès civils ou pénaux pour tenter de prouver, par exemple, que leur client est atteint d’une anomalie cérébrale qui l’empêche de contrôler ses pulsions agressives. Il existe en effet un courant de recherche qui porte sur les « profils cérébraux » caractéristiques de tout un éventail d’états psychologiques et de personnalités, allant de la sensibilité au stress à la prédisposition à l’agressivité, aux « comportements antisociaux » ou à la pédophilie.
Il est un fait que toute société qui se veut démocratique et humaniste ne peut se permettre de condamner un individu aux prises avec des démons intérieurs plus forts que lui, n’est-ce pas ? Mais sous des dehors apaisants, cette manière de déresponsabiliser les individus en les médicalisant ouvre sur d’autres pentes glissantes : la stigmatisation sociale, l’obligation de se faire traiter, voire de se faire « dépister » en vue d’un traitement préventif. Dans une telle société, pas aussi éloignée qu’on pourrait l’imaginer, un enfant étiqueté « criminel dès le bac à sable » — expression chère à Nicolas Sarkozy — ne devrait-il pas subir une revalidation destinée à le faire rentrer dans le rang ? Encore une fois au détriment de toute remise en question de l’environnement social qui mène à de tels extrêmes ? Cette sorte de fatalité prédéterminée porte en elle des germes insidieux qui pourraient mettre en péril des valeurs aussi fondamentales pour notre société que la responsabilité et la liberté personnelle. Et nous ramène à la notion de normalité évoquée au début de cet article.
Notre cerveau est loin d’être un organe comme les autres. Creuset de l’identité personnelle, sanctuaire du libre arbitre, refuge intime du Moi… Percer ses secrets entrouvre une boite de Pandore dont personne ne peut prévoir ce qu’il sortira, tant pour chacun de nous en tant qu’individus que pour la société dans son ensemble. C’est pourquoi, s’il ne faut pas avoir peur des neurosciences, il convient tout de même de se montrer extrêmement vigilant quant à l’utilisation des technologies qui en découlent.
Cet article est en grande partie basé sur les échanges menés par des scientifiques, des éthiciens et d’autres experts européens, qui se sont réunis à Amsterdam en avril 2004, sous l’égide de la Fondation Roi Baudouin et du Rathenau Instituut. Les actes de ce colloque, rédigés par Marjan Slob, Peter Raeymaekers et Karin Rondia sont disponibles sur le site de la Fondation Roi Baudouin, sous le titre « Connecting Brains and Society. The present and future of brain science ».