Voici l’ère néobiotique

Voici l’ère néobiotique

Les transformations à l’œuvre dans l’espèce humaine et dans son environnement global depuis trois siècles dessinent un seuil de notre histoire, une bifurcation marquant l’entrée dans une ère nouvelle. En quelques décennies, tout a changé : non seulement le monde réel où nous évoluons les choses, mais aussi l’image que nous nous faisons de nous-même. Le seul précédent dont la portée soit comparable paraît être le passage du paléolithique au néolithique, voici dix mille ans environ. L’humanité modifia alors progressivement son mode de production (de la chasse-cueillette à l’agriculture-élevage), son mode de transmission (de la parole à l’écriture), son mode de socialisation (du nomadisme à la sédentarité) et son mode de domination (émergence des sociétés hiérarchisées et fonctionnalisées).

Technologies de la nouvelle conscience
L’actuelle métamorphose du monde et des mentalités a eu pour principal accélérateur les évolutions techniques et scientifiques. Cinq domaines technologiques ont ainsi modelé l’imaginaire du XXe siècle : la communication, le nucléaire, la conquête spatiale, la cybernétique et le génie génétique. Leur point commun est d’avoir produit chez l’homme une conscience d’espèce jusqu’alors embryonnaire. Il serait naïf de croire que cette conscience réside seulement dans les discours universalistes et humanistes accompagnant souvent le développement de ces technologies : elle est inscrite, plus simplement, dans leur réalité. Avant de porter des jugements de valeur, il convient d’apprécier les faits.

Par le son, puis par l’image, la communication a rendu l’humanité présente à elle-même dans un temps identique et instantané. Utilisés sur le mode de la haine (nazisme et communisme) ou de l’envie (libéralisme), les nouveaux médias ont avant tout propagé la vision planétaire d’une espèce humaine unifiée où les facteurs de division (entre races, classes ou individus) restaient au fond secondaires par rapport à l’évidence de l’unité. Aryen ou juif, bourgeois ou prolétaire, riche ou pauvre, l’homme est un homme – et même la question totalitaire de son exclusion de l’humanité revenait à poser la question de l’humanité. Le réseau planétaire intégré Internet, dénué de centre et de frontières, apparaît comme l’un des aboutissements d’une communication-monde à destination de l’espèce.
Le nucléaire représente quant à lui une étape nouvelle dans la maîtrise multiséculaire de l’énergie. Deux éléments ont ici interrogé l’humanité : la puissance pure qu’il libère depuis l’intérieur de la matière, dans des proportions jusqu’alors inconnues ; la nouvelle échelle de temps qu’il impose, le problème des déchets radioactifs nous poussant à penser en temps géologique un destin jusqu’alors compté en temps historique. Sur le mode du danger et du risque, le nucléaire met en situation une espèce humaine menacée d’autodestruction et une espèce humaine contrainte de se projeter dans la durée de l’évolution.

La conquête spatiale renvoie pour sa part à l’humanité la fameuse image de la planète bleue, symbole d’un monde fini, clos sur lui-même et perdu dans l’espace. L’un des effets secondaires de cette spatialisation de l’image de la Terre fut l’intensification de la recherche d’un miroir dans cet espace, c’est-à-dire la quête de vies extraterrestres. Une telle recherche (désormais scientifique et pas seulement romanesque ou farfelue) répond à une fascination autant qu’à un réquisit d’unité : s’il existe d’autres consciences agissantes dans l’univers, et si celles-ci entrent en contact avec nous, alors l’humanité ne sera plus seulement un concept abstrait de la philosophie ou une catégorie zoologique, mais un être collectif réel, désigné par une altérité radicale et agissant comme tel.
Tout se ramène finalement chez eux à des jugements moraux, énoncés sur un mode sentencieux ou conjuratoire, mais qui restent incapables de se fonder eux-mêmes. On n’a pas assez pris conscience de cet extraordinaire paradoxe : la pensée moderne, qui, à l’époque des Lumières, opposait la « raison scientifique » aux « préjugés », se retrouve aujourd’hui, devant l’essor des sciences nouvelles, dans la même position « religieuse » (sacralisation du génome humain et de la « vie ») dont la dénonciation lui avait autrefois permis de s’imposer.

La cybernétique et ses variantes (intelligence artificielle, automation, robotique, domotique, etc.) portent en elles deux autres révolutions : elles donnent au monde inorganique le mouvement autonome que la philosophie classique considérait comme une caractéristique de l’organique ; elles dotent les machines de procédures de réflexion et de décision (information-command) propres au cerveau humain. Notre raison se trouve dès lors concurrencée par les machines quand les passions renvoient au monde animal : ce déplacement des frontières nous oblige lui aussi à tenter de repenser l’humain dans sa singularité. Mais la génétique intervient pour rendre cette tâche plus ardue.

Déjà projetée dans l’espace fini par Copernic, l’humanité a été immergée dans le fleuve du vivant par Darwin et Mendel. L’espèce humaine se conçoit comme le moment provisoire d’une évolution procédant essentiellement par sélection naturelle. Elle partage avec le règne animal et végétal les éléments fondamentaux qui la composent – les gènes. Ce caractère fondamental de l’information génétique ne procède pas d’un quelconque réductionnisme : il est désormais amplement démontré par l’expérimentation. Permutez tel gène de la drosophile, et vous modifierez totalement l’organisation de son plan anatomique ; transférez le gène de la luminescence des lucioles dans un plant de tabac, et vous créerez un végétal phosphorescent ; introduisez tel allèle dans le génome d’un embryon humain, et vous le condamnerez à l’autisme, à la dyslexie, à l’Alzheimer, etc.

Laissant de côté l’astronautique, le nucléaire, la communication, nous nous intéresserons ici aux deux dernières avancées technoscientifiques que nous venons d’évoquer et que nous nommons « la révolution cognitive et moléculaire ». Leur point commun est d’apporter de nouveaux éléments de réponse à la question : qu’est-ce que l’homme ? En ce domaine, la science comme discours de la totalité affronte désormais de plain-pied ses deux vieilles concurrentes : la religion et la philosophie.

Accroissement de la taille et de la complexité du cerveau humain
La révolution cognitive a pour origine une compréhension nouvelle des mécanismes humains de la cognition et de leur importance dans l’évolution. À travers la neurophysiologie, la psychologie et les sciences cognitives, son objectif n’est autre que de déchiffrer l’énigme de la conscience, de l’esprit, du « moi » (self). Pour ce faire, il a fallu opérer un détour par l’histoire de notre espèce.

À l’échelle évolutionnaire, la caractéristique saillante de l’humanité réside en effet dans l’accroissement de la taille et de la complexité de son cerveau. Le cerveau des hominidés, dont l’actuel Homo sapiens sapiens est le seul survivant, a triplé de volume en 1,5 millions d’années. Une durée infime, si on la compare au processus d’encéphalisation progressive des mammifères, qui s’est étalé sur plus de 200 millions d’années. Les Australopithèques avaient un cerveau dont le poids et l’organisation étaient comparables à ceux des chimpanzés : chaque étape de l’hominisation (Homo erectus, Homo abilis, Homo sapiens) nous en a éloignés. Une des contreparties de cette encéphalisation foudroyante a été la néoténie, c’est-à-dire la continuation du développement du cerveau après la naissance. La gestation devrait durer 21 mois dans l’espèce humaine, mais la mère expulse son enfant au neuvième mois car son pelvis ne pourrait supporter l’élargissement ultérieur de la tête. Contrairement à la plupart de ses congénères du règne animal, l’enfant humain naît ainsi dans un état de faiblesse et de dépendance – et l’évolution a logiquement sélectionné ceux qui eurent l’intelligence de s’occuper durablement de leurs rejetons (l’« investissement parental ») et de s’assurer ainsi de la propagation de leurs gènes dans les générations futures.

Le volume ou le poids du cerveau rapporté à celui du corps n’est pas un critère décisif de l’hominisation (certains animaux, comme la musaraigne, présentent un « meilleur » rapport que l’homme). Outre sa taille, le cerveau humain se distingue par son organisation, sélectionnée elle aussi par l’évolution. Les cent mille générations qui nous ont précédés ont vu l’accroissement du néocortex et la multiplication des réseaux neuronaux au sein des lobes frontaux et pariétaux. Ces zones du cerveau sont réservées aux fonctions cognitives et perceptives complexes comme le langage ou la mémoire à long terme. Dans le même temps, le cerveau a organisé la latéralisation du traitement de l’information : on sait que nos hémisphères droit et gauche se partagent parfois les tâches, ce qui permet d’« économiser » l’énergie nécessaire à l’analyse d’informations nombreuses. Le cerveau humain se distingue donc par la densité exceptionnelle de ses constituants, les neurones, plusieurs milliards de minuscules cellules nerveuses reliées entre elles par plusieurs centaines de milliards de connecteurs, les synapses, et communicant par stimulation électrique et langage chimique, les neurotransmetteurs. Les techniques les plus récentes de l’imagerie cérébrale – tomographie par émission de positons et résonance magnétique fonctionnelle – permettent de « voir » le fonctionnement du cerveau en révélant les réseaux synaptiques actives lorsque nous rêvons, jouons aux échecs ou pensons à l’élue(e) de notre cœur.

Aucun autre organe de notre corps n’ayant connu une évolution comparable, les neuroscientifiques en ont déduit logiquement que le « propre de l’homme » réside dans son cerveau, lequel est réductible à la matière qui le compose – ce qui n’empêche pas de considérer l’esprit ou la conscience comme un tout émergent excédant la somme de ses parties. Notre situation n’a en fait rien de confortable car, comme l’avait révélé Arthur Koestler, nous sommes les seuls être vivants en état permanent de « schizophysiologie », c’est-à-dire de rupture entre les bases archaïques de notre cerveau (perceptions, pulsions, situés sur le pont et le tronc cérébral) et son excroissance récente (cognition, intellection basées sur le néocortex). Une telle rupture provoque des incendies pathologiques aussi bien que des étincelles créatrices.

L’identification des sièges anatomiques de la pensée et ses conséquences
Faut-il comparer les neurobiologistes qui cherchent la conscience dans les neurones aux médecins matérialistes du XVIIIe siècle qui entendaient démontrer l’inexistence de l’âme en disséquant les corps ? Cette comparaison n’est en fait guère valide. Car si les chirurgiens n’ont jamais trouvé le siège anatomique de l’âme, les chercheurs contemporains ont bel et bien identifié celui de facultés considérées comme participant de l’essence de l’homme. Les annales de la neurobiologie regorgent ainsi de cas concrets qui illustrent l’importance centrale du cerveau dans notre rapport au monde. Tel individu souffrant du mal d’Urbach-Wiethe ignorera le sentiment de peur ou même d’appréhension, car ses amygdales sub-corticales sont calcifiées. Tel autre dont les deux lobes temporaux ont été endommagés sera même incapable d’apprendre quoi que ce soit de nouveau – un mot, un son, un lieu, un visage…

Autre exemple : si vous supprimez les aires de Wernicke et de Broca dans le cerveau d’un individu, vous altérez définitivement ses capacités de production et de compréhension du langage. Ce constat ne dit certes pas grand chose sur l’essence du langage – au moins incite t-il la philosophie ou les sciences sociales à ne pas dire n’importe quoi à son sujet. La science définit ici un nouveau champ d’interprétation du langage, variation d’un dispositif biologique de communication – et créée un nouveau dispositif de pouvoir sur lui : pouvoir de le faire apparaître ou disparaître, peut-être d’en modifier demain telle ou telle structure, etc.

On célèbre les noces de l’ADN et du silicium
Par « révolution cognitive », nous entendons donc l’ensemble des découvertes des neurosciences qui ont abouti à la description très sommaire que nous venons défaire du cerveau humain et de sa place exceptionnelle dans la phylogenèse humaine. Les sciences cognitives, la cybernétique et l’intelligence artificielle (IA), désignent pour partie un champ de ce courant, issu à l’origine de la logique et des mathématiques, mais qui devait par la suite rejoindre la biologie. Son objectif est de comprendre et de reproduire de manière mécanique le fonctionnement de l’intelligence humaine, cette dernière étant en l’occurrence considérée comme un mode de traitement de l’information. Dès 1943, lors d’une des célèbres conférences Macy qui jetaient alors les bases de la cybernétique, Warren McCulloch et Walter Pitts affirmaient déjà que le modèle idéal de la machine de Turing possèderait nécessairement les mêmes structures que le cerveau humain. L’esprit est ici analysé comme une succession d’états mentaux s’ordonnançant selon un langage de type logique, lui-même réductible à des opérations computationnelles simples.

Un tel réductionnisme peut faire sourire (ou pleurer). Mais il est à la base du prodigieux développement de l’informatique depuis trente ans, développement qui n’est autre chose que la continuation de l’évolution cognitive à l’extérieur de l’homme. L’informatisation du monde est la projection de l’encéphalisation de l’homme : après avoir déchargé sa main, la technique décharge désormais son cerveau. Le mythe littéraire et cinématographique de la domination de l’homme par des machines intelligentes s’appuie en fait sur une réalité indéniable : parce que la nature et la culture co-évoluent, l’homme devient toujours plus dépendant des artéfacts qui organisent son existence (et même qui conditionnent son existence ou sa non-existence, dans le cas de la médecine par exemple). La « mémoire » de notre ordinateur est déjà l’extension de notre mémoire propre ; et une part importance de notre existence collective est déjà tributaire de machines intelligentes totalités artificielles autonomes dans leurs procédures de décision qui en assurent la régulation quotidienne.

Toutefois, aucune de ces « machines intelligentes » n’est à ce jour capable d’assurer les tâches complexes avec autant d’efficacité que peut le faire le cerveau. Le simple fait de regarder cette page, puis de jeter un œil derrière soi, par exemple, se traduit par des centaines de milliers d’opérations quasi simultanées sur le chemin de l’œil à l’hypothalamus en passant par le cortex. Aucune puce informatique ne peut pour l’instant gérer une telle profusion de données (moins encore de manière holistique comme le fait le cerveau). Y parviendra-t-on un jour ? La réponse est assurément positive en ce qui concerne tous les éléments de la cognition humaine réductible à des performances calculatrices : l’ordinateur Deep Blue bat déjà le champion Kasparov parce qu’il a la capacité matérielle d’anticiper un plus grand nombre de coups. En revanche, la reproduction des éléments plus complexes de la conscience pose d’autres problèmes. La reproductibilité de l’intuition, par exemple, n’est pas pour demain (si tant est qu’elle soit possible).

Pour contourner le problème, un certain nombre de neuroscientifiques se sont donné pour objectif la fusion de la matière vivante et de la matière artificielle. Les noces de l’ADN et du silicium, en quelque sorte.

Cette fusion peut prendre plusieurs formes. La première, qui existe déjà, est celle d’implants artificiels visant à améliorer ou à remplacer des fonctions humaines défaillantes. Exemple : plusieurs dizaines de milliers de sourds possèdent aujourd’hui des implants cochléaires dont les circuits intégrés sont reliés au cerveau. Des prothèses sont à l’étude pour les quatre autres sens humains. Mieux encore : le neurochirurgien américain Roy E. Backay a greffé dans le cortex de deux paralytiques des implants de la taille d’une tête d’épingle qui leur permettent de commander un ordinateur par la pensée. Les neurones des patients se sont en effet logés à l’intérieur des implants. Le fait de penser – stimulation électrique cérébrale – se répercute dans les électrodes des implants et envoie des signaux de commande à la machine.

Quand les programmes informatiques opèrent leur propre sélection
Deuxième piste : l’introduction de la sélection évolutionnaire dans le fonctionnement de la machine. Les algorithmes génétiques sont des programmations logicielles qui produisent leurs propres mutations aléatoires en vue de traiter un problème : confronté à une tâche, l’ordinateur suit ainsi plusieurs pistes à la fois, seules les vies les plus performantes étant sélectionnées et utilisées. La machine « choisit » déjà elle-même – ce qui la rapproche un peu plus de l’intentionnalité de la conscience humaine – et les différents éléments de son programme obéissent aux règles évolutionnaires : mutation, sélection, mimétisme, parasitisme, spéciation. La mise en place d’un cerveau artificiel consisterait alors à relier en réseau des milliers de puces qui joueraient le rôle de neurones humains et donneraient à la machine des « comportements émergents ». Mais cette auto-organisation propre à la vie relève d’une complexité combinatoire dite exponentielle dont les machines sont à ce jour incapables, sans que l’on sache si cela tient à une impossibilité théorique ou pratique (seuil physique des puces).

Troisième voie explorée : non plus insérer l’artifice dans le vivant, mais introduire du vivant dans la machine. Des colonies de neurones seraient ici placées dans des puces à silicium aptes à détecter et à interpréter leurs activités électriques, tandis que des points de stimulation contenus dans les puces seraient capables d’exciter les neurones. Ces expériences ne sont pas de la science-fiction : elles ont déjà été réalisées par le biophysicien allemand Peter Fromberz, qui vient de recevoir le prix Julius Springer de physique appliquée.

On le voit, la machine progresse aujourd’hui avec et dans le vivant. Cette nouveauté a été rendue possible par une autre révolution scientifique, la « révolution moléculaire », qui désigne ici les progrès accomplis par la génétique depuis cent cinquante ans. Nous savons désormais que le matériel génétique, exprimé par les molécules d’ADN (acide désoxyribonucléique), représente le support de l’hérédité, c’est-à-dire le plan de construction ou le catalogue d’instructions permettant l’édification du corps d’un individu, y compris de son cerveau, où siègent ses facultés mentales supérieures. Le génome est reçu à parts égales du père et de la mère dans le cas des espèces sexuées. Dès la fécondation de l’ovule par le spermatozoïde, l’homme est programmé dans son développement : la première cellule contient déjà la totalité du génome (nucléaire et mitochondrial), et cette cellule-souche va se diviser en milliards de cellules différenciées qui formeront les différentes parties de l’organisme (tissus, organes, etc.). On estime que près de 30000 gènes, soit la moitié du génome utile, sont exclusivement dédiés à l’organisation et à la régulation du cerveau.

L’homme peut désormais franchir la barrière des espèces
Le code génétique est le même pour la quasi-totalité du vivant, des microbes à l’homme en passant par les plantes. Certains gènes codant pour l’organisation générale du plan anatomique (homéogènes) sont par exemple identiques chez la mouche, la souris et l’homme – et leur mutation, simplement obtenue par une modification brutale des conditions extérieures, peut provoquer un ré-agencement complet de l’organisme. L’unité moléculaire du vivant explique qu’il est désormais possible de transférer des gènes d’une espèce à l’autre (transgenèse) et de créer ainsi des individus viables, « chimères » ou « hybrides ». Depuis le milieu des années soixante-dix, différentes techniques permettent d’isoler, de cloner et de recombiner les gènes sur les chromosomes. Des animaux comme la chèvre ou le porc sont déjà couramment utilisés dans les laboratoires pour produire des protéines ou des tissus « humains », le gène correspondant ayant été préalablement implanté dans leur génome. Le rêve inquiétant du Docteur Moreau décrit par Wells devient possible : on pourrait par exemple réaliser « facilement » une hybridation expérimentale entre l’homme et le chimpanzé. Le clonage, qui fit grand bruit à l’annonce de la naissance de la brebis Dolly (1997), n’est pas issu d’une découverte de la recherche fondamentale, mais d’une « simple » amélioration technique : en plaçant en état de quiescence (dans un bain à faible valeur nutritive) des cellules différenciées prélevées n’importe où sur le corps d’un adulte, il est possible de les reprogrammer en cellules-souches qui, comme celles de l’embryon dans ses premières heures, peuvent redonner naissance à un organisme complet (et, bien sûr, génétiquement identique au donneur).
Une autre recherche en plein développement, mais beaucoup moins médiatisée, concerne la mise au point artificielle du « génome minimal », c’est-à-dire de la forme vivante la plus simple possible, équipée du bagage génétique le plus léger nécessaire à sa reproduction. L’équipe de Clyde Hutchinson travaille ainsi sur l’analyse de Microplasma genitalium, dont il semble que 250 à 350 gènes seulement soient indispensables à son existence. Les cognitivistes suivent avec la plus grande attention de tels travaux (auxquels ils ont déjà fourni des fondements théoriques) : la fusion du vivant et de la machine suppose en effet la mise au point préalable de micro-organismes « viables »…

Le code génétique a été soumis à l’évolution par sélection naturelle. La théorie néo-synthétique de l’évolution désigne la rencontre entre le modèle darwinien classique et les nouvelles connaissances de la biologie moléculaire : depuis trois milliards d’années au moins, la vie consiste en la réplication de plus en plus efficace et fidèle des gènes qui la constituent, cette réplication du génotype passant bien sûr par la reproduction du phénotype (l’organisme) qui le porte. Chez l’homme, ces gènes ne codent pas seulement les caractéristiques physiques des individus, mais également leurs caractéristiques mentales et comportementales : violence, intelligence, sociabilité, orientation sexuelle, etc.

L’une des entreprises les plus importantes de la « révolution génétique » est le projet Génome humain, lancé en 1988 aux États-Unis et repris par plusieurs centaines de laboratoires publics et privés à travers la planète. Le 1er Décembre 1999, le premier chromosome humain (22) a été totalement séquencé. D’ici à quelques années, ce sont les 60000 gènes qui constituent la carte génétique de l’individu qui devraient être identifiés. À partir de cette cartographie « standard », il deviendra possible d’analyser avec une précision accrue les variations et mutations génétiques impliquées dans des maladies, des comportements ou des aptitudes. L’influence des gènes s’exprime, soit sous forme de causalité directe (cas de quelques 3000 maladies monogéniques déjà identifiées), soit sous forme de risque, de susceptibilité ou de prédisposition (l’asthme, l’obésité, la schizophrénie, l’autisme, certains cancers, l’alcoolisme, le paludisme, etc.). Dans le second cas, certains facteurs environnementaux contribuent à l’expression du gène. Un projet parallèle, « Diversité du génome humain », se donne pour objectif d’étudier les variations de fréquences géniques entre les populations humaines, et donc de mieux connaître l’émergence de notre espèce et sa différenciation en races.

Il devient chaque jour plus évident que le XXIe siècle sera, dans une très large mesure, le siècle de la génétique : car c’est bien la totalité du vivant (y compris lui-même) que l’homme est désormais capable de remodeler, franchissant les barrières naturelles des espèces, créant des hybrides entre des espèces animales, voire mélangeant à sa guise les trois règnes : animal, végétal et minéral. Les débats sur les plantes transgéniques ou le clonage ne constituent à cet égard que les premiers soubresauts annonciateurs de métamorphoses plus radicales.

Toutes les lignes que nous avons précédemment décrites s’entrelacent dans un nœud gordien qui scelle aujourd’hui le destin de notre espèce. Le néolithique achève lentement la réalisation de ses potentialités. Les sciences cognitives et biologiques ont chacune à leur manière dynamité des distinctions jadis familières : animé et inanimé, sujet et objet, humanité et animalité, raison et instinct, culture et nature, s’interpénètrent dans la plus grande confusion. Et le monde technique auquel elles donnent naissance entre dans une phase nouvelle : non plus s’adapter à la nécessité du vivant, mais adapter le vivant à sa propre nécessité.

Le néolithique avait lancé la phase d’« anthropisation « de la planète, c’est-à-dire la transformation de la biosphère en technosphère par modelage systématique de l’environnement non humain. Notre espèce, modèle rameau de primates durant les trois millions d’années du paléolithique, est soudain devenue hégémonique : biosphère et technosphère, qui avaient divorcé voici dix mille ans, s’apprêtent à fusionner. On peut y voir, avec Heidegger l’accomplissement de la métaphysique de la subjectivité, la mobilisation totale de l’étant réduit à l’objet de l’arraisonnement. Mais parce que cet accomplissement porte en lui une possible mutation de son sujet, on peut tout aussi bien y lire un dépassement en devenir.

La technique entre dans une phase de récapitulation et d’accélération
Il est évidemment impossible de prévoir le tempo de cette évolution. Sauf catastrophe finale (mais à quoi bon penser dans cette hypothèse ?), son caractère inéluctable procède de la nature même de la technique. À la suite d’Arnold Gehlen et de l’école d’anthropologie philosophique, nous considérons l’homme comme un être existentiellement contraint à l’action. Cette contrainte procède elle aussi des caractéristiques propres à notre espèce : sens et instincts émoussés, libération de la main-outil, accroissement du cerveau, néoténie, adaptabilité à tous les environnements, etc. Ces attributs sélectionnés par l’évolution expliquent l’émergence originaire de la technique comme palliatif de notre déficience organique : pour survivre et prospérer, notre espèce doit façonner un environnement qui lui soit propre. Dans le geste technique comme dans le récit mythique ou la parole philosophique, l’homme se comprend en se projetant, pour se contempler dans sa projection.

Une telle « décharge », qui guide le destin technologique de l’humanité, s’accomplit dans une tension permanente entre pôles opposés : elle procède d’une source organique (l’homme) en même temps qu’elle crée un monde inorganique (les artefacts) ; elle mobilise la raison pratique en même temps qu’elle obéit à une pulsion non rationalisable ; elle libère et multiplie les potentialités de l’espèce en même temps qu’elle menace de les enfermer dans un mode exclusif d’accomplissement. Le XXIe siècle sera l’un des moments décisifs de cette tension.

Parce que l’humanité transmet de génération en génération la mémoire des faits et des dits, ce développement de la technique présente un caractère cumulatif : son rythme varie, non son orientation créatrice, vers une plus grande complexité visant à une meilleure maîtrise de l’environnement. L’homme a ainsi déchargé sa main avant de projeter son cerveau. Et les nouvelles technologies de stockage et de traitement de l’information se présentent à la fois comme une récapitulation de ce processus accumulatif et une accélération de son organisation en système. Au déclin cyclique des civilisations répond donc la permanence linéaire du destin technique : il nous est interdit de revivre le destin des Grecs anciens, mais nous conservons intacte la possibilité de recréer toutes les machines conçues par leurs ingénieurs. Et si l’on ne peut dire que nous pensons mieux que les Grecs, il est certain que nous naviguons, roulons et volons mieux qu’eux. L’une des principales raisons pour lesquelles l’humanité entrera dans le néobiotique réside peut-être là : dans la fatigue d’une histoire où tout semble avoir été dit, écrit, pensé ; mais où tout reste peut-être à faire pour une autre humanité.

L’humanisme moderne en phase d’implosion finale
À défaut de nous projeter directement dans cette « post-humanité », nous pouvons au moins évaluer quelques conséquences plus immédiates de la révolution cognitive et moléculaire. La plus évidente, dans l’ordre philosophique, est la destruction de plusieurs socles de l’humanisme moderne.

Le premier d’entre eux est celui de l’égalité naturelle des hommes, qui se traduisait par la croyance en la toute-puissance du milieu : les hommes étaient censés devenir ce que leur environnement (familial, social, etc.) en faisait. L’inné (c’est-à-dire en fin de compte la nature humaine elle-même) ne comptait pour rien par rapport à l’acquis. Ce dogme a volé en éclats : à mesure que nous déchiffrons le génome humain et comprenons les mécanismes psychobiologiques d’expression des caractères et des aptitudes, le rapport de forces pèse de plus en plus en faveur de l’inné.

Malgré le silence prudent qui entoure en France les travaux les plus novateurs de la génétique du comportement, il ne fait plus guère de doute que l’intelligence (ou capacité cognitive générale), par exemple, est largement déterminée par nos gènes. Dans une société qui fait de la rationalité abstraite son principal critère sélectif, tout en se targuant d’un idéal égalitaire, cette découverte est évidemment encombrante : dans la méritocratie libérale, un petit QI a peu de chances de s’intégrer à la Nouvelle Classe dominant les médias, l’économie et les technologies. Un monde de plus en plus complexe suppose une capacité d’adaptation de plus en plus forte : si vous ne savez pas vous servir d’un ordinateur, vous êtes déjà défavorisé dans le monde qui naît. Derrière le beau discours du « progrès pour tous » se met en place une discrète sélection à trois niveaux : ceux qui savent concevoir et programmer des machines, ceux qui savent les utiliser et ceux qui ne savent que consommer – ces derniers, les plus nombreux, se voyant bien sûr reconnaître le droit inaliénable de se vider le cerveau devant des boîtes à images animées par les autres…

La pensée humaniste se rassure encore en affirmant que l’homme se construit par interaction de ses gènes avec son environnement. Ce qui est entièrement vrai, à condition de préciser que toute expérience du monde est postérieure à la constitution du bagage génétique qui en assure les conditions initiales et générales. Contrairement à ce que pensaient Watson et l’école behaviouriste de psychologie, vous ne transformerez jamais en musicien ou en mathématicien un individu qui n’y est pas prédisposé, et cela malgré les meilleurs professeurs du monde. La génétique n’annule pas la liberté, mais elle rappelle le poids de la nécessité. La génétique ne contredit pas le principe d’égalité sociale des chances, mais elle détermine des différences de nature. La société juste devient alors celle qui assure à chacun des moyens égaux d’exprimer la totalité de ses potentialités, tout en sachant que celles-ci s’inscrivent toujours dans une hiérarchie. (Contrairement à ce que l’on pourrait penser, une vision héréditariste des aptitudes de l’individu s’accommode fort bien d’une exigence égalitaire – au sens de l’égalité des chances, non des résultats – de leur éducation : à environnement strictement égal, l’héritabilité devient maximale puisque les seules différences exprimées tiennent aux gènes).

Autres fondements de l’humanisme ébranlés par la révolution cognitive et moléculaire : l’anthropocentrisme et le subjectivisme. Pour la pensée judéo-chrétienne comme pour la pensée moderne, il allait de soi que l’homme était au sommet de la création et au centre du monde. Cette belle assurance avait déjà été ébranlée par ce que Freud nommait « les trois humiliations » : Copernic faisant de la Terre une poussière d’espace, Darwin transformant l’homme en cousin du singe et Freud lui-même annonçant au Moi qu’il n’est pas entièrement maître chez lui. Si la psychanalyse restera probablement dans l’histoire comme une étonnante supercherie à prétention scientifique, il n’en va pas de même pour la révolution cognitive et moléculaire, quatrième grande humiliation de l’homme moderne. Car dans les nouvelles grilles d’analyse qu’elle nous propose, l’homme devient une variation malléable du vivant, le centre toujours provisoire de réseaux complexes d’interaction. La conscience elle-même n’est nullement le pinacle de l’évolution, mais une forme parmi d’autres de la vie, un langage pour partie reproductible et peut-être améliorable. Le neurobiologiste Antonio Damasio a par ailleurs montré que le fonctionnement de cette conscience suppose des associations avec des émotions ancestrales que nous partageons ave la plupart des animaux. Notre conscience se trouve ainsi écrasée entre des fonctions cognitives dites « supérieures », que les machines menacent d’accomplir mieux que nous-mêmes, et des fonctions perceptives qui nous viennent du plus lointain héritage pré-humain !

Où réside l’humanité de l’homme ? La réponse n’est plus du tout évidente.
Tout en plaçant l’espèce à ce point périlleux d’équilibre, la révolution cognitive et moléculaire nous pousse à transmuer notre ancienne domination technique sur le vivant en interpénétration de l’une et de l’autre : l’artificiel et le naturel se colonisent mutuellement à travers des langages formels partagés, tout comme les gènes s’échangent leurs informations. On passe ainsi d’une logique de concurrence à une logique de convergence. On se souvient alors des mots de Nietzsche : « nous humaniserons la nature tout en la délivrant de son travesti divin. Nous lui prendrons ce qui nous est nécessaire pour porter nos rêves au-delà de l’homme. Il naîtra une chose plus grande que l’orage, la montagne ou la mer ».

Comme le soulignait Heidegger dans sa célèbre lettre à Jean Beaufret, la question centrale de l’humanisme occidental est : où réside l’humanitas de l’homme ? À la lumière de la révolution cognitive et moléculaire, la réponse à cette question n’est plus du tout évidente. On peut même dire – et c’est une excellente nouvelle – qu’il n’y a pas d’humanité de l’homme au sens où il n’existe pas de socle transcendantal (âme chrétienne, idée platonicienne, raison kantienne, etc.) qui nous couperait radicalement du reste de la nature, qui nous distinguerait absolument de la matière vivante, qui représenterait un état stable et immuable de notre espèce. Car toute espèce est un processus ouvert, non une structure fermée. Elle n’est qu’un seuil de la différence, que l’homme peut désormais franchir dans les deux sens. Dans un récent essai, le biologiste américain Lee Silver remarque par exemple que l’élite cognitive du XXIe siècle pourrait devenir, par améliorations génétiques successives, une nouvelle espèce au XXIIIe siècle. Nous seulement ce phénomène est scientifiquement possible, mais il est humainement imaginable : à mesure que l’homme acquiert la conscience de son espèce, il renforce en son sein la volonté d’en sortir.

L’existence du sujet lui-même – le moi autonome du subjectivisme ou de l’individualisme – s’en trouve fortement relativisée, et selon certains annulée. Ce n’est pas un disciple de Heidegger, mais le neurobiologiste Daniel Denett qui souligne : « De la même façon que les araignées n’ont pas à penser à la façon dont elles tissent leur toile, de même nous, les êtres humains, nous n’avons pas à déterminer consciemment et volontairement quels récits nous avons à raconter, et comment les raconter afin de constituer notre moi : nos récits sont certes tissés (ce sont des textures, des textes), mais pour l’essentiel ce n’est pas nous qui les tissons. La conscience humaine, c’est-à-dire le soi en tant que récit, est le produit de ces textes, elle n’en est pas la source ». Pour les sciences cognitives comme pour la biologie moléculaire, l’être individuel n’est pas tant un sujet qu’« un collectif manifestant les propriétés de la subjectivité » (Jean-Pierre Dupuy) – propriétés qui, dans la tradition de l’humanisme occidental, renvoyaient précisément à ces processus de cognition et d’émotion dont les nouvelles sciences découvrent le support matériel et déchiffrent le langage.

L’implosion de l’humanisme se traduit aujourd’hui par son impuissance à penser et à contrôler les nouvelles configurations technoscientifiques. Leur déchaînement a ici valeur de dévoilement : l’humanisme s’oppose par réflexe à certaines perspectives ouvertes par la révolution cognitive et moléculaire, mais il ne sait plus sur quoi fonder en valeur et en normes son opposition. Il se trouve en fait contraint de nier son propre principe (argumentation rationnelle et choix démocratique) au profit d’une posture de type traditionaliste et religieuse : sacralisation laïque de l’humanité, du génome, de la vie, de l’individu.

Retour du refoulé biblique : « tu ne cloneras point »
Les réactions au clonage de la brebis Dolly ont été une admirable illustration pavlovienne et planétaire de cette nouvelle posture. Du Vatican à la Maison-Blanche en passant par l’Élysée, les comités de bio-éthique, les télévisions et les journaux, le premier cri fut : « Il ne faut pas ». Retour du refoulé biblique, pulsion de l’interdit : « Tu ne cloneras point ». Et sa variante plus générale : « Tu ne modifieras point ton espèce ». (La dimension biblique de cet interdit se vérifie encore par l’indifférence complète qui entoure les mutations génétiques des animaux en laboratoire : tant que la sacro-sainte humanité n’est pas concernée, elle conserve tout le loisir de modeler les bêtes à sa guise).

Assaillie dans ses fondements, la morale humaniste se trouve de plus en plus fréquemment renvoyée à ses contradictions. Ainsi dans le cas de l’avortement : les humanistes lui sont favorables dans la mesure où il a contribué à l’émancipation des femmes en leur laissant le libre choix de disposer de leur corps. Mais en autorisant l’avortement, on réduit l’embryon et le fœtus au rang d’objet, et non de sujet de doit (puisque la suppression de l’embryon n’est pas assimilée à un meurtre). Dès lors qu’une opération aussi brutale qu’une suppression pure et simple est autorisée, on ne voit pas au nom de quoi on pourrait s’opposer à une sélection sur ces embryons. (Avec cinq années de retard sur ses voisins, la France vient d’ailleurs d’autoriser le diagnostic pré-implantatoire). Autre exemple de contradiction : le rapport entre l’hérédité et l’acquis. Les humanistes affirment volontiers que nous sommes ce que notre environnement nous fait être et que les individus sont tous identiques dans leurs potentialités. Or, dans le même temps, ils s’élèvent avec virulence contre des manipulations génétiques visant à améliorer nos capacités. Mais si ces capacités devaient tout au seul milieu, on ne voit guère le motif de leur crainte. À l’inverse, si elles ont une base héréditaire, on ne voit pas au nom de qui ou de quoi on interdirait à l’homme de s’en arroger la maîtrise.

Dès lors qu’il s’agit de fonder en raison cet interdit – ce à quoi l’humanisme est contraint, en théorie du moins –, les problèmes commencent. La solution la plus paresseuse, et donc la plus répandue, consiste à agiter des spectres littéraires (Meilleur des mondes, Frankenstein) sur fond de fantasme idéologique (retour de l’eugénisme nazi). Mais le renouveau récent de l’historiographie de l’eugénisme (Mark Adams, Gunnar Broberg, Paul Weindling, Alain Drouard, etc.) a montré l’inanité de cette diabolisation. L’eugénique, qui vise soit à guérir, soit à tendre vers un type humain posé comme supérieur ou tout simplement préférable, n’est pas née avec Galton : on en retrouve la trace dans les textes les plus anciens de la philosophie politique. Elle ne se limite pas non plus au nazisme, puisque les régimes libéraux, socio-démocrates et communistes ont été eugénistes avant comme après le IIIe Reich. Au fond, comme l’avait annoncé Michel Foucault, la modernité tout entière se destinait à la « biopolitique », c’est-à-dire à la maîtrise rationnelle de l’humanité comme ressource exploitable dont il fallait optimiser la chair et corriger l’esprit. À l’âge post-moderne, ce n’est plus seulement l’État qui entreprend d’améliorer sa population par l’éducation et la santé publiques, mais l’individu lui-même qui réclame le statut de sélecteur.

Face à cela, les petits maîtres de la morale invoquent la « dignité de l’homme » – celle-là même que leur système économique bafoue à travers toute la planète, mais qui semble acquérir une valeur impérative lorsqu’il est question de biologie. La récente déclaration universelle sur le génome humain de l’Unesco, promulguée par 186 états le 11 novembre 1997, vise ainsi à sacraliser le génome comme « patrimoine commun de l’humanité ».

Mais le concept de dignité est réversible, et la plupart des eugénistes s’en sont d’ailleurs réclamés : protéger la dignité de l’homme, c’est avant tout offrir à tous les hommes une vie digne d’être vécue, c’est-à-dire une vie qui ne soit pas entachée de handicaps physiques ou mentaux graves, une vie où chacun peut espérer naître doté des plus grandes potentialités et des meilleures conditions de leur épanouissement. Si l’on définit, à la suite du bio-éthicien John Harris, la dignité comme la capacité mentale à reconnaître des biens à son existence et la capacité physique de les accomplir, alors le respect de l’intégrité du génome n’a plus de sens. Sacraliser le gène revient concrètement à faire primer la quantité de vie sur la qualité de vie. Si la vie humaine est sacrée, alors toute vie doit être entretenue. Si elle ne l’est pas, il revient à l’homme de sélectionner la vie qu’il juge (à tort ou à raison) meilleure, et cela dans des limites fixées par des conventions discutées et partagées par les peuples.

Le dressage hormonal et génétique de l’humanité a déjà commencé
En un sens, le dressage hormonal et génétique de l’humanité a déjà commencé dans le meilleur des mondes libéral : la généralisation des anxiolytiques et des anti-dépresseurs, par exemple, correspond à une manipulation chimique du cerveau des inadaptés sociaux en vue de les rendre silencieux, sinon heureux. (Les villages ayant disparu, il faut bien faire disparaître les idiots du village). Avant le « scandale Sloterdijk » de l’été dernier, il y eut ces phrases passées inaperçues de Francis Fukuyama : « La véritable puissance de la recherche actuelle réside dans sa capacité à modifier la nature humaine elle-même. À l’avenir, […] la biotechnologie sera capable d’accomplir ce que les anciennes idéologies ont maladroitement tenté de réaliser : enfanter un nouveau genre humain. […] D’ici deux ou trois générations, nous disposerons des connaissances et des technologies nécessaires pour réussir là où les ingénieurs du social ont échoué. À ce stade, nous aurons définitivement mis un terme à l’histoire humaine, car nous aurons aboli l’être humain en tant que tel. Alors une nouvelle histoire post-humaine pourra commencer ». L’idéologie libérale promet ainsi de parvenir là où ses consœurs nazie et communiste ont échoué : créer l’homme nouveau. La question « doit-on l’empêcher ? » appartient aux morales déclinantes de la première humanité (catholique ou humaniste). Elle masque le débat qu’il faut ouvrir sans tarder : doit-on l’accomplir sous l’égide du libéralisme marchand ?

Car si nous ne pouvons dire « non » à la révolution cognitive et moléculaire – à moins bien entendu de refuser le réel, c’est-à-dire de faire profession d’ignorance ou de folie –, la question se pose en revanche de la direction que l’on peut et que l’on veut lui donner. Les métamorphoses technologiques et scientifiques se déroulent dans le cadre de ce qui Gilles Deleuze nommait le « capitalisme de la troisième espèce », où les structures intimes du vivant deviennent à leur tour objet d’échange, où la matière est tout entière soumise au réquisit de rentabilité.

La biopolitique revient aux peuples, pas aux marchands ni aux savants
Les organismes génétiquement modifiés (OGM) offrent un bon exemple de cette recherche de profit que l’opinion publique européenne a d’ailleurs fort bien mesuré et refusé. Au-delà de la méfiance instinctive à l’égard du nouveau, on trouve à la base du rejet des OGM un raisonnement simple et juste : l’humanité n’a pas à devenir le cobaye d’agro-industriels dont le seul souci manifeste est d’accroître la productivité de leur entreprise. Car tel est bien l’enjeu benoîtement affiché par les boutiquiers du gène. Ils ne proposent pas des plantes susceptibles de croître dans des sols ingrats afin de pallier la famine, par exemple, ou encore des fruits extraordinaires dont les meilleurs palais n’imaginent pas les délices : non, ils veulent seulement vendre du maïs ou du soja surproductif à des consommateurs solvables. Et cela en poussant le cynisme jusqu’à prétendre simultanément imposer aux paysans des semences dotées d’un gène (« Terminator ») qui provoque la mort de la plante et oblige au rachat de nouvelles semences. Le fait que ces multinationales des OGM (Monsanto, Novartis) aient été obligées de reculer indique que le couplage de la recherche techno-scientifique et des intérêts marchands ne s’impose pas aux peuples comme une fatalité. C’est une bonne nouvelle.

Deuxième exemple : la course au déchiffrement du génome humain. Elle met avant tout en concurrence des laboratoires privés et publics. Les premiers – dont l’américain Craig Venter est le meneur – entendent déposer des brevets sur tous les gènes qu’ils découvrent afin de bénéficier ultérieurement des applications pharmaceutiques, alors que les seconds publient à la destination de la communauté des chercheurs, sur Internet et dans les revues spécialisées, tous les résultats de leur séquençage. En dernier ressort, le statut privé ou public du gène humain procèdera d’une décision internationale. Il y a fort à parier que l’Europe, la Chine et les États-Unis s’affronteront à ce sujet dans les années à venir.

À travers les exemples des OGM ou du génome humain, on voit se dessiner une question, non plus technique ou scientifique, mais politique : qui décide en dernier ressort de l’application sociale de nos nouvelles connaissances ? On peut imaginer quatre réponses : les marchands, les experts, les sages ou les peuples. La domination des forces économiques n’est pas plus acceptable dans le domaine techno-scientifique qu’ailleurs : les intérêts d’une entreprise privée ne coïncident nullement avec le bien commun (l’histoire démontre qu’ils lui sont même souvent opposés) et la vie ne peut être confisquée par ceux qui n’en attendent par définition que du rendement à court terme. La solution technocratique n’est guère plus viable : dans un monde dont la complexité s’accroît de manière exponentielle, la capacité d’anticipation des experts tend vers la nullité. Par ailleurs, l’évaluation des possibles conséquences de certaines techniques ou découvertes n’est pas affaire de compétence particulière : s’il faut assurément être savant pour isoler le gène de prédisposition à la schizophrénie, il n’est nul besoin de l’être pour se prononcer sur une loi autorisant les parents à avorter le fœtus qui en serait porteur. Le règne des « sages » – comités de bio-éthique – n’a pas plus de validité. D’abord parce qu’ils ne produisent rien d’autre qu’une morale minimale prudentielle, seul point de convergence possible d’horizons idéologiques et religieux souvent antagonistes (un catholique, un bouddhiste et un neurobiologiste ne donnent pas le même sens au mot « vie »). Ensuite parce que ces comités ne représentent jamais que l’addition de leurs membres et ne parlent qu’en leur nom. En dernier ressort, c’est donc aux groupes humains conscients d’un destin partagé – communautés, peuples et civilisations – qu’il revient de se doter eux-mêmes des lois guidant les applications de la technoscience – ce qu’a récemment fait la Suisse, par le biais d’un référendum sur les recherches génétiques.

Lorsque Van Renselaer Potter créa le terme de « bio-éthique » en 1970, il entendait la nécessité d’une réflexion globale sur la responsabilité de l’homme envers l’ensemble du vivant (y compris lui-même, mais pas exclusivement, au contraire de l’évolution ultérieure de cette discipline). La pensée évolutionnaire, qui nous apprend désormais à contempler notre destin de haut et à regarder les millénaires comme des lendemains, nous rappelle aussi que l’histoire de la vie a été ponctuée de cinq extinctions massives ayant vu disparaître la quasi-totalité des espèces. Il n’est pas exclu que l’accélération de l’hégémonie humaine sur la Terre soit en passe de réaliser une sixième extinction. Témoignent en ce sens la diminution très rapide de la biodiversité, l’intoxication ou la disparition des biotopes, la modification de l’atmosphère, la perturbation des grands cycles bio-géochimiques. L’humanité est à la fois la grande promesse et le grand problème du vivant. Il lui faudra trancher elle-même entre ces deux destins.

Charles Champetier, Éléments n°97, 2000