Soutenance de thèse du 29 Aout 2012


[2023 : Ce discours de soutenance écrit ne correspond pas exactement à ce que j’ai dit oralement le jour de la soutenance. En effet, ce discours nécessite nettement plus que les 45 minutes allouées pour la soutenance. Il m’a donc fallu « tailler » largement pour respecter le temps imparti. Néanmoins, le visionnage de la vidéo de soutenance (Powerpoint transformé en Vidéo) associé à la lecture du texte ci-dessous doit permettre de comprendre l’essentiel sans être perdu à cause des tailles qui ont été opérées. Notons également qu’il s’agissait d’un discours écrit pour moi-même afin de m'aider pour la présentation orale: le style pourra sembler donc plus oral qu’écrit et le soin apporté à la correction des fautes d’orthographes, par exemple, est inférieur en moyenne à l’effort que j’ai pu fournir pour les autres textes. Néanmoins l’angle ou l’éclairage proposé, toujours un peu différent, peut aider à comprendre ce que j’aurai pu exprimer différemment ou moins clairement dans d’autres textes.

La video ci-dessous est la transcription du powerpoint. Il y a 28 diapositives pour une durée de 15 minutes. J'ai mis une durée de 5 secondes entre les animations d'une part et les diapositives d'autre part. Si c'est trop rapide, il suffit de mettre pause. Le texte ci-dessous explique bien sûr les diapositives (avec le bémol expliqué ci-dessus).]

Video de soutenance sans son. Il s'agit du powerpoint transcris en video. Mettre pause si nécessaire pour pouvoir lire parallèlement les explications du texte ci-dessous.

Bonjour à tous,

Je vais maintenant vous présenter mes travaux de thèse qui portent sur les réseaux de régulation chez la bactérie Escherichia coli. J’ai découpé ma présentation en deux parties bien distinctes.

Dans la partie dite positiviste, je présenterai des résultats vérifiables basés sur des expériences dites reproductibles. Je présenterai des données qui remettent en cause le fonctionnement d’un modèle classique de régulation de l’expression génique : la répression catabolique. Puis, je vous parlerai d’une découverte inattendue : la possibilité offerte aux bactéries de communiquer par le biais d’une petite molécule : l’AMPc. Enfin, je décrirai une technique basée sur l’activité luciferase pour mesurer l’activité métabolique d’une cellule en temps réel.

Dans la partie dite constructiviste, je changerai de référentiel épistémologique pour aborder des aspects plus théoriques voire métaphysiques. Je vous proposerai une réflexion sur 3 questions généralistes :

Commençons par la partie positiviste.

Partie positiviste

Le but de la biologie des systèmes consiste à comprendre voire à contrôler la dynamique de fonctionnement d’un système vivant. Mais la dynamique de fonctionnement d’un organisme comme un lion est beaucoup trop complexe pour être étudié sur le plan moléculaire. C’est pourquoi, nous avons choisi de travailler sur un des organismes les plus simples qui existent : la bactérie Escherichia coli, facilement manipulable et sur lequel de nombreuses données existent déjà. Cette bactérie peut être vue comme un sac dans lequel nagent un grand nombre de molécules : des ions, des protéines, de l’ADN, des métabolites. Ces molécules ne sont pas indépendantes les unes de d’autres : elles sont reliées par des interactions à l’origine d’un gigantesque réseau de régulation. Le paradigme actuel de la biologie considère que la vie/ la complexité émerge du fonctionnement de ce réseau de régulation.

Cependant il est difficile d’étudier le fonctionnement de ce réseau dans sa globalité. En effet ce réseau permet l’adaptation d’une bactérie à un grand nombre de perturbations données. Nous avons donc choisi de nous focaliser sur une perturbation donnée : l’adaptation d’une bactérie à un changement de source de carbones : du glucose à l’acétate. Quand la bactérie E. coli pousse sur du glucose, une voie métabolique, la glycolyse, se met en place et vient alimenter le cycle de Krebs tout en secrétant un petit métabolite à l’extérieur : l’acétate. Lorsque le glucose est épuisé, l’acétate est réimporté et utilisé comme source de carbone. Pour cela il fait le chemin inverse du glucose : c’est la néoglucogenèse. La première étape enzymatique nécessaire à l’utilisation de l’acétate est catalysée par une enzyme : l’acetyl coenzyme A synthetase encodée par le gène acs. Nous allons nous intéresser à la manière dont le glucose contrôle l’expression de ce gène.

Mais d’abord, petite question : comment mesure t’on l’expression d’un gène ? Pour mesurer l’expression d’un gène, il nous faut tout d’abord construire un outil/un instrument/senseur qu’on appelle « fusion transcriptionnelle ». Ici est représenté une partie du chromosome bactérien avec en bleu le gène acs et en rouge sa région promotrice. On va amplifier par PCR cette région et la cloner c'est-à-dire la placer sur un plasmide en amont d’un gène rapporteur codant pour la luciferase. On nommera ce plasmide p-acs-lux. Ensuite on transforme nos bactéries E. coli avec ce plasmide c'est-à-dire on vient le mettre à l’intérieur. Je viens de le dire : le gène rapporteur code pour la luciferase, une enzyme capable d’émettre des photons c'est-à-dire de produire de la lumière. Ainsi notre outil/notre senseur est chargé de convertir l’activité du promoteur du gène acs en un signal facilement mesurable : la lumière.

Voyons maintenant comment obtenir ce signal. On travaille dans une microplaque 96 puits. Un puits de cette microplaque contient un milieu minimum liquide avec du glucose et de l’acétate ainsi que nos bactéries contenant le plasmide p-acs-lux. On place la microplaque dans un lecteur de microplaque thermostaté à 37°C. Les bactéries commencent à se diviser et on mesure l’absorbance, qui nous indique le nombre de bactérie et la luminescence, qui nous indique l’activité du promoteur acs, à intervalle de temps régulier. Etudions maintenant les données obtenues : vous avez ici en rouge la courbe de croissance avec ici un point de cassure marquant l’épuisement du glucose. Voyons maintenant le signal de luminescence en bleu avec, à l’épuisement du glucose, une forte induction de l’expression du gène acs. Cette induction révèle la présence d’une forte répression de la transcription du gène acs induite par la présence du glucose. On parle de répression catabolique.

La répression catabolique est un phénomène identifié depuis une quarantaine d’années. On dispose aujourd’hui de modèles détaillant la cascade des mécanismes moléculaires à l’origine de cette répression. Etudions le modèle principale.

Le glucose rentre dans la bactérie et est directement phosphorylé par un système de transfert de phosphate appelé PTS. Le glucose est donc transformé en glucose-6-phosphate. Lorsque le glucose est épuisé, un élément du PTS se retrouve sous forme phosphorylée or seule cette forme est en mesure d’activer une enzyme, l’adenylate cyclase. Cette dernière, une fois activé, produit de l’AMPc à partir d’ATP. Cet AMPc se fixe puis active un facteur de transcription Crp qui vient activer la transcription du gène acs. L’enzyme résultante, l’acetyl-coenzyme A synthétase, s’accumule et permet l’utilisation de l’acétate comme source de carbone. Voila pour le modèle principal et vous voyez ici quelques interactions de notre fameux réseau de regulation.

Que se passe t’il si je delete le gène codant pour cette enzyme, l’adenylate cyclase. Dans ce cas, le modèle prédit qu’il ne peut plus y avoir de production d’AMPc donc plus d’activation de Crp donc plus d’expression d’acs. Et c’est effectivement ce que nous observons en mesurant l’expression d’acs dans une souche ∆cyaA.

Maintenant, que prédit le modèle si on rajoute de l’AMPc exogène dans le milieu de culture ? Le modèle prédit que l’AMPc ajouté va contourner/by-passer la régulation et déclencher directement l’induction du gène acs que le glucose soit présent ou absent. Or ce n’est pas ce que nous observons : L’AMPc a beau être ajouté dans le milieu dés le départ, l’induction du gène acs n’a lieu qu’une fois que le glucose est épuisé. Il subsiste donc un mécanisme inconnu par lequel le glucose empêche l’expression du gène acs.

Pour identifier l’élément responsable de ce mécanisme, nous avons développé une nouvelle méthode de criblage à haut débit. Cette méthode est basée sur la transformation d’une fusion transcriptionnelle dans l’ensemble des simples mutants d’E. coli. Une fois transformé, on spotte sur boite les bactéries. Ces dernières forment des colonies et on regarde le signal de luminescence émis par les colonies. Un signal très fort ou très faible pouvant pointer du doigt le rôle régulateur du gène délété.

Par exemple, vous voyez ici que le mutant ∆ptsG émet un signal plus fort en moyenne que les autres colonies alors qu’à l’inverse, les mutants du PTS ∆crr et ∆ptsI émettent, eux, un signal de luminescence plus faible en accord avec le modèle de la répression catabolique décrit précédemment.

Bien sûr on a fait cette démarche non pas que pour 100 mutants mais pour l’ensemble des 3500 mutants d’E. coli et c’est un script qui vient quantifier automatiquement l’ensemble des 3500 spots de lumière puis nous indique ensuite les mutants intéressants.

Cette méthode présente un certains nombre d’avantages et inconvénients. L’inconvénient majeur c’est la présence de faux positifs. En effet, la luciferase a besoin d’ATP et de pouvoir réducteur pour émettre des photons. On a ainsi pu détecter des mutants de l’ATP synthétase ou du cycle de Krebs qui, certainement en raison d’un gros déficit énergétique, n’émettent qu’une faible quantité de lumière. Pour se prémunir de cet artefact, il faut contrôler les résultats avec un autre gène rapporteur comme la gfp ou utilisé une méthode totalement indépendante comme la qRT-PCR.

En revanche, l’utilisation de la luminescence possède des avantages certains: elle ne génère pas de bruit de fond et elle offre une large gamme dynamique. Contrairement aux puces à ADN par exemple, cette méthode permet d’obtenir les données in vivo et en temps réel. De plus il est possible de tester facilement un grand nombre de milieux différents et d’obtenir des données en dynamique.

Concernant les résultats biologiques, notre méthode détecte les régulateurs attendus : les mutants Crp, cyaA et du PTS mais découvre des connections métaboliques inconnus : par exemple les mutants qui diminuent le flux glycolytiques (ptsG, pgi, pfkA) modifient fortement l’expression du gène acs.

En revanche, notre méthode n’a pas détecté de facteur de transcription inconnu susceptible d’expliquer la connexion manquante décrite précédemment.

On s’est donc demandé si ce mécanisme de régulation inconnu était spécifique au gène acs ou bien s’il affecte d’autres promoteurs Crp-cAMP dépendant. Et en testant d’autres fusions transcriptionnelles rapportant l’expression du gène sdh ou du gène araBAD, on s’est rendu compte que ce mécanisme était sans doute générale. En effet, dans l’expérience qui suit, on filme, sous le microscope, l’expression du promoteur araBAD, obtenu en faisant pousser des bactéries sur un milieu minimum glucose contenant tous les inducteurs nécessaires (arabinose, AMPc). Sur cette video, vous pouvez observer des bactéries qui se divisent et forment une micro-colonie. Mais ce qu’il faut remarquer c’est que la fluorescence n’augmente qu’une fois que la micro-colonie a cessé de se développer c'est-à-dire qu’après épuisement du glucose. On a donc à faire au même phénomène que celui observé en mesurant l’expression du gène acs.

Pour essayer de comprendre ce qui se passe, on a procéder par élimination. On a enlevé, un par un, chacun des éléments supposés clé de la répression catabolique. On a construit une souche sans adenylate cyclase (∆cyaA) et sans l’élément principal du PTS (∆crr). Dans notre cellule, il ne reste plus que l’entrée du glucose, par des voies alternatives, et la protéine Crp. Dans ces conditions : pas d’expression du gène acs, comme escompté. Pour retrouver une expression d’acs, il faudrait rajouter de l’AMPc mais nous voulions aussi éliminer l’hypothèse d’un problème d’import de l’AMPc. Pour cela, nous avons utilisé une copie de Crp qui est indépendante de l’AMPc : il y a 3 acides aminés qui changent. Ce petit changement de 3 acides aminés est nécessaire et suffisant pour, d’une part, rétablir totalement l’expression d’acs et d’autre part, rétablir le fonctionnement de l’interrupteur controlé par le glucose. On retrouve en effet l’induction d’acs qui survient quand le glucose est epuisé. C’est comme si un petit métabolite issu de la glycolyse contrôlait l’activation de la protéine Crp. Ce phénomène est aussi observé avec les autres promoteurs Crp-cAMP dépendants. Or nous sommes dans une souche où presque tous les éléments du modèle de la répression catabolique ont été supprimés.

On a donc mis en évidence un mécanisme de répression catabolique capable d’agir indépendamment des variations de concentrations intracellulaires d’AMPc, indépendamment de l’état de phosphorylation du PTS mais dépendant de la protéine Crp et des variations du flux glycolytique.

Cependant, le mécanisme reste à élucider. Comme je l’ai dit : il pourrait s’agir d’un métabolite répresseur. Hypothèse qui a déjà été avancée par un certain Magasanik dans les années 60.

On va passer maintenant à la deuxième sous partie de cette partie positiviste. Je vais vous présenter un petit système synthétique de communication intercellulaire. Pour « stresser » le modèle de la répression catabolique dans tous les sens, nous avons créer un grand nombre d’outils : des souches mutantes, des plasmides rapporteurs, des plasmides de surexpression. Un jour, en faisant une expérience un peu au hasard et sans grande conviction, j’ai eu droit à ce qu’on appelle en anglais « serendipity » c'est-à-dire la découverte au hasard qui rend heureux. J’ai placé, dans une boite de petri et côte à côte, deux sortes de gel : l’un contenant des bactéries deletées de Crp. L’autre des bactéries delétées de cyaA et contenant la fusion transcriptionnelle Crp-cAMP dependante p-sdh-lux. Normalement, sans cyaA donc sans AMPc, ces bactéries ne peuvent pas produire de lumière. Or à l’interface des deux gels, j’observais ces bandes de lumières (codées en fausse couleur rouge ici sur cette image). L’explication la plus raisonnable c’est que le mutant ∆crp a exporté une grande quantité d’AMPc dans le milieu qui a diffusé dans les bactéries ∆cyaA activant la protéine Crp et donc l’expression de la luciferase.

Pour illustrer ce phénomène, j’ai écrit un petit programme qui simule ce phénomène. Avant de lancer la vidéo, je vous explique ce que vous allez voir. Ici 3 grosses bactéries roses dite « sender » qui contiennent des petits cubes bleus foncés, l’adenylate cyclase. Ces cubes bleu foncé produisent des cubes bleu clair : l’AMPc qui diffuse dans le milieu et rentre dans les bactéries dite « receiver » représentées en jaune. Les petits cubes rouges présentes dans ces bactéries representent la forme incative de CRP. Une fois l’AMPc fixé, CRP devient actif et se fixe à cette représentation de plasmide. Ceci permet la transcription puis la traduction de la luciférase représentée en vert.

Pour démontrer de manière plus formelle que les choses se passent bien comme nous le décrivons, nous avons effectué une deuxième expérience. Nous avons, à nouveau placé deux géloses en contact : une gélose de « sender » creant un gradient d’AMPc et un gelose contenant cette fois une souche receiver un peu particulière : cette souche ne produit la protéine Crp qu’en présence d’un inducteur que nous avons ajouté sur une bandelette de papier placée perpendiculairement au gradient d’AMPc. La conséquence est simple : la luciferase ne doit être produite que dans les zones de rencontre des deux gradients c'est-à-dire là où les concentrations d’AMPc et de Crp seront suffisantes pour activer la production de luciferase. Et c’est effectivement ce que nous observons avec ces deux petits triangles de lumière qui illustrent parfaitement le fonctionnement similaire à une porte AND de ce complexe Crp-cAMP. [2023 : voir la diapositive 28/26 en tout fin de la video du Powerpoint ; cette partie avait été enlevée pour respecter de durée de soutenance ]

Cette porte AND illustre bien les applications intéressantes que peut offrir ce petit module de communication en biologie synthétique. Car ce complexe Crp-cAMP est un nœud central dans la cellule : il est déjà connecté physiologiquement à de nombreux autres modules contrôlant par exemple la motilité, le chimiotactisme, la formation des biofilms ou la résistance au stress. Il est tout à fait envisageable de détourner ces petits modules physiologiques pour le connecter à des circuits synthétiques en vue de leur faire exécuter une fonction donnée. Nous avons par exemple réussi à contrôler la motilité de bactéries par le bais de la communication via l’AMPc.

Un avantage crucial de l’AMPc est qu’il s’agit d’une molécule ubiquitaire que l’on rencontre dans tout le règne vivant. Il est donc possible d’envisager des stratégies de communication inter-royaume entre des bactéries et des amibes par exemple ou même des bactéries et des cellules humaines. On a entrepris des expériences préliminaires en essayant de faire communiquer nos bactéries avec les amibes sociales Dictyostelium discoideum mais sans succès néanmoins, faute de temps.

Enfin il existe une application industrielle pouvant potentiellement dériver de ces travaux. Une souche Wt d’E. coli produit une concentration externe d’AMPc de l’ordre du µM. Notre souche « sender », grâce à la délétion de crp et la surproduction d’adenylate cyclase (10% du contenu cellulaire), est capable de produire 100µM dans le milieu extérieur c'est-à-dire 100 fois plus. On est encore loin des 10mM qu’il faudrait sans doute obtenir pour disposer d’une souche compétitive sur le plan industriel. Mais avec encore un peu d’ingénierie, par exemple en supprimant les phosphodiesterases qui dégradent l’AMPc ou en optimisant encore la fabrication de l’AMPc, il n’est pas impossible qu’on y arrive.

Il reste à savoir si le système de communication par l’AMPc est uniquement synthétique c'est-à-dire créé par l’homme ou si il est également utilisé par les bactéries sauvages de manière physiologique. En effet, pourquoi la cellule exporte t’elle 1µM d’AMPc dans le milieu ? Car cela a un coût en ATP non négligeable. Nous n’avons pas pu prouver le caractère physiologique de ce processus de communication car, dans nos conditions, une souche « sender » sauvage n’exporte pas assez d’AMPc : le seuil de détection minimale de la souche receiver étant de l’ordre de 5µM. Cependant, un processus de communication pourrait prendre place dans l’écosystème naturel d’E. coli, soit avec une autre espèce (y compris les enterocytes humains) soit avec elle-même car la densité cellulaire y est bien supérieur à ce qu’on peut obtenir dans une flasque.

Pour tester cette hypothèse, on a injecté par voie orale 10 milliards de bactéries « receiver » à une souris. L’idée était que si la luciférase est exprimée grâce un processus de communication prenant place dans l’écosystème gastro-intestinal de la souris, nous pourrions le détecter de manière transcutanée, à l’aide de notre camera très sensible. Mais nous n’avons pas pu observer d’émission de lumière, soit parce que il n’y a pas eu de communication particulière soit parce que les niveaux de lumière émises étaient inferieur à notre seuil de détection. Nous n’avons donc pas pu trancher sur cette question de la communication potentiellement physiologique.

En revanche, en injectant par voie orale 1 heure après de l’AMPc, nous avons pu induire l’expression de la luciferase directement dans le système gastro-intestinal de la souris et détecter cette fois la lumière de manière transcutanée. Voici ici la vidéo.

Ce type d’expériences pointe du doigt des technologies plus futuristes où nos intestins seront surveillés par des souches bactériennes, véritable micro-ordinateur chargé de détecter la présence d’une toxine ou d’un pathogène afin soit de révéler leur présence (comme ici par exemple avec la luciferase) soit directement de l’éradiquer. Je tenais à donner cet exemple pour montrer que la recherche fondamentale en microbiologie n’est jamais bien éloignée des applications médicales.

Dans les deux premières parties de mon exposé, nous avons utilisé la luciferase comme rapporteur de l’expression d’un gène. Dans cette troisième partie, la luciférase sera placée en excès dans les cellules. Dans ces conditions, elle rapporte, non plus l’expression d’un gène mais l’activité énergétique de la cellule.

Dans la video « publicitaire » que vous allez voir, on a rempli les puits d’une microplaque avec un milieu liquide en respectant la forme des lettres du mot IBIS, le nom de notre équipe. La concentration d’acétate augmente entre chaque lettre et tous les puits contiennent des bactéries exprimant la luciferase. On constate sur cette video que les lettres s’éteignent les unes après les autres proportionnellement à la concentration de la source de carbone. On peut facilement montrer que la luciferase s’arrête d’émettre des photons lorsque la source de carbone est épuisée. En effet, cet événement désamorce le métabolisme centrale ce qui stoppe la production de pouvoir réducteur et d’ATP.

Cette dépendance énergétique de la luciferase, couplée à nos connaissances sur les cartes métaboliques et l’utilisation de banques de mutants, permet d’obtenir des informations encore plus précises sur les flux métaboliques, et ce en temps réel. Dans l’expérience qui suit, on fait pousser une souche d’E. coli exprimant la luciferase de manière constitutive dans un milieu liquide contenant du glucose et de l’acétate. Les bactéries commencent à consommer le glucose et l’activité luciferase augmente régulièrement. Lorsque le glucose est épuisé, le gène acs peut enfin être exprimé, les premières molécules d’acetyl coenzyme A synthétase apparaissent dans le milieu et l’acétate commence à être consommé via la néoglucogenèse. On observe durant la transition glucose acétate une diminution transitoire de la luminescence correspondant au délai nécessaire à l’expression du gène acs, délai durant lequel le métabolisme central est partiellement désamorcé. Lorsque l’acétate est entièrement consommé, on observe une chute brutale de la luminescence, comme observé sur la video precedemment. Que se passe-t-il maintenant si on supprime le gène codant pour une enzyme du cycle de Krebs ? Dans un mutant sucB, la bactérie n’a aucune difficulté à maintenir l’activité luciferase durant la croissance sur glucose : le profil de luminescence, ici en vert, est superposé à celui de la souche sauvage. En revanche, une fois que le glucose est épuisé, on constate la disparition brutale de l’activité luciferase car la néoglucogenèse est coupée et l’acétate ne peut donc pas être consommé. [2023 : voir la diapositive 27/26 (avant dernière diapositive de la video du Powerpoint aprés "le merci de votre attention" ; cette partie avait été enlevée pour respecter de durée de soutenance]

Une expérience effectuée avec un mutant similaire, le mutant sdh, fournit néanmoins des résultats différents. Dans un tel mutant, l’activité luciferase chute non pas totalement mais partiellement. Cela pointe l’existence d’une petite fuite métabolique qu’il aurait difficile de détecter ou de prédire avec les outils conventionnels de mesure du métabolisme.

Ainsi notre méthode permet de mesurer les flux métaboliques en temps réel. Mais elle permet d’aller encore plus loin, elle permet de les contrôler. Dans l’expérience suivante, on fait pousser une bactérie ∆cyaA dans un milieu contenant du glucose et de l’acétate. Ici je représente le glucose et l’acétate dans des bacs en hauteur comme si il s’agissait d’énergie potentielle : les bactéries, saturées en luciferase, consomment le glucose et les flux du métabolisme central alimentent l’usine qui transforme cette énergie en lumière. Cette dernière croit régulièrement. Puis une fois que le glucose est épuisé, la lumière chute brutalement car les bactéries ∆cyaA ne peuvent pas utiliser l’acétate comme source d’énergie. Pour pouvoir exprimer acs, il faut ajouter de l’AMPc dans le milieu exogène ce que nous faisons durant la cinétique. L’ajout d’une concentration faible d’AMPc crée une légère production d’acetyl coenzyme A synthetase : pour reprendre la métaphore du barrage hydroélectrique, on peut dire que cela ouvre légèrement les vannes et laissent passer un petit flux qui alimente l’usine et permet de générer un peu de lumière. Le diamètre d’ouverture de la vanne est proportionnelle à la concentration d’AMPc et plus on ajoute d’AMPc plus le flux métabolique neoglucogenique est important et plus on observe un retour important de l’activité luciferase. Notez également que plus le flux est important, plus la consommation d’acétate est rapide et donc plus l’épuisement de cet acétate, repérable avec la chute de l’activité luciferase, se produit tôt.

Ainsi pour faire une synthèse, nous avons vu que la mesure de la capacité à maintenir l’activité luciferase permet de détecter l’épuisement de source de carbone, de mesurer l’état métabolique des cellules voire même de se focaliser sur un flux particulier ou de détecter une fuite. Le tout in vivo et en temps réel. De plus, en créant une sorte de goulot d’étranglement métabolique, il est possible non pas de mesurer mais de contrôler l’activité d’une enzyme ou d’un flux particulier, et de contrôler la vitesse de consommation d’une source de carbone et le niveau d’alimentation du métabolisme central.

Les applications susceptibles de découler de cette méthode me semblent nombreuses. Il est par exemple sans doute possible d’adapter la méthode pour faire des mesures à l’échelle de la cellule isolée ou à l’inverse à l’échelle du fermenteur industriel. En effet, cette technologie est relativement peu onéreuse (le coût d’un photomultiplicateur) par rapport au nombre d’informations qu’elle peut rapporter à l’utilisateur. De plus, il est également facile d’ajouter une boucle de retro-action où un ordinateur analyse le signal de luminescence en temps réel et déclenche l’ajout de produit dans le fermenteur en cas de chute brutale de la luminescence par exemple.

Ainsi pour conclure cette première partie, je vais rappeler les principaux résultats obtenus. Nous avons développé une nouvelle méthode à haut-débit, à l’échelle du génome entier, pour détecter des interactions régulatrices. Nous avons également mis en évidence l’incomplétude du modèle de la répression catabolique sans toutefois réussir à identifier la pièce manquante à l’échiquier. Par un pur coup de chance, nous avons identifié un système de communication intercellulaire par l’AMPc potentiellement physiologique et ouvrant de nombreuses perspectives en biologie synthétique. Enfin, nous avons développé une technologie à la fois simple et prometteuse pour mesurer voir contrôler le métabolisme en temps réel.

Partie constructiviste

[2023 : il est possible que certaines diapositives aient été supprimées du Powerpoint toujours pour respecter la durée de soutenance mais (1) je n'en suis pas sûr ou (2) je ne sais plus exactement où. Ainsi le texte ci-dessous aborde peut-être des thèmes sans le support de diapositives. Néanmoins, la compréhension du texte ci-dessous me semble tout à fait faisable et en relative bonne concordance avec les diapositives de la video.]

Je vous dois tout d’abord une petite explication pour ce choix de découpage en deux parties distinctes sur le plan épistémologique. Rappelons d’abord que l’épistémologie désigne la théorie de la connaissance. Pour faire simple c’est la philosophie des sciences. Qu’est ce que le positivisme ? Le positivisme c’est l’épistémologie que l’on trouve dans la plupart des laboratoires dans le monde. C’est donc l’épistémologie institutionnelle qui introduit une démarcation entre les énoncés métaphysiques et les énoncés scientifiques. Les critères proposés pour la démarcation sont par exemple la vérifiabilité, la reproductibilité, la réfutabilité : une expérience doit être reproductible et un énoncé doit être vérifiable sinon, ils ne sont pas scientifiques. Dans le positivisme, le scientifique est ignoré, transparent : il est un observateur indépendant qui interprète des données. Les seules fois qu’on voit apparaître cet expérimentateur c’est quand il s’agit de le critiquer parce qu’évidemment la critique est sacralisée par le positivisme.

Il existe d’autres courants épistémologiques comme le pragmatisme ou le relativisme mais il y en a un qui me semble tout particulièrement intéressant : c’est le constructivisme.

Dans le constructivisme, le critère important n’est pas la vérifiabilité d’un énoncé mais sa faisabilité. C'est-à-dire la possibilité de le construire cognitivement. Vous voyez que ce critère, très peu contraignant, évite d’écarter la métaphysique. Le constructivisme est l’épistémologie de la notion de système, elle est intrinsèquement transdisciplinaire : mathématique, physique, biologie, philosophie, économie sont intrinsèquement reliés et non pas catégorisés comme c’est le cas dans le positivisme. De plus l’expérimentateur y occupe une place centrale puisque c’est lui qui construit les énoncés cognitivement : il n’est plus un observateur indépendant mais un des maillons centraux du système.

Pourquoi m’a-t-il fallu changer de référentiel épistémologique durant ma thèse ? Parce que je me suis rendu compte que pour pouvoir rentrer plus en profondeur dans la biologie théorique, il me fallait manipuler des éléments considérés comme impures par les positivistes c'est-à-dire des éléments métaphysiques. Et pour pouvoir le faire de manière légitime c'est-à-dire en toute tranquillité, il me fallait un nouveau cadre épistémologique : le constructivisme.

Voici un exemple : dans la partie précédente, j’ai principalement décrit le fonctionnement d’un réseau de régulation en sous entendant que 4 catégories du réel sont nécessaires : le temps, l’espace, la matière et l’énergie. Or je crois, à l’instar, [2023 identité protégée], ici présent, qu’il manque une catégorie essentielle : l’information. Voici un exemple de question qui m’a interpellé : vous vous rappelez ma petite simulation tridimensionnelle du processus de communication. Dans cette simulation, j’ai modélisé in silico la bactérie de manière imparfaite. Mais peut être que demain, on réussira à recréer des cellules in silico très proche de la réalité. Pourtant le programme sous jacent n’est qu’un assemblage de bit c'est-à-dire de l’information pure.

Dans cette partie constructiviste, nous allons réfléchir à la notion d’information et la notion de vie. Ma réflexion s’appuie principalement sur la pensée d’Antoine Danchin mais l’auditeur pourrait également ressentir de forte similitude avec la pensée de Stuart Kauffman ou Richard Dawkins. Nous allons également aborder la question « qu’est ce que la science ? » et ici je citerai Paul Feyerabend, Edgar Morin, Jean-Louis Le Moigne comme principale influence. Enfin je citerai Friedrich Nietzcshe dont le système philosophique si profond traite à la fois de questions sur la vie et sur la science.

Cependant, je souhaite préciser que le fait de citer tous ces savants illustres ne correspond pas à l’utilisation de l’argument d’autorité pour légitimer les résultats de mes recherches. Il est certain que mon discours contient de nombreuses bêtises et il est peu probable que les personnes citées précédemment soit parfaitement en accord avec la réflexion qui suit. Ce que je vous présente aujourd’hui, il est fort possible que je le renie demain et cela ne me pose pas de problème. L’erreur faisant intrinsèquement partie du processus de recherche. Nietzsche nous dirait que « la quantité de croyance dont un homme a besoin, la quantité de stable qu’on ne peut lui soustraire parce qu’il y prend appuie offre une échelle de mesure de sa force, ou pour m’exprimer plus clairement, de sa faiblesse ».

Donc la première question à laquelle on va réfléchir est «Qu’est ce que l’information ? » et plus particulièrement quelle est l’information contenue dans un génome. Il existe plusieurs théories de l’information. Il y a la théorie de l’information de Claude Shannon énoncé en 1948. Cette théorie nous dit que pour encoder un nucléotide, il faut deux bits d’information car il y a 4 possibilités : A encodée avec deux bits par exemple 00, T encodé avec 01, C encodée avec 10 et G encodée avec 11. On voit donc que, selon Claude Shannon, le génome d’E. coli de 4 millions de pb contient 2 x 4 millions c'est-à-dire 8 millions de bits soit 1Mo : la place que prend le génome d’E.coli sur mon disque dur quand je télécharge sur internet. Le moins qu’on puisse dire c’est que cela ne fait pas beaucoup. Imaginez la complexité d’un tel organisme doté de la faculté d’autoréplication, toute son information ne tient selon Shannon que sur 1 petit Mo.

Quelques décennies plus tard est apparu une autre théorie de l’information : la théorie algorithmique de l’information proposée par Andrei Kolmogorov dans les années 1960. Ce dernier propose une manière de compresser une information en introduisant la notion de programme. Par exemple un génome hypothétique d’E. coli composé que de A contient toujours selon Shannon 1Mo d’information. Pour Kolmogorov, le programme « écrire 4 millions de fois A » est capable de renvoyer la séquence entière. L’information de cette dernière est définie par la taille non plus de la séquence mais du plus petit programme capable de la générer c’est à dire ici 15 caractères soit approximativement 15 octet.

Mais intuitivement pour un biologiste cette théorie de l’information est mal adaptée pour mesurer l’information contenue dans un génome. En effet, on ressent plutôt qu’il faut décompresser l’information contenue dans un génome et pas chercher à la compresser. Pour nous rapprocher de l’intuition du biologiste, il existe le concept de profondeur logique introduit par Charles Bennett dans les années 1970. Pour vous le faire ressentir, je vais partir du nombre Pi que vous avez tous appris:

314159 sur 4 000 000 de decimale.

On va transformer ce nombre Pi en nucleotide. Par exemple : quand je trouve un 0 un 1 ou un 2, je remplace par un A, si je trouve un 3, 4 ou 5 je remplace par un T etc…

Comme Pi commence par un trois, ma séquence commence par un T etc… Cette séquence sur 4 000 000 de pb fait toujours 1Mo selon Shannon. Selon Kolmogorov, cette séquence contient la taille du plus petit programme capable de calculer Pi, par exemple, 2Ko. Et c’est là que l’on peut s’apercevoir de la faiblesse de la théorie de Kolmogorov. Intuitivement quand on connait 2 décimales de Pi: 3,14, on a moins d’information que quand on en connait 4 000 000. Or le programme qui calcule Pi lui fait toujours la même taille. Ce qu’il faut prendre en compte c’est la différence de temps de calcul : le programme calcule 2 decimale en une fraction de seconde alors que pour calculer 4 000 000 il va mettre, sur mon ordinateur, plusieurs heures. Cette différence de temps de calcul est liée à la présence d’itération (des boucle « for » pour les informaticiens). Ces itérations introduisent le concept de récursivité et apportent ce qu’on appelle de la profondeur logique au bit d’une séquence. Et c’est cette manière de percevoir l’information qui nous semble la plus adéquate pour décrire l’information contenue dans un génome car le génome a également, grâce à l’évolution, connu des cycles itératifs de type mutation/sélection. Ces itérations ont donné une grande profondeur logique aux nucléotides du génome : elles ont compressé l’information.

La conséquence directe issue de la profondeur logique c’est que les nucléotides ne sont pas indépendants les uns des autres. Pour pouvoir détecter les interactions qui les unissent, il faut décompresser le programme (l’information) avec les 4 autres catégories du réel temps, espace, matière et énergie. Notez que cette décompression de l’information c’est la vie.

Etudions de plus prés ces interactions nucléotidiques. Vous avez ici un codon stop TAA. Ce T ici est relié par une interaction invisible avec ce A là. En effet si ce A était un G, le codon TAG ne serait plus stop et le T ne contiendrait donc plus la même information. Evidemment cette interaction prend tout son sens lors de la décompression du programme c'est-à-dire dans ce cas lorsque le ribosome « lit » ce codon stop.

Un autre exemple est le lien qui peut unir deux nucléotides après repliement de la protéine en créant une liaison faible entre deux acides aminés. De même un nucléotide codant pour un acide aminé d’un facteur de transcription peut avoir une relation avec le nucléotide d’un site de liaison sur l’ADN.

Plus généralement, ces interactions franchissent sans difficulté la barrière des organismes. Admettons que cette séquence appartienne au génome de la grenouille et celle-ci au génome de la mouche. si une mutation apparait dans le génome de la grenouille, par exemple ce A, conférant à la grenouille une langue plus collante, alors la grenouille attrapera statistiquement plus souvent les mouches. La population de mouche ayant une mutation sur ce T lui conférant un corps plus glissant sera sélectionnée et on reviendra à l’équilibre des populations. On voit donc que ce A entretient une relation d’épistasie avec ce T.

Un autre point à constater et que l’on doit à Antoine Danchin est de constater que la décompression de l’information introduit en plus une information issue du contexte. Le génome d’E. coli lorsqu’il est placé dans du méthane ne semble pas posséder beaucoup plus d’information qu’un génome aléatoire. Pour que l’information soit décompressée, il faut nécessairement un châssis, c'est-à-dire une machine capable de décompresser le programme et ce châssis utilise des éléments comme la liaison chimique, les lois de la diffusion que ne sont pas encodées dans le génome. Dit autrement cela consiste à remarquer que deux vrais jumeaux (avec le même génome) ont néanmoins une vie différente : la décompression du génome n’est pas exactement la même car l’information du contexte diffère.

Un autre point crucial à remarquer c’est que à une interaction inter-nucléotidique est toujours associée, lors de la décompression, une interaction physique réelle qui peut avoir une dimension microscopique (le facteur de transcription touche réellement l’ADN) ou macroscopique (la langue touche réellement la mouche). En remarquant cela, on peut alors réfléchir sur le débat sur l’unité de sélection. Longtemps on a cru que l’unité de sélection était l’organisme jusqu’à ce que Richard Dawkins propose le gène comme unité minimale de sélection (dans un ouvrage appelé le gène égoïste). Or il me semble que l’unité de sélection la plus adequate est l’interaction inter-nucléotidique. La sélection naturelle s’exerce sur la version décompressée c'est-à-dire l’interaction physique qui peut exister à n’importe quelle échelle (microscopique ou macroscopique). Et la sélection naturelle qui s’opère dans la réalité physique permet la reproduction de l’interaction inter-nucléotidique c'est-à-dire la reproduction d’une information de valeur.

Si cette manière de voir est correcte, alors les conséquences en philosophie peuvent être considérables. En effet, la philosophie se base en grande partie, pour définir ses concepts, sur la séparation nette entre les organismes. De là émerge des éléments de langage : le « je » est différent de « autrui ». Il existe des actions « égoïstes » et des actions « altruistes ». Certaines philosophies postulent par exemple qu’il n’y a pas d’actions « altruistes » et que quelque soit ces actions, l’organisme a toujours un intérêt égoïste caché. Or cette manière de voir n’est valable qu’à partir du moment où l’unité de sélection est l’organisme. Si l’unité de sélection est l’interaction inter-nucléotidique, alors il existe des éléments dans notre génome qui ne visent plus uniquement notre intérêt d’organisme mais peuvent selon le cas viser l’intérêt du gène, de l’organisme, du groupe ou de la biosphère. Ainsi le concept de « je » n’est peut être pas aussi précis qu’il n’y parait et il semble que nous soyons beaucoup plus reliés aux autres que nous ne le pensons. Vous voyez donc en quoi la structure de notre langage peut influencer notre manière de penser ou de philosopher et comment la biologie théorique pourrait nous aider à dépasser de vieux schémas archaïques.

On a vu tout à l’heure que les interactions inter-nucléotidiques sont des informations. La valeur contenue dans cette information est évaluée lors la décompression par la sélection naturelle. Cette valeur est donc directement reliée à la capacité de reproduction. On peut donc avoir une idée de cette valeur en comptant le nombre d’exemplaires de cette information contenue dans une séquence aléatoire. Ces exemplaires ont certaines caractéristiques : ils font une certaine taille (on montre facilement qu’ils doivent être au moins supérieurs au logarithme de la taille de la séquence totale). Ceci permet d’écarter les exemplaires de petite taille crées par le seul hasard. Ils sont incompressibles selon Kolmogorov alors que les multiples exemplaires eux sont compressibles selon Kolmogorov. Prenons un exemple : le logarithme de 1080 c'est-à-dire le nombre d’atomes dans l’univers visible est égal à 184. Le mot anticonstitutionnellement fait 200 bits. Dans un grand livre composé de 1080 lettres choisies aléatoirement, vous ne pourriez pas trouver deux fois le mot anticonstitutionnellement. Vous ne pouvez pas compresser anticonstitutionnellement (ce n’est pas la même chose que aaaaaaaaaaaaaaaaaaaaaaaaa) mais par contre si vous le trouvez en deux exemplaires, vous n’êtes pas obligé de l’écrire deux fois. Ce type d’exemplaire définit ce qu’est l’information de valeur. Ma conjecture c’est que la vie doit nécessairement disposer de ce type d’information. Une caractéristique essentielle de la vie c’est la présence de ce type d’exemplaire. Ainsi ma conjecture est que : Dans tout système S en bit, si il existe au moins deux exemplaires P tel que taille(P)>log(S) alors la vie a existé ou existe dans S. Cette définition d’une caractéristique essentielle de la vie offre des applications en exobiologie c'est-à-dire la discipline qui recherche des traces de vie extraterrestre. L’idée est de dire que nos stratégies actuelles sont trop centrées sur la matière alors qu’il faut les centrer sur l’information de valeur c'est-à-dire les exemplaires. Ma prédiction est donc que, si il n’y a jamais eu de vie sur Mars, alors Curiosity le petit robot qui a atterrit sur Mars il y a un mois, ne pourrait pas trouver deux exemplaires identiques. Notez que lui, dans son architecture/son programme, les contient les deux exemplaires puisque c’est un pur produit de la vie.

Mais définir une caractéristique de vie et la vie elle-même sont deux choses bien différente.

En science, comme l’a montré Carl Sagan, il n’existe pas de consensus sur la définition de la vie. Tout juste un pseudo-consensus sur les 3 points suivants :

je vais en propose 3 autres très similaires

Avec ces 3 fonctions, on a tous ce qui faut pour fabriquer un algorithme génétique au sens informatique c'est-à-dire un programme heuristique chargé de trouver un maximum global. Dans ce type d’algorithme les fonctions de création et d’effacement sont crucials pour s’échapper d’un maximum local. On remarque aussi la présence d’une téléologie c'est-à-dire d’une finalité. Le chercheur écrit son programme, réunit les 3 fonctions réplication/création/effacement en vue d’un but : trouver le maximum global.

Dans le cas de l’algorithme génétique réel c'est-à-dire l’évolution, les choses sont différentes. On ne peut pas définir de recherche à proprement parlé ni de fonction optimisée. On peut juste a posteriori dessiner le paysage adaptatif correspondant en plaçant sur l’axe Z la capacité à se reproduire. Avec la théorie de l’évolution, le recours à la téléologie est interdit.

Mais ce qu’il faut neamoins remarquer c’est que l’evolution ne peut pas être à l’origine de ces fonctions qui manipule de l’information : création/réplication/effacement car l’évolution ce sont ces fonctions. Supprimer une seule d’entre elles reviendrait à se tirer une balle dans le pied car le système se figerait quasi immédiatement dans un maximum local et si tel avait été le cas, nous n’existerions pas.

Ainsi si ces 3 fonctions n’ont pas pu être sélectionnées par l’évolution, alors elles sont d’authentiques principes de la physique. Mais alors dans ces cas là, pourquoi la physique a-t-elle associé ces 3 là : pourquoi pas uniquement 2 par exemple les couples :

Il est difficile de ne pas voir que ces 3 conditions sont nécessaires et suffisantes pour rechercher un optimum global et donc refuser un maximum local. Et vous voyez donc que les mots recherche et refus nous pousse inexorablement vers la téléologie, vers l’existence d’une finalité. Alors est ce qu’il s’agit du Dieu de Spinoza, de la nature ou la physique, je vous laisse appeler cela comme vous le souhaitez. Ainsi on voit que les attitudes qui consistent à refuser ou accepter l’idée d’une téléologie sont toutes deux idéologiques. Dés lors, je ne prends pas un grand risque en vous proposant une fonction maximisée c'est-à-dire une finalité. Remarquez tout d’abord que ce que je viens de dire n’est pas tout à fait vrai : le couple réplication/création peut être suffisant pour résoudre un problème d’optimisation à condition que la mémoire soi infinie. Or justement la capacité de mémoire pour stocker nos exemplaires n’est pas infinie : elle est limitée à la biomasse. Que pensez-vous alors d’une fonction/d’une téleologie visant à maximiser le rapport Biomasse/masse minérale ? Ce qui consiste simplement à informatiser les atomes de l’univers avec de exemplaires. Regardez par exemple cette image : on dirait que la nature, ici un foret de sapin, essaie de conquérir le moindre espace de matière minérale. Nul doute que l’algorithme génétique finira par trouver une solution. Et cette petite image du robot Curiosity sur la planète mars ? Peut être que l’évolution, via la création du cerveau humain, à trouver une faille susceptible de l’aider à poursuivre sa conquête de l’informatisation de l’univers… ?

Cette manière de placer l’information de valeur au centre de la vie peut également nous aider à éclaircir le débat holisme-réductionnisme. Que postule le réductionnisme ? il postule que pour comprendre le fonctionnement d’un écosystème il faut comprendre le fonctionnement des organismes qui le composent, que pour comprendre le fonctionnement d’un organisme il faut comprendre le fonctionnement des cellules etc… jusqu’au atomes. Le problème arrive lorsque l’on essaie d’aller dans le sens inverse : comment une vulgaire soupe d’atome peut contenir toute l’information nécessaire à la construction d’un écosystème ? Et c’est là que l’holisme introduit le phénomène d’émergence où « un ensemble (par exemple une fourmilière) est supérieure à la somme de ces parties (par exemple les fourmis) ».

Pour faire simple, le débat c’est est-ce qu’il faut s’intéresser au tout pour comprendre les parties ou est ce qu’il faut s’intéresser aux parties pour comprendre le tout.

Essayons d’analyser ce débat avec un point de vue «informationnel». Nous avons vu qu’une unité très intéressante pour caractériser la vie c’est l’exemplaire. Mon postulat est le suivant : en utilisant, comme unité de base, le type « exemplaire » et à l’aide des fonctions création/réplication/effacement, on pourra expliquer tout système vivant quelque soit son niveau de complexité. En revanche, le passage de l’information sans valeur (pseudo-aléatoire) à de l’information de valeur est une question plus difficile qui a trait aux origines de la vie. Il me semble qu’il faut traiter cette question séparément car on ne peut pas être sûr que la création d’exemplaires à partir de pseudo-hasard est un phénomène qui encore lieu aujourd’hui ou si il s’agit d’un événement ponctuel du passé impossible à reproduire.

Passons maintenant à la dernière partie de mon exposé : qu’est ce que la science ? Ma transition est tout faite : la science est un sous produit de la vie puisque elle est produite par l’homme qui est vivant.

La science produit, grâce au langage, une information de valeur très similaire à l’information de valeur contenue dans le génome. La valeur des énoncés (en bits) crées par le génome ou par le langage est d’autant plus grande que ces énoncés sont une représentation fidèle de la réalité phénoménologique. Tout d’abord qu’est ce que j’appelle réalité phénoménologique. Il s’agit de la réalité qu’un système vivant expérimente. La réalité phénoménologique d’une bactérie comme E.coli c’est un milieu liquide avec des ions, des sources de carbones, une température, des variations dans le milieu. C'est-à-dire tout ce que la cellule peut expérimenter car ensuite la cellule va en créer une représentation. En effet, s’il y a du glucose dans la réalité phénoménologique d’E. coli, alors elle dispose en miroir de transporteur du glucose. Si la température est de 42°C, alors la bactérie dispose de protéines spéciales de choc thermique qui l’aident à faire face à ce stress. Encore une fois ces protéines sont une représentation de la température. Enfin, la réalité phénoménologique d’une bactérie est un environnement soumis à de nombreuses variations. E. coli dispose d’un réseau de régulation qui est le miroir de ces variations. Le tout est bien sûr encodé dans le génome.

Qu’en est-il de la science et de l’homme ? Les choses se passent de manière très similaire. L’homme convertit les phénomènes de sa réalité phénoménologique en énoncés codés en bit : c’est le langage. S’il voit une cerise, il crée l’énoncé cerise, cela fonctionne aussi pour les concepts plus abstraits comme l’amour et pour les phénomènes plus difficiles à identifier comme par exemple la gravitation convertie en un énoncé sous forme d’équation.

A quoi cela peut bien servir de tendre vers une représentation toujours plus fidèle de la réalité phénoménologique ? Cela confère un avantage évolutif certain. Celui qui décrit la gravitation à l’aide des équations de la relativité générale a un avantage sur celui qui décrit la gravitation avec les lois de Newton. En effet, avec la relativité générale, vous pouvez disposer d’un système GPS fiable car vous pouvez corriger les effets de la dilatation du temps. Cela vous confère un avantage militaire et donc un avantage évolutif.

Il faut aussi remarquer que les énoncés scientifiques subissent les mêmes manipulations que ceux de la vie c'est-à-dire création-duplication-effacement. La seule méthode scientifique qui me semble incontestable est celle qui permet l’utilisation de ces 3 fonctions : cette méthode c’est l’interrogation.

Montrons maintenant comment les choses se passent. Mon discours va maintenant prendre une tournure normative c'est-à-dire comment la science devrait fonctionner et non pas comment elle fonctionne.

Quand un scientifique regarde un phénomène pour la première fois, il le convertit, il le compresse en bit. C’est l’acte de création de l’énoncé. Cela nécessite l’interrogation et on est passé de 0 énoncé « cerise » à 1 énoncé « cerise ». Ensuite le scientifique transmet l’énoncé « cerise » à son pair et se dernier décompresse l’énoncé pour évaluer sa valeur dans sa réalité phénoménologique. Cette tentative de duplication necessite encore une fois l’interrogation. A partir de là deux solutions : soit il duplique l’énoncé « cerise » en observant le phénomène : dans ce cas là, on passe de 1 « cerise » à deux « cerises » soit il observe un autre phénomène, par exemple une prune, lors de la décompression de l’énoncé et auquel cas il ne duplique pas l’énoncé « cerise » mais crée plutôt un nouvel énoncé « prune ». Bien sûr le deuxième scientifique va communiquer son nouvel énoncé « prune » à son collègue pour tenter de lui faire effacer « cerise » en lui disant « ne vois-tu pas plutôt une prune ? » avec encore le point d’interrogation qui est crucial. Deux solutions, le scientifique numero 1 décompresse à nouveau l’énoncé « cerise » et voit une « cerise »: dans ce cas là, l’ énoncé "cerise" et l’énoncé "prune" continuent indépendamment leur tentative de propagation. L’un ne cherche en aucun cas à éradiquer l’énoncé de l’autre. Soit le scientifique voit effectivement une prune lors de la décompression auquel cas, il duplique l’énoncé « prune » et efface l’énoncé « cerise ». Vous voyez donc qu’avec la méthode interrogation, on a créé, répliqué et effacé des énoncés.

Que se passe-t-il maintenant dans le système positiviste institutionnel ? Un scientifique crée un enoncé « cerise », il le transmet à son pair et ce dernier le décompresse pour l’évaluer et peut être le dupliquer. Que se passe-t-il si la tentative de duplication échoue, s’il voit une « prune » et ne reproduit pas l’énoncé « cerise » ? Il se produit ici un glissement sémantique très néfaste. Au lieu de rester focaliser sur les faits au présent c'est-à-dire au temps t « énoncé cerise non reproduit », le scientifique bascule dans la potentialité « énoncé cerise non reproductible » c'est-à-dire quelque soit t. Dés lors que ce glissement sémantique s’est produit alors l’énoncé « cerise » devient critiquable. Le scientifique 2 repond au scientifique 1 « prune » sans ajouter le point d’interrogation.

Il faut savoir que dans la science institutionnelle positiviste, la critique est sacralisée. Beaucoup pensent que la critique est même au fondement de l’activité scientifique. Que « l’objectivité scientifique émerge de la critique inter-subjective ». Quelle est la conséquence de la critique ? elle introduit une démarcation entre les énoncés de manière à pouvoir les classer en énoncés scientifiques et en énoncés métaphysiques. Par exemple, e=mc2, Crp active acs, l’eau composé d’un atome d’oxygène et de deux atomes d’hydrogène ou l’énoncé basique 1+1=2 seront considérés comme des énoncés reproductibles. A l’inverse, d’autres énoncés sont en général placés dans la catégorie métaphysique comme Dieu, la pillule miracle anti-cancer, la mémoire de l’eau… Pourtant, le consensus actuel en épistémologie est qu’il est peu probable qu’une démarcation existe réellement. Vouloir trouver un critère de démarcation est une idée de maniaque nous dit en plaisantant Edgar Morin. Je vous donne un exemple simple d’un énoncé qui à longtemps été raillé : « la terre tourne » mais qui a quand même, comme on le sait, finit par s’imposer. Tout énoncé est donc potentiellement reproductible et il ne faut donc en rejeter ou stigmatiser aucun. En revanche, dire que tout énoncé est potentiellement reproductible ce n’est pas dire que tous les énoncés sont équivalents ce qui reviendrait à défendre une position relativiste. Non : certains énoncés se reproduisent, d’autres non. L’absence d’équivalence est lié au nombre d’exemplaires.

A première vue, ajouter une démarcation grâce à la critique semble plutôt raisonnable : cela évite de faire rentrer les loups dans la bergerie : par exemple les pseudosciences qui voudraient se parer de la crédibilité scientifique. Le problème c’est que cette démarcation rajoute subrepticement la violence dans le fonctionnement scientifique institutionnel. La critique rajoute l’idée qu’il faut empêcher la création ou la propagation d’énoncés jugés « inférieurs ». Cela génère une dictature épistémologique dont il est difficile de prendre conscience puisque nous en sommes tous, nous scientifiques, des instigateurs. La simple existence d’une démarcation devrait nous alerter car c’est une stratégie couramment employée par les dictatures classiques (noir et blanc, juif et Aryen, bon et méchant etc…). A l’inverse de la critique, l’interrogation est dénuée de toute violence, de toute volonté de puissance d’un homme sur un autre homme. Je vous donne un exemple un peu moyen parce que d’apparence politique mais je n’ai pas trouvé mieux : si vous dite à une femme en burqua « porter la burqua c’est mal », c’est un énoncé violent. Si vous dite « porter la buqua est ce que ce n’est pas mal ? » : il n’y a plus aucune trace de violence. C’est une simple interrogation. L’interrogation a cette qualité exceptionnelle de permettre la réflexivité sur soi-même. Cette boucle de rétroaction est visible dans la forme du point d’interrogation : elle ajoute le doute sur nous-mêmes et inclut l’idée que nos réalités phénoménologiques puissent différer. Si je suis daltonien, je ne vois pas le rouge. Si quelqu’un me dit que le rouge existe, il est plus sage de dire « le rouge existe-t-il vraiment ? » que de lui retorquer que « le rouge n’existe pas ». Nos réalités phénoménologiques diffèrent et nous expérimentons quelques choses de différent en regardant au même endroit. Il s’agit ici d’une image mais ce type de cas est très fréquent.

Ainsi, je pense que l’interrogation est un bon critère pour définir la science mais sans opérer de démarcation bien sûr. Il me semble, mais cette idée ne fait pas consensus, que les animaux ne disposent de pas ou de très peu de possibilités d’interrogation car cela suppose la faculté de transcrire une situation en un énoncé informatif. On se dit dans notre tête : « mais ou est Jacques ? » alors qu’un chien remarquera l’absence de Jacques et le cherchera instinctivement. Sans interrogation. Pas de progrès. Et effectivement les animaux ne connaissent pas ou peu le progrès : un renard aujourd’hui a un mode de vie équivalent à un renard il y a 10 000 ans. Notez également que les ordinateurs ne disposent pas de l’interrogation. Un algorithme peut chercher Jacques mais il ne peut pas se dire « ou est Jacques ? ». Disposer de l’interrogation est sans doute intiment associé à la prise de conscience de son existence. Et je mets au défi les nombreux informaticiens dans cette salle à réussir à programmer l’interrogation.

L’interrogation peut également soulever la question du but de l’existence humaine. L’humanité peut vouloir conserver l’interrogation à tout prix en considérant que cette dernière fait partie de l’essence de l’homme. Mais s’interroger cela génère un effort et donc une souffrance. A l’inverse, l’humanité peut décider de supprimer toute interrogation pour se debarasser de cette souffrance. On rejoint ici les thèse hedonistes ou eudemonistes qui postulent que le but d’une vie est respectivement le plaisir ou le bonheur. Pour supprimer toute interrogation, l’humanité dispose de deux moyens : répondre à toutes les questions possibles ou modifier le génome humain pour gommer l’interrogation.

Et vous que choisiriez-vous ? J’ai une petite expérience de pensée qui peut nous apporter des éléments de réponse. Un météorite va percuter la terre et il y a deux conséquences possibles : Soit l’homme perd toute possibilité d’interrogation. Il redevient à l’état de bovin. Une vache plus ou moins heureuse dans un pâturage et qui ne se pose pas de question. Soit on stocke toute l’information qu’a récoltée l’humanité depuis de millénaires sur des disques durs qu’on enterre en profondeur et qui reste donc potentiellement accessible à une intelligence extra-terrestre future. Par contre, il n’y a plus de vie sur terre.

Parmi ces deux possibilités, laquelle préféreriez-vous ? Personnellement je préfère la solution du disque dur parce que j’ai beaucoup à mal à sacrifier toute la souffrance investie par les hommes durant des millénaires pour générer la connaissance. Mais ce n’est qu’un avis et il peut changer. [2023 : je n’ai pas le temps de réfléchir à la question actuellement mais effectivement, mon avis a probablement changé 😊]

Pour conclure, je vais synthétiser les principaux résultats, ou plutôt proposition ou constructions cognitives obtenues au cours de mes recherches :

Nous avons vu que les nucléotides entretiennent un réseau d’interaction épistatique et que c’est la version physique de ces interactions qui est sélectionnée par l’évolution. Ces interactions qui franchissent la barrière de l’organisme pourraient engendrer la nécessité de redéfinir ou de préciser ce qu’est le « je » par rapport à « autrui ».

Nous avons également vu que des exemplaires (d’une taille suffisante en bit) semblent être de bons candidats pour représenter une caractéristique essentielle de la vie. La vie quand à elle s’explique par la manipulation de ces exemplaires à l’aide de 3 opérations : la réplication, la création et l’effacement. Cette manière de voir pourrait s’inviter dans le débat réductionnisme-holisme. Nous avons vu également que le refus de toute téléologie est une attitude aussi dogmatique que son acceptation.

Nous avons également montré que la science n’est qu’un sous-produit de la vie. La science manipule les bits du langage au lieu de manipuler les bits du génome. Vie et science créent des énoncés qui tendent, via la sélection naturelle, à être la représentation la plus précise de la réalité phénoménologique.

En science, la décompression d’un énoncé s’appelle l’expérience et nécessite une méthode : l’interrogation. Il s’agit de la seule méthode scientifique indiscutable. La critique n’est qu’un parasite greffé sur la science : elle y a injecté la violence.

Je vous remercie pour votre attention.