Le hasard au cœur de la cellule - Jean-Jacques Kupiec - ebook

Le hasard au cœur de la cellule ebook

Jean-Jacques Kupiec

0,0
66,91 zł

Opis

Une remise en question du déterminisme génétiqueUne révolution se produit actuellement en biologie. Les êtres vivants ne sont pas gouvernés par un programme génétique omnipotent. Il est maintenant clairement démontré que le hasard se niche au coeur des organismes, dans le fonctionnement des gènes et des cellules, et y joue un rôle encore largement sous-exploré. Alors que pendant longtemps, la biologie a été dominée par des théories finalistes puis «  déterministes  », les résultats expérimentaux obtenus ces toutes dernières années annoncent un changement de perspective radical. La nouvelle biologie, par son caractère probabiliste, rendra caduque l’idée même de programme et de déterminisme génétique – conception communément qualifiée de thèse du « tout génétique » – forgée à la suite de ce qu’il a été convenu d’appeler le « dogme central de la biologie moléculaire » (Francis Crick, 1958). Mais, cette nouvelle biologie ne doit pas être comprise comme une négation des acquis antérieurs de la biologie moléculaire. Bien au contraire, elle constitue une extension de la conception physico-chimique du vivant. Inévitablement, elle aura également de profondes conséquences philosophiques. En effet, ce n’est pas seulement le finalisme – religieux ou immanent – qui est de facto évacué, mais c’est encore la conception cartésienne de l’animal-machine qui doit être abandonnée. Si l’homme est une machine, il est aussi un homme-aléatoire ! Les principaux aspects, expérimentaux et théoriques, de cette révolution et les débats philosophiques qu’elle suscite sont exposés ici par les meilleurs spécialistes, biologistes et philosophes. La question passionnante qui s’ouvre alors consiste à comprendre comment, à partir du hasard moléculaire, se construit le vivant.Plongez dans une réflexion relative aux conséquences philosophiques d'une révolution de la pensée scientifique : la notion de hasard moléculaire.EXTRAITLa recherche sur le cancer vit un moment décisif. Il est possible d’y observer d’une part le fonctionnement d’une science « normale », en ce sens que les théories génétiques qui servent de paradigme depuis des décennies se perpétuent en s’adaptant aux données sur les cellules souches cancéreuses. Mais d’autre part, l’observateur attentif peut aussi assister à l’élévation d’un certain nombre de voix discordantes qui vont parfois jusqu’à nier toute implication des altérations génétiques dans le développement du cancer. Ces controverses sont le fruit de l’accumulation de résultats qui vont à l’encontre des théories génétiques dominantes. Ces résultats expérimentaux démontrent notamment le rôle crucial que joue l’environnement cellulaire et tissulaire dans l’initiation et la progression de la maladie.À PROPOS DES AUTEURSJean-Jacques Kupiec est biologiste moléculaire, Inserm et Centre Cavaillès, ENS Paris. Corrélativement à ses travaux de biologie moléculaire, il est l’auteur de la théorie darwinienne du développement de l’embryon qu’il a proposée dès 1981. Cette théorie introduit le hasard au niveau du fonctionnement de la cellule (notamment le génome) et la sélection naturelle dans les relations entre cellules (les cellules se différencient en fonction de leur micro-environnement, notamment les ressources métaboliques). Sous sa direction, de nombreux auteurs ont contribué à la rédaction de cet ouvrage : Guillaume Beslon, Jean-Pascal Capp, François Chatelain, Antoine Coulon, Alexandra Fuchs, Olivier Gandrillon, Jean Gayon, Mathieu Gineste, Jérôme Glisse, Thomas Heams, Bertrand Laforge, Laurent Le Guillou, Thierry Martin, Camila Mejia-Perez, Francesca Merlin, Michel Morange, Andras Páldi, François Pépin et Marc Silberstein.

Ebooka przeczytasz w aplikacjach Legimi lub dowolnej aplikacji obsługującej format:

EPUB

Liczba stron: 465




Sous la direction deJean-Jacques Kupiec, Olivier Gandrillon, Michel Morange et Marc Silberstein

Le hasard au cœur de la cellule

2011

Copyright

© Editions Matériologiques, Paris, 2016 ISBN numérique : 9782919694020 ISBN papier : 9782919694341 Cette œuvre est protégée par le droit d’auteur et strictement réservée à l’usage privé du client. Toute reproduction ou diffusion au profit de tiers, à titre gratuit ou onéreux, de tout ou partie de cette œuvre est strictement interdite et constitue une contrefaçon prévue par les articles L 335-2 et suivants du Code de la propriété intellectuelle. L’éditeur se réserve le droit de poursuivre toute atteinte à ses droits de propriété intellectuelle devant les juridictions civiles ou pénales.

Présentation

Une révolution se produit actuellement en biologie. Les êtres vivants ne sont pas gouvernés par un programme génétique omnipotent. Il est maintenant clairement démontré que le hasard se niche au coeur des organismes, dans le fonctionnement des gènes et des cellules, et y joue un rôle encore largement sous-exploré. Alors que pendant longtemps, la biologie a été dominée par des théories finalistes puis «  déterministes  », les résultats expérimentaux obtenus ces toutes dernières années annoncent un changement de perspective radical. La nouvelle biologie, par son caractère probabiliste, rendra caduque l’idée même de programme et de déterminisme génétique – conception communément qualifiée de thèse du « tout génétique » – forgée à la suite de ce qu’il a été convenu d’appeler le « dogme central de la biologie moléculaire » (Francis Crick, 1958). Mais, cette nouvelle biologie ne doit pas être comprise comme une négation des acquis antérieurs de la biologie moléculaire. Bien au contraire, elle constitue une extension de la conception physico-chimique du vivant. Inévitablement, elle aura également de profondes conséquences philosophiques. En effet, ce n’est pas seulement le finalisme – religieux ou immanent – qui est de facto évacué, mais c’est encore la conception cartésienne de l’animal-machine qui doit être abandonnée. Si l’homme est une machine, il est aussi un homme-aléatoire !

Table des matières

Introduction. De la nécessité du hasard en biologie

(Marc Silberstein, Jean-Jacques Kupiec et Olivier Gandrillon)

Chapitre 1. Expression stochastique des gènes et différenciation cellulaire

(Thomas Heams)

1 -

Mise en évidence expérimentale

2 -

Les différentes composantes de l’expression stochastique des gènes

3 -

Héritabilité et transmissibilité de l’expression aléatoire des gènes

4 -

Les causes de l’expression stochastique des gènes

5 -

L’expression aléatoire des gènes : un phénomène… contrôlé

Chapitre 2. De la diversité des probabilités

(Thierry Martin)

1 -

Source de la pluralité de significations

2 -

La double distinction interprétative des probabilités

3 -

Conclusion

Chapitre 3. Mécanismes moléculaires et fonction biologique de la variabilité de l’expression génique à l’échelle de la cellule unique : une approche systémique

(Antoine Coulon, Guillaume Beslon, François Chatelain, Alexandra Fuchs, Olivier Gandrillon, Mathieu Gineste, Jean-Jacques Kupiec, Camila Mejia-Perez et Andras Páldi)

1 -

Mesure

2 -

Mining

3 -

Modélisation

4 -

Manipulation

5 -

Conclusion et perspectives

Chapitre 4. Déterminisme génétique, déterminisme bernardien, déterminisme laplacien

(Jean Gayon)

1 -

Déterminisme génétique

2 -

Déterminisme bernardien

3 -

Déterminisme laplacien

4 -

Limites du déterminisme laplacien

5 -

Conclusion

Chapitre 5. Simulation informatique du modèle darwinien de la différenciation cellulaire

(Jérôme Glisse, Laurent Le Guillou, Bertrand Laforge et Jean-Jacques Kupiec)

1 -

Les modèles de simulation

2 -

Résultats des simulations  

3 -

Discussion

4 -

Conclusion

Chapitre 6. Le rôle de l’expression aléatoire des gènes dans la genèse du cancer

(Jean-Pascal Capp)

1 -

Points de vues génétique et épigénétique sur le cancer

2 -

La nature stochastique de l’expression génique

3 -

Nouvelles perspectives sur le cancer

4 -

Conclusion

Chapitre 7. Pour une interprétation objective des probabilités dans les modèles stochastiques de l’expression génétique

(Francesca Merlin)

1 -

Brève histoire de la notion de bruit en biologie

2 -

Le bruit dans le processus d’expression génétique

3 -

La question de l’interprétation des probabilités dans les modèles mathématiques du processus d’expression génétique

4 -

Pour une analyse objective des probabilités dans les modèles du processus d’expression génétique

5 -

L’analyse de la robustesse des probabilités

6 -

Notre argument programmatique pour une interprétation objective des probabilités

7 -

Notre argument programmatique pour l’objectivité des probabilités

Chapitre 8. La nécessité et l’aléatoire par delà le déterminisme : les Lumières et la biologie moléculaire

(François Pépin)

1 -

La nécessité et le déterminisme

2 -

Le vivant et l’aléatoire : nécessité, contingence et critique de l’ordre

3 -

Les probabilités, mathématiques du vivant

4 -

Conclusion

Introduction. De la nécessité du hasard en biologie

Marc Silberstein

Marc Silberstein a fondé les Éditions Matériologiques en 2010 et l’Association pour les études matérialistes (AssoMat) en 2004. II participe aux travaux du Centre Cavaillès de l’ENS. Il a notamment codirigé Les Mondes darwiniens. L’évolution de l’évolution (Syllepse, 2009 ; réédition Éditions Matériologiques, 2011). A contribué à une Histoire critique de la biologie (J.-J. Kupiec, dir.) à paraître en 2011.

Sites : lesmondesdarwiniens.org et assomat.info

Jean-Jacques Kupiec

Jean-Jacques Kupiec est biologiste moléculaire, Inserm et Centre Cavaillès, ENS Paris. Corrélativement à ses travaux de biologie moléculaire, il est l’auteur de la théorie darwinienne du développement de l’embryon qu’il a proposée dès 1981. Cette théorie introduit le hasard au niveau du fonctionnement de la cellule (notamment le génome) et la sélection naturelle dans les relations entre cellules (les cellules se différencient en fonction de leur micro-environnement, notamment les ressources métaboliques). Dernier livre paru L’Origine des individus (Fayard, 2008 ; trad. anglaise, The Origin of Individuals, World Scientific, 2009). Il a dirigé une Histoire critique de la biologie à paraître en 2011.

Olivier Gandrillon

Olivier Gandrillon est biologiste moléculaire, université Lyon 1. Responsable de l’équipe « Bases moléculaires de l’auto-renouvellement et ses altérations ».

Site : cgmc.univ-lyon1.fr/eq_gandrillon.php

On dit généralement que la conception épigénétique a vaincu le préformationnisme de manière décisive. Après tout, rien ne peut nous sembler plus insensé que l’image d’un homme minuscule au sein d’un spermatozoïde. Cependant, c’est vraiment le préformationnisme qui a triomphé, pour lequel il n’existe pas de différence essentielle, mais seulement de détails, entre la conception selon laquelle l’organisme est déjà formé dans l’œuf fécondé et la conception selon laquelle le plan complet de l’organisme et toutes les informations nécessaires pour le spécifier y sont contenus – ce qui est une conception hégémonique dans les recherches sur le développement.

(Richard Lewontin [1] )

Comment s’expriment les gènes au sein des cellules et comment, chez les organismes multicellulaires (dont l’espèce humaine), les cellules se différencient-elles ? Et comment, in fine, un organisme se constitue-t-il, avec ses types cellulaires différenciés formant des tissus organisés, dotés de morphologies et de métabolismes particuliers, donc fonctionnellement spécifiés ? Ces questions essentielles pour la biologie – et que d’aucuns pensaient définitivement réglées – sont au cœur de ce livre. Livre qui n’est pas un énième ouvrage de génétique faisant état de résultats déjà connus de tous, mais un recueil de textes visant à rendre compte de la fécondité d’une nouvelle approche de ces questions, alternative à celle, encore dominante, du programme génétique. Cette nouvelle approche repose sur l’expression stochastique (ou aléatoire) des gènes [2] . Disons-le sans détours : ces dernières années, l’explosion des travaux portant sur la mise en évidence de l’ESG indique que la question principale ne semble déjà plus être celle des preuves de la stochasticité de l’expression génique, tant les données empiriques sont pléthores, mais (i) celle de la nature de la stochasticité du phénomène en question, (ii) celle de l’application de ce nouveau modèle à l’ensemble de la biologie moléculaire et cellulaire. Aussi, le titre du présent ouvrage – Le Hasard au cœur de la cellule. Probabilités, déterminisme, génétique[3]  – rend-il compte non d’une interrogation vague, encore moins d’une spéculation incertaine, mais de résultats expérimentaux fiables et éloquents, issus de travaux de recherches très récents. Dans ce livre, nous avons donc voulu rendre visibles et le plus clair possible pour les non-spécialistes les attendus et les données du problème – crucial pour la compréhension des phénomènes du vivant – de l’hérédité et du développement des organismes, tel qu’il est conçu au sein d’une nouvelle conception de l’expression génique pour laquelle, comme le disent Jérôme Glisse et al. dans ce livre, « l’importance du génome n’est pas niée, mais [celui-ci] n’est plus considéré comme le gouverneur omnipotent de l’organisme ».

La littérature scientifique portant sur ce domaine est déjà abondante et les chercheurs impliqués dans ces travaux peuvent certes en prendre connaissance via les revues spécialisées, mais d’un abord très difficile pour quiconque n’y est pas directement impliqué. Il a donc fallu procéder à une synthèse de ces travaux on ne peut plus contemporains. Plusieurs chapitres de biologistes se chargent de cette tâche (chapitres 1, 3, 5, 6), tout en veillant à replacer ces considérations novatrices dans le contexte de la biologie moléculaire classique, dans une dynamique épistémologique relevant soit de la continuité (notamment quant aux outils expérimentaux), soit de la rupture (théorique, méthodologique). Ce livre se veut aussi un lieu de dialogue entre biologistes – théoriciens ou expérimentateurs (la frontière étant d’ailleurs très peu évidente, voire guère revendiquée) – et philosophes des sciences. Nous avons donc choisi d’alterner les contributions des uns et des autres, indiquant ainsi une sorte d’intrication des questionnements, des problématiques, des méthodes, visant à concevoir au mieux, dans une tendancielle complétude disciplinaire, les tenants et aboutissants de l’ample question du hasard en biologie moléculaire et cellulaire.

Afin de rendre encore plus explicite la compréhension de l’enjeu des recherches exposées ici, il n’est pas inutile de donner aux lecteurs non biologistes quelques rudiments au sujet des principales étapes de la machinerie cellulaire, telles qu’elles sont établies par la biologie moléculaire classique [4]  (appelons-là BMP : biologie moléculaire programmiste), celle-là même que les biologistes dont on parle dans ce livre cherchent à transformer en ce que nous nous permettrons de qualifier de « biologie moléculaire non programmiste » (BMNP). Contrairement à ce que laissent entendre les expressions courantes, et pas seulement sous les plumes incompétentes ou paresseuses, de « gène du cancer », « gène de la mucoviscidose », « gène de l’obésité », etc., les gènes codent pour des protéines – et sûrement pas pour des entités dont la caractérisation selon une causalité linéaire en termes de macromolécules biologiques n’est pas encore connue ! En effet, le fait d’établir une corrélation entre deux éléments (le gène et le caractère phénotypique) ne démontre pas par lui-même le lien de causalité qui les unit. L’expression des gènes est donc le mécanisme par lequel un gène (i.e. une séquence de nucléotides) produit une protéine, via une série d’étapes compliquées dont nous ne donnerons que les moments les plus importants.

Cette expression génique se fait de manière différenciée, ou spécialisée, chez les organismes multicellulaires. Chez ces organismes, tous les gènes ne sont pas transcrits, c’est-à-dire que tous les gènes ne vont pas donner naissance à une protéine (synthèse des protéines). Les cellules de ces organismes sont spécialisées et, par exemple, les cellules du foie expriment des protéines différentes des cellules nerveuses, musculaires, etc. C’est un aspect important du phénomène de différenciation cellulaire.

La synthèse des protéines comprend deux étapes principales : (i) la transcription et (ii) la traduction. (i) La transcription est l’étape de synthèse de l’ARNm, molécule intermédiaire entre l’ADN codant (pour le dire rapidement) et la protéine finale. C’est une copie d’une portion de l’ADN présent dans le noyau. Ceci fait, il faut que la cellule traduise le transcrit en protéine. C’est l’étape de traduction (ii) : une fois que le brin d’ARNm a atteint le cytoplasme, lieu de la traduction, il se fixe à une structure appelée ribosome, qui va assembler une séquence d’acides aminés en fonction de l’information contenue dans l’ARNm. Le ribosome parcourt le brin d’ARNm et, via un ARN de transfert (ARNt), ajoute un acide aminé à la protéine en cours de fabrication selon l’information lue. Lorsque la protéine est complète, le ribosome se détache de la protéine et du brin d’ARNm, et la protéine est libérée dans la cellule, puis d’autres mécanismes se chargent de son transport. Ce schéma – rappelons-le, simplifié à l’extrême – indique néanmoins que l’expression des gènes semble relever d’un ordre scrupuleux, un peu à la façon dont un programme d’ordinateur se comporte, l’ensemble de ces opérations étant réalisées selon les informations contenues dans l’ADN, d’où la notion de programme génétique. Dans cette conception, l’ordre produit de l’ordre. Une information (génétique) conforme les protéines qui elles-mêmes conforment les organismes La question de l’origine de cet ordre sous-jacent reste une énigme majeure. C’est là le cœur du problème traité dans ce livre.

Dans le premier chapitre, « Expression stochastique des gènes et différenciation cellulaire », Thomas Heams (biologiste moléculaire) rend compte des réticences des biologistes moléculaires à reconnaître le fait stochastique dans le phénomène de la différenciation cellulaire, ainsi que des moyens dont on dispose, depuis peu, pour en affirmer la réalité. C’est la notion de « programme génétique » qui est visée ici, car sa portée théorique semble en voie d’épuisement. En effet, il existe depuis longtemps de nombreux indices que les thèses du « déterminisme génétique », du « tout génétique » – la légende des gènes, pour reprendre une expression de Gérard Lambert [5]  –, du strict ajustement des paramètres du fonctionnement cellulaire, de la stéréospécificité des molécules biologiques, de la parfaite régulation, architecture et précision des voies de signalisation, etc., sont des simplifications excessives des processus du vivant [6] . Mais comme le remarque Thomas Heams, gardons-nous, rétrospectivement, de railler cette conception, dont l’importance fut capitale dans l’histoire de la biologie. En revanche, il convient davantage de s’interroger sur les inerties qui ralentirent – ralentissent encore – la transition entre les deux conceptions, celle du programme génétique et celle de l’ESG. Si des écueils conceptuels ou sociologiques un peu suspects sont à discerner, il en existe un de type technique, méthodologique qui explique en grande partie, mais pas exclusivement, la prévalence de la première conception : pendant longtemps, il fut impossible de procéder à des analyses sur cellules isolées pour mettre en évidence les variations stochastiques entre cellules, et les résultats expérimentaux portaient sur des ensembles de cellules, produisant donc des données moyennées. La variabilité intercellulaire – le résultat empirique majeur qui emporte dorénavant la conviction de nombreux spécialistes du sujet – était ainsi éliminée. (Comme le note aussi Francesca Merlin, au chapitre 7, il fut une époque où la variabilité phénotypique pourtant dûment observée était ignorée, considérée comme du « bruit » insignifiant.) Or l’irruption massive de moyens d’analyse fine des individus cellulaires, si l’on peut dire, est le facteur déclenchant de la révolution scientifique qui a lieu, actuellement, en biologie moléculaire. Cependant, Thomas Heams remarque judicieusement que des théories mettant l’accent sur la dimension aléatoire de l’expression génique, ainsi que des techniques d’analyse des cellules, existent depuis longtemps, et que certains outils de laboratoire aptes à déceler la variabilité entre cellules individuelles (cytométrie de flux) sont même concomitants de l’essor de la biologie moléculaire [7] . Pourtant, ces idées et les premiers résultats alternatifs par rapport aux données de la théorie principale furent ignorés. Belle illustration, pour l’historien des sciences, du fait que la prégnance excessive d’une théorie – celle du programme génétique, en l’occurrence – peut produire des effets préjudiciables au déploiement d’idées différentes au sujet d’un même phénomène à expliquer, et que la confrontation des faits expérimentaux aux théories concurrentes ne relève pas d’une procédure décisionnelle si simple, claire, évidente, et fluide que ce que l’on décrit fréquemment, souvent a posteriori[8] . Dans son récit liminaire de l’essor difficile de la théorie de l’ESG, Thomas Heams évoque une question épistémologique intéressante – et donc nous en profitons pour la développer quelque peu –, celle de l’expérience cruciale [9] . Les premiers résultats allant à l’encontre de la théorie prépondérante (BMP) pouvaient être regardés avec perplexité, et il aurait semblé quelque peu incongru d’opérer immédiatement un mouvement de basculement théorique. Ce n’est pas une expérience cruciale qui pouvait remettre en cause la conception dominante (et qui l’était en très grande partie pour de très bonnes raisons). Mais, depuis quelques années, l’accumulation des données, conjointement aux défaillances de plus en plus évidentes de la théorie du programme (l’exemple de la cancérogenèse est patent, comme le montre Jean-Pascal Capp, dans le chapitre qu’il consacre à cette question) et aussi à une assise théorique forte – celle issue des réflexions des critiques du programme génétique et du déterminisme génétique (sur ce terme, voir plus bas) –, conduisent indiscutablement à introduire une nouvelle conception du vivant, dans laquelle l’aléatoire n’est plus conçu comme du « bruit » (cf. notamment le chapitre 7), mais comme un facteur intrinsèque et déterminant.

Aussi, Thomas Heams analyse l’essor et l’abondance très récente de la littérature scientifique dans laquelle l’ESG est étudiée. Il en arrive ensuite au cœur de son propos : la caractérisation biologique de l’expression stochastique des gènes, avec notamment les questions considérables de l’héritabilité de l’ESG (l’ESG est aussi un phénotype !) et de ses causes. Il insiste sur les « causes topologiques » – ceci est extrêmement important en regard de ce qui constitue le noyau théorique, voire métaphysique, de la théorie du programme génétique, à savoir l’information, notion controversée, aux contours souvent indécis [10]  – et aborde le problème du contrôle de l’ESG, posant à nouveaux frais une question centrale en sciences et en philosophie des sciences, celle de l’organisation et de la reproductibilité des structures (ici biologiques) à partir d’entités constitutives présentant des caractéristiques aléatoires. C’est principalement pour ces raisons que son chapitre se veut prolégomènes du reste du livre ; il en constitue une introduction fort éclairante quant au travail de la science biologique en acte.

Les sciences probabilistes, bien entendu, font appel au calcul des probabilités. Dans le chapitre 2, « De la diversité des probabilités », Thierry Martin (philosophe des sciences) nous éclaire sur les diverses interprétations des probabilités. Ce ne sont pas ici les modalités calculatoires, mathématiques, qui sont exposées, mais les interprétations de la signification du calcul des probabilités. C’est donc, en une certaine manière, la question de l’applicabilité des probabilités qui est posée ici – « Elle est un instrument de mesure, et son usage réfléchi exige que l’on sache ce que l’on mesure, et donc à quel objet on applique l’instrument » (Martin, ce volume) – et non celle de l’ontologie du probable. Cependant, cette interrogation est indéniablement épistémologique, en ce qu’elle porte principalement sur la distinction entre probabilité épistémique [11]  et probabilité physique [12] . Comme le montre Thierry Martin, les combinaisons conceptuelles des différentes interprétations des probabilités sont plus nombreuses et subtiles que certaines oppositions terme à terme le laissent croire. De même, on comprend que les interprétations en jeu ne sont pas nécessairement opposables, ou assimilables, en ce qu’elles n’opèrent pas aux mêmes niveaux ; en un mot, celui de l’événement pour la probabilité physique ou celui du jugement pour la probabilité épistémique. Ces précisions sont utiles pour une étape déjà en cours, mais certainement à renforcer à l’avenir, quand il s’agira de statuer sur la nature ou l’ontologie du probabilisme décelé au cœur de la cellule. (On verra ce qu’en dit Francesca Merlin au chapitre 7.)

Le chapitre 3, « Mécanismes moléculaires et fonction biologique de la variabilité de l’expression génique à l’échelle de la cellule unique : une approche systémique », d’Antoine Coulon (biomathématicien), Guillaume Beslon (bioinformaticien), François Chatelain (chimiste), Alexandra Fuchs (biologiste moléculaire), Olivier Gandrillon (biologiste moléculaire), Mathieu Gineste (biologiste), Jean-Jacques Kupiec (biologiste moléculaire), Camila Mejia-Perez (biologiste moléculaire) et Andras Pàldi (biologiste moléculaire), outre qu’il récapitule les principaux arguments en faveur de l’ESG, expose les recherches en cours que cette équipe pluridisciplinaire consacre « non [pas au] niveau d’expression des gènes mais [aux] variations de ce niveau » (Coulon et al., ce volume). L’enjeu de cette recherche est capital. En effet, il s’agit de faire passer l’expression stochastique des gènes du statut de simple bruit de fond à celui de paramètre physiologique qui varie quantitativement au cours des processus cellulaires, et dont la corrélation avec d’autres paramètres éclaire le fonctionnement de la cellule. On assiste ici au démarrage d’un nouveau programme de recherche qui forge sa propre méthodologie en rupture avec l’approche programmiste traditionnelle qui reste toujours au niveau de l’analyse qualitative : pour tout phénomène, cherchez le gène ou la protéine spécifique sous-jacente (ou la combinaison spécifique).

De plus, il est important d’insister ici, exemple à l’appui, que la pluridisciplinarité est un impératif méthodologique pour qui veut travailler sur cette thématique ou selon les réquisits de la biologie des systèmes. Des technologies logicielles (simulation informatique), des nanotechnologies, des mathématiques appliquées (modélisation), des technologies d’acquisition de données sur des objets infimes ou des processus extrêmement fugaces, etc., sont ici requises. Autre remarque d’importance : ces travaux, dont nous avons ici un exemple détaillé, s’inscrivent dans le cadre d’une biologie des systèmes [13]  qui n’est pas sans rappeler, à des échelles temporelles et spatiales très différentes, les velléités de la biologie intégrative macroscopique. Il s’agit de rendre compte d’un phénomène (l’expression des gènes) dont on pense qu’il n’est pas déterminé par un mécanisme unique (ce qu’il est convenu d’appeler le « réductionnisme génétique », selon lequel tout en biologie est, en dernière analyse, expliqué par le code génétique et les mécanismes de traduction et de transcription), mais qu’il ne peut recevoir d’explication adéquate que dans le cadre d’une physico-chimie de la cellule prenant en compte les contraintes topologiques, conformationnelles, structurelles, etc., des compartiments cellulaire et leurs interactions (sur ce point, cf. aussi le chapitre de Thomas Heams). Le métabolisme cellulaire est à la fois un produit de l’expression des gènes mais aussi un paramètre, fluctuant sans cesse – cependant tendanciellement « lissé » –, qui agit en retour sur l’expression des gènes.

Enfin, comme l’indiquent les auteurs dans leur conclusion, tout ceci aura sans doute des répercussions pratiques dans la compréhension des pathologies, notamment le cancer, rejoignant ainsi les préoccupations des chercheurs travaillant dans ce domaine qui ne se satisfont plus de la théorie dominante, la théorie de la mutation somatique. Le chapitre 6 développe largement ces considérations.

La critique d’une science, ici la génétique, se fait « de l’intérieur », par les travaux des scientifiques, mais aussi « de l’extérieur », par l’examen philosophique, épistémologique des vocables usuels de telle ou telle discipline. C’est ce à quoi s’emploie Jean Gayon (philosophe des sciences) dans le chapitre 4, « Déterminisme génétique, déterminisme bernardien, déterminisme laplacien ». Ainsi, dans les débats sur la génétique, il est souvent question du décrié « déterminisme génétique », c’est-à-dire la thèse voulant que « l’état futur d’un organisme est prédictible sur la base de sa composition génétique » (Gayon, ce volume), fréquemment assimilé au tout aussi décrié « réductionnisme génétique » (assimilation indue, ibid.). Jean Gayon montre l’inanité du déterminisme génétique, tel qu’il est entendu usuellement. Remarquons à cet instant qu’il serait plus problématique d’inférer spécieusement que la mise en cause scientifique, via la théorie de l’ESG, du déterminisme génétique entraîne ispo facto la récusation des instances ontologiques, ou des principes régulateurs, ou des opérateurs de connaissance, que sont le déterminisme, au sens d’une doctrine qui affirme qu’il y a toujours des causes rationnelles aux phénomènes et le réductionnisme, au sens d’un réductionnisme théorique et méthodologique qui affirme la nature matérielle, physico-chimique, sous-jacente à tous les phénomènes et la nécessité d’utiliser une méthode analytique pour les étudier [14] . (En revanche, il est patent que l’ESG frappe de caducité les annonces à la rodomont des découvreurs du « gène » de l’alcoolisme, de la violence, de la criminalité, de l’homosexualité, etc.) Nous n’avancerons pas ici sur le terrain mouvant de la mécanique quantique, ce socle-là n’étant pas aussi solide, loin s’en faut, que beaucoup de physiciens l’allèguent. En restant dans le cadre du déterminisme de la physique classique, on peut concevoir ainsi, en ce qui concerne la biologie, que c’est la multitude des causes – et la multitudes des entités sur lesquelles il y a des actions – qui produisent un effet de stochasticité dans la cellule, comme c’est la cas des phénomènes liés à l’agitation brownienne des molécules. On retrouve de la sorte le hasard cournotien : le hasard est la rencontre de deux séries causales indépendantes. Or, dans une cellule, c’est une trivialité, les séries causales et les événements (les entités, les processus) sont innombrables.

Le chapitre 5 de Jérôme Glisse (bioinformaticien), Laurent Le Guillou (physicien), Bertrand Laforge (physicien) et Jean-Jacques Kupiec (biologiste moléculaire) porte sur « la simulation informatique du modèle darwinien de la différenciation cellulaire ». L’argument qui a longtemps été opposé à ce modèle est un argument théorique de principe, posé a priori, consistant à affirmer l’impossibilité de créer des structures tissulaires ordonnées et reproductibles par un mécanisme stochastique. Ces auteurs ont créé un modèle minimal de différenciation mettant en jeu des cellules virtuelles. Dans ce modèle une cellule se différencie avec une probabilité qui dépend de son environnement constitué par les autres cellules et les molécules qu’elles synthétisent. Les résultats des simulations sont particulièrement significatifs. Elles aboutissent de manière reproductible à la formation d’une structure tissulaire organisée en bicouche. De plus, elles démontrent une propriété non triviale du modèle darwinien de différenciation : les structures tissulaires cessent de croître spontanément sans qu’aucune instruction d’arrêt de croissance n’ait été spécifiée dans le programme informatique. Le modèle darwinien possède donc des propriétés essentielles que l’on attend d’une théorie de l’embryogenèse. Cela ne démontre certes pas sa validité per se dans les organismes réels, mais cela démontre sa plausibilité et cela réfute l’opposition de principe postulée contre une théorie stochastique de l’embryogenèse.

Dans le passionnant chapitre 6, « Le rôle de l’expression aléatoire des gènes dans la cancérogenèse », Jean-Pascal Capp (biologiste moléculaire), montre l’intérêt d’un changement de perspective théorique pour la compréhension du cancer [15] . Le cancer n’est alors plus compris comme la seule résultante d’altérations de gènes (oncogènes), mais comme l’effet de l’interaction de nombreuses causes moléculaires, cytologiques, histologiques. Cela débouche sur une nouvelle conception dans laquelle le rôle des mutations n’est pas nié, mais ne constitue plus la cause unique et initiale obligatoire. C’est l’équilibre global de l’organisme qui devient le facteur fondamental contrôlant la prolifération des cellules. Lorsqu’il est altéré, cela entraîne une prolifération cellulaire et une expression stochastique des gènes incontrôlées. Dans ce processus, les mutations participent à la destruction de l’équilibre global et à l’aggravation du phénotype cancéreux. L’intérêt de l’analyse de Jean-Pascal Capp, outre les conséquences médicales possibles à long terme, est de pouvoir réconcilier, parce qu’il intègre le rôle de l’ESG, les nombreuses données expérimentales qui démontrent le rôle du micro-environnement cellulaire dans la cancérogenèse avec les données non moins nombreuses qui démontrent l’implication des mutations. Cela permet ainsi, tout en acceptant pleinement le rôle de la structure globale de l’organisme, d’éviter de régresser vers une conception holiste.

À l’issue de cet ouvrage, il est entendu que la piste théorique et expérimentale de l’ESG est extrêmement fructueuse quand il s’agit d’expliquer des phénomènes biologiques aussi importants que le développement (chapitres 1 et 5) ou de pallier les insuffisances de modèles concurrents, dans l’étude du cancer par exemple (chapitre 6). Les techniques, les méthodes, les modèles, etc., l’ensemble des dispositifs aptes à rendre compte de l’ESG – et à réfuter la thèse du programme génétique et le déterminisme génétique – sont en place et les données expérimentales s’accumulent. Mais, un autre chantier conceptuel s’ouvre, celui de l’interprétation des probabilités (chapitre 2) en jeu dans les théories et modèles de l’ESG. Dans le chapitre 7, qui clôt ce livre, Francesca Merlin (philosophe des sciences) prend parti « pour une interprétation objective des probabilités dans les modèles stochastiques de l’expression génétique ». Selon ses termes, elle insiste « sur la question […] de la nature des probabilités, qui consiste à se demander si les probabilités dans les modèles stochastiques de l’expression génétique sont épistémiques, c’est-à-dire qu’elles portent sur les connaissances des biologistes au sujet de ce processus intracellulaire, ou objectives, c’est-à-dire qu’elles rendent compte de certaines caractéristiques propres à l’expression des gènes ». Comme elle le précise, il s’agit tout autant d’une enquête philosophique que scientifique (« une question d’ordre empirique et méthodologique »).

Ce travail d’analyse des probabilités impliquées dans l’ESG s’inscrit, selon Francesca Merlin, dans une démarche heuristique inhérente à la poursuite de l’enquête scientifique : « De manière générale, postuler des variables cachées afin de les découvrir est une pratique essentielle pour le progrès théorique de la recherche scientifique car elle pousse à enquêter sur les causes de résultats inattendus. Dans le cas qui nous concerne, une interprétation épistémique des probabilités concernant le processus d’expression génétique pourrait amener les biologistes à postuler des composants et des interactions moléculaires cachés afin de les découvrir et, en cas de réussite, afin de fournir une description et une explication plus complètes de l’expression des gènes. » Et en effet, ces diverses réflexions conduisent fort probablement à une conclusion assez typique en histoire et philosophie des sciences, dès lors qu’on se penche sur la question du déterminisme et de l’indéterminisme. Exhiber des états probabilistes de tel ou tel phénomène n’implique pas obligatoirement que leur stochasticité – fût-elle endogène – soit inhérente à un indéterminisme sous-jacent irréductible. Le hasard impliqué par les données expérimentales obtenues jusqu’à présent est un hasard brownien lié à l’agitation thermique et non un hasard d’origine quantique. Il induit des variations de concentration et d’activité des protéines et perturbe ainsi l’une ou plusieurs des étapes de la synthèse des protéines.

Deux interprétations de la probabilité en biologie cellulaire sont ici possibles : soit le vivant reste soumis à un déterminisme sous-jacent mais qui ne peut s’appréhender qu’en utilisant les concepts probabilistes du fait de la multiplicité et la complexité des chaînes causales qu’il implique ; soit ce même vivant est fondamentalement indéterministe et l’utilisation des concepts probabilistes ne fait que refléter son ontologie. Une position comme celle de Francesca Merlin – qui cependant opte pour une position où les probabilités des modèles de l’ESG sont objectives au sens où elles informent sur l’événement physique et non sur les lacunes du jugement (cf. cette distinction au chapitre 2) – permet sans doute de ne pas brûler les étapes conceptuelles, en ce qu’elle commence par éclairer les éléments du débat qui sont les plus à notre portée, puisque les outils d’exploration (empiriques et épistémologiques) sont disponibles ou en cours de développement.

François Pépin (philosophe des sciences), dans le dernier chapitre, « La nécessité et l’aléatoire par delà le déterminisme : les Lumières et la biologie moléculaire », explore les conceptualisations de notions cruciales pour l’épistémologie du « hasard » en biologie, à savoir : déterminisme, hasard justement, nécessité, ordre, contingence et ce, à la lumière des travaux de certains philosophes ou scientifiques du XVIIIe siècle, principalement Diderot et Laplace. Cette approche peut surprendre eu égard au décalage chronologique existant entre ces penseurs et la biologie moléculaire. Cependant, elle permet l’analyse du rapport entre les ontologies et les épistémologies associées dans diverses conceptions du vivant, telles qu’elles y apparaissent explicitement ou, au contraire, telles qu’elles doivent y être décelées. Pépin rappelle que « la réflexion des Lumières se préoccupe […] des limites pratiques de la déductibilité et de la différence de modalité des lois », ce qui résonnent aux oreilles de nos contemporains s’intéressant aux conditions épistémiques de nos capacités de savoir. Il montre aussi comment ces philosphes-savants ont su produire une théorie ontologique et épistémologique qui permet une compréhension à la fois nécessitariste et contingentiste de la nature. Une conception résolument causale qui maintient l’interdépendance universelle et la possibilité de construire des lois, mais qui permet de se soustraire à l’aporie de l’origine d’un ordre premier et aux difficultés des déterminismes classiques sur le terrain biologique.

Que conclure, face à cet état de l’art ?

1) Sans doute, comme nous venons de le suggérer, que le débat déterminisme/indéterminisme en biologie n’est pas clos, notamment pour des raisons de sous-détermination de la théorie par les faits.

2) Que cela n’influe pas fondamentalement sur la nécessité (épistémique) de l’utilisation des concepts probabilistes en biologie.

3) Que ce qu’il y a d’étonnant, d’un point de vue historique, c’est l’attitude passée de la plupart des biologistes moléculaires voyant les variants phénotypiques des types cellulaires étudiés comme des faits négligeables, des débuts ou des queues de courbe de Gauss Ainsi, subrepticement, dans cette science de pointe, ce fut le retour – et le maintien au-delà du raisonnable – d’une pensée programmiste conduisant à l’essentialisme dans le même temps que cette pensée était grandement évacuée d’autres domaines importants de la biologie, la systématique et la biologie évolutive. Un des intérêts des approches envisagées ici est qu’elles permettent aussi de repenser les objets de la biologie de l’évolution, en rejoignant des réflexions assez similaires menées par les phylogénéticiens. Ainsi, la rencontre de ces domaines pourraient donner lieu à un très fructueux « néo-néo-néodarwinisme [16]  », une nouvelle théorie synthétique de l’évolution, loin des fumeux postdarwinismes.

4) Que l’on doit s’attendre à une vaste reconfiguration de la biologie moléculaire et cellulaire, dans laquelle l’ESG devrait être la théorie standard [17] , ce qui permettra de développer les tests expérimentaux dans tous les domaines de la discipline, depuis les questions de biologie fondamentale jusqu’aux sciences appliquées, avec notamment la question de la portée thérapeutique des modèles issus de l’ESG.

5) Que si la BMP a trop facilement clamé (attention, nous ne disons pas que c’est le fond de son propos scientifique, mais peut-être la surface du discours) la « fin » de l’œuvre de dévoilement des « secrets de la vie », il est du devoir, social, pour l’ESG, de ne pas céder à de tels accès de grandiloquence. Certes, nous parlons volontiers dans ces lignes de « révolution » scientifique à propos de l’ESG. Serions-nous ainsi dérogatoire à la clause de prudence que nous venons d’indiquer ? Non, car il n’est pas question ici du « livre de la vie » et autres promesses inconsidérées faites il y a peu par ceux qui croyaient à l’éradication des maladies et à la dissolution des énigmes du vivant dès lors que serait séquencée l’intégralité du génome humain. Au contraire – c’est une sorte de leitmotiv des études menées sous la tutelle théorique de l’ESG –, l’audace de l’assertion centrale de cette théorie n’a d’égal que l’humilité cognitive avec laquelle il faut envisager la refondation d’une science aussi considérable que la biologie.

6) Que l’ESG est une théorie plus parcimonieuse que la théorie du programme génétique, car elle met en jeu des entités (les molécules) dotées de propriétés variationnelles aléatoires en lieu et place d’un mécanisme (au sens philosophique du terme) dont les multiples éléments doivent se combiner d’une façon précisément déterminée.

7) Que, peut-être, faudrait-il, symboliquement, appeler ces sciences de la cellule en réutilisant un ancien nom certes, mais hautement significatif : la « physico-chimie (variationnelle) du vivant ». On y repère que cette biologie, grâce à ce terme de physico-chimie, n’est plus génocentrique ; qu’elle se focalise sur les interactions des multiples classes moléculaires en jeu dans une cellule ; qu’elle s’intéresse non plus principalement à l’information génétique, mais aussi aux paramètres topologiques, conformationnels, voire mécaniques, en un mot matériels, de la cellule ; qu’elle est régie par les mêmes lois que la physique ; enfin qu’elle met l’accent sur la variation, processus indissociable à la notion même de vie, condition sine qua non de l’évolution darwinienne.

Références bibliographiques

D
DUHEM Pierre (1906), La Théorie physique, son objet et sa structure, Paris, Éditions Rivière.
K
KUPIEC Jean-Jacques, LECOINTRE Guillaume, SILBERSTEIN Marc & VARENNE Franck (dir.) (2008), Matière première, revue d’épistémologie et d’études matérialistes, n° 3/2008 : « Modèles, simulations, systèmes », Paris, Syllepse.
KUPIEC Jean-Jacques (2008), L’Origine des individus, Paris, Fayard.
L
LAMBERT Gérard (2006), La Légende des gènes. Anatomie d’un mythe moderne, Paris, Dunod.
LEWONTIN Richard (2002), The Triple Helix : Gene, Organism, and Environment, Cambridge, Harvard University Press.
M
MORANGE Michel (2003), Histoire de la biologie moléculaire, Paris, La Découverte.
Q
QUINE Willard Van Orman (1953), From a logical point of view, Cambridge, Harvard University Press.
S
SEGAL Jérôme (2003), Le Zéro et le Un. Histoire de la notion scientifique d’information au 20e siècle, Paris, Syllepse.

Notes du chapitre

[1] ↑ Richard Lewontin, The Triple Helix : Gene, Organism, and Environment, Harvard University Press, 2002, p. 6 ; notre traduction.

[2] ↑ Expression dorénavant notée ESG.

[3] ↑ Il s’agit de la publication des actes du colloque du Centre Cavaillès qui s’est tenu à l’Ecole normale supérieure le 22  janvier 2008, organisé par Olivier Gandrillon, Jean-Jacques Kupiec et Michel Morange.Un premier ouvrage portant ce titre fut édité par Syllepse en 2009. Le livre ayant cessé d’être diffusé par cet éditeur, une nouvelle édition, augmentée d’un chapitre inédit de François Pépin, a vu le jour grâce aux Éditions Matériologiques.

[4] ↑ Par ailleurs, la plupart des termes techniques sont définis en notes de bas de pages, dans les articles où cela s’imposait et non dans un glossaire général, en fin d’ouvrage. Ce choix a sans doute comme conséquence d’introduire quelque redondance, mais il a surtout l’avantage de permettre des éventuelles différences de définition des mêmes vocables, et ce en fonction du contexte d’énonciation.

[5] ↑ La Légende des gènes. Anatomie d’un mythe moderne, Dunod, 2006.

[6] ↑ Nous ne doutons en aucun cas que la science – théorisation, modélisation – est une nécessaire simplification du réel, une approche asymptotique de la réalité. C’est justement pour cela que la biologie doit se doter sans répit des moyens les plus appropriés pour s’extirper des explications trop lacunaires.

[7] ↑ Sur cette histoire, on lira avec profit Michel Morange, Histoire de la biologie moléculaire, La Découverte, 2003.

[8] ↑ En partie sans doute à cause de ce qu’on appelle, à la suite de Willard Van Orman Quine (From a logical point of view, Harvard University Press, 1953), la sous-détermination des théories par les faits. Deux théories différentes, voire contradictoires, peuvent être d’accord sur un même ensemble de données observables (ici, entre autres, la présence de certains types de macromolécules, du code génétique, de processus de transcription, de traduction, de différenciation, etc.).

[9] ↑ Le physicien Pierre Duhem la définit ainsi : « Supposez, en particulier, que deux hypothèses seulement soient en présence ; cherchez des conditions expérimentales telles que l’une des hypothèses annonce la production d’un phénomène et l’autre la production d’un phénomène tout différent ; réalisez ces conditions et observez ce qui se passe ; selon que vous observerez le premier des phénomènes prévu ou le second, vous condamnerez la seconde hypothèse ou la première ; celle qui ne sera pas condamnée sera désormais incontestable ; le débat sera tranché, une vérité nouvelle sera acquise à la science. Telle est là preuve expérimentale que l’auteur du Novum Organum a nommée “fait de la croix”, en empruntant cette expression aux croix qui, au coin des routes, indiquent les divers chemins » (La Théorie physique, son objet et sa structure, Éditions Rivière, 1906, http://gallica.bnf.fr/ark:/12148/bpt6k951903/f3.image.pagination.r=pierre+duhem.langFR, p. 309). Sa critique de la portée systématique de l’expérience cruciale a été reprise par Quine en 1953 (thèse de Duhem-Quine). Si une expérience ne peut prétendre à être cruciale, ce n’est pas tant pour une raison empirique (faire tous les tests et contrôles souhaitables pour éliminer ce qui relèverait des défaillances expérimentales) que pour une raison épistémologique profonde : la solidarité logique des énoncés nodaux et auxiliaires d’une théorie, et des théories adjacentes, elles-mêmes soumises, par contiguïté, à cette interrelation qui forme un réseau, le réseau théorique. La mise en défaut d’une hypothèse via une expérience particulière ne concerne pas uniquement cette hypothèse principale, mais aussi toutes les hypothèses qui font corps avec elle, fussent-elles implicitement admises comme un arrière-plan de connaissance dont on ne discute plus. Par exemple, hypothèse principale : le gène x code pour la protéine p.  Hypothèse d’arrière-plan de niveau 1 (parmi tant d’autres) : les gènes sont localisés dans le noyau de la cellule. Hypothèse d’arrière-plan de niveau 2 : la cellule est l’unité fondamentale de l’organisme. Etc. Hypothèse d’arrière-plan de niveau n le plus lointain : les atomes sont régis par des lois physiques décrits dans le cadre de théories T, T1, T2, etc. A quoi il faut ajouter des hypothèses d’arrière-plan concernant les appareillages de mesure ou de préparation du matériel expérimental (microscope, spectromètre, etc.), et les théories qui les expliquent (par exemple, les même T, T, T2, etc., de la physique qui s’appliquent aux atomes composant les biomolécules)… La leçon épistémologique a en tirer serait qu’il faut parfois se méfier des évidences dans nos connaissances d’arrière-plan. En ce qui concerne la question centrale de ce livre, une connaissance d’arrière-plan considérée comme intangible était, entre autres, que l’ordre ne peut que venir de l’ordre, que le profil d’expression d’un gène donné dans un milieu donné réputé homogène était unique, etc.

[10] ↑ Sur ce point, cf. Jérôme Segal, Le Zéro et le Un. Histoire de la notion scientifique d’information au 20e siècle, Syllepse, chapitre 7, « L’information et le vivant : aléas de la métaphore informationnelle ». Cet ouvrage sera réédité en 2011 aux Éditions Matériologiques.

[11] ↑ La probabilité épistémique reflète nos incertitudes sur la connaissance du phénomène étudié.

[12] ↑ La probabilité physique reflète une propriété intrinsèque au phénomène étudié.

[13] ↑ Cf., entre autres, Jean-Jacques Kupiec, Guillaume Lecointre, Marc Silberstein & Franck Varenne (dir.), Matière première, revue d’épistémologie et d’études matérialistes, n°  3/2008 : « Modèles, simulations, systèmes », Syllepse.

[14] ↑ Surtout si le réductionnisme est abandonné au profit du holisme, notion sans doute encore plus problématique (au sens où elle pose davantage de problèmes qu’elle n’en résout).

[15] ↑ Jean-Pascal Capp prépare un ouvrage sur le sujet (à paraître chez Belin en 2011), proposant une synthèse des problèmes rencontrées par la cancérologie théorique et par la thérapeutique, et développant des pistes de réflexion quant à la compréhension de la cancérogenèse telle qu’envisagée ici.

[16] ↑ Historiquement, le néodarwinisme est la théorie d’August Weismann. Puis vint la théorie synthétique de l’évolution (improprement et trop souvent appelée néodarwinisme), qui intègre les apports de la génétique des populations et de la paléontologie, etc., vers le milieu du XXe siècle.

[17] ↑ Lire également Jean-Jacques Kupiec, L’Origine des individus, Fayard, 2008. Il y expose et développe sa théorie de l’ontophylogenèse, laquelle conjoint ces deux phénomènes (ontogenèse et phylogenèse).

Chapitre 1. Expression stochastique des gènes et différenciation cellulaire

Thomas Heams

Thomas Heams est biologiste moléculaire, AgroParisTech. Il a notamment codirigé Les Mondes darwiniens. L’évolution de l’évolution (Syllepse, 2009 ; réédition Éditions Matériologiques, 2011), et coordonné la traduction de Wilhelm Roux, Der Kampf der Teile im Organismus (La Lutte des parties dans l’organisme), à paraître en 2011 aux Éditions Matériologiques. A contribué à une Histoire critique de la biologie (J.-J. Kupiec, dir.) à paraître en 2011.

La nature stochastique de l’expression des gènes est une réalité biologique qui a longtemps été souterraine. Par souterraine, j’entends ici deux choses : elle a d’abord été longtemps ignorée, pour des raisons sur lesquelles on reviendra longuement, mais, une fois sa mise en évidence, elle a aussi été tenue étonnamment longtemps pour négligeable ou marginale.

Une cause commune semble expliquer ces deux constats : le fait que l’expression des gènes comporte une importante composante aléatoire va, en première approximation, à contre-courant des présupposés qui ont orienté la biologie, singulièrement la biologie moléculaire depuis ses débuts, il y a plus de cinquante ans, et de notre manière de penser le vivant.

Les formidables progrès de la biologie grâce à l’étude moléculaire du fonctionnement cellulaire ont, pendant des décennies, semblé légitimer le socle théorique sur lequel cette branche de la biologie était fondée. La découverte de la structure de l’ADN, en 1953, et du code génétique (quasi universel dans tout le monde vivant), puis des mécanismes d’expression des gènes (c’est-à-dire de leur utilisation par la cellule), puis des mécanismes de régulation de cette expression (assurant que chaque cellule accomplit la (les) tâche(s) à laquelle elle est destinée) ont installé naturellement l’idée que le fonctionnement des cellules dans un organismes était un ballet bien réglé, et que cela s’expliquait au niveau cellulaire par le fait que, chacune à sa place, les cellules obéissaient peu ou prou à un programme de fonctionnement, le programme génétique, qui impliquait une grande précision dans le fonctionnement de l’expression des gènes.

Cette grille de lecture, cependant, a souffert deux écueils qui ont eu un impact profond sur le programme de recherche en biologie. Tout d’abord, elle s’est posée comme seule explication de l’ordre apparent qui règne dans un organisme. En somme, pour qu’il y ait de l’ordre au niveau d’un organisme, on a présupposé un fonctionnement ordonné des composants élémentaires de cet organisme que sont les cellules. C’est ce qu’on pourrait qualifier d’écueil a priori. Mais en outre, ce présupposé, si fort, si partagé, est subrepticement devenu infalsifiable. En effet, pendant des années, on ne pouvait étudier l’expression des gènes (en étudiant soit les ARN, soit les protéines) qu’en extrayant ces molécules à partir d’un grand nombre de cellules. Une fois cela fait, on s’est longtemps borné à considérer que ce qui se passait au niveau de chaque cellule était la valeur moyenne de ce qui avait été observé au niveau de la population : par hypothèse donc, chaque cellule d’un tissu étudié fonctionnait forcément de manière identique à toutes ses semblables ! Cela convenait d’ailleurs parfaitement au paradigme de l’époque du programme génétique : puisque dans une situation donnée – l’étude d’un tissu par exemple –, toutes les cellules étudiées comportaient le même matériel génétique, et qu’elle étaient toutes dans un même environnement commun, elles appliquaient donc le même programme et elles devaient donc se conduire de manière homogène.

Pourquoi avoir formulé cette hypothèse, que j’ai qualifié de « postulat d’homogénéité [1]  » ? Pourquoi ne pas l’avoir mise en balance, dès les débuts de la biologie moléculaire, avec l’idée selon laquelle les cellules de génome identique pouvaient se comporter de manière imprévisible ? Avant de répondre, une remarque : gardons-nous ici d’abuser du confort que représente une vision rétrospective de l’histoire des sciences. On aurait beau jeu de narguer, au vu des résultats récents qui la discréditent, l’illusion d’homogénéité dans laquelle toute la communauté scientifique a vécu. Ce serait, en outre, méconnaître les apports prodigieux qu’a permis la vision classique – déterministe, « programmatiste » – de l’expression des gènes. Cela a permis, en première approximation, de comprendre les bases du fonctionnement moléculaire de ce processus. Cette vision déterministe, celle qui est encore enseignée aux lycéens et aux étudiants, a une fonction pédagogique, notamment pour illustrer l’universalité, dans le monde vivant, de certains fonctionnements. Reste que si les progrès la biologie permettent de nuancer, voire de contester cette vision, il est du devoir de la communauté scientifique de faire évoluer son discours.

Mais revenons à la question de cette réticence face à l’hypothèse que les cellules fonctionnement de manière aléatoire. Si l’on veut la comprendre, on peut cependant se hasard principale : il était fondamentalement dérangeant de proposer l’idée selon laquelle des phénomènes qui, en apparence, étaient macroscopiquement déterminés et reproductibles reposent sur des phénomènes élémentaires stochastiques. Imaginer que le fonctionnement de notre cœur, de notre foie, de notre cerveau, imaginer que le développement d’un embryon, que la différenciation de cellules [2] , l’apparition de tissus, au « bon » moment, de la bonne « manière », observée chez tous les individus d’une espèce, repose non pas sur l’existence d’un programme très fiable, mais au moins en partie sur un désordre moléculaire, cela va à rebours de nos intuitions.

Ce qui a accompagné et certainement renforcé cette réticence à penser le désordre parmi nous, c’est aussi une limite technique : l’impossibilité de travailler sur des cellules isolées, seules à même de trancher entre les deux hypothèses. Mais il faut un temps souligner que cette explication « techniciste » de ce qui s’apparente à un aveuglement collectif n’est pas tout à fait satisfaisante. Des techniques permettant de détecter une variabilité intercellulaire ont existé longtemps avant l’explosion, sur laquelle nous allons revenir, de la thématique de l’expression aléatoire des gènes. C’est le cas par exemple de la cytométrie de flux, qui permet de séparer les cellules selon leur taille ou selon la taille de leur noyau, ou d’autres paramètres permettant de discriminer entre elles des cellules génétiquement identiques. Sur les figures classiques de cytométrie de flux, on observe toujours une distribution continue du paramètre de tri, plus ou moins grande mais toujours significative : on n’observe jamais des cellules ayant toute la même taille ou le même diamètre, quand bien même elles ont été maintenues dans des conditions environnementales ultra-homogènes. Il y avait donc, sous les yeux des chercheurs, la preuve évidente d’une variabilité de comportement des cellules génétiquement identiques. Plus ou moins grande, certes. Régulable, certes encore. Mais bien présente et pérenne. Bien évidemment, les chercheurs utilisant ces techniques n’ont pas passé sous silence cette variabilité, mais leur attitude est éloquente : ils ont souvent considéré qu’il fallait n’en retenir que la valeur moyenne. Cet exemple montre que, même si les limites techniques expliquent en grande partie l’incapacité des biologistes à théoriser et prendre en compte la variabilité intercellulaire de l’expression génétique, elle ne suffit pas à le comprendre. On ne peut disjoindre cette explication « technique » du consensus idéologique longtemps dominant, celui de l’existence d’un programme. Les théorisations modernes de l’expression aléatoire des gènes remontent aux années 1980. La cytométrie de flux, elle, a été inventée dans les années 1950-1960…

Au delà de cette réserve, ce sont néanmoins des avancées techniques qui ont permis de révéler la variabilité intercellulaire de l’expression génétique au sein de populations cellulaires clonales (c’est-à-dire de cellules issues d’une même cellule et donc possédant les mêmes gènes), et donc de la dimension aléatoire de l’expression génétique. Tout particulièrement les méthodes d’études de l’expression sur cellules isolées comme la RT-PCR. Mais aussi, et peut être principalement, les techniques utilisant des gènes codants pour des protéines fluorescentes, permettant de suivre in vivo le comportement des cellules. Cette explosion de techniques et leur perfectionnement pour travailler à l’échelle unicellulaire, qui est le préalable à l’étude expérimentale, date des années 1990. C’est à l’orée des années 2000 qu’elles ont été appliquées à la dimension stochastique de l’expression génétique : l’étude de la production scientifique sur ce sujet dans les années 1990-2000 est révélatrice de ce qu’est une phase de transition dans la pensée biologique.

Prenez par exemple ce titre d’un article pionnier : « Illegitimate transcription : transcription of any gene in any cell type [3]  ». Il atteste d’une double réalité intéressante : d’une part, les auteurs reconnaissent et mettent en avant, bien plus tôt que la plupart de leurs collègues, le fait que les gènes peuvent s’exprimer de manière insoupçonnée dans des cellules pour lesquels on ne s’attend pas à les voir le faire, ce qui va dans le sens d’une remise en cause de la notion de programme, mais par ailleurs, signe des temps, ils qualifient cette possibilité d’illégitime, comme s’il existait une norme, légitime, et un écart occasionnel à cette norme. Néanmoins, les débats avancent puisque dès 1994, on trouve un article titré « Transcription of individual genes in eukaryotic cells occurs randomly and infrequently » (La transcription des gènes individuels dans les cellules eucaryotes est aléatoire et peu fréquente) [4] , ce qui semble être une remise en cause encore plus générale. Quel est alors le paysage de la pensée biologique à l’orée des années 2000 ? Comme dans toute phase de transition, il est contradictoire. D’un côté, on trouve nombre d’articles qui laissent entendre que la confiance dans l’idée d’un programme génétique – mis en œuvre précisément dans chacune des cellules d’un organisme – est inébranlée. Écoutons ce qu’affirment Davidson et al.[5]  : « Le mécanisme par lequel les chat donnent des chats et les poissons des poissons est codé dans l’ADN génomique. » Constatons de même ce qu’écrivaient récemment Arias & Hayward dans leur introduction d’un article de 2006 [6]  : « Le grand nombre d’états cellulaires représentés au cours de la vie d’un organisme et la reproductibilité avec laquelle ils sont produits indiquent l’existence non seulement de programmes mais aussi de mécanismes permettant leur exécution fiable. »

Rien de nouveau donc ? Les timides tentatives de mesurer une expression aléatoire des gènes seraient-elles marginales ? Pas si simple. Au cours de la même période, on relève en effet les affirmations suivantes : « L’expression génétique est un processus stochastique et générateur de “bruit”. [7]  » « Les cellules sont des réacteurs biochimiques intrinsèquement générateurs de bruit [8]  » et même : « Les mécanismes stochastiques sont omniprésents dans les systèmes biologiques [9]  » ! En résumé, les années 2000 voient émerger des visions tellement divergentes du fonctionnement cellulaire que l’on a du mal a croire qu’elle ne soient pas contradictoires.

On pourrait m’objecter ici que ce ne sont pas quelques affirmations iconoclastes qui suffisent à remettre en cause le socle théorique sur lequel se fonde cinquante ans de biologie moderne. J’en conviens volontiers, c’est pourquoi j’ai recensé quantitativement cette production, en dénombrant le nombre d’articles scientifiques dédiés à cette question. De quelques articles, voire quelques dizaines par an, au début de la décennie 1990, consacrés à « l’expression stochastique des gènes », on observe un décuplement de la production puisque que depuis 2005, environ cent vingt articles par an sont publiés sur cette question. Pour le dire autrement, environ la moitié de toute la production scientifique autour de cette question a moins de cinq ans, ce qui illustre à la fois la jeunesse et la vitalité de ce champ d’étude. Il n’est plus, à ce stade, permis de douter que c’est bien une lame de fond qui traverse la pensée biologique. Signe des temps, cette question a été l’objet en mai 2008 d’un dossier récent dans Nature[10] , ce qui « démontre » au moins deux choses : que la question posée l’est désormais à toute la communauté des biologistes et plus seulement à ses franges marginales, et qu’elle est encore suffisamment inexplorée pour susciter la surprise de ceux qui, progressivement, la mettent en lumière dans de tels articles.

La littérature existante est foisonnante [11] , les articles proposant une grande variétés d’approches : certains sont théoriques, à forte teneur en mathématiques, d’autres proposent des mises en évidence expérimentales, d’autres enfin utilisent la modélisation ou les simulations informatiques. Ils couvrent une très large part du monde vivant, chez les bactéries et les levures pour lesquels nous donneront de nombreux exemples, mais aussi chez les animaux (par exemple chez la souris [12] ). C’est dans cette littérature que nous allons ici plonger, de manière inévitablement partielle dans l’espace imparti.

1 - Mise en évidence expérimentale

Bien que quelques articles pionniers, cités plus haut, aient paru au cours des années 1990 en laissant entendre que des variations aléatoires pouvaient être observées de cellule à cellule, bien que d’autres, plus anciens et sur lesquels nous reviendrons [13]  en aient fait la prédiction théorique, que d’autres en aient exploré la plausibilité via des simulations informatiques [14] , c’est en 2002 qu’Elowitz et ses collaborateurs publient dans Science un article appelé à faire date [15] . Son titre est éloquent : « Stochastic gene expression in single cells » (Expression génétique stochastique dans des cellules isolées). Ce titre montre, s’il en était besoin, que cette affirmation n’était pas une évidence expérimentale auparavant. Si l’on ose dire, l’article fait passer la thématique de la préhistoire à l’histoire, puisqu’en même temps qu’une description du phénomène, il donne de nombreux outils expérimentaux et théoriques pour pouvoir le décrire sous toutes ses coutures.

L’organisme sur laquelle l’équipe d’Elowitz travaille est une bactérie bien connue des biologistes : Escherichia coli