[bsa_pro_ad_space id=1]

Commentary

Le destin des sciences fondamentales

STANFORD – Le journaliste britannique Matt Ridley se montre habituellement pertinent dans les commentaires qu’il formule autour de la philosophie et de la pratique des sciences. En revanche, son analyse quant à la relation entre les recherches fondamentales et l’innovation technologique – consistant pour résumer à affirmer que les « sciences de base [seraient] beaucoup moins productives que nous le pensons par rapport aux nouvelles inventions » – apparaît clairement erronée.

Pour reprendre les termes de Ridley, « la plupart des avancées technologiques sont bien davantage le résultat d’un bricolage mené par des techniciens que le fruit des hypothèses auxquelles réfléchissent les chercheurs. » À l’appui de sa thèse, il énonce plusieurs exemples d’inventions élaborées grâce à des « travaux parallèles » : six inventeurs distincts furent ainsi nécessaires à la création du thermomètre, trois pour l’aiguille hypodermique, quatre pour la vaccination, cinq pour le télégraphe électrique, etc. Or, Ridley échoue à reconnaître que les piliers théoriques de ces différentes inventions résident certainement dans des recherches fondamentales menées auparavant, qui ne se destinaient à aucune application en particulier, et dont la signification demeurait totalement incertaine au moment de la conduite de ces recherches.

Après avoir reçu le prix Nobel de physiologie ou médecine en 1969, Salvador Luria, qui fut mon professeur de microbiologie au M.I.T, plaisanta sur la difficulté pour un chercheur de percevoir la signification même des conclusions de ses propres recherches. À tous ceux qui l’avaient félicité pour son prix, Luria adressa un dessin humoristique faisant apparaître un couple de personnes âgées, attablées autour de leur petit déjeuner. Prenant connaissance des journaux du matin, le mari s’exclame : « Nom de Zeus ! J’ai reçu le prix Nobel pour quelque chose que je semble avoir dit, fait ou pensé, en 1934 ! »

L’idée n’est pas aussi absurde qu’elle en a l’air. En 1911, Francis Peyton Rous découvre – à l’issue de recherches, et non d’un simple « bricolage » – que certaines tumeurs malignes prétendument spontanées et présentes chez la poule sont en réalité provoquées et transmises par un rétrovirus. La découverte de Rous lui vaudra un prix Nobel, mais seulement en 1966.

Le biologiste français François Jacob fournit un exemple clair de cet heureux hasard auquel peuvent aboutir les sciences de base, dans éditorial publié sur le site Science en 2011, en décrivant les recherches qui lui valurent le prix Nobel en 1965. À l’époque où son laboratoire travaillait sur le mécanisme susceptible, dans certaines circonstances, de conduire la bactérie E. coli à produire soudainement des virus bactériens (jusqu’alors dormants), un autre groupe de recherche analysait la manière dont la synthèse d’un certain enzyme de la bactérie E. coli était induite en présence d’un sucre spécifique. Comme l’écrit Jacob, « … ces deux systèmes semblaient mécaniquement aux antipodes l’un de l’autre. Mais leur juxtaposition allait produire une avancée majeure dans notre compréhension de la vie » – à savoir le concept d’ « opéron », ensemble de gènes dont l’expression se trouve contrôlée par un gène régulateur adjacent.

Mais le plus parfait exemple de ce phénomène réside dans l’origine de la technologie de l’ADN recombiné (également connue sous le nom de « modification génétique », ou « MG ») au début des années 1970, technique qui constitue le prototype de l’ingénie génétique moderne, et qui a résulté d’une synergie entre plusieurs domaines de recherche fondamentale énigmatiques et sans lien les uns avec les autres. L’enzymologie et la chimie des acides nucléiques ont abouti à des techniques permettant de couper et de réunir des segments d’ADN. Les avancées accomplies dans le domaine des procédures de fractionnement ont permis une détection, une identification et une séparation rapides de l’ADN et des protéines. Enfin, les connaissances accumulées en matière de physiologie microbienne et de génétique nous ont permis d’introduire de l’ADN « étranger » au sein de l’ADN d’une cellule, et de l’y faire fonctionner.

En a résulté notre capacité à déplacer quasiment à volonté certaines gènes fonctionnels d’un organisme à un autre – ce qui constitue la base de la biotechnologie moderne. La révolution technologique née l’ADN recombiné n’a rien à voir avec ce type de « progrès inexorables et évolutionnistes » dont nous parle Ridley. Au contraire, elle n’aurait pu avoir lieu en l’absence de fonds publics à l’appui de recherches fondamentales.

[bsa_pro_ad_space id=1]

La plupart des réponses publiées autour de l’article de Ridley se révèlent critiques. Standish M. Fleming, un investisseur californien, souligne combien les pôles de recherche universitaires s’avèrent attractifs pour l’industrie. Capital-risque, sociétés biopharmaceutiques, et autres industries de haute technologie, relève-t-il, « se ruent vers les grands centres de recherche » précisément parce que « les sciences de base constituent le moteur de l’innovation ». « Les acteurs du capital-risque arpentent littéralement des couloirs des grands instituts de recherche, en quête d’avancées majeures, que l’on retrouve sous forme de brevets ou publiées dans des revues, et autour desquelles bâtir des entreprises. L’État soutient également ces centres via des financements. » ajoute Flemming.

Deux universitaires européens, Len Fisher et Ibo van de Poel, soulignent eux aussi combien les fruits des efforts fournis par les scientifiques, afin de comprendre les lois fondamentales de la nature, constituent la base des innovations technologiques. Contrairement à Ridley, ils reconnaissent que la raison pour laquelle « les applications technologiques ne suivent pas toujours » réside tout simplement dans le fait que les « les applications les plus importantes [soient] bien souvent les moins prévisibles ».

Leon N. Cooper, prix Nobel de physique, formule un argument particulièrement convaincant. « Il aurait été difficile de prédire que les recherches de Maxwell, Lorentz et Einstein, autour de la théorie électromagnétique, aboutiraient un jour à des améliorations dans le domaine des communications. » fait-il valoir. « Rare sont ceux qui auraient prédit que la mécanique quantique de Schrödinger et Heisenberg conduirait à l’apparition du transistor et de l’ordinateur, » ou « que les travaux de Townes sur les radiations millimétriques feraient naître la chirurgie laser. »

Les sciences fondamentales constituent bien souvent le substrat à partir duquel émergent les avancées technologiques, de même que des domaines de recherche a priori sans lien et sans grande certitude sont susceptibles de s’entrecroiser et de faire naître des synergies inattendues. C’est pourquoi il est si important de continuer de soutenir les recherches de base judicieusement menées, et cela même en l’absence de bienfaits visibles pour la société.

Traduit de l’anglais par Martin Morel

Henry I. Miller, médecin et biologiste moléculaire, intervient en tant que membre Robert Wesson en philosophie scientifique et politique publique à l’Institution Hoover de l’Université de Stanford. Il a été le directeur fondateur du département de biotechnologie de la FDA américaine.

Par Henry I. Miller

[bsa_pro_ad_space id=1] [bsa_pro_ad_space id=2] [bsa_pro_ad_space id=3] [bsa_pro_ad_space id=4] [bsa_pro_ad_space id=5] [bsa_pro_ad_space id=6]
Back to top button