Les sciences expérimentales ?

retour accueil, cours

2006-2008

Plan


1 - définitions

+ Une science est un ensemble de connaissances ayant un objet déterminé et une méthode propre.

Si l'on se réfère au dictionnaire (Petit Robert, 1984), le terme a une longue histoire et vient du latin: scientia, ayant pour racine le verbe scire: savoir. Depuis le XVème siècle le terme de science désigne aussi la pratique d'un art ou d'une technique (la science de la guerre par exemple).


+ La science est un terme qui désigne couramment les sciences expérimentales.

Par exemple quand on parle "des progrès de la science..." ou "des scientifiques... (par opposition aux littéraires)", on pense aux sciences expérimentales. Parfois certains parlent de sciences exactes par opposition aux sciences spéculatives ou pratiques. Il y a déjà quelques années il était de bon ton de parler de sciences molles et de sciences dures.


+ La science est l'étude de la réalité à la lumière des causes immédiates.

Cette définition est métaphysique dans le sens où elle utilise un vocabulaire métaphysique : les mots de la philosophie ont des sens précis (selon les écoles...) qui ne sont pas forcément le sens courant (voir une page sur la science et métaphysique).

Des idées claires
La métaphysique distingue selon la fin :
* les sciences pratiques qui recherchent la vérité (scientifique) pour l'appliquer à une opération immédiate. Elles sont très valorisées actuellement.
* les sciences théoriques ou spéculatives ont pour finalité la vérité pour elle-même (ou pour soi-même... par amour de la vérité); elles comprennent par exemple les mathématiques, la physique, les sciences naturelles, la philosophie... qui étudient toutes les réalités mais selon différents angles. C'est bien sûr de ces sciences dont nous devons parler ici.


La métaphysique classe aussi les sciences selon leur objet:
* les sciences de la nature ont pour objet tout être matériel, corporel, en tant que corps.
*les mathématiques, font abstraction de la matière et étudient les objets matériels dans leur quantité d'être (je fais référence ici à la notion essentielle d'être en métaphysique).
* la métaphysique, enfin, étudie les réalités qui ne dépendent pas de la matière: son objet est "l'étant en tant qu'étant" (là encore cette notion métaphysique n'est certainement pas évidente et, plutôt que d'essayer vainement de la définir, je vous invite par exemple à lire l'article de l'Encyclopedia Universalis à Aristote ou à Métaphysique).

Une autre approche sympathique:
L'Encyclopédie de Diderot et d'Alembert, publiée en 1751, place les sciences de la vie (« l'histoire naturelle ») dans le domaine des connaissances rattachées principalement à la mémoire, première des trois facultés (avec la raison et l'imagination). D'Alembert précise dans le Discours préliminaire de l'Encyclopédie : « La division générale de nos connaissances suivant nos trois facultés a cet avantage qu'elle pourra fournir aussi les trois divisions du monde littéraire en érudits, philosophes et beaux-esprits... » (d'après Paul Mazliak, La biologie au siècle des lumières, Comment "l'histoire naturelle" est devenue biologie, mars 2006, Coédition Adapt/Vuibert)

 

D'une part, l'objet de la science est la réalité*,
et d'autre part,
sa méthode consiste à rechercher les causes** immédiates , et non les causes profondes ou principes premiers.

 

* Pour la notion de réalité
se reporter à l'article de Jean Largeault:
réalisme, Encyclopedia Universalis

Si l'immense majorité des épistémologues sont idéalistes, je suis profondément réaliste (je crois à une matière naturelle, indépendante de nos perceptions). Je comprends la phrase "toute science est une phénoménologie" comme un accord entre vie et vérité.

** Pour la notion de cause,
voir
les 4 causes d'Aristote en SVT

 

 


2 - usages

***Gérard Nissim Amzallag
La Raison malmenée :
de l'origine des idées reçues en biologie moderne
,
2002, CNRS Éditions
(cité LRM ci-contre)

 

 

Le déterminisme est l'affirmation que les mêmes causes produisent les mêmes effets en tous lieux et en tout temps. Une théorie est dite déterministe (c'est une loi) si elle permet de prévoir l'évolution d'un système à partir des conditions initiales.

Des confusions...on ne croit plus à la vérité

Par ignorance, par usage abusif du terme (et surtout de celui de science expérimentale)... on ne sait plus ce que veut dire la science. On en est donc réduit à prouver que ce que l'on fait est bien scientifique. Au lieu de chercher la vérité on cherche des critères de scientificité. Quand bien peu de gens adhèrent à la notion de vérité (le relativisme est une opinion très répandue qui conduit à une forte agressivité face à ceux qui la rejettent), il est assez difficile de trouver des critères acceptés par tous.

Des changements... l'abandon du déterminisme

Nissim Amzallag, dans son analyse de l'évolution de la pensée scientifique depuis l'arbre de la connaissance de Descartes (LRM*** p12-23), fait jouer un rôle pivot aux sciences physiques classiques appuyées sur un postulat de déterminisme. Lors de l'abandon (partiel) du déterminisme (au-delà de la non-prédictibilité de certains phénomènes, on ne croit plus en des lois physiques immuables) dans la deuxième moitié du XXème siècle, maints physiciens se sont tournés vers des philosophies relativistes ou faisant la part belle à la technique qui devient un critère même de scientificité.


* le scientisme désigne une position philosophique où une connaissance n'est vraie que si elle est scientifique (c'est-à-dire finalement expérimentale et donc sensible)

** le positivisme est la doctrine philosophique scientiste issue d'Auguste Comte; pour comprendre son influence sur l'enseignement au cours du XXème on peut lire : "De l'enseignement des sciences à l'école primaire; l'influence du positivisme", Pierre Kahn, 1999, Hatier formation: extraits sur le site associé

*** voir par exemple le petit livre d'un ancien Inspecteur général de l'Instruction Publique : Georges Canguilhem, La connaissance de la vie, Hachette, collection Science et Pensée, 1952 : dans une conférence sur l'expérimentation en biologie animale il montre par exemple combien il est hâtif d'attribuer à Claude Bernard l'élaboration de la méthode expérimentale

Relations science et foi catholique: rationalisme, positivisme et maintenant subjectivisme (« ... on considère communément que la religion appartient au domaine du «privé», subjectif, alors que la science a une validité objective universelle et "publique"».)
Science et Foi : du conflit au dialogue
petit texte de J. Grifone, mathématicien catholique

Des positions scientistes et positivistes... dépassées

Le scientisme* et le positivisme** n'ont plus l'importance passée dans les milieux philosophiques et épistémologiques. Mais certains enseignants et formateurs issus du "pédagogisme" continuent de ce faire l'écho de ces doctrines (voir sur le site associé 4 années de lutte contre cette vision étroite de la pédagogie - par exemple).

On voit ainsi certains pédagogues se réclamer d'un matérialisme qui serait la seule position rationnelle possible pour un scientifique. Vouloir exclure du domaine scientifique tout autre position philosophique que ce néo-scientisme me semble être illusoire. On peut citer par exemple Guillaume Lecointre dans un point de vue publié dans Pour la Science (Des scientifiques s'égarent..., Pour La Science, 259, mai 1999, 8-9) ; cet auteur se réfère à un matérialisme méthodologique qui d'après lui fonde les sciences depuis le XVIIIème siècle (il l'oppose au matérialisme dialectique marxiste). D'une part, je crois que l'on peut dire que la science expérimentale n'a pas été fondée au XVIIIème mais bien avant, par Aristote à mon avis mais cela se discute sans doute, d'aucuns préférant la situer au temps de Galilée***. D'autre part, s'il n'y a pas de science sans raison, il n'y a pas de matérialisme sans philosophie. Le matérialisme méthodologique de Guillaume Lecointre est philosophique et non pas scientifique Il est probablement positiviste, pour ce que j'en comprend en lisant les quelques lignes de l'article cité (il me paraît aussi être nominaliste, pour ce qui est de la logique, notamment dans sa conception de la cladistique... que l'on trouve résumée dans le lamentable préambule à son inutile Classification phylogénétique du vivant (les pages 11-18 sont un monument d'ignorance; lisez plutôt un article d'encyclopédie sur les classifications ("Systématique" in EU par exemple), vous en apprendrez bien davantage); pour une approche érudite de l'histoire des classifications jusqu'au début du XXème, je conseille un texte d'André Pichot: Définir, décrire et classer en biologie, Delagrave 2005).


3 - La méthode expérimentale en accusation

La méthode hypothético- déductive
... une antiquité ?

Elle se déroule CLASSIQUEMENT en 4 temps:

  1. on pose un problème (la plupart du temps celui-ci se pose à partir d'observations) qui est le plus souvent une question. Cette dernière est malheureusement très souvent confondue avec l'hypothèse.
  2. élaboration d'une hypothèse par induction ou par déduction: il est préférable que cette hypothèse soit formulée comme une affirmation et non comme une question pour éviter de confondre le problème avec l'hypothèse. L'hypothèse est en fait la réponse proposée au problème de la première étape.
  3. réalisation d'une ou plusieurs expériences ou observations pour tester l'hypothèse: chaque expérience doit comporter des conditions expérimentales précises, un témoin et conduire à des résultats qui sont interprétés. Une expérience peut être une observation complémentaire.
  4. jugement sur la validité de l'hypothèse (l'hypothèse est confirmée expérimentalement, validée ou au contraire est infirmée ou invalidée) et déclaration (déduction) d'une affirmation ou loi qui généralise l'hypothèse (cette loi est donc vraie en tant qu'expérimentable, démontrée par l'expérience mais il reste toujours une partie spéculative, incertaine: toute loi peut être invalidée par une unique expérience qui la remet en cause; on peut même aller jusqu'à dire que c'est finalement le propre de toute loi que d'être remis en cause un jour ou l'autre...): les lois sont ensuite regroupées dans des théories scientifiques.

On tend actuellement à préférer le terme de modèle, mais je crois que ce concept recouvre bien la notion de théorie même si les lois ne sont plus acceptées comme une vérité.

On distingue alors les modèles internes (qualifiés de "réels" car ils s'efforcent de décrire le comportement des systèmes réels c'est-à-dire naturels pour ce qui nous intéresse) et les modèles externes (qui s'efforcent de décrire le "comportement" des observations, c'est-à-dire de notre connaissance, ce sont des modèles logiques) (voir par exemple l'article de Jacques OKSMAN : Mesures et information, Pour la Science, 258, avril 1999, 90-95).


Il va sans dire que nombre de physiciens et tout autant de biologistes ne sont pas prêts à abandonner cette confiance dans des lois de la nature que le travail du scientifique est de dévoiler.


Certains ont peut-être entendu parler des remous provoqués par le texte de René Thom présenté à l'Académie des sciences : La méthode expérimentale : un mythe des épistémologues (et des savants) ? 1984, 12; Exposé de philosophie des sciences à l'Académie des sciences, 19 novembre 1984. In Comptes Rendus de l'Académie des Sciences, série générale, « La vie des sciences », II, 1, Paris, Gauthier-Villars, Janv-Fév. 1985, pp. 59-68. Ce texte est publié dans le CDRom des œuvres complètes de Thom avec une partie du débat qui a suivi. Il est aussi publié in La philosophie des sciences aujourd'hui, J.Hamburger éd., Paris, Gauthier-Villars, 1986, pp. 7-20.

Il y soutient que "méthode expérimentale" est un oxymore; la seule activité présente dans les laboratoires est une pratique expérimentale, incapable de valider les modèles, juste de les susciter. La preuve par l'expérience d'une loi continue - une fonction f(x) par exemple - est évidemment impossible à faire par le biais d'expériences discrètes (x est une variable continue). D'une façon plus générale un espace fonctionnel de dimension infinie est par définition inexplorable. Le second problème soulevé par René Thom et qu'il doit à Jean-Pierre Duport, spécialiste de l'hémophilie, est celui de la causalité diffuse; désignant par là une succession déraisonnable de causes efficientes secondes très insuffisantes par elles-mêmes. Ce travers à patent dans les réseaux génomiques.


« Pour réaliser une expérience, on effectue les démarches suivantes :
1) On isole un domaine D de l'espace-temps, le « laboratoire ». Les parois de D peuvent être réelles ou fictives.
2) On remplit ce domaine d'ingrédients divers - substances chimiques, êtres vivants, etc. qui constituent le système étudié (S), selon un protocole de préparation (écrit en langue usuelle technicisée).
3) On perturbe le système (S) en lui envoyant, à partir de sources dûment contrôlées, des flux bien définis de matière ou d'énergie (flux décrits en nature, en débit, en vitesse et en position par le protocole d'expérience).
4) On répertorie les réponses du système grâce à des appareils dont la nature et la position par rapport à (D) sont spécifiées dans le protocole d'expérience.
Ce schéma, en fait, rend compte également des notions voisines : observation, exploration, expérimentation.
Dans l'observation (simple), on ne prépare pas le système, on l'isole (de manière voulue ou spontanée) dans l'ensemble des faits naturels ; les parties 1, 2, 3 n'existent pas, seul subsiste 4, réduit en général à la simple vision.
Dans l'exploration, on a 1, 2 et 4,mais on joue des paramètres contrôlant les appareils d'enregistrement, de manière à couvrir tout le champ expérimental défini dans 1.
L'expérimentation fait appel aux quatre étapes ci-dessus, 1, 2, 3, 4.

---> suite

in René Thom, La méthode expérimentale : un mythe des épistémologues (et des savants) ? 1984, p 3-5, 8 et 10

[...] Ce fait expérimental est-il scientifique ? [...]
1)
Le fait doit être reproductible. Cela exige que les protocoles de préparation et d'expérience soient suffisamment précis et détaillés pour qu'on puisse - en d'autres temps et en d'autres lieux - reproduire l'expérience. Le critère de reproductibilité du fait exige - dans une interprétation dynamique - une hypothèse de « stabilité structurelle » (alias « généricité ») des dynamiques sous-jacentes.
2)
Le fait doit présenter quelque intérêt. On touche ici à un problème immense. Disons seulement que l'intérêt peut être soit pratique (technologique), soit théorique.
[...] Qu'il s'agisse de créer ou d'interdire un phénomène, dans les deux cas, on est confronté à une analyse causale de ses conditions de production. Le fondateur historique de la méthode expérimentale, Francis Bacon, a cru pouvoir affirmer que l'emploi de l'expérimentation permettait à elle seule d'analyser causalement tout phénomène. C'est cette illusion que je voudrais tout particulièrement dissiper. L'expérimentation, à elle seule, est incapable de découvrir la (ou les) cause(s) d'un phénomène. Dans tous les cas, il faut prolonger le réel par l'imaginaire, et éprouver ensuite cet halo d'imaginaire qui complète le réel. Ce saut dans l'imaginaire est fondamentalement une opération mentale, un
Gedankenexperiment, et aucun appareil ne peut y suppléer. Claude Bernard, fort lucidement, avait bien vu cet aspect, et dans son schéma - Observation - Idée - Expérimentation - le processus psychologique créant l'idée est laissé dans une totale obscurité, mais il insiste sur sa nécessité, au contraire de Bacon qui prétendait que l'expérience répétée pouvait fournir - par induction - l'idée de la loi. Autrement dit, l'expérimentation, pour être scientifiquement significative, ne dispense pas de penser . [...] Il est hors de doute que la seule méthode concevable en matière expérimentale (qu'elle soit à but théorique ou pratique) doit nécessairement passer par l'analyse causale des phénomènes étudiés. Or en science, on ne dispose que de deux types d'analyse causale. L'une, fondée sur l'analyse en langue naturelle, est essentiellement aristotélicienne d'esprit : il s'agit d'expliquer le phénomène par une cause efficiente, en général une entité ad hoc, un « agent responsable » ; l'autre, mathématique et physicaliste, est fondée sur la réduction à un système différentiel dont la solution est déterminée par les conditions initiales. On peut compliquer le premier schéma par des cascades de causalité interagissantes : c'est le principe des schémas cybernétiques. On peut simplifier le second par des considérations de type dynamique lente, dynamique rapide, méthodes asymptotiques, qui réintroduisent des éléments discrets, mais la jonction entre les deux sortes d'analyse demeure en général impossible.
[...]
Concluons : l'expérience est guidée soit par un besoin technologique immédiat (par exemple, tester les propriétés de tel ou tel matériau sous telle ou telle condition), soit par une hypothèse, fruit d'une expérience mentale (Gedankenexperiment), qui la précède et dont on veut éprouver l'adéquation au réel. C'est dire que toute expérience est réponse à une question, et si la question est stupide, il y a peu de chances que la réponse le soit moins. »


La nécessité de l'expérience n'est pas vraiment contestée...

La majorité s'accorde pour donner à l'expérience un statut privilégié mais elle n'est plus le critère unique de scientificité puisque certains rejettent la possibilité d'en tirer des lois, au nom de l'indéterminisme présenté plus haut.
À cette vision désabusée je crois qu'il faut opposer une conviction ferme sur la réalité de l'expérience et du lien entre le phénomène et la cause. Peut-être est-ce par une redécouverte de la richesse de la causalité que l'on pourra accepter ce mélange d'indéterminisme et de déterminisme en science (voir les
4 cause d'Aristote en SVT).


La démarche expérimentale est utilisée pour connaître le passé étant donné que l'on suppose la réversibilité des lois. J'avais dès 1998 été surpris par le fait que l'on oubliait de dire que les sciences du passé (géologie, paléontologie) n'étaient pas des sciences expérimentales car on ne peut pas expérimenter dans le passé. On ne peut qu'extrapoler des lois (postulat d'actualisme: : les lois actuelles étaient valables par le passé (voir introduction du cours Terminale Spécialité ). En fait, ce qui me chiffonnait était donc plutôt la réversibilité de ces lois que la présence supposée de ces lois. Mais maintenant comment faire des expériences sans chercher à découvrir des lois ?

La Raison malmenée. De l'origine des idées reçues en biologie moderne, Gérard Nissim Amzallag, Préface d'André Pichot, CNRS Editions 2002, p 166-167

La loi de gravitation universelle, une fraude ?


Isaac Newton
(image)

Dans son Philosophiæ Naturalis Principia Mathematica, Newton énonce en 1687 la loi de gravitation mais les données expérimentales numériques qu'il fournit à l'appui de sa loi sont relativement éloignées des prédictions. Dans la seconde édition de son ouvrage en 1713, on note une nette réduction de l'écart entre la valeur prédite et la valeur observée, ce qui renforce considérablement la valeur prédictive de sa théorie. « Selon R. Westfall (Newton and the fudge facteur, Science, 1973, 179, 751-758), c'est bien cette adéquation entre les valeurs prédites et observées qui força les sceptiques à concéder le statut de loi à la théorie de Newton.[...]..Selon Westfall, la précision apportée par Newton dans ses mesures était absolument impossible à obtenir à cette époque. Force est donc de conclure que Newton a "déformé" ses données numériques de façon à les faire converger vers ses prédictions». (Amzallag, p 166-167). Ce qui importe plus que la fraude, ce sont les conséquences : «...une fois la loi entérinée, tout écart du réel vis-à-vis de la prédiction fut considéré comme une perturbation circonstancielle, un bruit interférant avec l'action du facteur principal». Ceci n'est pas un cas isolé. Galilée est connu pour avoir rapporté des expériences mensongères (qu'il n'a visiblement jamais réalisé parce que les observations réelles sont différentes de celles qu'il rapporte). Pascal aussi, dans une expérience connue sur le vide (reprenant en 1647 celle de Torricelli de 1643, réalisée avec du mercure), rapporte l'observation d'un "vide" qui se crée à l'extrémité non scellée d'un long tube rempli d'eau et renversé sur une cuve pleine. Le "vide" observé, semble d'un part très difficile à obtenir et d'autre part est en fait un mélange d'air et d'eau, qui apparaît à l'interface, alors que l'on observe une ébullition.
Ainsi, ce qui est lourd de conséquences, est le comportement des expérimentateurs qui, en se fiant à la loi acceptée, corrigent leurs résultats pour les faire cadrer avec les prédictions.
« Si Mendel n'est pas critiqué pour ses méthodes, c'est parcequ'elles constituent aujourd'hui encore une norme»
(Amzallag, p181). (voir cours de TS de spécialité : Mendel, en choississant ses caractères, et en définissant des classes arbitraires d'équivalence, était un précurseur de la méthode expérimentale telle qu'on la pratique).

Un bon moyen pour ne pas se laisser enfermer dans la loi est donc de ne pas y entrer. Mais les choses ne sont pas si simples car l'on a besoin de la prédictibilité pour agir sur l'objet. «La loi n'est ni vraie ni fausse mais existe au nom de la cohérence mathématique de sa formulation.» (Amzallag, p 179) «...il est possible d'étudier des phénomènes de plus en plus discrets. Mais ce progrès a un prix : plus le phénomène étudié est quantitativement réduit, et plus le niveau de bruit autour du phénomène (l'artéfact expérimental) est élevé. C'est en vertu de ces contraintes que la présentation d'un résultat positif, même précédé d'un grand nombre d'essais négatifs, est considérée comme suffisant pour confirmer le bien-fonfé d'une théorie.» (p 181-182)


Par quoi remplacer
les lois du vivant .. si elles n'existent pas?

Les lois sont remplacées par des modèles.

Mais quelle est la validité d'un modèle si aucun être vivant n'est réductible à la partie d'un tout ?
La démarche de
René Thom fondée sur l'analogie est un réponse très pertinente à cette question. Toute analogie est vraie.
Le travail de Thom a un but : construire un générateur de modèles pour les biologistes (et les économistes... et tous ceux qui cherchent à comprendre des phénomènes). Mais bien peu de biologistes avaient alors compris ce message. Les choses changent.
Nissim Amzallag développe ces questions avec sa manière de voir dans LRM*** ch 13.


Que signifie une expérience ?

Les expériences ne fondent plus les théories mais elles restent incontournables comme moyen d'observation, de questionnement du modèle (le modèle questionne la réalité et l'expérience questionne le modèle).


4 - pour une biologie autonome ****

Un objet propre

« Du coup, la biologie moléculaire, expliquant les machineries chimiques de la vie, mais non la vie elle-même, a cru que la vie était une notion mythologique, de toute façon indigne de la science, et a expulsé la vie hors de la biologie»
Edgar Morin (Science avec conscience, Seuil 1990, p 251, cité in LRM*** p 18):

Affirmer la différence ontologique entre les êtres vivants et les autres objets de la nature était devenu difficile après l'hégémonie de la physique, puis de la chimie, et récemment de la technologie, sur les sciences du vivant.
Mais il n'a jamais manqué de chercheurs qui, avec des sensibilités très différentes et refusant le réductionnisme, s'efforcent de forger des concepts pour soutenir ce renouveau . Je me suis efforcé d'intégrer quelques-uns de leurs travaux à mes cours: Pierre-Paul Grassé, Rosine Chandebois, René Thom, Anne Dambricourt-Malassé, Pascale Mentré, Nissim Amzallag
****... Cette pauvre liste montre combien ce travail de formation personnelle permanente de tout enseignant est difficile; bien évidemment d'innombrables chercheurs et travaux m'ont échappé (dire que presque tous m'ont échappé serait plus exact mais les choses changent : internet est pour cela un outil extraordinaire).
La
biologie théorique sera certainement d'un grand soutien dans cette approche.

****Gérard Nissim Amzallag, 2003,
L'homme végétal
Pour une autonomie du vivant,

Albin Michel
(cité HVPAV)


La fusion des Sciences de la Vie et des Sciences de la Terre en SVT dans l'enseignement a-t-elle été profitable ? Je n'en suis pas sûr.
Si l'on accepte de dire que la terre ne peut se concevoir sans vie et donc que toute géologie doit être une biogéologie, il n'y a pas de problème. En effet la géologie est une morphologie, une géophysique et une géochimie; elle est fille directe des sciences physiques et donc de leur déterminisme et surtout de la réversibilité des lois. La géologie historique se contente très bien d'un postulat d'actualisme.
La biologie, avec son indéterminisme et surtout l'irréversibilité de ses phénomènes, fait mauvais ménage avec la géologie. Toute l'évolution est profondément rebelle à un déterminisme mais ce n'est pas une raison pour rejeter la causalité et invoquer un hasard mystificateur.
La reconstitution des événements biologiques passés (la paléontologie au sens le plus large) échappe à l'expérience.
L'article de Pierre LAZLO paru en 1997 dans La Recherche est toujours d'actualité même si les questions philosophiques se posent maintenant de façon plus claire: Origine de la vie: 100.000 milliards de scénarios, Pierre LAZLO, 296, mars 1997, 26-28.


Une méthode propre

«La connaissance de la vie doit s'accomplir par conversions imprévisibles, s'efforçant de saisir un devenir dont le sens ne se révèle jamais si nettement à notre entendement que lorsqu'il le déconcerte» (Georges Canguilhem, La connaissance de la vie, Hachette, collection Science et Pensée, 1952, p45)

Pour réaliser ce changement de paradigme qui est un re-fondement de la biologie, les outils sont l'observation, la raison, l'expérimentation, les mathématiques... rien de nouveau.
Mais ce qui change c'est le statut de l'expérience et l'importance donnée au modèle (voir ci-dessus). Mais les choses changent vite...

Si vite que je pense que pour la première fois dans l'histoire le changement
de paradigme est vécu non pas par une élite intellectuelle (nationale ?)
mais par une communauté mondiale d'horizons très divers et peu structurée...


On ne résume pas en quelques lignes des années de réflexions et de recherche, il faut donc lire (et relire) Nissim Amzallag (puis se mettre au travail). Sa démarche est profondément originale : elle repose sur la considération de la réelle individualité du vivant (LRM*** ). Ce concept laisse la place dans son second ouvrage à la dissociation autonome (HVPAV****) qui désigne l'émergence d' «un tout cohérent à partir d'une population de molécules, d'organites, de cellules, d'organes ou même d'individus.» Cet auteur veut rendre à l'être vivant son autonomie, que l'on puisse s'émerveiller devant sa capacité d'adaptation qui est une propriété de l'individu, du vivant et non le résultat d'une quelconque chaîne d'interactions qui aboutirait au comportement stéréotypé d'un organisme-machine.

Pour être le témoin de ces changements, je n'ai pas vraiment de poste privilégié;
je reste donc simplement attentif et disponible en faisant appel à tous mes lecteurs
(pierre point stouff at libertysurf point fr)...


Quelques précisions sur la méthode :

+ La biologie du développement est un bon exemple pour cerner les approches scientifiques :

 

 

d'après
Biologie du développement,
S.Gilbert, De Boeck, 2004

 

1. la recherche d'ordre (relations entre des parties d'un organisme (anatomie) ou entre les éléments d'un ensemble)

* l'embryologie descriptive et comparative regroupe deux approches anatomiques:
- approche anatomique comparative: c'est avant tout l'
observation (à l'œil nu ou au microscope, avec ou sans marquage des cellules (d'abord par des colorants puis par des éléments radioactifs ou immunologiques...) qui permet de suggérer des hypothèses qui se fondent sur des analogies: par exemple la théorie de Von Baer sur l'existence de trois feuillets embryonnaires (ecto-,méso- et endoderme, découverts chez l'embryon de poulet par Pander) communs aux embryons de vertébrés.
Le domaine médical n'est pas oublié. Il concerne notamment l'étude des agents tératogènes (qui provoquent des malformations au cours du développement) et se développe avec des comparaisons chez l'animal (on parle de modèle animal). Dans le cadre des analogies, on peut citer les modèles mathématiques du développement qui progressent. Le plus connu est le modèle de Turing de réaction-diffusion qui, dans une vision chimique des interactions entre populations cellulaires, présente par exemple une simulation de la pigmentation de certains organismes (poisson zèbre, gastéropode Oliva porphyria...).
- approche anatomique évolutive (traduit en évolutionnaire): les comparaisons faites à partir des
observations sont cette fois interprétées à l'aide d'analogies mais aussi d'homologies dans le sens où l'on considère une origine commune pour deux structures similaires dites homologues. Cette origine commune a d'abord été présentée comme une origine strictement embryonnaire, sans référence à l'évolution (lois de Von Baer, 1828; que l'on trouve bien exposées dans le livre de Gilbert cité ci-dessus, pp 8-9). Puis à partir du moment où l'on a considéré que « La communauté de conformation embryonnaire révèle donc une communauté d'origine» selon les mots de Darwin (On the Origin of Species, 1859, dans la conclusion de la traduction française disponible gratuitement sur internet http://abu.cnam.fr/cgi-bin/donner_html?espece1; on notera aussi sa remarque sur les structures homogènes, terme pris dans le même sens qu'ici), l'homologie est devenue synonyme de parenté évolutive, idée qui est reprise de façon rigoureuse dans la terminologie cladiste (voir page sur le cladisme) par le terme d'homologie de filiation ou homologie secondaire (deux caractères sont homologues s'ils sont portés par deux individus ayant une ancêtre commun exclusif). On notera que les homologies sont de l'ordre de l'organisation (anatomie) et non de la fonction (on ne compare pas deux ailes dans le cas des membres antérieurs de chauve-souris et d'oiseau; l'adaptation au vol est une autre question).

2. la recherche de causes (secondes)

De la mutation
au problème de la variation

* l'embryologie expérimentale se fonde davantage sur la physiologie: on a longtemps parlé d'Entwicklungsmechanik (mécanique du développement) puis d'embryologie causale ou encore d'embryologie physiologique.
* l'approche génétique est expérimentale mais elle se focalise sur les explications de type génétique (que l'on pourrait résumer ainsi: "le phénotype résultant du génotype sous le contrôle environnemental").
Remarque:
l'approche génétique n'est pas du tout une approche chimique. C'est faire preuve d'aveuglement que de penser que sélectionner un type cellulaire modifié génétiquement n'est qu'une manipulation de la séquence de l'ADN; il est plus que probable qu'une
cellule mutante sélectionnée diffère de la cellule originelle par bien autre chose qu'une seule séquence d'ADN .


+ L'approche expérimentale comparée à une "enquête* scientifique" selon S. Gilbert

 * le terme d'enquête qui semble être utilisé à la place de "méthode de recherche" ne me paraît pas plus juste, bien au contraire. Il s'agit clairement de la recherche de la vérité. Dans l'enquête policière la vérité est historique et l'on peut considérer qu'elle est unique et indiscutable (même si elle n'est pas toujours atteinte). Dans l'enquête scientifique la vérité a de multiples visages. Je suis un réaliste inconditionnel mais je ne crois pas à la toute puissance de la science expérimentale: le réel dépasse l'expérimental.


Dans des conditions expérimentales aussi contrôlées et reproductibles que possible on réalise (au moins) deux expériences en ne changeant qu'un seul paramètre (l'expérience où le paramètre prend la valeur la plus habituelle est dite témoin ou contrôle). Seule une différence entre les deux résultats peut être interprétée (si aucun paramètre observable n'est modifié, à part le paramètre modifié expérimentalement (paramètre de contrôle), le système est statique et le paramètre inopérant). En embryologie c'est soit un groupe de cellules, soit une cellule, soit une molécule que l'on ajoute, que l'on supprime, ou que l'on déplace, chez un organisme en développement. En génétique, le problème est plus complexe car on sélectionne la plupart du temps des individus (ou des cellules) modifié(e)s survivant(e)s dont on étudie ensuite les caractéristiques génétiques.

Trois conséquences, nommées indices par S. Gilbert - et que personnellement je nomme preuves** -, sont interprétables :
- la corrélation: c'est la preuve la plus faible. Deux événements successifs dans le temps par exemple peuvent être reliés par une relation de causalité (efficiente). Deux événements simultanés peuvent avoir une cause (efficiente) commune.
- indice par perte de fonction : cette preuve est plus forte que la corrélation mais sa reproductibilité doit être testée avec soin et il est difficile de savoir si la fonction perdue est bien la seule touchée.
- indice par gain de fonction ; cette preuve est considérée comme la plus fiable.

** le terme de preuve pourrait être défini (selon F. Gil in EU article "preuve (épistémologie)") comme «établie par une méthode reconnue et faisant l'objet d'une croyance». Il y a donc plusieurs niveaux de preuve selon la méthode et la croyance d'une personne donnée. Les croyances scientifiques sont bien diverses selon les niveaux de culture... penser qu'elles sont unifiées dans une vérité (idéale) relève de l'opinion.


Récréation:
Savourez la science comme
découverte avec une séance de la Société française de philosophie qui accueille Étienne Wolff le 26 fév. 1966 autour du thème : "Le climat de la découverte en biologie". Intervenants: Mme Weill-Brunschvicg, MM. Canguilhem, Dreyfus-Lefoyer, Dr. Guibert, Guillet, Hyppolite, Dr Minkowski, Schuhl et Wahl. Télécharger directement le texte (pdf)


Comme archive, je laisse ici un lien avec un ancienne page sur la méthode expérimentale.