Accueil / Comment se crée la connaissance scientifique ?

Comment se crée la connaissance scientifique ?

Publié en ligne le 21 juillet 2010 - Épistémologie -
par Fabrice Neyret - SPS n° 290, avril 2010

Dans le florilège d’expressions critiques (ou pas) que l’on peut rencontrer à propos de la science, on lit parfois :

Comment la science pourrait-elle être objective, puisqu’elle est faite par des humains subjectifs ? C’est juste une opinion parmi d’autres. Ou : la science dit le vrai parce que les scientifiques sont des êtres plus sages que la moyenne (du moins on l’espère).

Il y a déjà eu des triches célèbres, des plagiats, des ‘pontes’ qui défendent leur terrain : la science c’est avant tout une coterie. La science est juste un écosystème social basé sur la production et l’acceptation d’articles.

Si je trouve le texte d’une théorie sur Internet, est-ce que c’est une ‘publication scientifique’ ? Qu’est-ce qu’une publication ‘scientifique’‘validée’ ? Si c’est scientifique et validé, c’est vrai ?

Cette crème de beauté est issue de la science Ayurvédique.

La science change régulièrement d’avis ; ce qui est faux aujourd’hui peut être vrai demain, et réciproquement, donc je n’ai aucune raison de ne pas adhérer à ma croyance minoritaire (voyez Galilée). D’ailleurs, certaines théories scientifiques ne sont pas prouvées (cordes), ou contestées (Big Bang), alors...

À la télé, on me dit que telle théorie ou telle pratique de santé alternative qui a beaucoup d’adeptes convaincus n’est toutefois ‘pas encore prouvée’. Donc ça existe, ou pas ?

Scientificité d’une théorie

Pour clarifier les choses, il faut commencer par expliquer ce qu’est une « théorie (scientifique) », expression pas toujours employée à bon escient. Une théorie donne des outils (notamment les « lois de comportement », des équations qui relient les mesures) qui permettent d’expliquer les faits constatés, et de faire des prédictions vérifiables (ce qui permet de la jauger ; elle doit donc être réfutable 1). Se contenter de proposer a posteriori une explication des faits qui tienne la route est juste un scénario, pas une théorie. Avec un peu d’imagination, on peut d’ailleurs souvent en trouver plusieurs : un scénario n’est donc en rien une preuve (de même que dans une enquête policière, on échafaude une hypothèse de scénario, on vérifie qu’il colle aux faits, puis on s’efforce alors qu’il mène à des pistes de preuves – les prédictions). Si une « théorie » retombe toujours sur ses pattes pour donner une explication quel que soit le résultat de l’expérimentation, elle n’est pas réfutable, et n’est donc pas une théorie scientifique : l’existence de Dieu, de la licorne rose invisible 2, ou la psychanalyse, ne sont pas des théories scientifiques, si elles ne peuvent proposer une expérience test susceptible de les remettre en cause en cas d’échec. Cependant on a bien sûr droit aux actes de foi, du moment qu’ils sont assumés comme tels, et non comme « le vrai », imposable à autrui. Une théorie en gestation – comme par exemple la théorie des cordes – qui n’est pas encore au point de faire une prédiction, c’est-à-dire de proposer une expérience qui la validera ou l’invalidera, n’est pas encore une théorie scientifique. Une théorie réfutable, mais dont l’expérience clé n’a pas encore pu être réalisée, n’est pas validée, voire pas vraiment réfutable si les conditions expérimentales sont déraisonnables (disposer d’un collisionneur de la puissance de l’univers...). Les prédictions peuvent soit concerner un élément d’une situation répétée (« si on lâche une bille de telle hauteur, la vitesse atteinte sera tant »), soit concerner un événement distinct encore inconnu (« si on va voir dans ce buisson, on trouvera l’arme du crime ») 3. Mais il ne suffit pas de corroborer quelques faits bien choisis : la théorie doit être compatible avec tous les faits connus la concernant, et est invalidée à la première prédiction erronée. Elle pourra alors peut-être être rectifiée.... ou pas. (Voir encadré).

Réfutabilité pratique

En pratique, la définition de Popper présentée ci-dessus est difficile à appliquer strictement, comme l’ont fait remarquer Kuhn, Lakatos et d’autres : aucune théorie scientifique effective n’explique exactement tous les faits et mesures jusqu’aux ultimes détails, et pourtant les scientifiques les jugent acceptables. Il faut donc distinguer ce qui est vérifié « raisonnablement » ou « pas du tout » (« est-ce approximatif ou est-ce faux ? »), et faire la part des choses entre hypothèses fondamentales (le « noyau » de concepts, partie de la théorie en laquelle on a confiance) ou plus secondaires. Une prédiction réfutée ou un fait nouveau qui ne colle pas conduisent à tenter d’abord de revoir les hypothèses secondaires. Tant que la théorie est en accord raisonnable avec la plupart des situations classiques, elle est utilisable en pratique. Quand les remaniements secondaires permettent d’affiner la portée et la précision, et d’intégrer de nouvelles prédictions inattendues (de nouveaux faits expérimentaux), la théorie – ou plus précisément le « programme de recherche » – progresse. Mais si les « faits désobéissants » persistent et que tous les remaniements théoriques ne conduisent qu’à des prédictions invalidées, obligeant en vain à élargir la ceinture d’hypothèses secondaires qu’on accepte de remettre en cause, le programme de recherches est en régression (on n’arrive plus à y incorporer les nouveautés) : le temps est mûr pour un changement de paradigme, c’est-à-dire pour laisser la place à une théorie concurrente assez différente qui explique mieux plus de faits. Notons qu’en pareil cas, l’ancienne théorie phare n’en devient pas fausse pour autant (on continue à utiliser la mécanique newtonienne dans les applications courantes, même depuis le succès de la relativité) : la nouvelle est simplement plus générale, plus précise, peut expliquer plus de choses dans des conditions plus variées ou extrêmes. Elle est plus fondamentale. Ainsi, les théories scientifiques évoluent sans cesse, ou sont remplacées par d’autres qui les améliorent plus radicalement. À l’inverse, bien des « théories » pseudo-scientifiques sont figées dans le dogme précisément édicté par leur créateur 4, ou par une « sagesse ancestrale ».

Une théorie, même en déclin, s’expose donc aux tests. Une pseudo-théorie, elle, se dispense de toute prédiction vérifiable.

Principe de parcimonie

S’il existe d’autres théories qui expliquent les mêmes faits et font les mêmes prédictions, alors, en l’absence d’autre critère discriminant, le plus raisonnable est de retenir la plus simple, c’est-à-dire la plus économique en hypothèses (c’est le rasoir d’Ockham) : par deux points de mesure peuvent passer une droite, une parabole, un escalier, une sinusoïde, ou des tas de courbes plus biscornues. Si l’on n’a vraiment aucun autre indice de l’allure des variations entre les deux mesures, alors le plus raisonnable est de prendre l’hypothèse la plus simple : la droite, qui n’incorpore pas plus que ce qu’on connaît. Si vous voulez argumenter pour une autre, pourquoi celle-là (spécialement cette courbe-là avec exactement ces paramètres-là) et pas toutes les autres ? Notons que le critère de simplicité s’accompagne obligatoirement du critère de vérifiabilité par une prédiction : « parce que Dieu l’a voulu » ou « c’est un effet du fluide psi » sont des explications particulièrement simples, mais avec un pouvoir prédictif assez limité.

Protocole expérimental

290_70-75

Voilà que j’ai une théorie testable, et un plan d’expérience pour la valider. Me suffit-il de proclamer que les expériences que j’ai menées dans le secret de mon laboratoire m’ont donné raison ? Ce serait un peu trop facile ! Pour que mon résultat soit crédible, on ne doit pas avoir à me croire sur parole : je dois détailler mes résultats, mais surtout, la recette précise que j’ai employée pour les obtenir, en toute transparence, de telle sorte que chacun puisse la jauger, et que quiconque réappliquerait la recette retrouverait mes résultats. Mon expérience doit être critiquable et reproductible 5 (qu’importe alors les éventuels soupçons d’accointances). De plus, pour que mon expérience soit probante, pour moi comme pour les autres, je dois en ôter toute subjectivité, car mes espoirs pourraient m’influencer « à l’insu de mon plein gré ». C’est l’objet du protocole expérimental. Il doit préciser à l’avance le type de mesure (comment on obtient un nombre, et pour une mesure en « oui ou non » quel est le critère précis et objectif : « ça marche » ou « le patient se sent mieux » ne conviennent pas), ainsi que le nombre de mesures à réaliser en fonction des marges d’erreur, afin d’être statistiquement significatif. Les statistiques sont en effet indispensables : même des valeurs de mesure qui seraient obtenues au hasard peuvent parfois donner l’illusion d’une confirmation. Ainsi, seules les statistiques nous permettent de dire s’il est extraordinaire (donc procédant de l’application efficace d’une théorie ou d’un don) ou non de tomber juste 7 fois sur 10 à pile ou face, ou si l’occurrence de 3 cancers pédiatriques en 10 ans dans un même village implique vraisemblablement ou non une cause locale spécifique 6. Dans les cas où l’on craint le plus la subjectivité, par exemple en matière de santé ou de controverse 7, les expériences se déroulent en double aveugle : ni le cobaye, ni l’expérimentateur, ne savent ce qu’ils testent (par exemple, s’ils ont en main une pilule de médicament actif ou de placebo) et donc quelle est la « bonne réponse » à obtenir.

La publication scientifique

Me voilà avec une théorie, et une expérience que j’estime honnête et convaincante pour la valider (ou en pratique, l’amélioration d’une théorie sur un détail, et sa validation). Comment la faire connaître et accepter au monde qui ignore encore la nouvelle ? – d’autant que celui-ci est d’une nature plutôt incrédule, et qu’une quantité incroyable de quidams prétendent avoir des révélations à faire, dont une grande majorité à mauvais escient, soit que leur démarche n’ait rien de scientifique, soit que leur expérience soit moins indiscutable qu’ils le pensent, soit qu’elle n’apporte en fait rien de nouveau. Si j’ai la chance d’avoir un accès privilégié au pouvoir ou aux médias (ce qui est plutôt rare), je peux tenter de forcer le destin de cette manière, mais mes collègues ne seront pas convaincus, surtout si les faits finissent par me donner tort 8. La démarche scientifique consiste à soumettre un article présentant théorie, protocole et résultats au comité de lecture d’une revue ou conférence scientifique spécialisée. En général, celui-ci choisira plusieurs relecteurs, spécialistes chargés d’examiner la validité de cet article : mon travail est jugé par mes pairs. S’ils valident mon exposé, après avoir éventuellement obtenu des corrections et précisions, alors l’article devient une publication scientifique.

Certaines revues sont plus renommées que d’autres, car la sélectivité (taux de sélection plus auto-censure) y est plus draconienne. Le sachant, les impétrants en tiennent compte pour choisir où soumettre leur article, selon leur vision de l’importance et de la « propreté » de leur travail.

Cependant, tel que présenté ci-dessus, le procédé semble garder un caractère subjectif : des humains faillibles acceptent ou non de publier la soumission. D’où provient l’objectivation de la connaissance, alors ?

Impact d’une recherche

Pour mener mes recherches, je me suis basé sur les connaissances scientifiques bien établies, mais aussi sur toute une série de travaux plus ou moins récents (de « science en gestation » 9). Certains articles m’ont inspiré, ou m’ont directement servi pour monter ma théorie ou mon expérimentation. Dans l’article que je soumets, je dois situer mes travaux par rapport à l’existant, en citant et commentant les travaux pertinents. Les relecteurs portent une attention soutenue à cette section, et à ses insuffisances éventuelles (si mes préférences ont été trop arbitraires, non-pertinentes, ou manquant de culture… ou si je tentais de cacher qu’un autre a déjà fait aussi bien ou mieux). Si mon article est publié, il crée ainsi une filiation : y sont reconnues ses « racines » d’inspiration. Si nombre de collègues font de même pour les mêmes articles qui m’ont inspiré, ceux-ci vont donc se retrouver souvent cités : ils ont un certain impact, qui peut être momentané, ou durable (année après année, on continue à les citer). Si, ce faisant, mes collègues, comme moi, nous pouvons ainsi prolonger un filon réellement fructueux, nos articles inspireront plusieurs chercheurs qui obtiendront eux-mêmes des résultats dont ils seront fiers, qu’ils soumettront (en nous citant). Réciproquement, certains de mes concurrents cherchent des failles dans mes articles et la reproductibilité de mes résultats, qu’ils ne se priveront pas de souligner dans leurs articles, au risque de ruiner la confiance de mes collègues, s’ils les convainquent (après avoir convaincu les relecteurs de publier leur article). Pire : dans ce monde de spécialistes, les communautés sont autogérées, mes relecteurs sont donc mes collègues, et plutôt mes concurrents que mes proches (car les comités de lecture cherchent à éviter les conflits d’intérêt pour que leur revue inspire confiance). Le monde de la recherche est donc en gros un système ou l’on est jugé par ses concurrents. Si un article y survit, c’est que le travail est suffisamment « solide ». Ainsi, de façon quasi darwinienne, les pistes fécondes vont générer plus d’articles et plus de citations au fil des ans. Le mécanisme de publication-citation sécrète donc, par tamisages successifs, un tri des concepts productifs. Cette « fécondité » n’est que marginalement une question de modes sociales, surtout sur le long terme, tant que les expériences et les choix interrogent le réel (même dans la médiocrité générale, les expérimentations marchent un peu mieux quand leurs auteurs se sont inspirés d’hypothèses plutôt fondées). Le mécanisme de tamisage répété isole donc peu à peu de la connaissance objective. Celle-ci, universellement citée (consensuelle), et ne subissant plus d’attaques (devenue « à l’épreuve des balles »), peut alors rejoindre le corpus des connaissances scientifiques établies.

Valeur d’un article

On comprend donc qu’un article scientifique qui vient d’être publié n’est pas encore une ‘vérité scientifique’, et ne devrait en principe concerner que les professionnels, et non le grand public et les médias : il a juste reçu un label d’intérêt et de qualité formelle (avec une part de subjectivité), label dont la valeur indicative est reliée au prestige de la revue scientifique, prestige qui est lié au facteur d’impact de celle-ci, c’est-à-dire son impact global (en clair, les scientifiques citent souvent des travaux publiés par cette revue… ce qui ne signifie aucunement, loin s’en faut, que tout article publié dans cette revue sera un jour cité par un scientifique !). Certaines revues ne sont à peu près jamais citées – si ce n’est par elles-mêmes –, d’autres sont citées mais rarement par les revues et conférences que tout le monde cite : ainsi s’établit une hiérarchie du prestige, en principe fondée sur celle de l’impact, elle-même liée à la qualité statistique des articles publiés.

En résumé, le label de « connaissance scientifique » s’acquiert avec du temps – et la durée est une conséquence, non une cause : il ne suffit pas qu’une idée soit le résultat « d’années de recherche » ou d’un « savoir ancestral ». Un article seul (fût-ce une découverte ou un scoop) n’est pas de la connaissance robuste. Si les affirmations d’un article de Nature ne sont donc pas à prendre pour « argent comptant », un article qui n’a pu se faire publier que dans une revue ignorée, au sein d’une micro-communauté isolée, voire que sur une page Web, est à considérer comme particulièrement peu fiable. La connaissance scientifique « stabilisée » n’est pas pour autant définitive : l’explication du phénomène sera peut-être un jour appelée à changer. Néanmoins, d’une part elle représente la « vérité » – ou plutôt la description 10 – la plus fiable et objective que l’on puisse obtenir avec les données disponibles à un moment donné 11, d’autre part les meilleures explications ultérieures n’enlèvent rien à la qualité des précédentes. Enfin, un effet « pas encore prouvé » n’est… pas prouvé du tout, c’est-à-dire pas ‘vrai’ 12 jusqu’à preuve du contraire.

1 Voir l’article Propos sur l’autorité scientifique, où Jean Bricmont détaille cette notion.

2 La religion de la licorne rose invisible est une parodie inventée par des athées. Ceux-ci expliquent que leur religion est fondée à la fois sur la raison (on sait que la licorne est invisible, puisqu’on ne la voit pas) et la foi (on croit en sa ‘rositude’). Voir par exemple https://fr.wikipedia.org/wiki/Licor....

3 Ainsi, la Relativité Générale a été prise au sérieux suite à sa prédiction d’un fait inattendu : la déviation de la position apparente des étoiles proches du Soleil, qui fut constatée lors de l’éclipse du 29 mai 1919.

4 Ainsi, la psychanalyse ne se conçoit pas sans la lecture assidue des textes de Freud, tandis que les sciences de l’évolution, par exemple, ne se définissent plus depuis longtemps par rapport aux textes mêmes de Darwin, et sont qualifiées de « Darwinisme » essentiellement par les médias et les détracteurs.

5 Cela ne fut pas le cas de la mémoire de l’eau. Lire par exemple dans Science et pseudo-Sciences n°286 (2009) « Mémoire de l’eau et biologie numérique » de Alain de Weck.

8 Comme avec l’affaire Lyssenko. Voir Yann Kindo, « L’affaire Lyssenko, ou la pseudo-science au pouvoir » SPS n°286 (2009) .

10 Cette connaissance est faite de « lois » décrivant des relations entre mesures, mais c’est généralement leur interprétation sémantique qui est vulgarisée ou « philosophée » sous forme de « vérités » explicatives.

11 On dit par exemple que « la science n’a que des preuves mais pas de certitudes, tandis que le créationnisme n’a que des certitudes mais pas de preuves ».

12 Ce qui n’est pas une « preuve de fausseté ». Mais c’est celui qui affirme qui doit prouver.

Publié dans le n° 290 de la revue


Partager cet article