Le difficile chemin vers la connaissance

Dossier "Comment s’établit la vérité scientifique ? Le difficile chemin vers la connaissance"

par Jean-Paul Krivine - SPS n°318, octobre 2016

Pour le célèbre physicien Richard Feynman, « le principe de la science, sa définition pour ainsi dire, est ce qui suit : toute notre connaissance est à l’épreuve de l’expérience. L’expérience est le seul juge de la “vérité” scientifique ». Cependant, le chemin pour y accéder est long, complexe, et semé d’embûches.

La science et la médecine modernes se sont construites en passant du surnaturel, du témoignage et de la subjectivité aux faits et à l’objectivité. Pour autant, établir les faits, s’affranchir de tout biais et produire des résultats reconnus et acceptés est chose complexe. En santé et environnement, en particulier, il n’est pas une controverse médiatisée qui ne mette en avant des « résultats » contradictoires, mais présentés comme tout aussi solidement établis. Comment peut-on apporter la preuve de l’efficacité ou de l’inefficacité d’un traitement ? Qu’est-ce qui permet d’affirmer ou d’écarter le danger pour l’environnement de telle ou telle molécule ? Qui n’a jamais été confronté à une émission, un reportage, un article, aux propos d’amis ou de collègues affirmant tel ou tel danger, vantant les miracles de telle ou telle thérapie sans se demander « comment savoir si c’est vrai ? ». Plus généralement, comment la science élabore-t-elle son corpus de connaissances ? Et peut-on faire confiance aux scientifiques ?

Les études publiées et évaluées par les pairs

Si le simple témoignage est encore souvent invoqué par certains partisans des médecines miraculeuses et des phénomènes paranormaux, l’opinion qui tend à prévaloir est que toute affirmation doit pouvoir s’appuyer sur « une étude scientifique ». C’est effectivement un premier « réflexe » à adopter : quelle référence vient à l’appui de l’affirmation ? S’agit-il d’une étude sérieuse, obéissant à un protocole rigoureux (voir l’article «   La naissance des essais cliniques contrôlés  » de Simon Singh et Edzard Ernst), évaluée par les pairs et publiée dans une revue scientifique ? C’est à ce questionnement systématique que nous invite l’association anglaise Sense about Science avec son manifeste « Je ne sais pas ce qu’il faut croire ... », que nous reproduisons dans ce dossier. Cependant, « une étude ne fait pas le printemps ». Tout d’abord, la publication de résultats qui peuvent s’avérer ensuite faux fait partie du fonctionnement normal et nécessaire de la science. Publier, c’est d’abord mettre à disposition ses résultats afin que la communauté scientifique puisse les examiner, reproduire les expériences pour confirmer ou invalider les conclusions. Mais il y a également les innombrables biais et erreurs, quand il ne s’agit pas carrément de « petits arrangements » avec la réalité, voire de fraudes, qui peuvent entacher les résultats présentés. Le système d’évaluation des chercheurs et des laboratoires ainsi que la course aux financements, largement déterminés par la quantité de publications, aggravent le phénomène (voir l’article d’Hervé Maisonneuve « Peut-on croire les publications ? Biais et embellissements polluent la science »). Cette situation s’est récemment amplifiée avec le développement de ce l’on appelle les « journaux prédateurs », système éditorial où il suffit de payer pour être diffusé (souvent uniquement sur Internet) et où il devient possible de publier à peu près n’importe quoi (voir l’article « Les simplificateurs de Pi » de Jean-Paul Delahaye).

Quand une étude jamais reproduite défraie la chronique

La liste est longue d’articles publiés dans des revues à comité de lecture et dont les résultats ne seront jamais reproduits, et seront souvent même infirmés. Si la plupart contribuent à l’avancement de la science, certains, intentionnellement ou non, ont défrayé la chronique et ont été largement médiatisés. En voici quelques exemples emblématiques.

  • La mémoire de l’eau. Jacques Benveniste, chercheur français à l’INSERM, affirmait avoir mis en évidence l’effet d’un produit transmis par une molécule d’eau ayant été au préalable en contact avec ce produit (d’où la formule de « mémoire de l’eau »). Le produit agissant n’est plus là, mais l’eau en aurait gardé mémoire. Sa découverte aurait permis d’envisager un effet chimique ou biochimique sans la moindre molécule. Cette découverte aurait été bien utile aux partisans de l’homéopathie dont la plupart des produits sont à des dilutions telles qu’il ne reste aucune molécule supposée active… mais au détriment de la validité de tout le reste de la chimie moderne. Ces travaux, commencés en 1985, ont donné lieu à une publication dans la prestigieuse revue Nature en juin 1988. La presse s’est enflammée avec des titres en première page, comme celui du journal Le Monde (30 juin 1988) : « Une découverte française pourrait bouleverser les fondements de la physique ». Mais les résultats n’ont jamais pu être reproduits de manière indépendante. La controverse mettra quelques années à s’éteindre, et n’est plus guère entretenue que par Luc Montagnier, un « prix Nobel qui s’égare » (voir [1]).
  • La fusion froide. Ce terme désigne les résultats allégués d’une expérience menée en 1989 par deux électrochimistes de l’Université de l’Utah (USA), Martin Fleischmann et Stanley Pons. Ceux-ci ont affirmé avoir réussi à déclencher une réaction nucléaire à des conditions de température et de pression ambiante (ce qui contredirait un résultat acquis depuis longtemps selon lequel il n’est pas possible de vaincre par les seuls moyens électrochimiques les forces électriques qui font que deux noyaux atomiques se repoussent). Une telle découverte aurait révolutionné le domaine de la production d’énergie en offrant un moyen de production quasi-illimité et à bas coût. Mais les résultats n’ont pu être valablement reproduits. Le cas de la fusion froide est un peu à part en termes de processus médiatique car les résultats ont été annoncés par la presse (Le Financial Times du 23 mars 1989, repris par les principaux journaux et télévisions du monde) en lieu et place d’une publication scientifique (la revue Nature a refusé de publier un article des deux chercheurs). La controverse se poursuit cependant de façon interminable sur Internet. Mais l’intérêt de certains acteurs économiques, la tenue de colloques et conférences ou le dépôt de brevets ne remplacent pas une validation scientifique rigoureuse (voir le chapitre consacré à cette histoire dans [2]).
  • Les OGM « sont des poisons ». Initiée par la désormais célèbre manchette du Nouvel Observateur du 18 février 2012 (« Oui, les OGM sont des poisons ! »), la déferlante va balayer la quasi-totalité des grands médias, relayée par un film coproduit avec les auteurs de l’étude et un livre. L’étude, publiée le lendemain dans le journal Food and Chemical Toxicology, présente une comparaison peu convaincante de mortalité entre des groupes de dix rats nourris avec ou sans OGM. Analysée par les pairs et par de très nombreuses agences sanitaires à travers le monde, l’étude est finalement invalidée et retirée du journal pour « résultats non-concluants ». De façon organisée, une publication scientifique isolée (et finalement retirée) a été prétexte à une campagne médiatique permettant d’alimenter la cause des opposants aux biotechnologies.

[1] « Quand un Prix Nobel continue de s’égarer... 35 autres Prix Nobel réagissent », sur le site www.pseudosciences.org.
[2] Michel de Pracontal, L’Imposture scientifique en dix leçons, réédité au Seuil en 2005.

Le temps médiatique et la caisse de résonance offerte par Internet fait que le processus scientifique, qui demande du temps et du recul, est largement dévoyé par ceux qui trouvent dans telle ou telle étude un écho à leurs combats et engagements. À peine publiée, l’étude est aussitôt commentée plus ou moins fidèlement, twittée et relayée de réseaux sociaux en blogs et journaux… Innombrables sont les manchettes des journaux affirmant « Une récente étude montre que… » sans examiner plus avant le contexte, les biais possibles ni attendre reproduction et confirmation, sans rappeler non plus quels sont les résultats déjà existants, souvent solides et en contradiction. Mais une étude qui va à l’encontre de l’état des connaissances ou le bouleverse est bien plus médiatique.

Ainsi, si l’exigence de références à l’appui de toute allégation est un réflexe à adopter systématiquement, il est loin d’être suffisant.

Le niveau de preuve et la pyramide des dispositifs

La Haute autorité de santé (HAS) distingue, pour établir ses recommandations [1], trois niveaux : le faible niveau de preuve, la présomption scientifique et la preuve scientifique établie. Le réseau Cochrane, référence internationale dans l’analyse de la littérature médicale, met en avant une pyramide des dispositifs en fonction du niveau de preuve où la littérature de synthèse constitue de façon naturelle le degré le plus solide [2] (voir encadré).

Les différents niveaux de preuves

La Haute autorité de santé distingue trois niveaux de preuves pour établir ses recommandations.

  • Un faible niveau de preuve correspond à des séries de cas (succession de témoignages et de descriptions), des études rétrospectives (étude d’observation, c’est-à-dire ne reposant pas sur une démarche expérimentale, où l’on recherche a posteriori le facteur d’exposition responsable) ou des études de cas témoins (étude d’observation qui compare a posteriori la population atteinte avec une population témoin).
  • Une présomption scientifique s’appuie sur des essais comparatifs randomisés de faible puissance (expérimentation sur différents groupes recevant des traitements différents, la répartition entre les groupes étant réalisée par tirage au sort – randomisation), des études comparatives non randomisées bien menées ou des études de cohorte (proche de l’essai comparatif, mais ici les sujets sont répartis en groupes en fonction de leur exposition et l’événement n’est pas survenu au moment où cette répartition est faite).
  • Une preuve scientifique établie repose sur des essais comparatifs randomisés de forte puissance, une méta-analyse d’essais comparatifs randomisés ou une analyse de décision basée sur des études bien menées.

La littérature de synthèse apparaît au plus haut niveau de la pyramide des dispositifs proposée par la collaboration Cochrane.

C’est ainsi que les agences sanitaires et environnementales, au niveau national, européen ou mondial, s’appuient, non pas sur une étude isolée, mais sur un travail de synthèse pour émettre avis et recommandations.

Après s’être interrogé sur les références à l’appui de toute allégation, de toute affirmation publiée dans un journal, il importe de considérer ce qu’il en est de la synthèse sur le sujet, et donc, logiquement, des avis et analyses des différentes agences.

Mais là encore, les choses ne sont pas aussi simples. De nombreux biais peuvent impacter les études épidémiologiques, en particulier dès lors qu’on s’intéresse à de faibles expositions avec des effets attendus faibles ou nuls (voir l’article « Les pièges de l’épidémiologie » d’André Aurengo). Par ailleurs, dans des domaines où il s’agit d’examiner des allégations reposant sur des mécanismes improbables, la seule approche épidémiologique peut conduire à une prudence sans rapport avec la réalité (voir l’article « Mécanismes improbables : les limites des méta-analyses » de Nima Yeganefar).

La confiance

Personne n’est en mesure de lire, comprendre et assimiler l’ensemble de la littérature sur un sujet donné. Pour se forger une opinion ou prendre une décision réfléchie, il faut donc s’en remettre à une sorte de « croyance par délégation » [3] (voir encadré).

La croyance par délégation

«  La confiance est donc nécessaire à toute vie sociale, et plus encore pour les sociétés démocratiques, qui s’organisent autour des progrès de la connaissance et de la division du travail intellectuel. En effet, à mesure de la production de cette connaissance, la part de ce que chacun peut espérer maîtriser de cette compétence commune diminue. Plus l’on sait de choses, moins la part de ce que je sais est proportionnellement importante. Nul n’ignore que si un individu, il y a quelques siècles, pouvait espérer maîtriser l’ensemble des connaissances scientifiques, ce serait inenvisageable aujourd’hui. Cela signifie qu’une société fondée sur le progrès de la connaissance devient, paradoxalement, une société de la croyance par délégation, et donc de la confiance, ce qu’avait compris Tocqueville en son temps (De la démocratie en Amérique, 1835) : “II n’y a pas de si grand philosophe dans le monde qui ne croie un million de choses sur la foi d’autrui, et ne suppose beaucoup plus de vérités qu’il n’en établit. Ceci est non seulement nécessaire, mais désirable”.

Désirable, sans doute, car on n’imagine pas qu’un monde où chacun vérifierait frénétiquement toute information pourrait survivre longtemps. Néanmoins, il existe des conditions sociales où ce processus de confiance est altéré […]. Nous ne semblons pas au bord d’une guerre civile, mais dans tous les domaines, la contestation de l’autorité, de la parole officielle, et la méfiance dans les conclusions des experts sont tangibles.  »

Gérald Bronner, La Démocratie des crédules, page 7

À titre individuel, cette croyance ne consiste pas en une foi aveugle envers quelque institution que ce soit. Elle doit s’accompagner d’un esprit critique, s’interroger systématiquement sur la source des allégations et le sérieux des références avancées, préférer une analyse collective ou un avis d’agence à une simple étude, et toujours regarder avec méfiance la médiatisation de tel ou tel résultat. Pour tout un chacun, cette croyance par délégation, inévitable, suppose une certaine confiance. Confiance envers le dispositif d’expertise mis en place par la collectivité, et plus généralement, confiance envers la communauté scientifique – qui, pour être crédible, tout comme la justice, doit « non seulement être neutre, mais paraître neutre » (voir l’article « Comment justifier l’autorité scientifique ? » de Jean Bricmont).

Afin d’aider à l’appropriation des connaissances par le grand public et dans un souci de l’associer aux décisions à venir, différents dispositifs de concertation sont mis en œuvre par les pouvoirs publics. Les vertus de la « participation citoyenne » sont vantées. Mais ces initiatives correspondent-elles à une vraie demande ? Ne sont-elles pas en réalité de nature à obscurcir les enjeux et les mécanismes de décision favorisant un « populisme précautionniste » (voir l’article « Y a-t-il vraiment une demande de “participation citoyenne” ? » de Virginie Tournay) ?

Tout le monde peut avoir la parole sur tout...

« L’idée que tout le monde peut avoir la parole sur tout est certes séduisante, mais elle ne devrait pas empêcher de se tourner vers des gens compétents dans leur domaine. Après tout, les passagers d’un avion n’élisent pas le pilote, mais font confiance à celui qui est aux manettes ! Or, c’est vrai que les scientifiques ne sont pas toujours écoutés. Cela tient au fait, me semble-t-il, qu’il n’existe pas de certitude absolue, de dogme en matière scientifique. Le chercheur ne croit pas, il pense. La parole scientifique n’est ni noire, ni blanche, elle couvre toutes les nuances du gris. Il faut que les résultats soient solides, et de nouvelles expériences sans cesse contrôlent l’acquis et font évoluer l’état de la science. La théorie de la relativité d’Einstein est en gros une extension de celle de Newton ! Nous aimerions tous avoir des certitudes à 100 %, ce serait si confortable ! Mais ce n’est pas possible. Je comprends que cette approche scientifique ne soit pas très grand public. »

Jean-Marie Lehn, Prix Nobel de Chimie, L’Opinion, 24 août 2016

Ce qui est vrai pour le grand public l’est également pour les autorités en charge de prendre des décisions. C’est ainsi qu’en 1983, l’Assemblée nationale et le Sénat ont mis en place l’Office parlementaire d’évaluation des choix scientifiques (OPECST) [4] chargé d’éclairer l’action du Parlement en procédant à des recueils d’informations, en organisant des auditions, en mettant en œuvre des programmes d’étude et en procédant à des évaluations. De même, chacune des Académies scientifiques (Académie des technologies, Académie des sciences, Académie nationale de médecine, Académie d’agriculture de France, Académie vétérinaire de France, Académie nationale de pharmacie) ont, dans leurs statuts, une mission spécifique visant à répondre aux saisines du gouvernement sur les questions relevant de leurs compétences.

C’est également la raison d’être de la mise en place progressive, dans les années 1990, d’une douzaine d’agences de sécurité sanitaires et environnementales chargées d’apporter leur expertise aux pouvoirs publics en charge de la gestion du risque sanitaire. Si le principe de telles agences (séparation de l’expertise technique de la gestion des risques, exigence d’indépendance et de transparence de l’expertise scientifique) est bien préférable à tout autre mode d’organisation, il ne faut pas sous-estimer ses limites et imperfections. Les affaires du Mediator ou de la Dépakine, ou celle relative à un essai thérapeutique à Rennes qui a mal tourné, illustrent certaines de ces insuffisances (voir les articles « Essai thérapeutique chez Biotrial à Rennes : les leçons d’une affaire étouffée » et « Dépakine et Mediator : repensons la pharmacovigilance » de Catherine Hill). Le poids de l’opinion publique tend également, malheureusement, à peser sur l’expression des expertises publiques. Quelques récentes controverses illustrent le décalage qui se développe parfois entre l’expertise proprement dite et la communication associée (voir, pour un exemple très récent, l’encadré sur l’expertise de l’ANSES).

L’objectif de ce dossier n’est pas d’apporter des réponses complètes à toutes ces questions, ni même de prétendre les aborder toutes. Il vise plus modestement à alimenter la réflexion de ceux qui entendent garder un regard critique sur un enjeu majeur de nos sociétés modernes : l’élaboration de l’expertise et son utilisation dans les processus de décision.

Références

[1] « Niveau de preuve et gradation des recommandations de bonne pratique », Haute autorité de santé, 2013. Sur le site www.has-sante.fr
[2] Centre Cochrane Français, « Définir le meilleur type d’étude », sur le site tutoriel.fr.cochrane.org
[3] Gérald Bronner, La démocratie des crédules, PUF, mars 2013.
[4] www.senat.fr/opecst/presentation.html

Exposition des enfants aux radiofréquences :

les biais de l’ANSES dans la restitution de son expertise

L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) a rendu public (8 juillet 2016) un rapport d’expertise collective intitulé « Exposition aux radiofréquences et santé des enfants »1.

Les conclusions sont finalement à la fois rassurantes et assez conformes à ce qui était déjà connu. L’expertise de l’ANSES confirme que les données disponibles ne permettent pas de conclure à un effet des radiofréquences chez l’enfant concernant le comportement, les fonctions auditives, les effets tératogènes et le développement, le système reproducteur mâle et femelle, les effets cancérigènes, le système immunitaire ou la toxicité systémique. Malgré toutes les campagnes associatives et les articles de journaux, l’agence écarte les effets cancérigènes ou les malformations.

Ensuite, si des effets sur le bien-être sont constatés, il est souligné que ceux-ci «  pourraient cependant être liés à l’usage du téléphone mobile plutôt qu’aux radiofréquences qu’ils émettent ». De façon générale, ce « biais de confusion » est omniprésent (attribuer aux ondes des effets qui sont en fait liés au mauvais usage par les enfants des outils mobiles, « un usage problématique du téléphone mobile »). Dans ce contexte, les experts notent malgré tout « un effet possible » des radiofréquences sur les fonctions cognitives en nuançant cependant par le fait que « dans les études humaines cliniques et épidémiologiques » et « sur des modèles animaux », « les éléments de preuve sont limités »2. Et, ce n’est pas un mince détail, en notant la « divergence des résultats des études épidémiologiques et expérimentales […] concluant soit à une absence d’effet soit à une amélioration des performances ». Bref, l’effet sur les fonctions cognitives pourrait être… positif.

Comment comprendre, alors, le communiqué de presse de l’ANSES, bien plus alarmiste3, mettant en avant le lien entre l’exposition aux radiofréquences et le souhaitable « usage modéré et encadré des technologies sans-fil », attirant l’attention, dans les sous-titres, sur « des effets possibles », « des enfants exposés de plus en plus tôt », mais pas sur l’information rassurante relative aux effets cancérigènes ou tératogènes ?

Dès lors, la couverture médiatique n’a rien de surprenant : « Alerte sur les dangers des radiofréquences pour les enfants » (Le Monde), « Portable, tablette : les ondes dangereuses pour le cerveau des enfants » (L’Express), « Les ondes ne sont pas sans effet sur la santé des enfants » (FranceTVinfo).

J.-P. K.

1 «  éléments de preuve […] limités dans les études cliniques et épidémiologiques », qui « ne permettent pas de conclure à l’existence d’un effet chez l’animal de laboratoire ou que l’on ne dispose pas de données de qualité » (rapport ANSES).

2 « Exposition aux radiofréquences et santé des enfants ». Avis de l’Anses, Rapport d’expertise collective, juin 2016. Sur le site www.anses.fr

3 « Exposition des enfants aux radiofréquences : pour un usage modéré et encadré des technologies sans-fil », Communiqué ANSES du 8 juillet. Sur le site www.anses.fr

Mis en ligne le 27 février 2017
1886 visites

Explorer par thème


Valid HTML 4.01 Transitional CSS Valide !