Santé et environnement

De « bonnes raisons » pour des craintes infondées ?

par Jean-Paul Krivine - SPS n°319, janvier 2017

L’espérance de vie s’est régulièrement accrue depuis des décennies [1], des maladies auparavant incurables bénéficient maintenant de traitements qui permettent de redonner de l’espoir, la qualité de l’eau et celle de l’air s’améliorent régulièrement [2,3]… Bien entendu, les nouveaux sujets de préoccupation ne manquent pas, mais comment comprendre que, dans ce contexte, nos contemporains soient devenus « des hypocondriaques permanents à peine étonnés que surgisse une nouvelle alerte sanitaire, fatalistes face aux scénarios de fin du monde qui sont devenus les narrations dominantes de notre avenir commun » [4].

Une récente enquête [5] place la France en tête des pays réticents aux vaccins : plus de 40 % des personnes interrogées ne les jugent pas sûrs et 18 % remettent en cause leur efficacité. Ceci malgré un bilan sanitaire sans appel depuis plus d’un siècle et des effets secondaires limités et sans commune mesure avec les ravages des maladies dont les vaccins nous protègent. Les organismes génétiquement modifiés (OGM) pour l’alimentation suscitent également inquiétudes et rejet pour 55 % des Français [6] alors que les OGM autorisés à la consommation ont fait l’objet d’études et d’évaluations approfondies (bien plus importantes que celles faites pour les plantes conventionnelles) ne révélant aucun danger, et que des centaines de millions d’animaux et d’êtres humains en consomment depuis des décennies sans que les études aient montré le moindre impact sanitaire [7]. Les ondes de la téléphonie mobile font peur malgré les messages rassurants délivrés par les agences sanitaires sur la base de milliers d’études. La simple trace de résidus de pesticides, à des niveaux bien en deçà des limites réglementaires et encore plus éloignée des seuils toxicologiques, suscite des peurs conduisant certains à craindre pour leur santé la consommation de fruits et légumes.

Mal informés ? Certes, l’information scientifique a un rôle crucial à jouer. Mais elle ne suffit pas. Et il serait trop simple de réduire les comportements évoqués plus haut à des attitudes irrationnelles ou à de simples manipulations de l’opinion. Des manipulations, il y en a, mais il existe aussi de « bonnes » raisons pour des craintes infondées.

L’information scientifique : indispensable… mais insuffisante

L’opinion a priori que l’on a sur un sujet influe sur la perception des risques associés. Les travaux en économie comportementale ont ainsi montré que, quand les gens sont favorables à une technologie, ils estiment qu’elle offre de formidables avantages sans quasiment aucun risque, mais que quand ils y sont hostiles, ils ne considéreront que les inconvénients [8]. De façon symétrique, les mêmes études ont révélé qu’une information présentant les avantages d’une technologie changeait aussi l’avis porté quant à ses risques : « dans le monde imaginaire où nous vivons, les bonnes technologies n’ont que peu d’inconvénients, les mauvaises technologies n’ont pas d’avantages, et toutes les décisions sont faciles » ([8] p. 172).

Dans certains exemples évoqués, l’utilité perçue peut être faible : la vaccination protège contre des maladies que l’on ne voit jamais autour de soi ou qui ont quasiment disparu de l’espace public, les OGM de première génération ont des propriétés utiles pour l’exploitant agricole, mais ne présentent aucun bénéfice pour le consommateur… De plus, quelque chose de perçu comme imposé sans que ses bénéfices apparaissent évidents est propice au développement de fantasmes sur ses dangers potentiels et objet de manipulations de tous ordres. L’argument de l’utilité collective se heurte à d’autres difficultés. Certes, la nécessité d’une antenne relais pour permettre au téléphone mobile de fonctionner est comprise par tous, mais elle peut toujours être installée « plus loin ». La couverture vaccinale nécessaire peut être assurée par « les autres ».

Le fameux syndrome « pas dans mon jardin »1 n’est pas dépourvu d’une certaine rationalité : pourquoi serait-ce à moi de supporter les « externalités négatives », les effets délétères (réels ou supposés) pour ce qui est d’intérêt général ?

Système 1, Système 2 : les deux vitesses de la pensée

Daniel Kahneman

Flammarion 2013

En 2002, le prix Nobel d’économie était attribué à Daniel Kahneman, couronnant ainsi des travaux menés depuis une trentaine d’années (avec son collègue et ami Amos Tversky, décédé en 1996) et qui sont à l’origine d’une nouvelle discipline : l’économie comportementale. L’ouvrage relate pour le grand public le travail expérimental mené par les deux psychologues et qui allait remettre en cause l’un des postulats fondamentaux des théories économiques néoclassiques : l’être humain considéré comme un agent rationnel. S’appuyant sur de nombreuses illustrations et suivant pas à pas le processus d’expérimentation et de découverte, l’ouvrage décrit deux systèmes qui, ensemble, régissent notre manière de réagir et de prendre des décisions. Le « système 1 » est rapide, intuitif, réactif, mais sujet à des décisions guidées par l’émotion  : « Le doute conscient ne fait pas partie de son répertoire ». Il permet d’agir vite, souvent efficacement, mais pas toujours. Le « système 2 » est plus lent, plus logique, mais aussi, plus paresseux et rechigne souvent à contrôler ou corriger ce que fait le « système 1 » : « Beaucoup de gens sont trop sûrs d’eux, prompts à avoir une trop grande foi dans leurs intuitions. Manifestement, ils considèrent l’effort cognitif comme étant au mieux légèrement désagréable, et l’évitent autant que possible ». Partis pris cognitifs, biais de raisonnement sont mis en évidence par le fonctionnement de ces deux systèmes. L’ouvrage, passionnant et vivant, nous guide dans des travaux qui vont durablement marquer à la fois l’économie et la psychologie, et qui trouvent de nombreuses applications dans le domaine de l’entreprise, de la société et des rapports humains.

J.-P. K.

De façon évidente, l’accès à une information scientifique sérieuse, documentée et compréhensible par tous peut aider à démêler le vrai du faux et aller au-delà des peurs et des émotions ressenties face à l’avalanche d’informations et d’affirmations délivrées par les journaux, les télévisions ou Internet. Mais ce n’est pas suffisant. Pour s’en convaincre, il suffit de mentionner, par exemple, la couverture vaccinale insuffisante des personnels de soins [9], catégorie ayant a priori un accès plus facile et plus direct à une information précise et de qualité. Par ailleurs, se pose une question plus générale : que faut-il croire dans un monde où il est impossible de tout vérifier par soi-même, et quelles sources sont les plus légitimes ?2

Controverse scientifique ou débat de société ?

En réalité, les questions scientifiques sont invoquées de façon indue et brouillent le débat de société sous-jacent (organisation et finalité du système de soins, modèle économique souhaité, type d’agriculture à privilégier, etc.). Ceci au profit d’une prétendue controverse dont les tenants et aboutissants échappent largement, si ce n’est complètement, au commun des mortels3. Ainsi, Nicolas Chevassus-au-Louis, dans La Malscience : de la fraude dans les labos [10], après avoir décrit les opérations de manipulation des données scientifiques qui se multiplient dans les laboratoires et avoir rappelé les méthodes parfois employées par les industriels (avec l’exemple bien connu de l’industrie du tabac), dénonce l’adoption par certaines associations des procédés condamnés chez l’adversaire : « Un CRIIGEN4 [nous] semble mener en matière de recherche sur les OGM le même rôle que le défunt Council for Tobacco Research financé par les cigarettiers américains : celui de procureur instruisant à charge une question scientifique sans le moindre souci d’impartialité. S’il est une conclusion à tirer de l’affaire Séralini, c’est assurément que, pour la première fois, un groupe associatif a recouru aux méthodes de l’industrie, convaincue depuis des décennies que rien ne vaut une publication scientifique pour défendre sa cause, et que peu importe la qualité du travail de recherche mené ».

« Combien sont-elles exactement, s’interroge Gérald Bronner [11], les victimes de ces vertueux “inquiéteurs”, tous les individus dont la vie aurait pu être sauvée si les coûts impliqués par la chasse aux risques illusoires avaient été convertis en politique de prévention ou de recherche ? »

Pour atteindre leur but et emporter l’adhésion, certains vont intelligemment exploiter l’existence de biais cognitifs constitutifs de la « rationalité subjective » qui caractérise nos modes de pensée et de décision.

Les biais cognitifs

Ces biais cognitifs sont maintenant bien établis et tout un champ disciplinaire a été créé il y a une trentaine d’années : l’économie comportementale [8,12]. Ils nous concernent tous et font qu’il existe pour chacun d’entre nous de « bonnes raisons » pour des croyances infondées [13].

Le poids de nos idées a priori

Le biais de confirmation opère comme un filtre informationnel et une grille de lecture : nous privilégions les informations qui confirment nos croyances et avons tendance à écarter ou discréditer celles qui les contredisent. À cela s’ajoute le fait que rechercher une information contradictoire requiert un effort, et que faire face à une « dissonance cognitive »5 est désagréable. Rejeter, ignorer ou disqualifier l’élément perturbateur (un fait, un argument, une information) est alors cognitivement plus facile. Par exemple, la croyance aux qualités sanitaires bénéfiques de l’alimentation bio est bien ancrée [15]. Les études scientifiques ne mettant en évidence aucun avantage pour la santé [16] auront toutes les raisons d’être écartées plutôt qu’analysées au risque de perturber une croyance bien ancrée jusque dans la vie quotidienne.

Le biais de croyance opère de façon similaire.La logique d’un argument est biaisée par la croyance en la vérité ou la fausseté de la conclusion : « quand les gens pensent qu’une conclusion est vraie, ils sont aussi tout à fait enclins à croire des arguments qui semblent l’étayer, même quand ces arguments sont erronés » ([8] p. 59).

Une mauvaise perception du hasard

Le cerveau humain doit souvent procéder à des analyses avant de prendre une décision. Mais ses ressources sont limitées, les informations dont il dispose sont parcellaires et, souvent, le temps disponible est très contraint. Il doit procéder à des raccourcis engendrant de nombreux biais. Ainsi, le hasard est-il perçu plus régulier dans l’espace et dans le temps qu’il ne l’est en réalité. Un petit échantillon sorti d’une série bien plus importante peut alors présenter une irrégularité surprenante qui n’a, en réalité, rien d’anormal quand elle est replongée dans l’ensemble des données.

De cette façon, plusieurs cas de cancers pédiatriques observés dans un village de Gironde ont inquiété les habitants. L’épandage de pesticides est suspecté. L’Agence régionale de santé (ARS Aquitaine), saisie par le maire d’un des villages, Preignac, a procédé à une analyse détaillée élargissant son enquête à neuf autres communes avoisinantes [17]. Elle relève à Preignac des fréquences de tumeurs parfois cinq ou six fois plus importantes que ce qui serait attendu. Cela peut sembler énorme, et l’on comprend que ces seuls ratios ne rassurent pas les parents et habitants. Cependant, dans sa conclusion, l’agence précise que « Si l’on ne peut écarter l’absence d’excès de cas de cancer sur Preignac ou sa zone, celui-ci reste faible et ne concerne pas un type de cancer spécifique. Les méthodes épidémiologiques ne permettent pas de savoir si cet excès est lié à une fluctuation aléatoire des maladies (pouvant être compensée par un déficit dans les années à venir) ou si cet excès est véritablement lié à un facteur de risque environnemental commun. En outre, on constate que dès que l’on agrandit la zone d’étude aux autres communes limitrophes, l’excès de risque est moindre ». On est en effet sur un nombre très faible de cas attendus, et un facteur 5 ou 6, sur un très petit sous-groupe, peut résulter de la simple fluctuation statistique. Une situation similaire a été rapportée en Belgique, dans la commune de Fernelmont où l’Agence wallonne pour une vie de qualité (AVIQ) a enquêté suite à une demande d’habitants relative à des cas de cancers [18].

Malheureusement, « notre esprit est profondément biaisé en faveur d’explications causales et gère mal les “simples statistiques” » ([8] p. 222).

Trompé par les chiffres

Le nombre de cancers du sein diagnostiqués chaque année en France est passé de 21 000 en 1980 à 49 000 en 2012 (source : Institut national du cancer). Aux États-Unis, l’autisme touchait une personne sur 500 en 1995. En 2010, c’est une personne sur 68 qui est diagnostiquée (source : Center for Disease Control and Prevention). Le nombre de cancers de la thyroïde diagnostiqués en France a augmenté de 6 % par an entre 1980 et 2005 (source : Institut de veille sanitaire [19]). Faut-il alors parler d’« épidémies » et invoquer, pour les cancers du sein, la responsabilité des « produits chimiques de notre environnement » au travers d’une « alerte » médiatisée par L’Obs en partenariat avec France Info [20], pour l’autisme, celle des pesticides comme l’a fait avec retentissement l’émission Cash Investigation de février 2016 [21], ou, pour les cancers de la thyroïde, les conséquences du « nuage de Tchernobyl » ?

Les chiffres paraissent éloquents et la conclusion semble ne pas souffrir la moindre contestation. Pourtant, une analyse plus poussée donne des explications très simples. Pour les cancers du sein, l’accroissement et le vieillissement de la population rendent compte d’une très grande partie de l’augmentation. Ramenée à un « taux pour 100 000 à âge égal », on constate même une diminution de l’incidence de la maladie en France depuis 2004 [20]. Pour l’autisme, la tendance observée aux États-Unis se retrouve dans la plupart des pays, mais l’explication tient à deux éléments principaux : l’amélioration du suivi et du diagnostic et le changement de définition de la maladie, incluant maintenant des troubles classés auparavant comme « déficience intellectuelle » [22]. Enfin, en ce qui concerne les cancers de la thyroïde, l’Institut de veille sanitaire [19] invoque « le rôle prépondérant de l’évolution des pratiques médicales » (un meilleur diagnostic) ajoutant que ses analyses permettent d’« exclure un impact important des retombées de Tchernobyl en France » (l’augmentation de l’incidence de ce cancer a d’ailleurs commencé en 1982 alors que l’accident de Tchernobyl s’est produit quatre ans après). Les chiffres bruts sont malheureusement trop souvent exploités de façon alarmiste au travers de fausses alertes sanitaires.

Encore une fois, notre cerveau est disposé pour se faire tromper : « des informations statistiques “sans relief” sont généralement ignorées quand elles sont incompatibles avec les impressions que l’on a d’un cas » ([8] p. 301).

La mauvaise attribution d’une cause à un effet

Pour agir ou s’adapter efficacement, l’être humain souhaite trouver les raisons d’un effet observé. Cette recherche de causes est à l’origine de nombreux biais de raisonnement [23] et le risque est grand de confondre une coïncidence temporelle avec une causalité. Les statisticiens savent bien que corrélation n’est pas causalité, il n’empêche que notre cerveau a naturellement tendance à effectuer ce raccourci. Ainsi, certaines vaccinations ont été accusées de provoquer des maladies auto-immunes (dont la sclérose en plaques). Si les vaccins sont régulièrement innocentés, il n’en demeure pas moins que le soupçon reste, appuyé par les témoignages poignants de personnes atteintes de sclérose en plaque juste après une vaccination. Comme le rappelle l’Agence nationale de sécurité du médicament et des produits de santé [24], « la sclérose en plaques n’est pas une maladie rare […]. L’incidence (c’est-à-dire le nombre de nouveaux cas par an) est de 4,1 à 8,2 cas pour 100 000 habitants. Ces données sont à mettre en perspective avec les 11 cas de sclérose en plaques survenus entre le 1er janvier 2007 et le 31 décembre 2010 qui ont été déclarés au système français de pharmacovigilance dans les suites d’une vaccination contre le virus de l’hépatite B ».

Par ailleurs, l’esprit humain a du mal à appréhender des causes multiples. Vérifier la validité d’un argument complexe nécessite de l’attention et de l’effort que notre cerveau rechigne à effectuer : « face à une question ardue, nous penchons souvent pour une réponse à une question facile, généralement sans prendre conscience de la substitution » ([8] p. 21). Et nous préférons un responsable unique. Pourtant, dans de nombreux domaines, et particulièrement en santé et environnement, c’est un ensemble de circonstances qui explique un phénomène. Il est alors tentant, quand on veut mobiliser une opinion publique, de désigner un coupable dont le rôle ne pourra être nié, mais dont l’importance réelle pourra parfois être très relative.

Ainsi, les causes de mortalité des abeilles sont complexes et relèvent d’une interaction non encore complètement élucidée entre de nombreux facteurs de stress (parasites, produits phytosanitaires, pesticides pour le traitement des ruches, pratiques agricoles, pratiques apicoles, climat, etc.). L’ANSES, l’agence de sécurité sanitaire, préconisedans un récent rapport [25] « une approche intégrée combinant en priorité les leviers agro-écologiques et zootechniques utilisables et, si nécessaire, des traitements chimiques à bon escient ». Pourtant, une explication unique mettant en cause une classe d’insecticides précise (les néonicotinoïdes) s’est progressivement imposée dans l’espace médiatique.

Le poids de nos émotions, de nos sentiments et de nos valeurs

L’être humain n’est pas l’« agent rationnel » un temps imaginé par les économistes, agent qui serait égoïste (au sens où il privilégierait son seul intérêt propre), avec des goûts et des préférences qui ne varieraient pas, et qui élaborerait ses actions à l’aune d’une mesure d’utilité objective. En réalité, il ne prend pas toujours les décisions que l’on qualifierait de « rationnelles », ne pèse pas le pour et le contre de façon raisonnée et complète. Aux biais cognitifs évoqués plus haut s’ajoutent d’autres distorsions faisant de nous des êtres « non rationnels, mais pourtant prévisibles »6.

Les risques plus que les bénéfices

Notre cerveau « comporte un mécanisme conçu pour accorder la priorité aux mauvaises nouvelles, […] les menaces sont prioritaires par rapport aux opportunités ». Ainsi, des « termes chargés émotionnellement attirent très vite l’attention »([8] p. 361), plus vite que des termes rassurants ou positifs. C’est ainsi que des manchettes telles que « les OGM sont des poisons », « les vaccins provoquent de graves invalidités », « les fruits sont bourrés de pesticides » ou « le scandale des statines » sont assurées du meilleur impact.

Cette prédisposition entre en résonance avec la propension de notre cerveau à surestimer la probabilité d’événements rares. Ainsi, « l’effet de possibilité », la simple idée que quelque chose d’effrayant puisse se réaliser nous pousse à consacrer des ressources disproportionnées au regard de la probabilité réelle que le phénomène se produise et des conséquences attendues. En réalité, les probabilités sont ignorées et seul compte le fait que « ce soit possible ». Cette crainte est renforcée par l’information souvent délivrée par les médias, qui donne corps, dans notre imaginaire, à des scénarios pour ces événements rares ou irréalistes. Dès lors, il ne suffit pas de réduire ou de limiter le risque, l’inquiétude ne sera éliminée que par le risque zéro, sans considération ni pour sa faisabilité, ni pour son coût, ni même par les nouveaux risques que les décisions mises en œuvre peuvent engendrer.

Par ailleurs, en situation d’incertitude, on préfère souvent ne rien faire. Pour la plupart des gens, les conséquences d’une inaction sont mieux acceptées que celles, même identiques, d’une action volontaire. Ainsi pourrait s’expliquer une partie des réticences vis-à-vis de la vaccination qui « pourrait être davantage motivée par une crainte égoïste de regrets que par un souhait d’optimiser la sécurité de l’enfant » ([8] p. 241).

Le bon et le mauvais

Nous l’avons vu, l’opinion a priori qu’un individu a sur un sujet influe sur sa perception des risques associés. Or, la première chose que fait notre cerveau confronté à une nouveauté n’est pas d’évaluer le risque (ce qui est complexe), mais de décider d’abord si c’est bon ou mauvais [8].

Dans ce registre, le naturel est bon (et donc sans risque) et le synthétique ou l’artificiel est mauvais (donc a priori risqué)… Les traitements naturels sont vus comme agissant en douceur, à l’opposé des produits de synthèse perçus comme agressifs, oubliant que c’est la maladie qui est dure. L’engouement pour les médecines naturelles ne s’explique-t-il pas, en partie, par cette vision idyllique d’une nature bonne ?

Le rôle amplificateur d’Internet

Internet est une source d’information sans précédent, démocratisant l’accès à la connaissance ; mais c’est également un amplificateur redoutable de toutes les fausses informations, un outil incomparable pour diffuser toutes sortes de rumeurs et favoriser les manipulations (voir à ce propos La Démocratie des crédules de Gérald Bronner [11]). Le biais de confirmation évoqué plus haut va trouver résonance sur la toile. Ceux qui proclament la dangerosité des vaccins, ceux qui affirment que la moindre trace de résidu de pesticide nuit à la qualité sanitaire des fruits et légumes que l’on consomme, ceux qui affirment que le cholestérol ne joue aucun rôle dans les maladies cardiovasculaires et, donc, que l’usage des statines est inutile ou encore ceux qui affirme que les ondes qui nous entourent sont dangereuses sont beaucoup plus actifs sur Internet que les scientifiques qui n’ont, a priori, pas de raison d’avoir une âme militante. Il suffit, pour s’en convaincre, de taper sur son moteur de recherche l’un des mots-clés associés aux sujets mentionnés pour voir que les premières pages affichées sont, dans une écrasante majorité, celles de sites militants. C’est ainsi que, dans la consultation avec son médecin, le patient vient souvent, non seulement avec une idée assez précise des maux dont il souffre, mais aussi porteur d’une bonne partie des craintes véhiculées par Internet. Le patient plus informé est une bonne chose, elle va dans le sens d’un meilleur dialogue avec son médecin. Mais quand l’information recueillie est fausse ou mensongère, c’est l’effet inverse qui se produit.

Quelles solutions ?

L’esprit humain ne peut bien entendu pas être réduit à ses biais cognitifs. L’essentiel de nos jugements et de nos actes est la plupart du temps approprié. Il importe alors de bien identifier les situations propices aux erreurs de jugement. L’information scientifique est une nécessité : mieux connaître un sujet contribue à alimenter notre esprit par des éléments de nature à susciter le doute et la réflexion. Développer un esprit critique, connaître la « cartographie de nos erreurs systématiques » et suivre une méthode de réflexion sont autant d’autres composantes utiles. Comprendre comment la connaissance scientifique se construit peut aider à faire le tri dans la moisson d’informations recueillie sur Internet.

Il n’en reste pas moins que le discours scientifique, où le doute doit rester une composante originelle, sera toujours moins percutant que les certitudes anxiogènes énoncées avec aplomb et de façon définitive. Ne peut-on pas espérer un rôle plus actif des pouvoirs publics dans la promotion de l’information scientifique, au risque, certes, de ne pas caresser dans le sens du poil une opinion parfois mal informée et inquiète de toutes les catastrophes qui nous sont régulièrement promises ?

Repris d’un texte publié par le Journal international de médecine (JIM.fr, 3/12/2016).
Références

[1] « Evolution de l’espérance de vie à la naissance et à 60 ans ». Institut national d’études démographiques. Sur le site www.ined.fr.
[2] « Évolution de la qualité physico-chimique des cours d’eau ». Observation et statistiques. Ministère de l’environnement. Mis à jour le 22/11/2016. Sur le site www.statistiques.developpement-dura....
[3] « L’évolution de la qualité de l’air dans les agglomérations françaises, en situation de fond urbain ». Observation et statistiques. Ministère de l’environnement. Mis à jour le 26/10/2016. Sur le site www.statistiques.developpement-dura....
[4] Gérald Bronner, La planète des hommes, réenchanter le risque, PUF, 2014.
[5] “State of Vaccine Confidence 2016 : Global insights through a 67-country survey”. www.vaccineconfidence.org/.
[6] Eurobaromètre sur les biotechnologies, 2010. ec.europa.eu/public_opinion/archive....
[7] « Genetically Engineered Crops : Experiences and Prospects », rapport de l’Académie des sciences américaine, 2016. Sur le site www.nap.edu.
[8] Daniel Kahneman, Système 1, système 2, Flammarion, 2013.
[9] Daniel Floret, « Vaccination des professionnels, patients, résidents », Comité technique des vaccinations, Lyon. Bulletin CClin-Arlin n° 3, juin 2016. Sur le site www.cclin-arlin.fr.
[10] Nicolas Chevassus-au-Louis, La Malscience : de la fraude dans les labos, Éditions du Seuil, 2016.
[11] Gérald Bronner, La Démocraties des crédules, PUF, 2013.
[12] Tversky, A. & Kahneman, D., « Judgment under uncertainty : heuristics and biases », Science, 1974, 185:1124–1131.
[13] Raymond Boudon, L’art de se persuader des idées douteuses, fragiles ou fausses, Fayard, 1990.
[14] Léon Festinger, A Theory of Cognitive Dissonance, Stanford University Press, 1957.
[15] « Les français et le bio », sondage BVA, 3 mars 2014. Sur le site www.bva.fr.
[16] Léon Guéguen, Les fruits et légumes bio ne sont pas meilleurs pour la santé, Science et pseudo-sciences n° 314, octobre 2015. Dans le dossier : « Quelques idées reçues sur le bio ».
[17] InVS, « Investigation d’une suspicion d’agrégat de cancers pédiatriques dans une commune viticole de Gironde », juin 2013. Sur le site opac.invs.sante.fr.
[18] « Pas plus de cancers à Fernelmont qu’ailleurs en Wallonie », RTBF, 23 juin 2016. Sur le site www.rtbf.be.
[19] InVS, « Évolution de l’incidence du cancer de la thyroïde en France métropolitaine, Bilan sur 25 ans », 2011. Sur le site invs.santepubliquefrance.fr.
[20] Catherine Hill, article 2708, dans ce numéro de Science et pseudo-sciences.
[21] Comment les téléspectateurs ont été abusés par Cash Investigation, 2 mars 2016.
[22] Franck Ramus, Y a-t-il une épidémie d’autisme ?, Science et pseudo-sciences n° 317, juillet 2016.
[23] Jacques Van Rillaer, Psychologie des attributions causales, Science et pseudo-sciences n°305, juillet 2013.
[24] « Bilan de pharmacovigilance et profil de sécurité d’emploi des vaccins contre l’hépatite B », AFFSAPS, février 2012. Sur le site ansm.sante.fr.
[25] « Co-exposition des abeilles aux facteurs de stress », Avis de l’Anses, rapport d’expertise collective, juillet 2015.

1 Syndrome « nimby » de l’anglais : « Not In My BackYard ».

2 Voir à ce sujet le dossier Le difficile chemin vers la connaissance, Science et pseudo-sciences n° 318, octobre 2016.

3 Sur bon nombre des sujets évoqués plus haut, le consensus scientifique est fort et l’on peut raisonnablement estimer que les sujets de désaccord scientifiques sont suivis avec plus de pertinence par les autorités sanitaires, a priori plus compétentes pour en considérer les impacts que le citoyen normal qui aura plutôt son avis à donner sur les conséquences sociétales. Ce qui n’enlève rien, bien au contraire, à la nécessaire information scientifique accessible à tous. Cette remarque ne signifie pas que l’organisation de l’expertise publique ne soit pas perfectible (voir les récentes affaires Biotrial, Mediator ou Dépakine).

4 CRIIGEN : association militant contre les OGM.

5 La dissonance cognitive apparaît quand un comportement ou une situation est en conflit avec des connaissances ou des convictions. Théorie proposée par Léon Festinger en 1957 [14].

6 Pour reprendre le titre du livre de Dan Ariely, Predictably irrational, HarperCollins, 2008.

Mis en ligne le 2 mai 2017
3814 visites

Explorer par thème


Valid HTML 4.01 Transitional CSS Valide !