Point de vue

Nanotechnologies : le maelstrom des fantasmes

par Dominique Grand et Nayla Farouki - SPS n°301, juillet 2012

Les discours publics autour des nanotechnologies illustrent la dérive qui advient lorsque des récits « prophétiques » prennent la place d’une information scientifique sans excès ni surenchères ou, sur un plan plus institutionnel, lorsque ces mêmes discours remplacent un exposé raisonné des politiques de recherche. Ces discours ayant entraîné de nombreux débats, c’est à leur genèse qu’on s’intéresse ici.

Au début...

C’est le nom d’Eric Drexler qui passe à la postérité comme étant lié à l’identification par le public des nanotechnologies ; diplômé du MIT en 1979, il s’est d’abord intéressé à l’exploration spatiale, puis s’est employé au lobbying pour elle. En 1986, il publie Engines of Creations – the coming era of nanotechnology. On y lit une prospective à la limite de la science-fiction et non une œuvre scientifique, chose pour laquelle l’auteur n’avait guère de compétence : après tout, il n’a que brièvement, moins d’un an, fait un travail de recherche dans un laboratoire. D’ailleurs, Richard Smalley, prix Nobel de chimie et Georges Whitesides, autre chimiste renommé, ont critiqué les naïvetés et erreurs scientifiques de l’ouvrage dès sa parution.

À un moment où les nanotechnologies avaient commencé à inspirer les auteurs et les scénaristes de science-fiction, quelques futurologues, tous issus des disciplines informatiques s’inspirent de Drexler pour communiquer sur les nanos. Parmi ceux-ci, le cas de Ray Kurzweil mérite d’être cité en raison de la diffusion de ses idées. Diplômé d’informatique, il est l’auteur de plusieurs innovations dans ce domaine, commercialisées avec profit. Inspiré par l’ouvrage de Drexler, il publie en 1990 The Age of Intelligent Machines, suivi de The Age of Spiritual Machines en 1999, où il est question d’ordinateurs en passe de devenir supérieurs en intelligence à l’homme. Dans The singularity is near en 2005, il prédit la fusion de l’homme avec la technologie à l’horizon 2030-2045, alimentant les rêves des transhumanistes1.

Les rêves de M. Kurzweil sont conditionnés par sa spécialité informatique dont les objets sont virtuels et peuvent faire fi des réalités et des contraintes du monde matériel. Des voix se sont élevées pour lui porter la contradiction. Mais il reste très écouté, en particulier dans les milieux technologiques et académiques proches de la Silicon Valley.

Il n’a pas tardé à faire des émules : Bill Joy, inventeur du langage Java, publie en 2000 dans la revue Wired, un article « Why the future does not need us ». Il prolonge les hypothèses de Kurzweil – les ordinateurs et autres robots prennent le pouvoir sur les humains – et fournit ainsi une référence supplémentaire aux catastrophistes et technophobes qui le présentent comme un scientifique responsable, alarmé des conséquences de ses recherches.

Pourquoi des informaticiens s’emparent-ils de questions technologiques et scientifiques qui ne sont pas de leur compétence, puisqu’elles dépendent d’abord de la physique, de la chimie et de la biologie ? Pourquoi ces mêmes informaticiens n’ont-ils pas au moins la prudence de vérifier leurs hypothèses (nanorobots autoréplicants, par exemple) auprès de collègues spécialistes de ces disciplines ? Pourquoi persistent-ils quand les meilleurs spécialistes du domaine portent un éclairage sur leurs erreurs (oubli entre autres du mouvement brownien qui rend impossible le fonctionnement des nano-robots) ? Notre hypothèse est que se rencontrent ici des egos surdimensionnés, associés à une vague porteuse sur le plan économique, et à la puissance d’un champ disciplinaire, celui de l’informatique, qui leur donne pouvoir et notoriété.

Mais d’autres questions demeurent. Pourquoi la blogosphère, les médias et certains faiseurs d’opinion raffolent-ils des visions de ces prévisionnistes ? Certes, il y a le goût du sensationnel ou l’attente d’avancées scientifiques et technologiques censées influencer fortement nos vies. Tout ce qui précède ne suffit pas ; il faut y rajouter au moins deux autres raisons : l’influence des puissances de la politique et de l’argent d’une part, et, d’autre part, l’influence de la pensée qualifiée de « critique » dans les milieux académiques et par suite dans les livres, articles et médias fréquentés par le public.

Nous allons examiner brièvement ces deux facettes d’un même problème ; sachant que les mêmes causes produisent les mêmes effets, il serait imprudent de limiter cette analyse au cas des nanotechnologies, elle mérite d’être élargie vers la réception par les mêmes de toute science ou technologie dite « émergente ».

Politiques de recherche et lieux de pouvoir

Les nanotechnologies furent l’un des grands programmes identifiés par l’administration Clinton ; ce programme s’est traduit par la mise en place de la National Nanotechnology Initiative (NNI) au début du millénaire. Lorsque G.W. Bush arrive à la Maison Blanche, son administration poursuit et accélère le programme NNI. Il en sort, en 2002, un document de programmation rédigé par Mihail Rocco et William Bainbridge qui satisfait aux visions politiques de l’administration républicaine : Converging technologies for improving human performances : Nanotechnology, Biotechnology, Information technology and Cognitive Science (NBIC).

Le document affiche une finalité aux programmes de recherche qui vont toucher les matériaux, la microélectronique, la biologie, le numérique et l’informatique, la robotique... Pourquoi celle-ci doit-elle concerner l’« amélioration de la performance humaine » ? Sans doute, pour satisfaire l’administration en place, engagée dans une stratégie mondiale agressive et parce que Bainbridge est lui-même proche des courants transhumanistes.

Les intervenants de l’époque ont adopté comme parole de science la futurologie de Drexler et de Kurzweil. Mais ce n’est pas tout : Kurzweil, honoré pour ses inventions dans le domaine de l’informatique par Clinton, est aussi un homme d’affaires influent, initiateur du hedge fund Fatkat (Financial Accelerating Transactions from Kurzweil Adaptive Technologies). C’est aussi l’un des gourous de la Silicon Valley.

Le rapport NBIC est avant tout l’agenda de personnes portées par la dynamique des TIC (Technologies de l’information et de la communication), qui voient l’avenir des technologies matérielles suivant un schéma de développement virtuel propre aux logiciels. Le manque de réalisme du rapport NBIC devait assurer son échec, à la fois auprès des scientifiques et technologues spécialistes de nanotechnologies, et auprès des responsables politiques. Dix ans après sa parution, suite à la montée des préoccupations sur les questions énergétiques, suite également au passage de l’ère belliqueuse de Bush à celle plus pacifiée d’Obama, le rapport NBIC fut officiellement oublié et les finalités du programme NNI alignées sur les Green technologies (énergies renouvelables et économie de ressources) et les nanotechnologies pour la santé.

Mais le rapport NBIC, ainsi que les discours de Drexler, de Joy ou de Kurzweil n’ont jamais été oubliés par les critiques de la science. La majorité des détracteurs des nanotechnologies s’y réfèrent comme s’il s’agissait de l’unique feuille de route de la recherche à l’échelle nanométrique. Les images des nanorobots et autres outils de nano-domination restent bien présents dans les esprits de certains, qu’ils soient eux-mêmes captés par la peur ou – version plus cynique – qu’ils tirent profit de son instrumentalisation. Que s’est-il donc passé ? Pour mieux comprendre, il faut se tourner vers le monde académique, celui où certaines théories philosophiques ou sociologiques (convoquant parfois également les champs éthiques et politiques) sont devenues la pensée dominante.

Où va le monde académique ?

Depuis les années 80, plusieurs disciplines des sciences humaines et sociales, sont traversées par une idéologie holiste, relativiste et constructiviste à la fois. Cette idéologie, qui remonte aux ouvrages de Jean-François Lyotard et Michel Foucault, touche – aux États-Unis et en Europe – un vaste pan de la théorie philosophique, sociologique, sociopolitique et incline ses partisans vers la méfiance à l’égard de la science sous prétexte de l’arrogance ou de la non pertinence de celle-ci.

Les réactions anti-science et anti-technologie se multiplient, faisant flèche de tout bois pour démontrer que la science et la technologie, menées par des enjeux économiques sont désormais parties en roue libre2 vers des productions de plus en plus dangereuses et toxiques. C’est ainsi que les notions distinctes de recherche libre et de recherche appliquée en viennent à être présentées ensemble comme « technoscience »3, entité aux connotations toujours négatives.

Ce discours est légitimé au nom de la société qui serait de plus en plus méfiante à l’égard de la science et de la technologie. Il prend appui sur les quelques crises – dramatiques et dénoncées à juste titre – qu’il qualifie de controverses sociotechniques, comme par exemple l’amiante, l’ESB, le sang contaminé, Tchernobyl, sans tenir compte des responsabilités réelles. Sont toujours pris dans le même collimateur, l’industrie nucléaire civile et les OGM, objets de débat4 depuis déjà fort longtemps.

Nous avons vu plus haut le rôle joué par certains informaticiens américains. Des physiciens, chimistes et biologistes ne sont cependant pas exempts de toute responsabilité, du moins pour ceux d’entre eux qui, fortement médiatisés5, sont lus et entendus. Pendant longtemps, deux courants, que l’on peut qualifier d’idéologiques, ont tenu (et parfois tiennent toujours), le haut du pavé dans les milieux des sciences exactes et de leurs retombées technologiques : le positivisme (pensée d’Auguste Comte, affirmant que la connaissance scientifique, « positive » – dans toutes les disciplines – est seule capable d’amener l’humanité vers un sort meilleur) et le scientisme (« religion » de la science, exprimée au mieux par la transposition de la logique du salut, de la religion vers la science).

Ces deux visions romantiques de la démarche scientifique ont souvent séduit scientifiques et ingénieurs. Les ennemis de la science prennent donc appui sur ces promesses extrêmes pour y voir l’arrogance d’une science toujours en quête de pouvoir. Ces visions ont également inquiété quelques chercheurs ou enseignants de science qui se sont empressés de se rallier aux discours critiques décrits ci-dessus. Ce faisant, ils n’ont souvent pas pris conscience du fait que les discours critiques6 ne limitent pas leurs flèches aux scientifiques taxés de positivisme ou de scientisme, mais qu’ils y incluent la démarche scientifique dans sa totalité.

Conclusion

En un raz-de-marée, qui s’est prolongé sur la dernière décennie, les nanotechnologies ont été piégées dans un discours de la peur, émanant d’idéologues d’une part, de militants « anti » d’autre part et adopté, enfin, par des personnes qui ne se retrouvent ni dans un camp ni dans l’autre, mais qui peinent à distinguer entre science et science-fiction. Les exagérations et les manœuvres politiques des uns, les incompétences et naïvetés des autres, la fascination des médias pour le sensationnel (vrai ou fantasmé), la récupération et l’instrumentalisation des discours de haine qui ont pignon sur rue partout sur la Toile, tout cela crée autour des développements scientifiques et technologiques une atmosphère trouble à l’égard de laquelle il faut se montrer vigilants, du moins de la part de ceux qui souhaitent Raison garder.

1 Courant de pensée dont les adeptes – moitié New Age, moitié technolâtres – imaginent que la science et la technologie (génétique, nano, robotique, etc.) vont permettre à l’être humain, devenu cyborg, d’accéder au minimum à des compétences inédites (perception, force, durée de vie) et, au mieux, à l’immortalité. Ainsi, l’amélioration de l’homme va au-delà du soin, vers la « création » d’un homme nouveau.

2 Voilà par exemple, ce qu’en dit JP Dupuy, philosophe et professeur à Stanford et à l’École Polytechnique : « ...la technologie qui se profile à l’horizon, par "convergence" de toutes les disciplines, vise précisément à la non-maîtrise. L’ingénieur de demain ne sera pas apprenti-sorcier par négligence ou incompétence, mais par finalité... Des disciplines comme la vie artificielle, les algorithmes génétiques, la robotique, l’intelligence artificielle distribuée répondent déjà à ce schéma. Ce qui va cependant porter cette visée de non-maîtrise à son accomplissement est le programme nanotechnologique, ce projet démiurgique fait de toutes les techniques de manipulation de la matière à l’échelle atomique ou moléculaire. » La marque du sacré. Carnets Nord, 2008. p. 83-84.

3 Ainsi, par exemple, de Bernadette Bensaude-Vincent : Les vertiges de la technoscience : façonner le monde atome par atome, La Découverte, Paris 2009.

4 Ainsi en France, le monde politique, sous la pression des professionnels du débat, en est venu à organiser un débat public sur les nanotechnologies (2009-2010), où les échanges portaient prioritairement sur les valeurs, avant que le débat ne soit noyé dans la confusion par des bandes de saboteurs.

5 L’un des plus militants est Richard Dawkins, pour qui le scientifique se doit d’être athée et qui dans The God Dillusion prétend faire la genèse du concept de Dieu dans une totale méconnaissance de l’anthropologie religieuse et de l’histoire des religions.

6 L’une des principales stratégies des partisans du discours critique est d’entraîner les scientifiques sur le terrain des « controverses » qui vont de « scientifiques » à « sociotechniques » et qui permettent ainsi de noyer la recherche scientifique dans des débats sans fin, donnant des chercheurs soit l’image d’une communauté soudée (donc totalitaire et dogmatique), soit d’une communauté divisée (donc incapable d’accéder à la moindre vérité).

Mis en ligne le 4 mars 2013
1121 visites

Explorer par thème


Valid HTML 4.01 Transitional CSS Valide !