Peut-on encore parler de démocratie pour des sociétés devenues dépendantes de technologies obscures à la plupart des citoyens ? Alors que l’ignorance du savoir constitué ne diminue pas, ce nouveau défi lancé à la volonté démocratique interroge les partisans d’une transformation sociale renouvelant les espoirs d’émancipation du vingtième siècle.
L’Académie des sciences a mis en ligne, en accès libre, la première véritable édition numérique de l’Encyclopédie de Diderot et d’Alembert. Ce titanesque ouvrage – vingt-huit volumes parus entre 1751 et 1772, 74 000 articles écrits par près de cent cinquante auteurs parmi lesquels Voltaire, Rousseau, Daubenton… la fine fleur du siècle des Lumières – devient disponible à toute personne bénéficiant d’une connexion Internet. Il propose une numérisation complète du texte [1]. Il est donc possible d’y faire des recherches. Avec le mot « esclavage », on obtient dans l’article « égalité naturelle » : « Puisque la nature humaine se trouve la même dans tous les hommes, il est clair que selon le droit naturel, chacun doit estimer & traiter les autres comme autant d’êtres qui lui sont naturellement égaux, c’est-à-dire qui sont hommes aussi bien que lui. » On comprend l’âpreté de la bataille pour sa publication.
Avec l’Encyclopédie, ses auteurs souhaitaient mettre à disposition de la société les connaissances disponibles, en particulier celles relatives aux moyens de production agricoles et artisanaux. Les relations qu’ils tissaient entre ce projet et leurs conceptions politiques étaient bien sûr limitées aux possibilités de l’époque. Les bouleversements de 1789, et surtout de 1793, n’étaient pas encore passés par là.
Mais quelle serait la transposition contemporaine de cette démarche ? Une formule pourrait la symboliser : l’alliance de l’instituteur et du bureau de vote, inspirée de la fameuse formule de Lénine : « les soviets et l’électrification ». L’émancipation humaine vue comme l’ambition de faire de chaque personne un citoyen capable de décider dans quelle société il veut vivre, en alliant la forme politique démocratique avec un partage généralisé des connaissances acquises. Mais ce rêve peut-il être encore poursuivi alors que le corpus du savoir croissant à grande vitesse défie sa diffusion et que les technologies utilisées pour produire nos moyens de vie sont de plus en plus obscures à leurs utilisateurs ?
A l’époque de l’Encyclopédie, il suffisait de savoir lire et d’un peu de mathématiques pour accéder à l’essentiel du savoir utilisé en pratique dans les techniques artisanales ou dans les premières manufactures. Les maths de Newton sont déjà hors de portée de la majorité des instruits, mais n’ont pas d’usage dans la vie courante. Les techniques utilisées pour produire, se transporter, communiquer, se chauffer ou construire… étaient « transparentes ». Les planches de l’Encyclopédie en témoignent qui décortiquent moulins et matériels agricoles, artisanaux et des manufactures, en pièces élémentaires dont le rôle est évident. La source de l’énergie utilisée (force musculaire, vent, eau, feu) n’est pas nécessairement comprise dans son principe physique ou chimique, comme le feu, mais le résultat de son action ne recèle aucun mystère. La transmission des forces, via des engrenages simples, également. Tout le monde ou presque pouvait les comprendre alors que l’électronique de nos téléphones portables ou de nos voitures reste une « boite noire » pour la plupart d’entre nous. Donc le prérequis souvent oublié de la démocratie – opérer un choix en connaissance de cause – pouvait s’appliquer aux techniques.
Aujourd’hui, cette partie « du rêve de Diderot » – rendre tout citoyen connaisseur des techniques – demeure-t-elle réalisable ? Et sinon – c’est la thèse ici défendue – comment concilier cette impossibilité avec la volonté démocratique ?
Voici, tirées de mon expérience professionnelle, consacrée depuis 1986 à l’information sur le mouvement des connaissances et des technologies, comme de ma participation à des débats citoyens, quelques remarques sur cette question, décisive pour la démocratie actuelle et future, des relations à tisser entre les connaissances scientifiques et les décisions politiques.
Question décisive, car l’usage massif des technologies a transformé les sociétés humaines et notre environnement naturel à un point tel que la plupart des grandes décisions que nous avons à prendre pour notre économie, nos moyens de vie, nos relations entre peuples, ont désormais partie liée avec le savoir disponible. Partie liée parce que nos conditions de vie sont, pour l’essentiel, déterminées par l’usage que nous faisons, ou non, de ces technologies. Mais aussi parce que ces dernières sont si puissantes qu’elles modèlent l’avenir planétaire, ayant doté l’Humanité de moyens égaux aux grandes forces géologiques qui ont transformé la Terre.
Le savoir disponible à mobiliser pour prendre des décisions « en connaissance de cause » relève de trois catégories. Celui créé par le labeur continu de l’armée des travailleurs de la preuve, sur le fonctionnement des systèmes naturels et artificiels. Celui sur les transformations du monde naturel par l’impact de nos technologies. Mais également celui issu des sciences humaines et sociales sur l’impact sociétal de ces technologies.
Les savoirs sur lesquels sont fondées ces technologies elles-mêmes – non au sens du discours sur la technique mais au sens des machines et objets que nous utilisons, des ordinateurs aux réseaux électriques, des innombrables produits de l’industrie chimique aux réseaux de communications – posent une question radicale à la démocratie. Jusqu’à la révolution industrielle, la plupart des êtres humains pouvaient partager le savoir dont dépendaient leurs outils de production ou leurs objets de consommation. Il n’y avait en réalité que peu d’écart entre les savoirs empiriques et les connaissances savantes du paysan et de l’agronome, du maître maçon et de l’architecte, du marin et du concepteur de navires. Au fond, ce qui était le mieux partagé, c’était l’ignorance massive du fonctionnement du monde naturel. C’est l’époque où l’on ignore l’existence des microbes, la raison pour laquelle le Soleil brille, pourquoi le ciel est bleu, l’évolution des espèces et où le béton n’est pas très différent de celui des Romains de l’Antiquité. Une ignorance dont la science était justement en train de percer les murs.
Deux siècles plus tard, la rupture anthropologique est consommée. Le corpus des savoirs est immense, et si deux milliards d’êtres humains dépendent toujours d’une agriculture où leurs muscles et leurs mains sont les outils principaux, une bonne part de l’Humanité dépend pour sa vie quotidienne, sa nourriture, son logement, ses habits, son activité économique ou ses communications avec autrui… de technologies dont les fondements intellectuels lui échappent autant que les limites, les potentialités ou les risques. Et cette rupture est, à échéance prévisible, irréversible. Le projet civilisationnel de l’Encyclopédie – qui trouve un écho dans la formule de Brecht « élargir le cercle des connaisseurs » – doit certes être poursuivi avec acharnement et sans restrictions de moyens pour l’éducation ou la politique culturelle. Mais il se heurte aujourd’hui à un obstacle majeur : à la différence de l’essentiel du savoir de 1750, celui qui est à la base des technologies les plus courantes ne semble plus partageable à l’échelle de la société quelque seront les efforts que nous mobiliserons pour y parvenir.
Ce constat peut sembler dur, désespérant, voire exagéré alors que l’âge de la scolarisation obligatoire et surtout le temps réel passé en formation initiale ne cessent de croître, que le nombre d’étudiants, dans notre pays, est passé d’à peine huit cent mille lors de mon passage à la Sorbonne à plus de deux millions et demi. Mais est-il vraiment nécessaire de faire appel aux enquêtes sociologiques qui montrent que les concepts les plus fondamentaux des sciences physiques et biologiques, comme ceux des géosciences, même ceux découverts il y a cent cinquante ans, demeurent incompris ou ignorés [2] de la majeure partie des habitants des pays les plus développés, des populations les plus instruites ? Quant aux problèmes et savoirs contemporains, voici un exemple pris dans une enquête réitérée chaque année [3]. Elle révèle que près de la moitié de nos concitoyens se déclare convaincue de la gravité du problème climatique provoqué par l’effet de serre boosté par nos émissions… tout en se révélant incapable d’en nommer les facteurs principaux. Plus de la moitié des sondés estime ainsi que les centrales nucléaires contribuent « beaucoup ou assez » à cet effet de serre, ce qui ne peut s’expliquer que par une incompréhension brutale du phénomène physique en cause.
Cette ignorance débouche nécessairement sur une difficulté majeure pour participer à la discussion démocratique et à toute décision sur ce sujet crucial, lesquelles supposent de comprendre comment nous produisons et émettons des gaz à effet de serre et quelles sont les technologies qui pourraient nous permettre d’en émettre moins.
Cette ignorance du savoir constitué est générale. En Californie, certaines maladies infantiles sont devenues un marqueur de richesse et d’éducation supérieure, liée au refus des vaccins chez les stars du cinéma et de la Silicon Valley. Et je vous fait grâce des mille anecdotes de ma vie de journaliste sur l’étendue de l’inculture scientifique des élites politiques, journalistiques et intellectuelles, encore que l’histoire de ce ministre en charge de la recherche qui demandait benoîtement à un responsable du CNES si les satellites passent au-dessus ou au-dessous des nuages fait frémir. Retenons tout de même cet épisode de la campagne présidentielle de 2007, lorsqu’une ancienne ministre de l’écologie et du développement durable (Mme Royal) et un ancien ministre de l’économie (Mr Sarkozy) ont rivalisé d’ignorances lorsqu’ils se sont opposés sur l’électro-nucléaire lors du débat télévisé pour le second tour.
Allons au plus radical comme démonstration. Que connaissent de la science les scientifiques eux-mêmes, et je parle des chercheurs pas des ingénieurs de l’industrie ? Ils connaissent, à fond la plupart du temps, leur coin de science. Et ont bien du mal avec le reste, immense. En voici deux témoignages issus du tout début de mon expérience professionnelle, vers le milieu des années 1980.
A l’époque, le mathématicien Jean-Pierre Kahane, récemment décédé, me dit – je cite en substance et de mémoire – « lorsque j’étais jeune, je pouvais lire l’essentiel de ce qui était produit dans les mathématiques, au moins celles qui m’intéressaient. Aujourd’hui – c’était donc il y a près de 30 ans – je peux à peine lire ce qui se publie dans ma sous-sous-discipline ». Peu après, un physicien dont le frère a reçu le Prix Nobel me racontait une excursion dans une réunion du laboratoire voisin. On y faisait de la physique nucléaire, lui étant physicien des particules. Très intéressante, la réunion, me confie t-il, « mais à un moment, ils ont parlé technique, avec des maths, et là j’étais perdu ». Ce jour-là, j’appris que les maths des particules ne sont pas celles du noyau… mais, surtout, que je devais vraiment faire très attention aux choix de mes “sources” dans les laboratoires. Ne pas demander à un spécialiste des poissons de me parler des baleines, à un astrophysicien de m’éclaircir les mystères des colloïdes. Ne pas compter sur un physicien nucléaire pour comprendre la tenue d’une enceinte en béton de centrale nucléaire ou la rupture des tubes d’un générateur de vapeur. Et, ne pas demander à un géophysicien spécialiste de paléomagnétisme de m’expliquer l’évolution du climat depuis 150 ans.
Le sociologue Edgar Morin exprimait cette idée à sa manière dans La Voie(Fayard, 2011) : « Il nous faut dissiper l’illusion qui prétend que nous serions arrivés à la société de la connaissance. En fait, nous sommes parvenus à la société des connaissances séparées les unes des autres, séparation qui nous empêche de les relier pour concevoir les problèmes fondamentaux et globaux tant de nos vies personnelles que de nos destins collectifs. »
Au-delà de la méthode à suivre pour le journaliste débutant, cette perception brutale des limites du partage du savoir là où il se constitue, dans les laboratoires, contenait une leçon radicale. Ce n’est pas par le partage avec tous les citoyens des connaissances scientifiques, telles qu’elles sont produites, que l’on pourra prendre en démocratie les décisions liées à ces connaissances par les technologies qu’elles permettent.
Que faire ? Renoncer aux technologies pour tenter de conserver la démocratie ? C’est ce que proposent certains militants… à l’aide de textes écrits sur ordinateurs et diffusés par internet. C’est peu convaincant, surtout que l’époque de la science partageable était également celle de l’analphabétisme de masse, de mortalités infantile et maternelle effroyables, des mineurs de charbon armés de pics et de systèmes politiques dont le caractère démocratique et libre n’a rien d’évident. La solution semble pire que le mal. Mais elle peut s’appuyer sur l’attitude désormais la plus répandue dans la population européenne : considérer que les sciences et les technologies font « autant de mal que de bien », une véritable rupture au regard des opinions des années 1950 ou 1960.
Reste donc la voie difficile consistant à adapter nos systèmes et nos pratiques politiques à cet écart infranchissable entre savoirs et individus, alors que le principe même de la démocratie réside non seulement dans le respect du pouvoir souverain du peuple, exercé collectivement par le choix des programmes et des dirigeants lors des élections ou des consultations, mais surtout sur l’idée que ce choix collectif ne fait qu’agréger les choix individuels selon le principe : un citoyen, un vote.
Procédons par une question d’évidence. Puisque le savoir disponible n’est pas partageable par tous, comment se fait-il qu’il soit pourtant utilisé aussi massivement, par les pouvoirs publics et économiques ? Ces derniers sont pourtant constitués d’êtres humains normaux, pas plus capables que les scientifiques de tout savoir. Pensons à ces Présidents de la République ou ces ministres, mais aussi à ces dirigeants d’entreprises, qui ont pris des décisions quant à l’usage de technologies puissantes, capables de rendre de grands services mais également de représenter de grands risques. Mais songeons également à ces ministres de la santé qui prennent des décisions de santé publique majeures, comme les campagnes de vaccination ou de conseils nutritionnels. Comment font-ils ? Ils s’appuient sur des capacités d’expertise toujours, ou la plupart du temps, collectives, issues souvent de corps – scientifiques ou administratifs – organisés dans la durée pour fournir à temps les éléments de savoirs, organisés en fonction de la question politique posée : quelle politique énergétique, de santé, d’aménagement du territoire, de transport, d’urbanisme… conduire ?
Un jour, le Président Georges Pompidou et le premier ministre Pierre Messmer, un autre jour Valéry Giscard d’Estaing et Raymond Barre, un autre encoreFrançois Mitterrand et Pierre Mauroy ont décidé de bâtir un socle nucléaire à notre système électrique. Comment ont-il pris cette décision ? En faisant confiance à l’expert collectif qu’ils avaient chargé d’instruire le dossier à la suite de la crise pétrolière de 1973. Cet expert collectif – services du ministère de l’industrie, l’entreprise publique EDF, le CEA, et une commission ad hoc [4]– avait été mis à la question. Il a répondu. Et la décision fut, in fine, du niveau politique m’a un jour assuré Pierre Messmer. Fut-elle démocratique ? Oui, puisque ces présidents ont été élus et que ces premiers ministres gouvernaient avec la confiance d’une majorité de parlementaires élus. Fut-elle partagée par la Nation ? C’est moins certain, les responsables politiques ayant rapidement délégué le soin de discuter avec les citoyens de la justesse de la décision à l’entreprise qui la mettait en œuvre. Un péché originel aux conséquences de longue durée.
Mais ce mode de décision, où l’expertise provient de systèmes sous un contrôle direct du pouvoir politique et où le conseil à la société est délivré uniquement à ce même pouvoir politique trouve nécessairement ses limites. Tant pour la constitution de cette expertise que pour la vie démocratique de la Nation.
La fiabilité de l’expertise ainsi réunie repose sur des modalités trop fragiles, peu résilientes à la pression politique ou aux effets de groupe pour garantir sa robustesse. Dans l’affaire de l’amiante, l’exemple est celui de l’incapacité des hauts fonctionnaires du ministère de la Santé à prévenir le pouvoir politique de la manipulation des esprits organisée par les industriels. Voire leur complicité, puisque l’on a appris, à ma stupéfaction, que la défense de Martine Aubry lors de sa mise en cause consistait à dire que ces hauts fonctionnaires ne l’avaient pas informée de leur participation au fameux « Comité amiante » [5] mis en place par l’industrie en 1983. A la même époque, alors que le savoir épidémiologique et médical est disponible, l’Inserm, de son côté, ne l’a pas encore transformé en expertise collective adressée au pouvoir politique – cela ne serait fait qu’en 1997 – lequel, dans un premier temps, a de surcroît tenté d’étouffer ce rapport, sous l’impulsion de Claude Allègre. Le prix à payer pour ce défaut d’expertise, alors que le savoir était là, est très lourd, et singulièrement concentré sur les ouvriers de l’industrie et du bâtiment utilisant l’amiante. L’incapacité de notre système judiciaire à sanctionner le retard pris par les responsables patronaux et politiques à prendre en compte un savoir existant alertant contre les dangers de l’amiante ne fait qu’accroître le scandale. Mais ce dernier pose la question suivante : pourquoi le savoir académique existant n’a t-il été transformé que bien trop tard en expertise claire, adressée aux pouvoirs publics et à la société, ce qui aurait permis d’épargner des vies ?
Dans ces conditions, et alors que la plupart de nos problèmes économiques, sociaux et écologiques réclament beaucoup de sciences et de technologies pour être affrontés, la question de la constitution d’expertises fiables, puis transmises et acceptées par la société comme base de discussion pour ses décisions, est cruciale.
La constitution de l’expertise repose d’abord sur la disponibilité du savoir. Lorsqu’un système naturel ou ses interactions avec une question humaine – de santé, de production, d’éthique – sont peu ou mal connus, l’expertise ne peut surgir du néant. Lorsque les nanomatériaux sont sortis des laboratoires, un rapport de la Royal Society établissait la liste très longue des inconnues quant à leurs rôles éventuel en biologie, et donc les risques sanitaires tout aussi inconnus liés à leur usage massif. En ce cas, la prudence, la nécessité de recherches, souvent à caractère fondamental, à conduire afin de pouvoir recommander aux pouvoirs publics des normes d’exposition des travailleurs ou du public, doivent être pleinement reconnues et opposées à la tentation de mettre trop rapidement sur le marché des produits nouveaux. À l’inverse, il faut ne pas empêcher l’utilisation de nouvelles technologies qui règlent des problèmes anciens que l’on négligerait au prétexte de risques éventuels qu’elle recèleraient.
Parmi les mauvais exemples des années récentes, relevons l’usage d’insecticides néonicotinoïdes sous la forme d’enrobage de semences. L’argument principal était que cette formulation allait permettre de concentrer les molécules actives dans les plantes à protéger et ainsi de diminuer la pollution de l’environnement par ces dernières. Or, cet argument n’avait pas été vérifié avec le soin nécessaire. Et les dégâts de ces insecticides, aujourd’hui évidents, massifs et documentés, sont pour l’essentiel provoqués par leur dissémination dans les sols et les eaux, à partir de ces enrobages qui n’avaient pas la capacité de confinement annoncé.
L’existence d’une recherche publique, indépendante des industriels, correctement financée et incitée à se préoccuper de ce type de questions est donc une des conditions sine qua non d’une expertise des avantages et des risques des technologies existantes ou en développement. À cet égard, il faut noter que les nouveaux systèmes de financement des laboratoires publics et les discours sur l’excellence ne sont pas favorables à ce type de recherches. Il faut noter également qu’à côté d’une recherche de type cognitif et universitaire, dirigée par la curiosité et le mouvement des connaissances, des organismes de recherche finalisées et des agences de financement – pour reprendre l’exemple de l’agriculture, l’INRA et l’ANSES, pour celui du nucléaire l’IRSN – doivent disposer de moyens conséquents et d’une mission à cet égard. Faute de quoi on risque de se retrouver devant des « trous » de connaissances, comme celui de la recherche en toxicologie.
Ce savoir, même s’il est disponible, ne se transforme pas spontanément en expertise. Cette dernière est toujours issue d’un questionnement sur les avantages et les risques. Ce questionnement peut surgir d’une réflexion interne du milieu scientifique, inquiet ou enthousiaste devant les développements possibles d’applications. Il peut surgir d’interrogations des gouvernants et des décideurs. Ou de citoyens organisés en associations, la plupart du temps en réaction à l’appréhension devant un risque pour la santé ou l’environnement. La formulation même de la demande n’a rien d’évident, et peut conduire à mal poser le problème à étudier. On le voit lorsque l’IRSN et l’INSERM conduisent une expertise sur l’effet des très faibles doses sur la santé publique en réalisant ce travail, à la demande d’associations, autour des installations nucléaires en premier lieu. Une reformulation scientifiquement correcte de la demande aurait conduit à démarrer cette étude par la cartographie des expositions aux très faibles doses à l’échelle du pays, dont la principale cause est liée au radon. L’un des auteurs de l’expertise m’a confirmé que cela eut été la bonne démarche au plan scientifique… mais qu’il n’y avait pas d’argent pour une telle étude.
Mais on le voit surtout lorsque les volets économiques, sociaux ou éthiques sont absents ou biaisés dans la commande initiale. L’affaire des brevets sur le vivant (y compris des gènes humains de susceptibilité à certains cancers) ou le dossier des plantes transgéniques pour l’agriculture l’ont montré. Une mauvaise expertise, c’est aussi celle qui ne laisse aucun choix au pouvoir politique et à la société que de lui obéir ou de la rejeter en bloc, parce qu’elle n’a pas exploré l’éventail des possibles, mais seulement l’un d’entre eux, toujours fixé au départ par le commanditaire. Ce travers conduit à dénoncer le risque du « gouvernement » des experts, autrement dit et plus exactement à nier l’existence de choix politiques différents, parce que reposant non sur la négation d’un savoir mais sur des valeurs sociales, économiques ou éthiques différentes. Nous n’avons pas tous la même réponse à la question « comment voulons-nous vivre ? », nous rappellent sans cesse les sciences sociales et humaines. Une manière polie de souligner que nous vivons toujours dans des sociétés de classes sociales aux intérêts économiques qui peuvent diverger et s’opposer.
Cette demande une fois exprimée, il faut y répondre. Et c’est là que des difficultés apparaissent. Qui va nommer les experts ? Constitueront-ils un groupe fiable, honnête, compétent, capable de déjouer les pressions et représentatif des différents points de vues ? Comment les experts vont-ils travailler ? La première question est cruciale. Hors du cas d’organismes scientifiques prenant l’initiative de mettre sur pieds de telles expertises – et dont le défaut réside souvent dans l’étroitesse de la question posée -, c’est bien le pouvoir politique qui est à l’origine des Agences sanitaires, qui nomme les dirigeants de l’IRSN, de l’ANSES, de l’Agence nationale de sécurité du médicament … et les dote en financement.
Certes, ce pouvoir ne va pas s’exercer directement, dans le détail, jusqu’à chaque membre d’un comité d’experts. Mais la qualité des personnes nommées et la clarté de leur mission sont décisives. Leur capacité à couper le lien avec le pouvoir politique qui les a nommé pour constituer des équipes libres, compétentes et pluralistes, détermine le succès ou l’échec de tout le système. Malgré les progrès réalisés depuis 20 ans – songeons aux décisions prises sur la base de l’avis de quelques conseillers membres de cabinets ministériels au milieu des années 1980 sur le sang contaminé – nous sommes encore loin du compte. Ce qui s’est récemment passé dans le système d’expertise de l’Union Européenne sur les perturbateurs endocriniens, avec une intervention massive mais secrète des industriels pour manipuler tout le processus d’évaluation le montre clairement. Les Monsanto papers ont également démontré comment une entreprise peut mettre sa puissance financière à profit pour biaiser la production scientifique elle-même, voire acheter des consciences et ainsi obtenir des comportements frauduleux de scientifiques dont la réputation leur donne un poids important dans les processus d’expertise des risques au service des gouvernements.
Les enquêtes montrent que la suspicion des citoyens vis à vis de l’expertise d’organismes publics est directement liée à la conviction qu’elle n’est pas indépendante, ni du pouvoir politique ni des pouvoirs économiques et financiers. Paradoxalement, les citoyens font ainsi plus confiance à des individus isolés qui leur apparaissent comme des chevaliers blancs qu’à un groupe d’experts constitué en tant que tel par un processus officiel. Pour savoir si le syndrome de l’hypersensibilité aux ondes électromagnétiques est bien provoqué par ces dernières ou constitue une maladie psychosomatique, le citoyen – renforcé d’ailleurs par une décision de justice récente – fait plus confiance à un seul médecin, Mr Belpomme, qu’aux nombreuses études à travers le monde montrant qu’aucun patient n’a pu détecter de manière claire s’il était ou non soumis à des ondes électro-magnétiques lors d’expériences réalisées en double aveugle.
Mais l’efficacité de l’expertise n’exige pas seulement sa robustesse scientifique, son indépendance, son adéquation à la demande…, il faut qu’elle soit entendue, non seulement du pouvoir mais aussi de la société. Or, et c’est là un point clé, sa transmission à la société passe nécessairement par des intermédiaires. Combien de citoyens peuvent lire une expertise collective de l’Inserm, un rapport du GIEC ou de l’IRSN ? Cette transmission emprunte donc des voies qui sont celles de l’éducation, de la presse… mais surtout celle de la parole du pouvoir politique. Une parole qui n’est écoutée sur ce point précis qu’en fonction de la confiance générale qu’elle attire.
Dès lors que cette confiance du peuple n’est plus en ses dirigeants – même élus, quoique de plus en plus mal élus, songeons que nombre de nos maires, dans les villes les plus populaires, ne le sont que par moins de 10% des habitants en âge de voter – le discrédit s’étend à toute expertise, vécue comme un simple habillage de décisions politiques prises pour des raisons autres. Les sociologues l’ont abondamment montré, la confiance envers les corps techniques et scientifiques de l’État est directement indexée sur celle mise dans les pouvoirs politiques et donc les gouvernants eux-mêmes.
En outre, l’expérience populaire retient avec vigueur ce qu’elle a perçu, à tort ou à raison, des défaillances ou des mensonges. “Ils” – un « ils » souvent peu clair – nous ont menti sur l’amiante, sur le tabac, sur le sang contaminé au virus du Sida, sur les bienfaits de la technologie pour l’emploi, sur les risques du nucléaire… pourquoi nous diraient-ils la vérité maintenant sur les plantes transgéniques ou les nanotechnologies ? L’ignorance massive se mêle à ce sentiment diffus, ainsi qu’une perception des échelles de risques qui n’a absolument aucun rapport avec une mesure où seuls compteraient le nombre des victimes ou la gravité des blessures. Le baromètre annuel de l’IRSN le montre selon lequel, pour une nette majorité de Français, l’accident nucléaire de Fukushima est beaucoup plus effrayant que celui de Tchernobyl, dont les victimes sont pourtant bien plus nombreuses. Quant au nuage de Tchernobyl il détient toujours, à tort, la palme du mensonge d’État dans l’esprit de nos concitoyens. Ainsi, le dernier baromètre de l’IRSN nous apprend que 76% des Français considèrent qu’on leur ment sur les retombées radioactives de Tchernobyl, un chiffre sans évolution depuis 15 ans, alors que l’effort de transparence de l’IRSN sur ce sujet est remarquable.
Toutefois, le pire survient lorsque la parole politique discrédite une expertise correctement conduite, parce que ses conclusions ne lui conviennent pas. Le comble de la confusion serait ces dirigeants du Parti Républicain des États-Unis, parfois Présidents comme Georges W. Bush, puisque les gouvernements qu’ils soutiennent signent les résumés pour décideurs du Giec, puis en renient le contenu devant leurs électeurs. Mais le gouvernement français peut lui aussi donner le mauvais exemple, comme dans l’affaire Séralini [6], où, au lieu d’attendre que ses agences d’expertise aient fait leur travail d’analyse des résultats de la recherche, il prend des décisions sans attendre, et tend ainsi à discréditer le système d’expertise publique qu’il a lui même mis en place. Or, seule l’acceptation des expertises correctement réalisées permet de critiquer les mauvaises afin d’améliorer le système qui les produit.
Il existe un autre cas de figure regrettable, celui qui voit des scientifiques récuser un travail d’expertise correctement conduit, et le discréditer auprès des citoyens.Le cas du GIEC et des négateurs du climat est bien connu. Mais il faut souligner la faute éthique et déontologique ainsi commise, surtout lorsqu’elle rencontre la faveur médiatique et contribue fortement à troubler le débat public.
La question traitée ici interroge avec rudesse les militants anticapitalistes, les forces communistes et celles qui se sont regroupées dans d’autres formations politiques, comme les « Insoumis ». Leurs réflexions et propositions sur le fonctionnement des agences publiques d’expertise ne sont pas toujours ce qu’elles devraient être.
Or, c’est d’abord là que l’on attend les responsables politiques. Un député ne peut être un expert toutes sciences, de la physique nucléaire ou des biotechnologies. En revanche il doit être un expert des lois organisant l’expertise publique ou le contrôle des activités à risques et proposer leur amélioration chaque fois que nécessaire. Il doit veiller au contrôle des décisions gouvernementales quant à leur financement et à la nomination des dirigeants sur lesquels il doit avoir un avis justifié. Agir pour que la recherche publique dispose des moyens et de missions permettant qu’elle fournisse les experts compétents et indépendants des puissances financières et économiques dont les agences ont besoin. Le peu d’appétit des élus de la gauche de transformation sociale pour les dossiers techniques, comme ceux traités par l’Office parlementaire pour l’évaluation des choix scientifiques et technologiques (OPECST), ne plaide pas pour leur volonté de construire une alternative politique véritable, donc apte à la gestion de l’État et du pays. Incarner une alternative crédible – l’un des principaux déficits actuels de la gauche dite radicale – suppose une posture gramscienne (rechercher « l’hégémonie ») montrant la volonté et la capacité à exercer le pouvoir politique pour l’intérêt général défini contre celui de la classe dominante des propriétaires de grands moyens de production et d’échange. Sur ce terrain de l’expertise publique des risques et avantages des technologies, l’abstention n’est pas une option. Et la critique de ses dysfonctionnements éventuels ne peut être crédible que si elle s’accompagne d’un soutien franc – à ses conclusions et à ses dirigeants et experts – lorsqu’elle fonctionne correctement. Cela suppose la connaissance de ces agences, des personnes qui les dirigent, des avis, recommandations ou décisions qu’elles publient.
Par ailleurs, l’analyse des discours que les forces anticapitalistes émettent sur les technologies, l’énergie, l’environnement, la santé publique, l’usage des ressources naturelles et l’industrie laissent penser qu’elles sont souvent à la recherche d’un slogan susceptible d’être populaire plus qu’à la construction d’une alternative politique efficace car fondée sur le réel. Cet écart peut se lire même dans les proclamations les plus « démocratiques » en apparence, lorsqu’il est dit, avec raison, que les problèmes sociaux ne peuvent être résolu que par la participation du plus grand nombre. La proclamation ne fait pas de doute si l’on peut et l’on doit décider tous ensemble du degré d’inégalité économique que l’on accepte ou pas dans notre société, et trancher par un vote populaire le désaccord probable.
En revanche, tenter de régler par le même processus, de démocratie directe, un choix technologique dont les fondements scientifiques et les conséquences de son utilisation demeurent obscures à la plupart des citoyens relève plutôt d’un « basisme » peu courageux et générateur de déboires futurs. C’est par le perfectionnement de la démocratie représentative, utilisant à plein les ressources des expertises publiques possibles, que l’on peut espérer prendre de bonnes décisions dans ces domaines. Un autre exemple surgit, lorsque Jean-Luc Mélenchon passe, de la présidentielle de 2012 à celle de 2017, d’une vision simpliste du système électrique à l’autre (du tout géothermique au tout éolien), où évoque une « planification écologique » voire une « règle verte », dont le contenu ne dépasse pas l’affichage de bonnes intentions. L’effet pervers de toute vision simpliste peut se lire dans la mobilisation citoyenne en Europe sur les herbicides au glyphosate. Alors même que la transformation de nos pratiques agricoles pour en bannir durablement l’usage massif d’herbicides est une cause nécessaire, la polarisation organisée par des ONG sur les seuls herbicides au glyphosate et la mise en avant d’une exigence d’interdiction rapide pourrait aboutir à un usage plus massif d’autres herbicides dont le profil éco-toxicologique est… bien pire. Pourtant, là aussi, l’expertise publique, celle de l’INRA a déjà montré comment cultiver sans ou avec très peu d’herbicides… mais également indiqué l’ampleur des transformations économiques et sociales indispensables à un tel changement techniques. [7]
Bâtir une alternative politique suppose de savoir ce que l’on attend des technologies comme moyen de l’émancipation humaine et donc de comprendre leurs avantages et leurs risques afin d’opérer en connaissance de ces derniers les choix parmi les possibles techniques et de ressources naturelles, en fonction des objectifs socio-économiques que l’on poursuit. Il y a là un chantier nécessaire dans le combat pour opposer à la perpétuation des dominations capitalistes l’espoir d’une autre organisation sociale.
http://huet.blog.lemonde.fr/2019/01/31/le-reve-de-diderot-a-lepoque-du-big-data/
Article paru dans le n°396 de La Pensée, dans le dossier « Aux sciences, citoyens ! » reproduit ici avec l’aimable autorisation de la revue.
[2] Voir l’ancienne mais toujours valable enquête développée dans Sciences, les Français sont-ils nuls , Sylvestre Huet et Jean-Paul Jouary, Jonas éditeur, 1989 ISBN-10:2907145253
[3] Enquête annuelle de l’Ademe sur les représentations sociales de l’effet de serre et du réchauffement climatique, analyse de Daniel Boy (Cevipof). http://www.ademe.fr/representations-sociales-leffet-serre-rechauffement-climatique
[4] La Commission Peon (production d’électricité d’origine nucléaire), https://fr.wikipedia.org/wiki/Commission_PEON
[5] Le fameux « Comité permanent amiante » mis en place avec un financement 100% privé, par les industriels qui s’étaient appuyé sur un ancien militant communiste, Marcel Valtat (1923-1993, il quitta le PCF en 1947) pour créer en 1983 une structure informelle regroupant industriels, certains syndicats, et des médecins afin d’agir en lobby au près des pouvoirs publics. Mais il n’a pu être efficace qu’en raison de l’appui d’un directeur général de l’INRS (Institut national de recherche de sécurité) et du refus explicite ou de l’incapacité des pouvoirs politiques à se doter d’une expertise publique officielle sur le sujet.. puisqu’il fallut attendre 1997 pour que l’Inserm soit mandatée pour une telle expertise. Voir http://www.sante-publique.org/amiante/cpa/cpa.htm
[6] Pour le détail de cette affaire, sur l’effet sanitaire de l’herbicide Round Up et du maïs transgénique modifié pour résister au glyphosate dans une expérience sur des rats, marquée par une publication scientifique retirée par la suite et une vaste opération de relations publiques voir : http://huet.blog.lemonde.fr/2018/12/11/ogm-poisons-la-vraie-fin-de-laffaire-seralini/ et http://sciences.blogs.liberation.fr/2013/12/02/ogm-larticle-de-g-e-seralini-retracte/
[7] Pour une analyse de ce sujet voir : http://huet.blog.lemonde.fr/2017/09/26/glyphosate-reflexions-pre-interdiction/