Les principes des plateformes
d’évaluation technologique
Les plateformes d’évaluation technologique sont construites sur trois principes : le principe de précaution (prudence) ; le droit de savoir (transparence) et le droit de refuser (consentement) ainsi que les principes de la recherche action participative.
1) La prudence : le principe de précaution
La précaution signifie agir avec prudence, prendre soin et faire attention. Aujourd’hui, des groupes d’intérêt puissants qui promeuvent certaines industries technologiques tentent d’induire les populations en erreur en suggérant que le soin et la précaution ne sont pas scientifiques ou sont « anti-technologie » – et qu’en introduisant des interdictions, ces principes font obstacle à un comportement entrepreneurial de prise de risque nécessaire à une économie moderne. Cependant le principe de précaution, la logique fondatrice du processus d’évaluation technologique, ne se traduit pas forcément en une interdiction de nouvelles technologies, et encore moins comme un frein à la recherche et à la connaissance. Le principe de précaution est entériné dans de nombreux systèmes légaux, notamment dans les pays de l’Union Européenne. Il incite simplement à prendre le temps et l’espace de prendre les bonnes décisions en intégrant tout un ensemble de perspectives appropriées. S’il existe un doute, l’application du principe de précaution favorisera des politiques qui préviennent contre le lancement de technologies potentiellement dangereuses.
Pour illustrer ceci, nous pouvons regarder l’histoire. Par exemple, pour l’amiante, le plomb, le benzène, les pesticides, les substances appauvrissant la couche d’ozone ou encore la pêche industrielle… Pour l’ensemble de ces secteurs technologiques (et bien d’autres encore), tant les gouvernements que les industries et les institutions scientifiques révoquaient une action de prévention précoce, considérée comme irrationnelle, par peur de perdre des avantages dans la compétition industrielle. Ils affirmaient qu’il n’existait pas d’alternative et soutenaient que le principe de précaution était « anti-science » ou contraire au besoin que tou.te.s profitent du développement occidental. Pourtant, il est aujourd’hui reconnu par toutes les parties du débat que les niveaux de risques initiaux étaient largement sous-estimés et qu’il y avait des alternatives possibles aux voies présentées à cette époque par les promoteurs de ces technologies.
Appliquer le principe de précaution est aussi une façon de rappeler aux mondes de la science et de la technique que l’innovation et le progrès technologiques ne sont pas la seule voie possible dans la construction du futur. Au contraire, les développements technologiques peuvent emprunter différentes directions. Alors qu’il est souvent placé sous le signe de la « science », le développement technologique est intrinsèquement lié à des choix politiques. Pour évaluer les risques qui pourraient émerger d’une nouvelle technologie, il est nécessaire de comprendre la nature de l’incertitude. S’il existe des preuves d’une potentielle menace pour la santé humaine ou l’environnement, le principe de précaution statue que l’incertitude scientifique concernant la solidité des preuves n’est pas une raison pour que celles et ceux qui sont au pouvoir échappent à leur responsabilité d’agir pour prévenir les dommages.
L’incertitude n’impose pas d’action spécifique, elle nous rappelle simplement que le manque de preuve de la dangerosité n’est pas la même chose que la preuve de l’absence de dangerosité. En d’autres termes, le cœur du principe de précaution c’est que ce sont ceux qui affirment la non-dangerosité d’une technologie qui ont le fardeau de la preuve : l’erreur scientifique est plus dommageable quand elle suppose à tort le caractère inoffensif d’une technologie, que quand elle suppose à tort qu’il pourrait y avoir un danger.
Lorsqu’on considère l’incertitude, il devient difficile en pratique de formuler une solution unique et définitive, « basée sur les preuves » ou « fondées sur la science » Cependant ces termes sont généralement utilisés de façon politique, pour empêcher des questions dans une perspective plus large que celle issue de l’esprit étroit du scientisme. La bonne gouvernance de la science et de la technique implique d’écouter les questions issues d’une large gamme d’expertises, et notamment celles issues des expériences vécues, plutôt que seulement celles des experts professionnels. Les incertitudes font partie des plus grands moteurs de la science. Lorsque des institutions scientifiques entrent en contact avec les pouvoirs économiques et politiques, elles deviennent pourtant complices d’un étrange déni de l’incertitude.
2) Transparence : le droit de savoir
Dans notre monde de plus en plus complexe technologiquement, le danger existe que la quasi-totalité des décisions d’importance soient prises derrière des portes closes. Des expert.e.s lié.e.s à des organisations puissantes feraient des choix capitaux en justifiant que ces jugements requièrent des connaissances spécialisées. Le reste d’entre nous demeurerions exclus et nous ne serions pas en position d’influencer ces décisions. L’idée fausse selon laquelle des décisions « fondées sur la science » ou des technologies puissantes sont trop compliquées pour impliquer les opinions des personnes en dehors d’un petit groupe d’expert.e.s, ça peut conduire à ce que le pouvoir se retrouve entre les mains d’un nombre toujours plus restreint de bureaucrates. La démocratie, définie comme le gouvernement du plus grand nombre, conduit ainsi à la technocratie – le gouvernement des expert.e.s, alors que ces décisions et ces technologies peuvent impacter les vies d’une grande partie de la population.
Pour reprendre le contrôle sur les décisions concernant les technologies, il est nécessaire d’aider un plus grand nombre de personnes à mieux comprendre les enjeux scientifiques et techniques qui les entourent ou qui pourraient affecter leurs propres droits, libertés et conditions de vie. Il est nécessaire notamment de rendre visible la présence de certaines technologies (via par exemple la signalisation et la sensibilisation), de produire de l’information publique et accessible sur les utilisations et abus, de partager les informations disponibles sur les risques connus et les incertitudes, et de reconnaître les limites des connaissances acquises sur le développement technologique ou les sujets scientifiques. Ceci contredit le mythe selon lequel les expert.e.s scientifiques seul.e.s ont les connaissances requises. De cette façon, chacun.e peut apporter ses connaissances, ses propres valeurs et savoirs concernant l’évaluation et en fin de compte, le mode de gouvernance d’une technologie, au service du bien commun.
3) Consentement : le droit de refuser
Le droit de refuser et les conditions pour accepter une nouvelle technologie ont été entérinés dans plusieurs conventions clés des Nations Unies par le processus du « Consentement Préalable, donné Librement et en Connaissance de Cause » (CPLCC, voir l’encadré). Ces trois concepts décrivent le droit collectif des personnes à comprendre toutes les dimensions d’une recherche scientifique et d’un développement technologique, et de potentiellement refuser cette recherche ou ce développement technologique s’ils.elles pensent qu’il pourrait y avoir des effets négatifs.
Le Consentement Préalable, donné Librement et en Connaissance de Cause
Le Consentement Préalable, donné Librement et en Connaissance de Cause (CPLCC) n’est pas la même chose qu’une « consultation » ou une « écoute » ou même un « dialogue ». N’importe quelle institution ou groupe qui s’est engagé à respecter le CPLCC prend la responsabilité d’appliquer chacun de ces quatre éléments :
LIBRE : les communautés doivent avoir les moyens non seulement de participer dans les procédures sans coercition, mais aussi d’être au centre de la définition de la procédure elle-même. C’est pourquoi les acteurs non-gouvernementaux et non-marchands doivent activement favoriser la participation de la communauté et animer des processus délibératifs dans lesquels les personnes peuvent activement participer. Ces derniers doivent être autogouvernés et indépendants des développeurs de ces technologies. Par exemple, le consentement n’est pas donné librement si le processus est conduit par l’industrie qui a elle-même investi dans le déploiement de cette nouvelle technologie et qu’elle choisit elle-même ses parties prenantes.
PRÉALABLE : Tout processus d’évaluation devrait précéder la recherche, le développement ou le déploiement, et doit devenir un processus continu. Cela signifie que les technologies proposées doivent être soumises à un processus d’évaluation par les communautés à chaque étape. Si les débats arrivent trop tard, les effets négatifs pourraient déjà être irréversibles. La recherche, le développement ou le déploiement d’une future technologie potentielle ne doivent pas avancer simplement parce qu’une organisation a donné son approbation à un moment donné dans le passé. La connaissance change avec le temps. Chaque fois qu’une nouvelle information est mise en lumière, le processus participatif devrait être actualisé. L’évaluation technologique ne devrait pas être un processus de validation ou de rejet unique qui ne serait jamais revu. Il devrait être un processus considérant les implications économiques, culturelles, sociales et politiques d’une technologie de façon continue.
ÉCLAIRÉ: Toute évaluation technologique doit commencer avec une recherche participative et questionner les impacts potentiels d’une technologie ou d’un groupe de technologies. Cette investigation ne devrait pas considérer uniquement l’utilisation donnée d’une technologie, mais également les autres utilisations possibles et les intérêts politiques et économiques sous-jacents derrière le développement et le déploiement de cette technologie. La société civile, les organisations non-gouvernementales, les syndicats, les groupes paysans, les communautés locales et peuples autochtones, sont tous essentiels pour assurer une analyse robuste et réellement éclairée de n’importe quel développement technologique ou scientifique.
Le processus d’évaluation devrait être enrichi des divers systèmes de connaissances des personnes potentiellement impactées par une technologie. Cela signifie que l’évaluation ne peut dépendre uniquement d’un système spécialisé de connaissance, comme le point de vue de scientifiques occidentaux, mais doit saisir par exemple les connaissances écologiques traditionnelles qui existent dans les communautés potentiellement concernées. Souvent, seule une utilisation spécifique ou proposée d’une technologie est débattue, mais le rôle de cette technologie dans le monde réel ou les coûts externalisés et les conséquences sur les communautés ne sont que rarement analysés. Les questionnements qui devraient être soulevés sur une nouvelle technologie doivent aller plus loin que les questions directes telles que « est-ce que cela fonctionne ? » ou « est-ce bien ou mauvais ? » (1). Un processus vraiment éclairé devra aussi prendre réellement en compte les incertitudes, et notamment les conséquences potentielles qui pourraient faire surface avec le temps.
CONSENTEMENT : Le consentement au développement d’une nouvelle technologie est donné librement seulement s’il peut être retiré à n’importe quel moment. Le consentement est un processus, plutôt qu’un acte unique, qui permet de retirer son consentement, ou de le reconsidérer, alors que de nouvelles informations apparaissent ou de nouvelles expériences éclairent la compréhension de la technologie. Le processus d’évaluation technologique doit commencer avec l’hypothèse par défaut du « non », jusqu’à ce que le consentement soit clairement donné, s’il l’est un jour. Le consentement, dans le contexte des droits des communautés, doit également être démocratiquement inclusif, prenant en compte les intérêts de tou.te.s, en faisant particulièrement attention à permettre le consentement de celles et ceux qui sont les plus impacté.e.s par une technologie, en particulier les plus vulnérables. Pour être légitime, les processus démocratiques devraient être ancrés dans les pratiques culturelles de la communauté, tout en maintenant une inclusion radicale (centrée sur les plus concerné.e.s).
Le principe du CPLCC signifie que tous ces éléments doivent être rassemblés avant que le secteur de recherche scientifique ou le développement technologique puissent avancer.
(1) Ces considérations devraient inclure : Comment cette technologie a-t-elle été créée ? Qui bénéficie de cette technologie et comment ? Quelles pratiques vont être bouleversées par cette technologie ? Comment cette technologie influera sur les relations sociales ? D’où viennent les financements à l’origine de cette technologie et comment seront-ils maintenus ? Quelles sont les conséquences de cette technologie dans le temps et l’espace, à travers les générations et communautés ?