Usages et mésusages de la technologie : l’IA est-elle dangereuse en soi ?

Une lecture structurante : usages > outil. Mettre l’éthique au travail, collectivement, via la conférence de consensus, notamment en santé mentale.

Avec l’arrivée maintenant avérée de l’intelligence artificielle (IA) et son installation dans nos usages quotidiens, il est de bon ton de se questionner sur l’impact de celle-ci sur notre société.

D’aucuns brandissent la menace d’un délitement de notre lien social, de l’affaiblissement de nos capacités cognitives, du bouleversement du monde du travail… persuadés que l’IA saura faire mieux et plus vite ce que nous faisons habituellement.

D’autres entrevoient là une opportunité incroyable, des leviers de croissance et de productivité, une occasion de mieux équilibrer vie professionnelle et vie personnelle… persuadés que l’IA saura faire mieux et plus vite ce que nous faisons habituellement !


À tout le moins, pourfendeurs et prosélytes de l’IA partagent le même constat, mais n’en font pas la même analyse. Les prospectives changent d’un camp à l’autre, tantôt pessimistes, tantôt optimistes, mais aucune ne remet vraiment en cause ce qui est en train d’arriver, à savoir la place de plus en plus imposante que l’IA va occuper dans notre vie quotidienne.

Il en va des avancées technologiques comme de tous les changements rapides et globaux parce qu’avec l’IA nous avons affaire à une transformation structurelle et systémique :

  • structurelle parce qu’elle va impacter notre manière de faire société (produire de la connaissance, transmettre des informations et l’histoire, obliger à des adaptations neurocognitives chez les utilisateurs et leurs descendants, remplacer des tâches complexes et pas seulement celles répétitives comme l’avait fait la première révolution industrielle…) ;
  • systémique parce qu’elle aura un impact sur des sphères connexes comme la restructuration de la société avec, par exemple, une société du temps libéré et des loisirs qui devrait progressivement prendre le pas sur la société du travail.

L’histoire des changements est riche et nous enseigne que les nouvelles technologies sont moins inquiétantes que l’usage que l’on en fait.

L’enrichissement de l’uranium, par exemple, est un procédé qui est à la base des filières de réacteurs électrogènes les plus courants, permettant de produire une électricité « moins carbonée », mais a été aussi la condition d’Hiroshima et Nagasaki ; les thérapies géniques sont aujourd’hui reconnues comme des approches innovantes permettant de réparer des cellules abîmées, mais peuvent être aussi détournées pour laisser entrevoir à de futurs parents la possibilité de sélectionner des embryons pour procréer l’enfant idéal.

L’IA n’échappera pas à cette économie de risques et d’avantages, sur un continuum qui, du meilleur, la fera aller vers le pire.

L’éthique comme garde-fou des mésusages de l’IA

Notre société du travail déborde de règles, de certifications, de codes en tous genres qui cherchent à encadrer les pratiques. Mais il ne fait aucun doute que ces moyens ordinaires ne pourront suffire à encadrer une révolution qui n’a, elle, rien d’ordinaire. Il semble donc important de (ré)introduire aujourd’hui, dans la formation et la régulation des pratiques de travail, la notion d’éthique.
Selon le dictionnaire de l’Académie française, l’éthique serait une « réflexion relative aux conduites humaines et aux valeurs qui les fondent, menée en vue d’établir une doctrine, une science de la morale ». Appliquée au monde du travail, la définition de l’éthique recouvrirait un « ensemble des principes moraux qui s’imposent aux personnes qui exercent une même profession, qui pratiquent une même activité ».

En fait, le sujet semble plus complexe que cela et il faudrait situer l’éthique entre la morale et la déontologie. Si la morale a à voir avec le bien et le mal, la manière dont la société, à une époque donnée, regarde et juge conduites et pratiques, la déontologie concerne les limites d’une pratique donnée, pensées par et pour une profession. C’est en cela que médecins, psychologues, mais aussi agents immobiliers ou encore fonctionnaires disposons d’un code de déontologie qui fixe les bornes de notre pratique et permet de réguler nos conduites dans l’exercice concret de nos métiers.
Si la déontologie est stable, si la morale est stable dans une période donnée, l’éthique est une « science en mouvement permanent », pourrions-nous dire. Elle définit en quelque sorte la manière dont, confrontés à des situations limites, nous pouvons nous arranger de la morale et de la déontologie pour prendre une décision en conscience des effets que nous produisons.

En psychologie, par exemple, la déontologie prescrit le secret professionnel et nous le devons à nos patients. La morale actuelle nous invite à dénoncer des pratiques, notamment sexuelles, notamment envers des personnes vulnérables, notamment en cas d’absence de consentement, et l’éthique est la manière de s’arranger de ce double faisceau. Si une personne vient nous voir en cabinet en témoignant d’idées ou de fantasmes la mettant en scène avec des enfants, sans qu’elle soit pour autant passée à l’acte ; si cette même personne révèle faire la sortie des écoles et regarder les enfants, sans pour autant passer à l’acte, alors la morale nous inviterait à signaler un comportement dangereux, tandis que la déontologie nous prescrit la réserve et le silence.

C’est l’éthique qui vient à notre secours — et vous comprendrez qu’elle sera à géométrie variable en fonction des personnalités. Certains tomberont dans la morale, alors que d’autres resteront figés dans leur déontologie, fixant ainsi les coordonnées de leur éthique personnelle.
L’éthique a des effets limités lorsqu’elle est construite dans le monologue intérieur de l’individu, dans la solitude d’une pratique. Elle sera un bloc hétéroclite qui pourrait sembler homogène — on imagine tous UNE éthique des psychologues — mais elle s’avère finalement éclatée, peu structurée et, partant, peu efficiente à arbitrer les situations limites.

L’éthique peut avoir une efficacité et un pouvoir régulateur lorsqu’elle est collective, honnête et publique.

Collective, dans le sens où un groupe de praticiens mettra en commun ses réflexions pour trouver ce qui est commun dans ses histoires individuelles ; honnête, parce que si ce sont des situations limites, c’est d’abord parce que ce sont des limitations dans notre capacité à comprendre et à faire face, et il faut être honnête, suffisamment, pour se les avouer et les avouer aux autres ; publique, parce que l’éthique a besoin du regard d’Autres extérieurs pour avancer de façon responsable.

La conférence de consensus

Ainsi, accompagner le développement de l’IA et son installation certaine au sein de la majorité des métiers devrait aller de pair avec une pratique publique de l’éthique.

Les métiers ou grandes conventions collectives devraient se plier à l’exercice de la conférence de consensus, par exemple, laquelle permet de faire converger les femmes et hommes concernés par les métiers vers des solutions nouvelles face aux problèmes nouveaux auxquels ils sont confrontés.

L’objectif d’une conférence de consensus est, sur un sujet qui pose problème, d’identifier les questions incontournables et de cerner les points de controverse à dépasser.

En mobilisant de nombreux regards croisés, en s’appuyant sur les connaissances scientifiques internationales, en permettant un débat structuré, une telle méthode doit aboutir à la construction d’un socle de consensus susceptible de poser les bases d’une évolution des pratiques d’une profession sur des sujets donnés.
Faire consensus, c’est d’abord être en capacité d’expliquer et d’éclairer clairement le problème auquel nous sommes confrontés : ici, le recours à l’IA et son impact sur notre économie, nos organisations et nos salariés ; c’est ensuite être en capacité de le mettre en discussion libre et ouverte, sans se priver de toutes les idées, même les plus extrêmes : l’important est qu’elles soient posées et soumises au débat ; c’est enfin être en capacité de s’accorder, parfois en renonçant, sur des positions qui permettent de se situer avec justesse entre morale et déontologie pour construire l’éthique du métier, qui saura aider et soutenir l’ensemble d’une corporation à prendre des décisions qui sauront préserver les fondements de ce que « faire société » veut dire.


À quand la prochaine conférence de consensus sur IA et santé mentale, à destination des professionnels du soin, pour construire nos postures éthiques ?

Patrick Charrier, Praticien expert chez forhuman

Patrick Charrier, PhD
Patrick est co-fondateur de Forhuman, conférencier et consultant expert en santé mentale au travail. Spécialiste de la prévention des risques psychosociaux (RPS), de la gestion de crise (suicide, harcèlement, événements traumatiques) et des enquêtes en secteur public et privé, il articule approche clinique et systémique des organisations. Il a également été missionné par le ministère du Travail pour contribuer aux fondements des études sur les RPS.

Destiné aux dirigeants, DRH, managers et partenaires sociaux, #Perspectives est un webzine gratuit, spécialisé dans la stratégie liée à la santé psychologique et  la performance sociale au sein des entreprises.