Par Emmanuel Brochier : I.A. (Intelligence Artificielle) et enjeu éthique
Le propos de cette conférence donnée par Emmanuel Brochier, philosophe chercheur, maître de conférences, doyen de l’IPC (Faculté de philosophie et de psychologie), était d’interroger l’IA dans la perspective de la philosophie, c’est-à-dire avec le souci de clarifier le langage en levant les ambiguïtés, d’interroger les idées en pesant les arguments et d’en examiner enfin la valeur. Il s’agissait, dès lors, d’aborder l’IA non en tant que simple technique nouvelle toujours plus performante, mais en la situant dans la perspective de la modernité caractérisée par le projet et l’espérance d’une emprise sur le monde terrestre grâce au progrès scientifique et technique, lequel, selon Kant, devrait également entraîner un progrès moral. Il s’agissait alors de se demander si les promesses vertigineuses en termes de puissance, offertes par l’IA, doivent être considérées comme souhaitables pour l’humanité. Pour ce faire, il convenait, dans un premier temps, de clarifier la notion d’IA, puis, dans un second temps, de mettre en lumière le problème éthique qu’elle pose, et de terminer par quelques questions.
La notion d’IA est énoncée pour la première fois par John McCarthy en 1956. Elle désigne un champ de recherche disciplinaire nouveau. Où ce champ disciplinaire devait-il mener ? Dans l’esprit de John McCarthy, il s’agissait de réaliser une machine qui simule l’intelligence humaine en toutes ses opérations. Mais que faut-il alors entendre par « machine » et par « intelligence » ? Selon la définition de Coriolis au 19ème siècle, la machine désigne la capacité à fournir un certain travail, celui-ci désignant à son tour, le produit de l’effort par le déplacement. Partant de ces définitions, la machine peut s’entendre au sens de tout dispositif qui transforme l’énergie, ce que l’on trouve, tant dans les organismes vivants que dans les artefacts. Et dès lors, le travail ne serait pas propre à l’homme. La distinction entre l’homme et la machine s’estompe.
Que dire ensuite de l’intelligence ? John McCarthy s’inspire de Turing. Ce mathématicien ayant déjà en 1936 conçu une machine permettant d’attribuer la note de « 0 » ou « 1 » à toute chose, en fonction des règles de l’algorithme (modèle de tout ordinateur), se demande en 1950 si cette machine peut penser. Contrairement à Descartes qui répondait par la négative à cette question, au motif que le signe de la pensée est le langage que seul l’homme possède, Turing répond qu’il est vain de tenter de définir la pensée, ce dont témoigne l’histoire de la philosophie faite de multiples débats sur la question. En scientifique, Turing considère qu’il s’agira de s’en tenir à l’expérimentation : il sera possible de considérer que la machine pense, dès lors qu’à une question posée, on ne pourra distinguer si la réponse provient d’une personne ou d’une machine. Or, n’est-ce pas cette promesse qu’accomplit l’IA désormais ? Force est de constater que les résultats obtenus par certaines IA (Mistral par exemple) peuvent s’avérer plus pertinents que ceux provenant d’un travail humain. Ainsi, l’IA serait intelligente comme l’est l’homme, et serait même capable de le dépasser.
Il reste que cette thèse part d’un présupposé implicite qu’il appartient au philosophe de mettre en lumière. Il porte sur le concept d’« intelligence », latent en science, dont l’origine se trouve chez le psychologue Jean Piaget, lequel considère l’intelligence comme la faculté d’adopter un comportement adapté en fonction des situations (cf. La naissance de l’intelligence chez le jeune enfant, 1923). Dès lors, si l’intelligence doit s’entendre comme cette « faculté d’adaptation », elle n’est plus l’apanage de l’homme. On parle même désormais de « rationalité » pour les robots, voire d’« émotions », tant ils sont capables de les simuler et de s’adapter à un interlocuteur humain, lui fournissant des réponses adéquates. Que nous reste-t-il alors de spécifiquement humain qui puisse nous distinguer de la machine, dès lors que celle-ci s’avère capable de réponses pertinentes et de comportement adapté ? En ce sens du mot « intelligence », la machine est « intelligente » et la grandeur de l’homme s’en trouve dévaluée. Il ne peut qu’en éprouver une honte douloureuse (« honte prométhéenne ») : celle de se voir dépassé par la technique qu’il a lui-même inventée.
L’éthique consiste à interroger la valeur des objectifs que l’on poursuit, sachant que l’objectif poursuivi impacte toujours notre manière de vivre. Interroger l’IA sur un plan éthique, revient alors à se demander si ce que visent les recherches sur l’IA, dont on a vu qu’elle constitue une discipline à part entière, est au service de l’homme.
Les recherches en IA s’appuient aujourd’hui sur une référence internationale : L’IA : une approche moderne. Dès l’introduction de cet ouvrage, le but de l’IA (en tant que champ disciplinaire) y est clairement indiqué : il s’agit de l’IAG (Intelligence Artificielle Générale). Elle rejoint exactement ce que décrivait John McCarthy : une machine capable de simuler l’intelligence humaine dans tous les domaines. Ceci posera inéluctablement (les transhumanistes le reconnaissent) un problème d’alignement des valeurs entre l’homme et la machine : si, par exemple, une machine devait être programmée pour produire le maximum de trombones possible, il en résultera un épuisement des ressources et par conséquent la vie humaine serait rendue impossible. La performance d’une IA n’implique pas, par conséquent, qu’elle soit nécessairement au service de l’homme. Si la machine devient capable d’effectuer tous les travaux que l’homme effectue, est-ce pour autant un bon objectif ? Ceci renvoie à la question fondamentale de la véritable valeur du travail humain. Réaliser un « homme augmenté », selon le projet transhumaniste, est-ce nécessairement au service de l’homme ? Pouvoir le faire implique-t-il qu’on doive le faire ? Ce qui est possible factuellement est-il pour autant légitime et souhaitable ? Augmenter les performances doit-il être considéré comme un objectif absolu qui n’aurait pas à être questionné ? Si l’on considère l’intelligence comme une faculté d’adaptation, alors rien n’empêche de le penser. Mais est-ce bien cela l’intelligence au sens de l’intelligence humaine ? La différence entre l’homme et la machine n’est-elle que de degré (mesurable en fonction des performances obtenues et par conséquent vouée au changement), ou demeure-t-elle radicale ?
Pour répondre à cette dernière question, il s’agit de s’interroger sur ce que signifie « comprendre ». Lorsque, par exemple, ChatGPT réalise un très beau texte, à partir d’un prompt bien conçu, que fait-il ? Il ne fait qu’un calcul de probabilités aboutissant à un résultat adapté qui simule ce que l’intelligence humaine est capable de faire. Mais la machine ne comprend rien ; elle calcule simplement : elle reçoit des informations et les transforme. Mais alors qu’est-ce que comprendre s’il ne s’agit pas de calculer simplement ? Comprendre, au sens de l’expérience commune à tout homme, c’est saisir ce qui est responsable d’un évènement, c’est-à-dire accéder à la cause des évènements. C’est parce que l’homme, par son intelligence, est capable de comprendre les causes qu’il est responsable et que l’IA ne l’est pas. Le législateur européen l’assume en indiquant que l’on ne doit jamais tenir une IA pour responsable. Et c’est en quoi un monde où serait réalisée l’IAG serait un monde dans lequel toute responsabilité serait abolie.
Loin de se réduire à une faculté de calcul, l’intelligence, au sens humain, est ce qui nous fait accéder à la conscience de la responsabilité. L’éthique en ce sens qualifie l’intelligence humaine. Elle ne saurait par contre qualifier l’I.A. sauf en un sens appauvri et réducteur du terme « éthique », comme du terme « intelligence ».
Merci à Emmanuel Brochier pour cette analyse éclairante ouvrant, non seulement sur un sujet d’actualité, mais surtout sur ce qui constitue un enjeu majeur de toute existence humaine.
Michel Bouton (professeur de philosophie au lycée)