Conscience artificielle — Wikipédia

La conscience artificielle, également connue sous le nom de conscience des machines ou de conscience synthétique, est un domaine de recherche visant à comprendre, modéliser et tester la potentielle conscience liée aux intelligences artificielles.

Ce champ de recherche s'inspire régulièrement d'expériences de pensée telles que celle du spectre inversé, de l'argument de la connaissance, du zombie philosophique ou encore de la chambre chinoise. La question de savoir si les modèles d'IA actuels ou futurs peuvent être sentients reste une question ouverte, liée au problème difficile de la conscience[1]. La conscience artificielle est étudiée en philosophie de l'esprit et en philosophie de l'intelligence artificielle.

Points de vue philosophiques[modifier | modifier le code]

Il y a différents types de conscience. Dans la littérature philosophique, on distingue souvent en particulier la conscience « d'accès » et la conscience « phénoménale ». La conscience d'accès concerne les aspects de l'expérience qui permettent d'agir rationnellement et, selon David Chalmers, est « directement disponible pour un contrôle global »[2]. Tandis que la conscience phénoménale (qui est très similaire aux notions de conscience phénoménale et de qualia), correspond au ressenti subjectif.

Débat sur la plausibilité[modifier | modifier le code]

Les théoriciens de l'identité esprit-cerveau et d'autres sceptiques soutiennent que la conscience ne peut être réalisée que dans des systèmes physiques particuliers parce que la conscience a des propriétés qui dépendent nécessairement de la constitution physique[3],[4].

Selon Giorgio Buttazzo, une objection courante à la conscience artificielle est que « Travaillant en mode entièrement automatisé, ils [les ordinateurs] ne peuvent pas faire preuve de créativité, [...], d'émotions ou de libre arbitre. Un ordinateur, comme une machine à laver, est un esclave actionné par ses composants. »[5]

Selon les fonctionnalistes cependant, la sentience est causée par certains types de « rôles causaux » (ou autrement dit, certains types de traitement de l'information). Peu importe alors que le support physique de ces rôles causaux soit biologique ou non[6].

David Chalmers estime que le fonctionnalisme ne suffit probablement pas à définir complètement le ressenti subjectif. Pour illustrer ça, l'expérience de pensée du spectre inversé suggère l'idée que deux personnes physiquement strictement identiques à l'atome près puissent ressentir les couleurs différemment[7]. Il considère par ailleurs qu'il n'est pas nécessaire d'être aussi intelligent que l'humain pour être sentient, du fait que d'autres animaux moins intelligents sont consensuellement considérés comme sentients[1]. Il reste donc indécis, mais considère que les modèles actuels d'IA ne sont probablement pas sentients, bien que les modèles futurs aient plus de chances de l'être[1].

L'idée que l'IA ne puisse pas en théorie être sentiente est souvent confrontée à la question de ce que le cerveau aurait de si spécial. Le cerveau humain peut en effet être comparé à une machine biologique, basée sur des opérations élémentaires entre neurones. Et il paraît étrange de considérer que ce soit la composition chimique fortement carbonée de la matière organique dans le cerveau qui cause la sentience[8]. Ce type d'objections a donné lieu à l'utilisation de l'expression « chauvinisme du carbone » (carbon chauvinism). Ainsi, selon David Pearce, « la croyance que des systèmes non biologiques de traitement de l'information ne puissent pas supporter la conscience est arbitraire. C'est un chauvinisme du carbone non justifié. »[8]

Éthique[modifier | modifier le code]

Si l'on soupçonne que des machines soient sentientes, de même que pour les animaux, cela peut soulever des questions morales sur leur bien-être et leurs droits[9]. Mais la question de la conscience artificielle restant encore très abstraite et controversée, ces aspects éthiques ont reçu relativement peu d'attention.

Méthodes de test[modifier | modifier le code]

Un des problèmes du test de Turing : il ne teste pas directement l'intelligence mais plutôt la capacité à imiter l'humain. Ce qui implique de devoir reproduire les imperfections du comportement humain et éviter de faire preuve d'une intelligence non-humaine.

La sentience (qui est très similaire aux notions de conscience phénoménale et de qualia), est un phénomène intrinsèquement subjectif. Bien que divers comportement y soient corrélés, il n'existe à priori aucun moyen de tester directement la sentience à la troisième personne. À cause de cela, et parce qu'il n'y a pas de définition empirique de la conscience[10], il est peut être impossible de tester la sentience de manière complètement fiable.

La méthode la plus connue pour tester l'intelligence des machines est le test de Turing. Mais le test de Turing est rarement utilisé en pratique, notamment parce que pour être efficace, l'IA devrait imiter les diverses imperfections du comportement humain, et éviter d'être trop intelligente là où l'humain ne l'est pas.

D'autres tests, comme ConsScale, testent la présence de caractéristiques inspirées de systèmes biologiques, ou mesurent le développement cognitif de systèmes artificiels.

En 2014, Victor Argonov a suggéré un test de « non-Turing » pour la conscience artificielle, basé sur la capacité de la machine à produire des jugements philosophiques[11]. Il soutient qu'une machine déterministe doit être considérée comme consciente si elle est capable de produire des jugements sur toutes les propriétés problématiques de la conscience (telles que le qualia), en n'ayant aucune connaissance philosophique innée (préchargée) sur ces questions, aucune discussion philosophique pendant l'apprentissage, et aucun modèle informationnel d'autres créatures dans sa mémoire (de tels modèles peuvent implicitement ou explicitement contenir des connaissances sur la conscience de ces créatures). Cependant, ce test ne peut être utilisé que pour détecter, mais pas pour réfuter l'existence de la conscience. Un résultat positif prouve selon lui que la machine est consciente, mais un résultat négatif ne prouve rien. Par exemple, l'absence de jugements philosophiques peut être causée par le manque d'intellect de la machine plutôt que par l'absence de conscience[11].

Événements récents[modifier | modifier le code]

En 2021, le philosophe allemand Thomas Metzinger a plaidé pour un moratoire mondial sur la phénoménologie synthétique (une pause sur les tentatives pour créer des IAs sentientes) jusqu'en 2050. Metzinger affirme que les humains ont un devoir de diligence envers toute IA sentiente qu'ils créent, et qu'aller trop vite risque de créer une « explosion de souffrance artificielle »[12].

En 2022, un ingénieur de Google nommé Blake Lemoine a fait une affirmation virale selon laquelle le chatbot LaMDA de Google était sentient. Lemoine a fourni comme preuve les réponses du chatbot à plusieurs de ses questions. Cependant, le comportement du chatbot a été jugé par la communauté scientifique comme étant probablement une conséquence du mimétisme, plutôt que de la conscience de la machine. L'affirmation de Lemoine a été largement tournée en dérision[13]. Le philosophe Nick Bostrom a déclaré qu'il pensait que LaMDA n'était probablement pas conscient, mais a demandé sur quelles bases on pourrait en être sûr. Il faudrait avoir accès à des informations non publiées sur l'architecture de LaMDA, et aussi comprendre comment fonctionne la conscience, puis trouver comment faire le lien entre la théorie abstraite et la machine : « (En l'absence de ces étapes), il semble que l'on doive être peut-être un peu incertain... il pourrait bien y avoir d'autres systèmes, maintenant ou dans un futur relativement proche, qui commenceraient à satisfaire les critères. »[14]

En 2022, David Chalmers s'intéresse à la question de la potentielle sentience des grands modèles de langage, qu'il estime personnellement avoir en 2022 moins de 10% de chances d'être sentients, puis peut-être 20% en 2032[1].

Références[modifier | modifier le code]

  1. a b c et d (en) « AI could have 20% chance of sentience in 10 years, says philosopher David Chalmers », sur ZDNET (consulté le )
  2. (en) « Availability: The Cognitive Basis of Experience? », sur consc.net (consulté le )
  3. (en) Schlagel, « Why not artificial consciousness or thought? », Minds and Machines, vol. 9, no 1,‎ , p. 3–28 (DOI 10.1023/a:1008374714117, S2CID 28845966)
  4. (en) Searle, « Minds, brains, and programs », Behavioral and Brain Sciences, vol. 3, no 3,‎ , p. 417–457 (DOI 10.1017/s0140525x00005756, S2CID 55303721, lire en ligne)
  5. (en) Computer, Institute of Electrical and Electronics Engineers (IEEE) (lire en ligne) :

    « Working in a fully automated mode, they [the computers] cannot exhibit creativity, unreprogrammation (which means can no longer be reprogrammed, from rethinking), emotions, or free will. A computer, like a washing machine, is a slave operated by its components. »

  6. (en) Riccardo Manzotti et Antonio Chella, « Good Old-Fashioned Artificial Consciousness and the Intermediate Level Fallacy », Frontiers in Robotics and AI, vol. 5,‎ (ISSN 2296-9144, DOI 10.3389/frobt.2018.00039/full, lire en ligne, consulté le )
  7. « L’esprit conscient ou la fausseté du matérialisme selon David Chalmers », sur Métaphysique Ontologie Esprit, (consulté le )
  8. a et b (en) « Conversation with David Pearce about digital sentience and the binding problem », sur Magnus Vinding, (consulté le ) : « the belief that non-biological information-processing machines can’t support consciousness is arbitrary. It’s unjustified carbon chauvinism. »
  9. (en) « AI sentience, moral status and rights », sur Effective Thesis (consulté le )
  10. "Consciousness". In Honderich T. The Oxford companion to philosophy. Oxford University Press. (ISBN 978-0-19-926479-7)
  11. a et b (en) Victor Argonov, « Experimental Methods for Unraveling the Mind-body Problem: The Phenomenal Judgment Approach », Journal of Mind and Behavior, vol. 35,‎ , p. 51–70 (lire en ligne)
  12. (en) Metzinger, « Artificial Suffering: An Argument for a Global Moratorium on Synthetic Phenomenology », Journal of Artificial Intelligence and Consciousness, vol. 08,‎ , p. 43–66 (DOI 10.1142/S270507852150003X, S2CID 233176465) :

    « explosion of artificial suffering »

  13. (en-GB) Amelia Tait, « ‘I am, in fact, a person’: can artificial intelligence ever be sentient? », The Observer,‎ (ISSN 0029-7712, lire en ligne, consulté le )
  14. (en-US) Sam Leith, « Nick Bostrom: How can we be certain a machine isn’t conscious? », sur The Spectator, (consulté le ) : « (In the absence of these steps), it seems like one should be maybe a little bit uncertain... there could well be other systems now, or in the relatively near future, that would start to satisfy the criteria. »

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]