Se vuoi leggere la prima parte di questo articolo, clicca qui.
AI debole vs AI forte: l’esperimento della stanza cinese.
Abbiamo detto che le precedenti definizioni dell’AI sono definizioni fondate sull’obiettivo che una macchina deve raggiungere, o sulla funzione che deve svolgere. John Searle, che distinse per primo l’AI forte dalla debole, sostiene che le AI debbano differenziarsi dal punto di vista concettuale in quelle che sono come una mente umana e quelle che imitano la mente umana. Egli scrive:
Secondo l’AI forte, il computer non è soltanto uno strumento nello studio della mente; piuttosto, il computer programmato appropriatamente è davvero una mente, nel senso che i computer su cui vengono installati i programmi giusti possono essere letteralmente considerati capaci di comprendere e possedere altri stati mentali.[1]
E riferendosi all’AI debole, invece, afferma:
Secondo l’AI debole, il principale valore del computer nello studio della mente è che esso ci fornisce uno strumento molto potente. Per esempio, ci permette di formulare e di testare ipotesi in un modo più rigoroso e preciso.[2]
In altre parole, l’AI forte ha come obiettivo quello di creare delle persone artificiali, dotate del nostro stesso insieme di stati mentali e che, quindi, posseggono una coscienza fenomenica. L’AI debole, d’altro canto, ha come obiettivo quello di creare macchine in grado di processare informazioni e che sembrano possedere degli stati mentali (Searle 1997).[3]
La maggior parte dei filosofi crede che l’AI debole sia il modello vincente – o quantomeno il più difficile da confutare – di ciò che dovrebbe e potrebbe essere un’intelligenza artificiale (Bringsjord and Xiao 2000). Dato che le alternative sono due e incompatibili, allora delle due l’una: o l’AI debole è il modello esatto, o l’AI forte lo è. Poiché l’AI debole sembra essere il modello più semplice, allora, per motivi “fenomenologici”, e per esigenze costruttive e ingegneristiche, lo si potrebbe anche preferire.[4] Se l’AI debole dovesse risultare l’unico modello coerente e compatibile con le nostre intuizioni, allora il test di Turing sarebbe un buon indicatore di cosa un’intelligenza artificiale debba saper fare per poter essere considerata tale (Harnand 1991). Ma per risolvere il dilemma fra le due intelligenze occorre scardinare l’una per sostenere la plausibilità dell’altra. Quali sono le ragioni, quindi, per rigettare l’AI forte?
Il più noto controesempio all’AI forte proviene da John Searle, il quale formulò il cosiddetto esperimento della stanza cinese (Searle 1980). Supponiamo che un soggetto S sia immesso in una stanza e che gli vengano forniti dei fogli con delle scritte in cinese. S non conosce il cinese, né il giapponese, né qualunque altra lingua simile al cinese. Pur provando a leggere i fogli, S non è in grado di capire cosa quei simboli stiano indicando. Gli viene, dunque, fornito un secondo foglio con delle scritte in cinese e con delle frasi in italiano[5] che forniscono a S un insieme di regole per correlare le scritte in cinese del primo foglio con quelle del secondo.
Le regole sono puramente formali, ossia S identifica le correlazioni fra simboli solo in base al loro aspetto esteriore. Infine, a S viene fornito un terzo e ultimo foglio con delle scritte in cinese e nuove regole in italiano per correlare simboli del primo e secondo foglio con quelli del terzo foglio. Data questa serie di input, S inizia a fornire degli output a partire dalle istruzioni formali ricevute. A sua insaputa, questi output arrivano alle persone che gli hanno fornito gli input e che hanno interpretato le risposte di S come la restituzione di un alfabeto, di una storia e di alcune domande rispettivamente. Per complicare un po’ la storia, supponiamo anche che a S siano stati presentati i fogli con le stesse informazioni ma interamente in italiano.
Guardando ai risultati raggiunti da S, non sembrerebbe possibile che S non parli una parola di cinese. Eppure, S non conosce il cinese e, infatti, non sa cosa le parole che ha fornito in output davvero significhino. Dal punto di vista esterno, le risposte fornite da S sia nel caso dei fogli in cinese sia nel caso dei fogli in italiano sono equivalenti. Ma dal punto di vista di S non lo sono. In cinese, infatti, S si è limitato a manipolare un certo numero di simboli non interpretati, limitandosi di fatto a eseguire operazioni computazionali. In italiano, invece, egli ha compreso cosa stesse dicendo. Scrive Searle:
Dal punto di vista esterno […] le risposte alle domande in cinese e a quelle in italiano sono egualmente valide. Ma nel caso del cinese, diversamente da quello in italiano, io produco le risposte manipolando simboli formali non interpretati. Finché mi occupo del cinese, io semplicemente mi comporto come un computer; eseguo operazioni computazionali su elementi formalmente specificati. […] io sono semplicemente un’istanza di un programma informatico.[6]
Qual è lo scopo di questo esperimento? Se l’AI forte è tutto ciò che un’intelligenza artificiale dovrebbe essere, allora S è tutto ciò che un’AI forte dovrebbe essere, dato che l’AI forte ha per davvero una mente in tutto e per tutto simile a quella di un essere umano (S nel nostro caso). Ma se un umano non può comprendere il contenuto delle sue manipolazioni, allora non può farlo neanche l’AI forte. Dunque, la tesi dell’AI forte è confutata.
In altre parole, l’AI forte non può che limitarsi a una manipolazione della sintassi senza alcuna comprensione di un vero e proprio contenuto semantico. L’argomento di Searle può, inoltre, essere ripresentato come segue:
- I programmi sono puramente formali (sintattici).
- Le menti umani hanno contenuti mentali (semantici).
- La sintassi non è né sufficiente né costitutiva del contenuto semantico.
- Quindi, i programmi non sono sufficienti né costitutivi per le menti.[7]
In questa riformulazione, l’esperimento della stanza cinese è il supporto per la premessa (3). La conclusione (4) è la refutazione della tesi dell’AI forte: nessuna macchina può avere davvero una mente.
Se l’esperimento della stanza cinese è corretto, allora l’AI non è altro che AI debole e l’argomento di Searle rende esplicita la risposta alla domanda “che cos’è un’intelligenza artificiale?” ricorrendo al suddetto modello debole.[8]
Ma, d’altro canto, se l’AI non è nulla più che AI debole, allora dovremmo rinunciare alla possibilità che un umanoide senziente possa essere soggetto a diritti e doveri, dato che questi si applicano solo a persone e animali. Un umanoide senziente non sarebbe, infatti, un soggetto morale, perché nulla lo differenzierebbe da un odierno computer (se non la possibilità, assolutamente al di fuori del campo etico-morale, di compiere calcoli con maggior potenza).
Supponiamo che con un umanoide S si fosse vissuta gran parte della propria vita e che esso stesso ci avesse cresciuti esattamente come avrebbe fatto un genitore umano. Supponiamo, poi, che a un certo punto della nostra vita S sia giunto a uno stato di obsolescenza. Ora, l’azienda costruttrice di S ha imposto, secondo politiche aziendali precise, che ogni umanoide obsoleto debba essere ritirato e dismesso, smantellato e i suoi pezzi riciclati.
Come ci si comporterebbe dinanzi a un trattamento simile? Non attribuiremmo a S un’individualità più di quanto non lo faremmo per un cellulare risalente al 2000? Eppure, se l’AI è solo AI debole, allora non c’è alcuna differenza sostanziale tra S e un vecchio cellulare a sportellino. Saremmo ancora disposti a considerare l’AI che ci ha cresciuti soltanto un’AI debole?
Bibliografia
Bringsjord, S., &, Naveen, S. G., 2018, Artificial Intelligence, in “The Stanford Encyclopedia of Philosophy”.
Bringsjord, S., & Xiao, H., 2000, A Refutation of Penrose’s Gödelian Case Against Artificial Intelligence, in “Journal of Experimental and Theoretical Artificial Intelligence”, 12, pp. 307-329.
Deutsch, D., 2012, Philosophy will be the key that unlocks artificial intelligence, sul Guardian (link in nota 2).
Harnad, S., 1991, Other Bodies, Other Minds: A Machine Incarnation of an Old Philosophical Problem, in “Minds and Machines”, 1.1, pp. 43-54.
Kuhn, T., 1962, The Structure of Scientific Revolutions, Università di Chicago, tr. ita. a cura di Carugo, A., 2009, La struttura delle rivoluzioni scientifiche, Einaudi, Torino.
Ladyman, J., 2002, Understanding Philosophy of Science, Routledge, tr. ita. a cura di Piazza, T., 2007, Filosofia della scienza. Un’introduzione, Carrocci, Roma.
McNamara, P., & Van De Putte, F., 2006, Deontic Logic, in “The Stanford Encyclopedia of Philosophy”.
Nilsson, N., 1998, Artificial Intelligence: A New Synthesis, Morgan Kaufmann, San Francisco.
Palladino, D., & Palladino, C., 2007, Logiche non classiche. Un’introduzione, Carocci editore, Roma.
Penrose, R., 1989, The Emperor’s New Mind, OUP, Oxford.
Penrose, R., 1994, Shadows of the Mind, OUP, Oxford.
Russell, S. & Norvig, P., 1995, Artificial Intelligence: A Modern Approach, Prentice Hall, Saddle River.
Runggaldier, E., & Kanzian, C., 2002, Problemi fondamentali dell’ontologia analitica, a cura di S. Galvan, Vita e Pensiero, Milano.
Russell, B., & Whitehead, A. N., 1910-1913, Principia Mathematica, 3 voll., CUP, Cambridge.
Samuel, A. L, 1959, Some Studies in Machine Learning Using the Game of Checkers, in “IBM Journal of Research and Development”, 3, pp. 210-229.
Searle, J., 1980, Minds, Brains and Programs, in “Behavioral and Brain Sciences”, 3, pp. 417-424.
Searle, J., 1984, Minds, Brains and Science, HUP, Cambridge.
Searle, J., 1997, The Mystery of Consciousness, Granta Books, New York.
Turing, A., 1950, Computing Machinery and Intelligence, in “Mind”, 59, pp. 433-460.
[1] Searle 1980 (la traduzione e l’enfasi, qui e di seguito, sono mie).
[2] Ibidem.
[3] Harnand (1991) sostiene che per definire un’AI debole è sufficiente che la macchina sia in grado di superare un test di Turing totale. Un test di Turing totale è un test che non si limita a testare la somiglianza linguistica fra una macchina e un umano, ma che sottopone a test anche altre capacità che un umano e la macchina potrebbero condividere: giocare a calcio, mangiare, insegnare in una classe e così via.
[4] Tra i motivi puramente fenomenologici per cui preferire una teoria al posto di un’altra vi sono le questioni non tecniche ma extra-logiche: se una teoria, per esempio, spiega gli stessi fatti di un’altra teoria rivale ma in modo tale da usare un solo assioma al posto di due, allora la prima teoria è da preferire perché strutturalmente più semplice. Per approfondimento: Kuhn 1962, o Ladyman 2002.
[5] Nella versione originale, Searle fa riferimento all’inglese in luogo dell’italiano.
[6] Searle 1980.
[7] Searle 1984.
[8] Gli attacchi contro l’AI forte non sono stati mossi solo da Searle. Già il più grande logico del Novecento, Kurt Gödel, presentò secondo Lucas (1964) un argomento contro l’AI forte, poi riveduto e migliorato dal fisico Roger Penrose (1989, 1994). Sarebbe impossibile occuparsi dell’argomento di Gödel qui, che ci spingerebbe troppo al di là dei presenti fini dell’articolo fino addirittura al primo teorema d’incompletezza dell’aritmetica.