Questo articolo è il primo di due articoli correlati. La seconda parte uscirà lunedì prossimo, 10 maggio.
Introduzione: può una macchina essere intelligente?
Esistono macchine in grado di eseguire compiti complessi. Esistono macchine che, per quanto ne sappiamo, potrebbero ingannarci e farci credere, soltanto in base alle loro azioni, che non sono macchine – come i programmi in grado di giocare a scacchi con cui si esercitano gli scacchisti professionisti, per esempio.
Di fronte a questi scenari è possibile, anzi, è d’obbligo, porsi delle domande: si tratta di macchine dotate di un’intelligenza? Se sì, allora con che tipo di intelligenza avremmo a che fare? Supponiamo che un ingegnere, altamente qualificato, nel suo laboratorio segreto abbia costruito una macchina umanoide, cioè fisicamente identica ad un essere umano in carne e ossa, eccetto che per i circuiti meccanici ed elettrici che ne compongono la struttura. Supponiamo che l’hardware di questa macchina sia in grado di far girare un software il cui unico scopo, e la cui unica utilità, sia fare ragionamenti e discorsi. Una volta vestita di tutto punto, quest’umanoide verrebbe sottoposta a dei test. Domande semplici a cui è verosimile credere che risponderà in modo corretto. Domande a cui anche un bambino potrebbe rispondere.
A partire da domande semplici, però, sarà possibile per la macchina raccogliere ulteriori dati per rispondere a domande sempre più complesse, dando luogo a un processo di autoapprendimento.[1] Cosa ci permette, o cosa ci impedisce, di poter attribuire un’intelligenza effettiva, come la mia e la vostra, a questa macchina umanoide? E che cos’ha a che fare la filosofia con un’intelligenza di questo tipo?[2]
Assumiamo come definizione provvisoria quella secondo cui: l’intelligenza artificiale (AI d’ora in avanti) è il campo ingegneristico che si occupa di costruire animali o persone artificiali. Che cos’ha a che fare la filosofia con tutto questo? Beh, il software implementato su una macchina del genere, che cerca di assomigliare a un uomo sia nel ragionamento sia nel linguaggio parlato, necessita di alcune regole logiche che pertengono alla logica filosofica, o logica non classica. Sarebbe impossibile dedicare spazio sufficiente al variopinto filone teorico della logica filosofica, basti comunque menzionare la logica deontica, che si occupa di ciò che è permesso o non permesso fare, di ciò che si deve o non si deve fare, di ciò che è opinabile o non opinabile fare e così via.[3]
Chiaramente la formalizzazione di tali concetti permette che questi vengano, per così dire, inculcati all’AI proprio per far sì che questa si comporti come uno di noi, come un umano. Conoscere questo tipo di logiche gioca un ruolo fondamentale nello sviluppo e nella costruzione del software che soggiace al comportamento dell’AI perché, grazie ad alcuni teoremi di queste logiche, sappiamo che un’AI con un certo sistema deontico D potrebbe comportarsi in un dato modo e un’AI con un sistema deontico D* potrebbe comportarsi in un altro modo – questo ci concede il lusso di poter (non) gestire tutte quelle macchine dotate di un certo margine di libertà, conoscendo quali sono i limiti e le possibilità di un qualunque sistema Di.[4]
Procediamo, però, con ordine: quand’è che il termine “intelligenza artificiale” è comparso per la prima volta negli ambienti accademici? Quand’è che si è cominciato a interessarsi dell’AI?
Il test di Turing, ovvero: cos’è un’AI?
Il termine “intelligenza artificiale” venne coniato nel 1956 alla conferenza di Dartmouth, nel New Hampshire, ove un gruppo di ricercatori usò tale termine per riferirsi ad un programma chiamato Logic Theorist che era in grado di dimostrare alcuni semplici teoremi della logica proposizionale, come la contrapposizione[5], implementando su di esso il sistema formale dei Principia Mathematica di Russell e Whitehead (oggi in disuso, ma storicamente rilevante per lo sviluppo dei sistemi formali in generale e della teoria della calcolabilità nello specifico).
Sebbene il termine sia nato solo nel 1956, è già nel 1950 che si cominciò a far largo l’idea che una macchina potesse emulare rigorosamente il ragionamento umano. Alan Turing, padre dell’informatica, scrisse un articolo apparso su Mind in cui sosteneva che la domanda “può una macchina pensare?” andava sostituita con quella più precisa “può una macchina essere linguisticamente indiscernibile da un umano?”.[6] Per accertare che questa potesse essere una possibilità anche solo plausibile, egli propose un test di verifica; ormai celeberrimo e noto come test di Turing. Durante il test, una donna siede dinanzi a un computer in una stanza altrimenti vuota. Su questo computer, senza che la donna possa saperlo, è implementato un programma P in grado di comunicare, o comunque di rispondere a delle domande.
In una seconda stanza c’è un altro uomo, il giudice, che deve mandare delle e-mail con delle domande identiche sia per la donna sia per il programma P. Sia la donna sia P inviano le loro risposte al giudice, ma il giudice non sa da chi provengano le risposte. Una volta ricevute le risposte, il giudice deve decidere per ogni coppia di risposte quale delle due risposte, considerate singolarmente, è stata battuta alla tastiera dalla donna e quale è stata scelta da P. Se in almeno il 50% delle risposte il giudice non è in grado di decidere con sicurezza a chi dei due attribuire la risposta, allora il test di Turing è superato e P è, a tutti gli effetti, un’AI.[7]
Perché il test di Turing è importante? Perché il campo dell’intelligenza artificiale si fonda su tale test. Si fonda, cioè, sulla possibilità che una macchina in grado di superare il test di Turing sia costruibile (Nilsson 1998).
Questo, tuttavia, non chiarisce quale sia la risposta alla domanda “che cos’è l’AI?”. Sappiamo, infatti, che il test di Turing è una condizione necessaria affinché una macchina sia un’AI, ma a domande del tipo “che cos’è X?” si deve fornire una serie di condizioni necessarie e sufficienti, ossia delle equivalenze fra ciò che è da definire, cioè X, e ciò che definisce X. Russell e Norvig (1995) forniscono una serie di quattro possibili risposte alla domanda in questione avendo come riferimento il tipo di funzione o di obiettivo che una tale macchina deve raggiungere.[8]
Un’AI è una macchina il cui obiettivo è o (a) ragionare/agire come un umano o (b) ragionare/agire in modo idealmente perfetto. Dunque, un’AI è (a1) un sistema che ragiona come un umano, o (a2) che agisce come un umano; oppure è (b1) un sistema che ragiona in modo ideale e perfetto, o (b2) che agisce in modo ideale e perfetto.[9]
Dirimere fra queste quattro alternative è una questione molto tecnica e complessa che non val la pena affrontare in questa sede. Ciò che, però, è opportuno aver presente è che queste distinzioni possono rientrare in una macro-distinzione filosofica, divenuta canonica all’incirca negli anni Novanta del secolo scorso, che divide l’AI in due blocchi: AI forti e AI deboli.
Ma che cosa s’intende quando si parla di AI più o meno forti? A questa domanda hanno dedicato vari sforzi numerosi filosofi della mente e della scienza che, buona pace per gli ingegneri e gli informatici, hanno dovuto porre ordine concettuale nel campo dell’intelligenza artificiale.
[1] L’autoapprendimento in base a nuovi dati è una capacità di quelle macchine che rafforzano i loro output man mano che a esse vengono consegnati numerosi e diversi input. In altre parole, si utilizzano metodi statistici per migliorare la performatività dell’algoritmo intelligente rispetto ad un pattern di dati. Il termine-concetto di apprendimento automatico, o machine learning, risale a Samuel 1959.
[2] Per quanto possa sembrare incredibile, la filosofia gioca un ruolo centrale per lo sviluppo dell’odierna intelligenza artificiale. Si pensi, per esempio, alle parole del fisico britannico David Deutsch che, il 3 ottobre 2012 in un articolo sul Guardian, ha sostenuto che l’assenza di una comprensione attiva della filosofia e dei suoi concetti pregiudicherebbe al campo dell’intelligenza artificiale un progresso reale e tangibile. Deutsch sostiene, infatti, che: “AGIs [intelligenza artificiale generale, N.d.R.] is a matter of philosophy, not computer science or neurophysiology, and that the philosophical progress that will be essential to their future integration is also a prerequisite for developing them in the first place”. L’articolo è consultabile al seguente indirizzo: https://www.theguardian.com/science/2012/oct/03/philosophy-artificial-intelligence.
[3] Si rimanda a McNamara & Van De Putte 2006 per un’introduzione estesa e puntuale alla logica deontica.
[4] Per un’introduzione tecnica ma accessibile alle logiche filosofiche si rimanda a Palladino & Palladino 2007.
[5] La contrapposizione è una tautologia, cioè una proposizione sempre vera, che si può esprimere così: “Se A allora B, quindi se non B allora non A”. Logic Theorist, primo programma dimostratore del suo genere, impiegava grandi energie di calcolo per dimostrare la contrapposizione che, a dirla tutta, appare anche piuttosto banale. Oggi semplici dimostratori come HOL o Isabelle o Coq trattano, infatti, tali tautologie alla stregua di proposizioni auto-evidenti dimostrabili in un solo passo automatico del loro algoritmo.
[6] Turing (1950) sostenne anche che dal 2000 in poi “one will be able to speak of machines thinking without expecting to be contradicted”. La sostituzione della prima con la seconda domanda si spiega perché noi non possiamo avere accesso alla mente altrui se non tramite il linguaggio. L’essere in grado di comunicare o parlare con altri individui è un buon metodo euristico per non cadere nel solipsismo.
[7] Il test di Turing è stato visivamente raffigurato nella cinematografia, che è piena di film sci-fi che esplorano un tale scenario. Si pensi, a solo titolo informativo, a Blade Runner di Ridley Scott, anno 1982, oppure ad A.I. – Intelligenza Artificiale di Steven Spielberg, 2001, oppure ancora al più recente Ex Machina di Alex Garland, 2015.
[8] Definizioni di questo tipo sono anche dette definizioni sortali. Una definizione sortale di un oggetto è quella che identifica l’oggetto in base alla sua funzione propria e specifica. Per approfondimento si veda Runggaldier & Kanzian 2002.
[9] Si noti che per Turing, sulla base del suo celebre test, è sufficiente che la macchina agisca come un umano affinché sia considerata un’intelligenza artificiale.