Noam Chomsky: grammatica universale e innatismo linguistico (parte I)

Il presente articolo è il primo di una serie di tre, rispettivamente nominati: “Introduzione”, “GU, teoria dei P&P, l’operazione di Merge” e “Innatismo della facoltà del linguaggio”.

Introduzione

Noam Chomsky è, probabilmente, il più influente e celebre dei linguisti e filosofi del linguaggio del secondo Novecento. Ha introdotto concetti imprescindibili per la linguistica contemporanea ed ha orientato l’odierna ricerca sul linguaggio intorno a temi controversi ed affascinanti.

E’ possibile individuare delle regole universali nella costruzione delle frasi di ogni lingua?, la facoltà d’uso del linguaggio, di cui noi umani disponiamo, è innata o acquisita?, la capacità di parlare è stata sviluppata in vista della comunicazione o dell’organizzazione logica dei propri pensieri?, in che modo l’abilità linguistica si sviluppa nei bambini?, perché ogni bambino nel mondo impara a parlare sempre intorno ai 3 anni?,

Questo è il focus dell’analisi e della ricerca nella linguistica contemporanea in seguito ai contributi offerti dalle idee di Noam Chomsky. In questo articolo ci occuperemo soprattutto della prima, della seconda e della terza questione, e sarà chiarito perché l’innatismo linguistico è una conseguenza della presenza di regole comuni per ogni lingua.

L’inizio della riflessione di Chomsky è fissato al 1957, quando fu pubblicato Syntactic Structures, un testo per certi versi rivoluzionario che conferì un ruolo di primo piano a meccanismi ricorsivi a cui fu assegnato un ruolo principe nella formazione delle proposizioni.

I meccanismi ricorsivi

Ma che cos’è un meccanismo ricorsivo? È un algoritmo, ossia una sequenza finita di operazioni, per mezzo di cui dato un input, allora si può generare un output con una certa funzione applicata all’input e, poi, questa funzione può essere riapplicata all’output. Si noti che senza questa ripetitività dell’applicazione l’algoritmo non sarebbe un meccanismo ricorsivo.
In altre parole, un meccanismo ricorsivo è un ciclo ripetitivo di passi, dove ogni passo è ottenuto in modo simile al precedente e al successivo.

Uno degli esempi più comuni di meccanismo ricorsivo è questo: dato un numero, sommare sempre un’unità per formare un altro numero che sia successore del primo. Per mezzo di un meccanismo così banale, applicando sempre la somma, un qualunque individuo razionale sarebbe in grado di generare l’insieme dei numeri naturali. Dato lo 0, si potrà generare 0+1 e così (0+1)+1 e poi (0+1+1)+1 e così via.

Un altro esempio di meccanismo ricorsivo è la moltiplicazione, in quanto susseguirsi di ripetizioni di addizioni: 3×3 = 9, ma 9 = 3+3+3, per cui 3×3 è ottenibile ricorsivamente come 3+3+3.

Un altro esempio ancora è quello delle regole dei giochi da tavolo: supponendo che il vincitore della mano sia quello che rimanga con almeno quattro carte tutte di cuori allora la regola ricorsiva potrebbe essere “pesca una carta dal mazzo, se è di cuori tienila, scartala altrimenti”. Questa è una regola ricorsiva perché dà sempre lo stesso risultato (tenere o scartare la carta) e può essere ripetuta.
Lo stesso tipo di meccanismo che usiamo per formare l’insieme dei numeri naturali, o per compiere altre operazioni, è in qualche modo utilizzato anche per costruire le proposizioni, o frasi, di cui ogni lingua è composta.

Regole di riscrittura, ricorsività

Indicando con S la proposizione, con NP il sintagma nominale, con VP il sintagma verbale e con D il determinatore, si possono formulare i seguenti meccanismi ricorsivi, o regole di riscrittura, per costruire frasi complete:

1. S\Rightarrow NP+VP
2. NP\Rightarrow D+N
3. VP\Rightarrow V+NP
4. D\Rightarrow the,\ a,\ il,\ lo,\ la,\ un,\ una\ldots
5. V\Rightarrow hit,\ took,\ scrivere,mangiare\ldots
6. N\Rightarrow man,\ book,cavallo,\ luna\ldots\Biggm

Le istruzioni (i)-(vi) sono regole ricorsive. La regola che sottostà ad ognuna di esse, infatti, è:

X\Rightarrow Y

che si può leggere come “dato X, riscrivilo come Y. Data una frase, allora questa è scomponibile come l’unione fra un nome ed un verbo. Dato un sintagma nominale, allora questo è scomponibile come l’unione di un determinatore (il, lo, la, un, una…) ed un nome (cane, gatto, elefante, libro…). Lo stesso vale per il sintagma verbale. Il determinatore, il verbo ed il nome considerati individualmente, invece, non implicano altro meccanismo ricorsivo se non quello di riferirsi direttamente all’oggetto da essi indicato, per esempio: dato il tipo nome, riscrivilo come l’oggetto lessicale effettivamente in uso in una certa lingua.

In genere, si è abituati a considerare ogni lingua come un insieme isolato di regole grammaticali e lessicali.[2] Non è proprio così per la linguistica, che invece ha adottato anzitempo la divisione fra linguistiche che hanno ad oggetto lingue particolari considerate in modo indipendente, ricercandone le regole lessico-grammaticali specifiche, e linguistiche che esaminano tutte le lingue considerate in modo astratto e unitario, proponendo un ventaglio di regole grammaticali comuni a tutte. I due tipi di ricerca sono suddivisi, quindi, in linguistiche su:

\mathcal{L}_E (linguaggio di tipo E) e su \mathcal{L}_I (linguaggio di tipo I), ovvero fra linguistiche che analizzano un linguaggio esterno –come l’inglese, l’italiano, il russo, il giapponese, l’arabo e così via– e linguistiche che analizzano un linguaggio interno, cioè “una proprietà interna della mente umana” (Chomsky 1988) comune ad ogni lingua.

Ciò che Chomsky intende per \mathcal{L}_I è, dunque, non una lingua ma una facoltà del linguaggio, un insieme composto da “una procedura computazionale ed un lessico” (Chomsky 2000) e, dunque, ‘linguaggio’ è usato piuttosto diversamente per riferirsi ad un componente interno della mente/cervello” (Hauser et alii 2002).

Mentre un linguista che studia un \mathcal{L}_E si limita ad individuare le regole lessico-grammaticali che determinano le costruzioni di una sola lingua, il linguista che si occupa di un \mathcal{L}_I ricerca dei veri e propri universali linguistici. [3]

La teoria di Chomsky sul linguaggio si muove entro i confini dell’approccio internalista, ovvero si occupa di ricostruire una grammatica comune ad ogni lingua. Già la teoria esposta in Syntactic Structures era una grammatica generativa del suddetto tipo: una grammatica è generativa se e solo se (sse d’ora in avanti) le sue regole producono tutti e soli oggetti grammaticali, o sintattici. In altre parole, un insieme di regole grammaticali è chiuso sse per ogni argomento di tipo G la regola restituisce un valore di tipo G. Una grammatica generativa è, dunque, un sistema di regole di riscrittura formalmente descritte (cioè descritte in modo esplicito e, all’occorrenza, facendo uso di simboli matematici), come (i)-(vi).[4]

Grammatica universale

Gli sviluppi degli studi linguistici degli anni ’80 condussero la tesi chomskyana ad un arricchimento teorico, sicché essa si perfezionò nella grammatica universale (GU d’ora in avanti). GU è il sistema computazionale formato da un insieme di princìpi comuni ad ogni lingua. Un sistema linguistico è computazionale sse tramite esso è possibile costruire delle frasi aventi una certa struttura interna articolata e determinata.[5]

Secondo Chomsky, la diversità fra le lingue ammonta ad una mera diversità superficiale di parametri particolari, o variabili che mettono in atto i princìpi di GU, ma il sistema computazionale è identico per ogni lingua perché ogni lingua è una sorta di specializzazione di GU.[6]

Prima di proporre qualche esempio di princìpi e parametri (P&P) – che vedremo nel prossimo paragrafo – occorre introdurre una notazione formale per indicare le componenti strutturali della frase.

La notazione è quella delle parentesi etichettate, la cui forma è: [_{S\ }F] con F che è una frase ed il pedice sulla parentesi aperta che indica il tipo di oggetto sintattico contenuto nelle parentesi, che nel nostro caso è per l’appunto una frase completa

cioè un insieme composto da NP e VP.[7] Che una frase completa sia composta da NP e VP significa che quando costruiamo una frase uniamo un soggetto ed un predicato (verbale o nominale). Non esistono infatti frasi che siano formate solo da un soggetto o solo da un predicato.

Oggetti linguistici isolati come “Marco” o “corre” o “da Miriam” non formano una frase, tutt’al più formano delle strutture minori all’interno di una frase vera e propria. Una frase completa, per esempio, si può costruire a partire dagli elementi che poc’anzi abbiamo indicato, unendoli come segue: Marco corre da Miriam.  Dato per assodato che una frase è almeno l’unione di un soggetto ed un predicato, esaminiamo una frase per assumere dimestichezza con la notazione formale. Sia tale frase “Gianni ama una ragazza”, allora essa si può riportare, equivalentemente, così:

(1) [_S\ Gianni\ ama\ una\ ragazza]

L’etichetta S indica che (1) è una frase completa. Dobbiamo quindi individuare l’NP ed il VP. Si nota facilmente che “Gianni” è il nome, o SN, e “ama una ragazza” il predicato, o SV. Per cui si deriva subito:

(1.1) ) \ [_S[_{NP}\ Gianni] [VP ama una ragazza]].

Si vede anche ad occhio che in (1.1) v’è un elemento articolato che è VP. È articolato perché è ulteriormente divisibile e, infatti, consta di due parti: un verbo ed un nome. La regola ricorsiva (iii) esposta sopra dice appunto che un VP = V + NP.
La notazione formale deve quindi rendere conto di questa articolazione e perciò, con l’analisi di VP che consta di un V ed un NP, si otterrà:

(1.2) [_S[_{NP}\ Gianni] [VP [V ama] [NP una ragazza]]].

Ci sono altri componenti articolati in (1.2)? , questa volta la parte da continuare a dividere è l’NP: “una ragazza”. La regola (ii) dice che ogni NP è formato da D (determinatore) ed N, sicché si dedurrà che da (1.2) segue:

(1.3) [_S[_{NP}\ Gianni] [VP [V ama] [NP [Duna] [N ragazza]]]].

In (1.3) non vi sono più elementi ulteriormente divisibili, dunque l’analisi della struttura sintattica della frase è conclusa, esplicitata per mezzo delle regole di riscrittura per ogni costituente di volta in volta sotto esame.[8]


[1] Chomsky 1957, cap. 4, par. 4.1.

[2] La differenza fra grammatica e lessico si può facilmente afferrare per mezzo del seguente esempio (euristico ma efficace): sia in inglese sia in italiano una regola grammaticale impone che il soggetto, nelle frasi affermative, preceda il predicato, sicché “Aristotele scrisse l’Organon” e “Aristotle wrote the Organon” sono grammaticalmente identiche. Le due frasi, però, sono lessicalmente differenti, perché la parola “Aristotele” è diversa da “Aristotle” e così “scrisse” lo è rispetto a “wrote” e “l’” rispetto a “the”, perché le lettere che le formano sono semplicemente diverse oppure diversamente disposte. Il lessico, quindi, è l’insieme delle composizioni dei termini a partire dalle lettere dell’alfabeto. La grammatica è l’insieme delle regole di costruzione sintattica delle frasi e dei sintagmi.

[3] Cook & Newson 1996, pp. 20-23.

[4] Ivi, pp. 35-36.

[5] Berwick & Chomsky 2017, pp. 9-11.

[6] Cook & Newson 1996pp. 8-9.

[7] Ivi, pp. 28-32, per il lettore interessato, consigliabile lettura è il più tecnico e completo Haegeman 2006.

[8] Alcuni teoremi caratterizzano il calcolo delle parentesi etichettate: in ogni struttura il numero delle parentesi è sempre pari; ogni frase ha grado di complessità uguale o maggiore di 2; ogni struttura parentetica etichettata è convertibile con un grafo orientato; per ogni frase F, F ha una struttura sse F è ben formata. Questi sono teoremi interessanti di linguistica formale, di cui non è, però, possibile occuparsi in tale sede per ovvi motivi.

In copertina: Noam Chomsky.

Matteo Orilia

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Torna in alto