L’Intelligenza Artificiale: dove ha sbagliato

Print Friendly

di Noam Chomsky e Yarden Katz – 3 novembre 2012

Se si dovesse fare una classifica delle sfide intellettuali più grandi e più elusive della civiltà, il problema di “decodificare” noi stessi – comprendere il funzionamento interno delle nostre menti e del nostro cervello e come l’architettura di tali elementi è codificata nel nostro genoma – sarebbe sicuramente ai primi posti. Tuttavia i diversi campi che hanno raccolto questa sfida, dalla filosofia e psicologia all’informatica e alle neuroscienze, sono stremati dai disaccordi riguardo a quale sia l’approccio corretto.

Nel 1956 lo studioso di informatica John McCarthy coniò l’espressione “intelligenza artificiale” (AI) per descrivere lo studio dell’intelligenza applicandone le caratteristiche essenziali a un computer. Fornire un esempio di un sistema intelligente che utilizzasse un hardware prodotto dall’uomo, invece che il nostro “hardware biologico” di cellule e tessuti, avrebbe mostrato il sapere definitivo e avrebbe avuto evidenti applicazioni pratiche nella creazione di dispositivi intelligenti o addirittura di robot.

Alcuni dei colleghi di McCarthy delle facoltà vicine, tuttavia, erano più interessati innanzitutto a come l’intelligenza funziona negli esseri umani (e in altri animali). Noam Chomsky e altri lavorarono a quelle che divennero le scienze cognitive, un campo interessato a scoprire le rappresentazioni e le regole mentali che sono alla base delle nostre capacità percettive e cognitive. Chomsky e i suoi colleghi dovevano superare il paradigma allora dominante del comportamentismo, di cui era campione lo psicologo di Harvard B.F.Skinner, che riduceva il comportamento animale a un semplice insieme di associazioni tra le azioni e le successive ricompense o punizioni. La sconfitta della presa di Skinner sulla psicologia è comunemente segnata dalla recensione critica di Chomsky, del 1967, del libro di SkinnerVerbal Behavior’ [Comportamento verbale], un libro nel quale Skinner tentava di spiegare la capacità linguistica utilizzando principi comportamentistici.

L’approccio di Skinner poneva l’accento sulle associazioni storiche tra uno stimolo e la risposta dell’animale, un approccio facilmente inquadrato come una specie di analisi statistica empirica, che prediceva il futuro come una funzione del passato. La concezione del linguaggio di Chomsky, d’altro canto, poneva l’accento sulla complessità delle rappresentazioni interiori, codificate nel genoma, e sulla loro maturazione alla luce dei dati corretti in un sofisticato sistema computazionale, che non si può ridurre utilmente a un insieme di associazioni. I principi comportamentistici delle associazioni non potevano spiegare la ricchezza della conoscenza linguistica, il nostro utilizzo infinitamente creativo di essa, o la rapidità con cui i bambini la acquisiscono attraverso un’esposizione soltanto minima e imperfetta al linguaggio offerta dal loro ambiente. La “facoltà linguistica”, come vi si riferiva Chomsky, era parte della dotazione genetica dell’organismo, in gran parte in modo analogo al sistema visivo, al sistema immunitario e al sistema circolatorio, e dovevamo affrontarla proprio come affrontavamo questi sistemi biologici più terra-terra.

David Marr, un neuroscienziato collega di Chomsky al MIT definì un quadro generale per studiare i sistemi biologici complessi (come il cervello) nel suo autorevole testo ‘Vision’ [Visione], un quadro cui l’analisi di Chomsky della capacità linguistica più o meno si adatta. Secondo Marr, un sistema biologico complesso può essere compreso a tre livelli distinti. Il primo livello (“livello computazionale”) descrive l’input e l’output del sistema, che definiscono il compito che il sistema sta svolgendo.  Nel caso del sistema visivo, l’input poteva essere l’immagine proiettata sulla nostra retina e l’output poteva essere l’identificazione, da parte del nostro cervello, dell’immagine osservata. Il secondo livello (“livello algoritmico”) descrive la procedura attraverso la quale l’input è convertito in output, cioè come l’immagine sulla nostra retina può essere elaborata per svolgere il compito descritto dal livello computazionale. Infine il terzo livello (“livello attuativo”) descrive come il nostro hardware biologico di cellule attua la procedura descritta dal livello algoritmico.

L’approccio adottato da Chomsky e Marr per capire come le nostre menti fanno quello che fanno è il più possibile diverso da quello del comportamentismo. L’accento, qui, è sulla struttura interna del sistema che consente di eseguire un compito, piuttosto che sull’associazione esterna tra comportamento passato del sistema e contesto. L’obiettivo consiste nello scavare nella “scatola nera” che muove il sistema e descriverne il funzionamento interno, in modo molto simile a come uno studioso di informatica spiegherebbe come funziona un segmento di programma ben progettato e come può essere eseguito su un computer.

Raccontata oggi, la storia delle scienze cognitive è una storia di trionfo indubitabile di un approccio essenzialmente chomskyano sul paradigma comportamentista di Skinner, un risultato cui si fa comunemente riferimento coma alla “rivoluzione cognitiva”, anche se Chomsky rifiuta questa espressione. Anche se questa può essere una descrizione relativamente accurata della scienza e della psicologia cognitiva, il pensiero comportamentista è lungi dall’essere defunto nelle discipline collegate. I paradigmi sperimentali comportamentistici e le spiegazioni associazioniste del comportamento animale sono utilizzati normalmente dai neuroscienziati impegnati nello studio della neurobiologia del comportamento negli animali da laboratorio, come i roditori, dove non è applicato il quadro del sistema a tre livelli promosso da Marr.

Nel maggio dell’anno scorso, durante il centocinquantesimo anniversario del Massachusetts Institute of Technology, si è tenuto un congresso su “Cervello, Mente e Macchine”, che ha visto riuniti studiosi di informatica, psicologi e neuroscienziati di spicco per discutere il passato e il futuro dell’intelligenza artificiale e dei suoi collegamenti con le neuroscienze.

Il convegno è stato finalizzato a ispirare entusiasmo multidisciplinare per il riproporsi della domanda scientifica dalla quale ha avuto origine il campo dell’intelligenza artificiale: come funziona l’intelligenza? Come fa il nostro cervello a far emergere le nostre capacità cognitive e ciò potrà mai essere messo in atto in una macchina?

Noam Chomsky, parlando al congresso, non si è dimostrato molto entusiasta. Chomsky ha criticato il campo dell’AI per aver adottato un approccio che ricorda il comportamentismo, salvo che in una forma più moderna, computazionalmente sofisticata. Chomsky ha sostenuto che il grande utilizzo di tecniche statistiche per cogliere regolarità in masse di dati non ha probabilità di generare l’idea esplicativa che la scienza dovrebbe offrire. Per Chomsky, è improbabile che la “nuova AI” – concentrata sull’uso di tecniche di apprendimento statistico per migliorare l’esplorazione e la previsione dei dati – generi principi generali a proposito della natura degli esseri intelligenti e della cognizione.

Questa critica ha stimolato una elaborata replica a Chomsky da parte del direttore delle ricerche di Google e noto ricercatore nel campo dell’AI, Peter Norvig, che ha difeso l’utilizzo dei modelli statistici e ha sostenuto che i nuovi metodi e la definizione del progresso dell’AI non sono molto lontani da ciò che accade nelle altre scienze.

Chomsky ha riconosciuto che l’approccio statistico può avere un valore pratico, proprio come nell’esempio di un utile motore di ricerca, ed è reso possibile dall’avvento di computer veloci capaci di elaborare grandi masse di dati. Ma per quanto riguarda la scienza, Chomsky tende a sostenere è inadeguata o, detto in modo più aspro, piuttosto superficiale. Non saremmo in grado di insegnare molto al computer riguardo a cosa realmente significhi l’espressione “il fisico Sir Isaac Newton” anche se siamo in grado di creare un motore di ricerca che restituisce risultati sensati agli utenti che digitano l’espressione.

Emerge che i disaccordi relativi sono stati pressanti per i biologi che cercano di capire sistemi biologici più tradizionali, del genere di quelli che Chomsky ha collegato alla facoltà del linguaggio. Proprio come la rivoluzione informatica ha consentito l’analisi delle grandi quantità di dati che alimentano la “nuova AI”, la rivoluzione del sequenziamento nella biologia moderna ha dato origine ai campi fiorenti della genomica e della biologia dei sistemi. Il sequenziamento ad alto parallelismo, una tecnica mediante la quale milioni di molecole di DNA possono essere lette rapidamente ed economicamente, ha trasformato il sequenziamento di un genoma da una costosa impresa decennale a una comune e accessibile procedura di laboratorio. Anziché studiare in modo certosino geni isolati, possiamo ora osservare il comportamento, nel suo complesso, di un sistema di geni in azione nelle cellule, in centinaia o migliaia di situazioni diverse.

La rivoluzione del sequenziamento è appena cominciata ed è già stata ottenuta una sbalorditiva quantità di dati, che ha portato con sé grandi promesse e pubblicità per nuove terapie e diagnosi delle patologie umane. Ad esempio, quando un medicinale tradizionale contro il cancro non funziona in un gruppo di pazienti, la risposta potrebbe essere nel loro genoma, che potrebbe avere qualche proprietà speciale che impedisce al farmaco di agire. Con dati sufficienti di comparazione delle caratteristiche relative dei genomi di questi malati di cancro con i giusti gruppi di controllo, si potrebbero scoprire medicinali individuali, arrivando a una specie di “medicina personalizzata”. Implicito in questo tentativo è il presupposto che con strumenti statistici sufficientemente sofisticati e una raccolta di data sufficientemente vasta, possano essere estratti segnali interessanti dal rumore di grandi sistemi biologici poco compresi.

Il successo di campi come la medicina personalizzata e altre ramificazioni della rivoluzione del sequenziamento e dell’approccio della biologia dei sistemi dipendono dalla nostra capacità di gestire quelle che Chomsky ha chiamato “masse di dati non analizzati”, ponendo la biologia al centro di un dibattito simile a quello che ha luogo nel campo della psicologia e dell’intelligenza artificiale sin dagli anni ’60.

La biologia sistemica non è sorta senza scetticismo. Il grande genetista e biologo premio Nobel Sydney Brenner ha definito una volta il campo come “scienza a basso input, a basso rendimento e a risultato nullo.” Brenner, un contemporaneo di Chomsky che ha anch’egli partecipato allo stesso congresso sull’AI, è stato ugualmente scettico sull’approccio sistemico alla comprensione del cervello. Descrivendo un approccio sistemico emergente alla mappatura dei circuiti cerebrali chiamato connectomia, che cerca di mappare i collegamenti di tutti i neuroni del cervello (cioè ricavare un diagramma di quali cellule nervose siano collegate a quali altre), Brenner lo ha definito una “forma di pazzia”.

La mordace espressione a effetto di Brenner contro la biologia sistemica e le tecniche collegate nelle neuroscienze non è lontana dalla critica di Chomsky all’AI. Una coppia improbabile, la biologia sistemica e l’intelligenza artificiale affrontano entrambe lo stesso compito fondamentale di decodificare un sistema altamente complesso il cui funzionamento interno è in larga misura un mistero. Tuttavia tecnologie in continuo miglioramento producono una grande quantità di dati relativi al sistema, solo una frazione della quale potrebbe essere rilevante. Dobbiamo affidarci i potenti approcci informatici e statistici per separare il segnale dal rumore o dobbiamo guardare a principi più fondamentali che sottostanno al sistema e ne spiegano l’essenza? Il desiderio di raccogliere ancor più dati è irresistibile, anche se non è sempre chiaro in quale cornice teorica tali dati possano inquadrarsi. Questi dibattiti sollevano una vecchia e generale domanda della filosofia della scienza: cosa costituisce una teoria o spiegazione scientifica soddisfacente e come dovrebbe essere definito il successo in campo scientifico?

Mi sono intrattenuto con Noam Chomsky in un pomeriggio d’aprile in una sala riunioni piuttosto trascurata, situata in un angolo nascosto dello splendido Stata Center di Frank Gehry al MIT.  Volevo capire meglio la critica di Chomsky all’intelligenza artificiale e perché essa possa muoversi nella direzione sbagliata. Volevo anche esplorare le implicazioni della sua critica in altri rami della scienza, come le neuroscienze e la biologia sistemica, che tutte affrontano la sfida della decodificazione di sistemi complessi e in cui i ricercatori si trovano spesso di fronte a un mare di dati in continua espansione. La motivazione dell’intervista era che Chomsky viene raramente intervistato oggi su argomenti scientifici. I giornalisti sono troppo occupati a ottenere i suoi punti di vista sulla politica estera statunitense, sul Medio Oriente, sull’amministrazione Obama e su altri argomenti standard.  Un’altra ragione era che Chomsky appartiene a una specie rara di intellettuali, una specie che si sta estinguendo rapidamente. Fin dal famoso saggio di Isaiah Berlin, è diventato un passatempo preferito degli accademici collocare vari pensatori e scienziati nel continuo “Riccio-Volpe”: il Riccio, un lavoratore meticoloso e specializzato, guidato da progressi incrementali in campo chiaramente definito, contrapposto alla Volpe, un pensatore geniale guidato dalle idee, che balza di domanda in domanda, ignorando i confini settoriali e applicando le proprie competenze dove appaiono applicabili. Chomsky è speciale perché fa sembrare questa distinzione un vecchio cliché logoro.  La profondità di Chomsky non è a spese della versatilità o dell’ampiezza, tuttavia per la maggior parte ha dedicato la sua intera carriera scientifica allo studio di argomenti definiti della linguistica e della scienza cognitiva. L’opera di Chomsky ha avuto un’enorme influenza in una varietà di campi esterni al suo, tra cui l’informatica e la filosofia, e lui non si è tirato indietro dal discutere e criticare l’influenza di tali idee, il che l’ha reso una persona particolarmente interessante da intervistare. Video dell’intervista si possono trovare qui.

Voglio cominciare con una domanda molto semplice. All’inizio dell’AI c’era un estremo ottimismo sui progressi del settore, ma le cose non sono andate così. Perché è stato così difficile? Se si chiede ai neuroscienziati perché capire il cervello sia così difficile, loro danno delle risposte intellettualmente molto insoddisfacenti, come che il cervello ha miliardi di cellule e non possiamo registrarle tutte, e così via.

Chomsky: C’è del vero. Se si dà un’occhiata al progresso della scienza, le scienze sono una specie di continuo, ma sono suddivise in settori. Il maggiore progresso si ha nelle scienze che studiano i sistemi più semplici. Così prendiamo ad esempio la fisica: grandi progressi lì.  Ma uno dei motivi è che i fisici hanno un vantaggio che non ha nessun altro settore della scienza. Se qualcosa diventa troppo complicato lo passano a qualcun altro.

Come i chimici?

Chomsky: Se una molecola è troppo grande la si affida ai chimici. I chimici, dal canto loro, se la molecola è troppo grande o il sistema diventa troppo grande, passano la cosa ai biologi. E se diventa una questione troppo grossa anche per loro, è passata agli psicologi, e da ultimo finisce nelle mani del critico letterario, e così via. Perciò quello che dicono i neuroscienziati non è del tutto sbagliato.

Tuttavia potrebbe essere – ed è stato sostenuto, secondo me, in modo piuttosto plausibile, anche se ai neuroscienziati la cosa non va – che la neuroscienza nell’ultimo paio di secoli si sia mossa su un binario sbagliato. C’è un libro abbastanza recente di un neuroscienziato cognitivo molto bravo, Randy Gallistel e King, che sostiene – plausibilmente, secondo me – che la neuroscienza ha sviluppato una specie di fascinazione per l’associazionismo e le relative idee sul comportamento umano e animale. E in conseguenza ha cercato ciò che aveva le proprietà della psicologia associativa.

Come la plasticità hebbiana? [Nota del curatore: una teoria, attribuita a Donald Hebb, secondo la quale le associazioni tra stimolo ambientale e risposta allo stimolo possono essere codificate rafforzando le connessioni sinaptiche tra i neuroni.]

Chomsky: Beh, come rafforzare le connessioni sinaptiche. Gallistel sostiene da anni che se si vuole studiare correttamente il cervello si dovrebbe cominciare, un po’ come Marr, chiedendosi quali compiti sta eseguendo. Per questo è prevalentemente interessato agli insetti. Perciò, se si vuole studiare, diciamo, la neurologia di una formica ci si chiede cosa fa la formica. Emerge che le formiche fanno cose parecchio complicate, come l’integrazione dei percorsi, ad esempio. Se si osservano le api, la navigazione delle api implica calcoli molto complicati che tengono conto della posizione del sole, eccetera. Ma in generale ciò che egli sostiene è che se si guarda alla cognizione animale, e anche a quella umana, si tratta di sistemi computazionali. Perciò si vuole osservare le unità di calcolo.  Considerala una macchina di Turing, diciamo, che è la forma più semplice di computazione, si devono trovare unità che abbiano proprietà come “leggi”, “scrivi” e “spostati”. E’ l’unità computazionale minima, perciò si deve cercare qualcosa di simile nel cervello. Non lo si troverà mai se si cercano il rafforzamento delle connessioni sinaptiche o le proprietà di campo, e così via. Si deve cominciare cercando cosa c’è e cosa opera e vederlo dal livello più elevato di Marr.

Giusto, ma la maggior parte dei neuroscienziati non si mette a descrivere gli input e output del problema che sta studiando. E’ più interessata, diciamo, a mettere un topo in una situazione di apprendimento e a registrare quanti più neuroni possibile o a chiedersi se il gene X è necessario per il compito di apprendimento e così via. E’ questo il genere di affermazioni prodotto da tali esperimenti.

Chomsky: E’ così …

E’ concettualmente sbagliato?

Chomsky: Beh, sai, se ne possono ricavare informazioni utili. Ma se quello che si fa in realtà è una specie di calcolo basato su unità computazionali, non le si troverà in quel modo. E’ un po’ come guardare sotto il lampione sbagliato, una cosa così. C’è un dibattito … non penso che la posizione di Gallistel sia molto ampiamente accettata dai neuroscienziati, ma non è una posizione non plausibile, ed è fondamentalmente nello spirito dell’analisi di Marr. Così, quando si studia la visione, sostiene lui, si comincia chiedendosi quali compiti computazionali sta svolgendo il sistema visivo. E poi si cerca un algoritmo che potrebbe eseguire quei calcoli e infine si cerca un meccanismo del tipo che potrebbe rendere operativo l’algoritmo. Altrimenti non si potrà trovare mai nulla. Ci sono molti esempi di questo, anche nelle scienze ‘dure’ [rigorosamente oggettive o sperimentali, fisica, biologia, ecc. – n.d.t.] ma certamente nelle scienze ‘molli’ [come l’espressione ‘scienze dure’ è una definizione colloquiale, e non del tutto precisa e condivisa; si tratta del campo scientifico residuale rispetto alle scienze ‘dure’, ad esempio le scienze sociali, la psicologia evolutiva, le discipline umanistiche ecc. – n.d.t.] Si tende a studiare ciò che si sa come studiare, voglio dire ciò appare sensato. Abbiamo certe tecniche sperimentali, abbiamo un certo livello di conoscenza, cerchiamo di forzare i limiti. Il che va bene; voglio dire, non è una critica, ma si fa quel che si sa fare. D’altro canto val la pena di chiedersi se si stia andando nella direzione giusta. E potrebbe essere che se si assumesse grosso modo il punto di vista Marr-Gallistel, con il quale personalmente simpatizzo, si lavorerebbe in modo diverso, si cercherebbero altri tipi di esperimenti.

Giusto, dunque io penso che un’idea chiave in Marr sia, come hai detto, trovare le unità giuste per descrivere il problema, una specie di giusto “livello di astrazione”, se vuoi. Così, se prendiamo un esempio concreto di un nuovo campo della neuroscienza, chiamato connectomia, dove l’obiettivo consiste nel trovare il diagramma circuitale di organismi molto complessi, trovare la connettività di tutti i neuroni, diciamo, nella corteccia cerebrale umana o in quella dei topi, questo approccio è stato criticato da Sidney Brenner, che per molti versi è [storicamente] uno dei creatori dell’approccio. I sostenitori di questo campo non la smettono di chiedersi se il diagramma circuitale è il livello giusto di astrazione. Forse non lo è. Dunque qual è la tua idea al riguardo?

Chomsky: Beh, ci sono domande molto più semplici. Qui al MIT c’è da decenni un programma interdisciplinare sul nematode C. elegans, e per quel che ne capisco, anche con questo minuscolo animale, dove si conosce il diagramma circuitale, penso siano 800 neuroni o qualcosa del genere …

Penso 300 …

Chomsky: … ancora non si riesce a predire cosa farà [il nematode C. elegans]. Forse perché si guarda nel posto sbagliato.

Vorrei passare al tema delle diverse metodologie che sono state utilizzate nell’AI. Dunque, la ‘buona AI vecchio stile’, come viene chiamata ora, faceva un intenso uso del formalismo, nella tradizione di Gottlob Frege e di Bertrand Russell, la logica matematica, per esempio, o i suoi derivati, come il ragionamento non monotonico e così via. E’ interessante dal punto di vista della storia della scienza che anche molto recentemente questi approcci siano stati quasi cancellati dalla norma e siano stati in larga parte sostituiti – nel campo che si chiama AI attuale – da modelli probabilisti e statistici. La mia domanda è: cosa pensi spieghi questa svolta e si tratta di un passo nella direzione giusta?

Chomsky: Ho sentito Pat Winston tenere una conferenza al riguardo anni fa. Uno dei punti da lui sostenuti era che l’AI e la robotica erano arrivate al punto in cui si potevano fare concretamente cose utili, così c’è stata una svolta verso le applicazioni pratiche e in qualche modo sono state, forse non abbandonate, ma messe accantonate le domande scientifiche fondamentali, semplicemente presi dal successo della tecnologia e dal conseguire obiettivi specifici.

Cosi si è passati all’ingegneria …

Chomsky: E’ diventato … beh, la cosa è comprensibile, ma ovviamente ha deviato dalle domande originali. Devo dire, quanto a me, che ero molto scettico sul lavoro originale. Pensavo che, innanzitutto, fosse troppo ottimistico, assumeva che si potessero realizzare cose che richiedevano una vera comprensione di sistemi che erano scarsamente compresi, e non si può semplicemente ottenere quella comprensione scatenandovi una macchina complicata. Se si prova a farlo si è indotti a un’idea del successo che si autorinforza, perché si ottengono dei successi in termini di tale concezione, ma questo è molto diverso da quello che è fatto nella scienza. Così, per esempio, prendiamo un caso estremo; supponiamo che qualcuno affermi di voler eliminare la facoltà di fisica e di volerlo fare nel modo giusto. Il modo “giusto” consiste nel riprendere una quantità infinita di video di quel che succede fuori dalla finestra e di darli in pasto al computer più grosso e più veloce, gigabyte di dati, e operare una complessa analisi statistica –  sai, inferenza bayesiana e questo e quello. [Nota del curatore: un approccio moderno all’analisi dei dati che fa uso intenso della teoria della probabilità] – e si ottiene un qualche genere di previsione di cosa succederà poi fuori dalla finestra. In realtà si ottiene una previsione molto migliore di quella che potrà mai formulare il dipartimento di fisica. Beh, se il successo è definito in termini di conseguimento di una buona approssimazione a una massa di dati caotici non analizzati, allora è molto meglio fare le cose in questo modo che nel modo in cui le fanno i fisici, sai, niente esperimenti mentali a proposito di piani senza attrito e così via. Ma non si otterrà mai il tipo di comprensione cui la scienza mira da sempre, quella che si ottiene è un’approssimazione di quel che  sta per succedere.

E avviene dappertutto. Si supponga di voler predire il tempo di domani. Un modo consiste nel dire ‘OK, guarderò alle statistiche precedenti, se vuoi, e c’è un’alta probabilità che il tempo di domani sarà lo stesso che è stato ieri a Cleveland’ e così ne prendo nota e dove sta il sole avrà un certo effetto, così ne prendo nota, e si mette insieme una quantità di assunti analoghi, poi si conduce l’esperimento, lo si esamina più volte, lo si corregge con i metodi bayesiani, si raccolgono migliori precedenti. Si arriva a un’approssimazione parecchio buona di come sarà il tempo domani. Non è questo che fanno i meteorologi; loro vogliono capire come funziona. E queste sono semplicemente due concezioni diverse di cosa s’intende per successo, di cos’è una conquista. Nel mio campo, quello del linguaggio, lo si riscontra dovunque. Come la scienza cognitiva computazionale applicata al linguaggio, l’idea di successo utilizzata è virtualmente sempre questa. Così, se si raccolgono sempre più dati, e statistiche sempre migliori, si può ricavare un’approssimazione sempre migliore a un immenso corpus di testo, come tutto quel che c’è negli archivi del The Wall Street Journal, ma non si impara nulla sulla lingua.

Un approccio molto diverso, che io ritengo sia quello giusto, consiste nel vedere se si può capire quali sono i principi fondamentali che hanno a che fare con le proprietà centrali, e riconoscere che nell’uso effettivo ci saranno migliaia di altre variabili che intervengono, un po’ come quello che succede fuori dalla finestra, e in qualche modo si aggiungeranno in seguito, se si vogliono ricavare migliori approssimazioni; questo è un approccio diverso. Queste sono semplicemente due concezioni diverse della scienza. La seconda è ciò che la scienza è sin da Galileo, la scienza moderna. L’approssimare dati non analizzati è una specie di nuovo approccio; non totalmente nuovo, ci sono cose del genere nel passato. E’ fondamentalmente un approccio nuovo che è si è andato accelerando a motivo dell’esistenza di memorie enormi, di processi di elaborazione molto rapidi, che consentono di fare queste cose che non avrebbero potuto essere fatte manualmente. Ma io penso, per quel che mi riguarda, che ciò stia indirizzando materie come la scienza cognitiva computazionale in una direzione forse di qualche applicabilità pratica …

… nell’ingegneria?

Chomsky: …ma allontanandole dalla comprensione. Sì, forse dell’ingegneria efficace. Ed è piuttosto interessante constatare cosa è successo all’ingegneria. Cioè, quando sono arrivato al MIT, erano gli anni ’50, questa era una scuola di ingegneria. C’era una facoltà di matematica molto buona, una facoltà di fisica, ma erano facoltà di servizio. Insegnavano agli ingegneri dei trucchi che potevano utilizzare. Nella facoltà di ingegneria elettronica si imparava come costruire un circuito. Beh, andando al MIT negli anni ’60, oppure ora, è totalmente diverso. Indipendentemente da quale sia il proprio settore dell’ingegneria si apprendono le stesse scienze fondamentali e la stessa matematica. E forse si impara un po’ come applicarle. Ma quello è un approccio molto diverso. Ed è la conseguenza del fatto che, forse realmente per la prima volta nella storia, le scienze fondamentali, come la fisica, avevano davvero qualcosa da dire agli ingegneri. E, inoltre, le tecnologie hanno cominciato a cambiare molto velocemente, perciò non ha molto senso apprendere le tecnologie di oggi se saranno diverse tra dieci anni. Così, si devono apprendere le scienze fondamentali che saranno applicabili a qualsiasi cosa arrivi in seguito. E in gran parte lo stesso è successo alla medicina. Così, nel secolo scorso, di nuovo per la prima volta, la biologia ha avuto qualcosa di serio da dire alla pratica della medicina, così si doveva apprendere la biologia se si voleva diventare medici, e le tecnologie, di nuovo, cambieranno. Bene, penso sia una specie di transizione da qualcosa di simile a un’arte, che s’impara come praticare – e lo stesso sarebbe tentare di collegare di dati che non si capiscono, in qualche modo, forse costruendo qualcosa che funzioni – alla scienza, a ciò che è accaduto nell’era moderna, grosso modo la scienza galileiana.

Capisco. Tornando al punto a proposito della statistica bayesiana nei modelli del linguaggio e della cognizione, tu hai notoriamente sostenuto che parlare della probabilità di una frase è qualcosa di inintelligibile già per conto suo …

Chomsky: Beh, si può ricavare un numero, se si vuole, ma non significa nulla.  

Non significa nulla. Ma sembra quasi che esista un modo banale per unificare il metodo probabilistico con il riconoscimento che ci sono rappresentazione mentali interne molto ricche, comprensive di regole e di altre strutture simboliche, e il compito della teoria della probabilità è soltanto di collegare dati caotici sparsi per il mondo con queste strutture simboliche interne. E che ciò non impegna a dire nulla su come tali strutture sono state acquisite; potrebbero esserci da sempre, o potrebbero esistere parzialmente con alcuni parametri che vengono affinati, quale che sia la propria concezione. Ma la teoria della probabilità serve soltanto come una specie di collante tra dati caotici e rappresentazioni mentali molto ricche.

Chomsky: Beh … non c’è nulla di male nella teoria della probabilità, non c’è nulla di male nella statistica.

Ma hanno effettivamente un ruolo?

Chomsky: Se si possono utilizzare, bene. Ma la domanda è: per cosa le stiamo usando? Innanzitutto, la prima domanda è: ha senso capire  dati caotici? C’è qualche motivo per capire quello che sta succedendo fuori dalla finestra?

Beh, ne siamo bombardati [di dati caotici]; è uno degli esempi di Marr, ci confrontiamo in continuazione con dati caotici, dalla nostra retina a …

Chomsky: E’ vero. Ma quello che lui dice è: chiediamoci come il sistema biologico sceglie da quel rumore dati che siano significativi. La retina non cerca di duplicare il rumore che entra. Dice ‘cercherò questa, quella e quell’altra cosa’. Ed è lo stesso, diciamo, con l’acquisizione del linguaggio. Il bambino appena nato si trova di fronte a un enorme rumore, quella che William James ha chiamato “una maledetta confusione rumorosa”, proprio un caos.  Se, diciamo, una scimmia o un gattino o un uccello o qualsiasi altro animale fossero esposti a tale rumore, la cosa finirebbe lì. Tuttavia i neonati umani, istantaneamente e automaticamente, scelgono da quel rumore parti sparpagliate che sono collegate al linguaggio. Quello è il primo passo. Bene, ora com’è che avviene ciò? Non avviene mediante analisi statistiche, perché le scimmie possono fare le stesse analisi probabilistiche. E’ cercare cose particolari. Così gli psicolinguisti, i neurolinguisti e altri stanno cercando di scoprire le parti particolari del sistema computazionale e della neuropsicologia che sono in qualche modo sintonizzate con aspetti particolari dell’ambiente. Bene, emerge che ci sono effettivamente circuiti neuronali che reagiscono a particolari tipi di ritmo, che accade si mostri nel linguaggio, come la lunghezza delle sillabe e così via. E ci sono delle prove che quella è una delle prime cose che il cervello del bambino cerca, strutture ritmiche. E tornando a Gallistel e Marr, c’è qualche sistema computazionale interno che sta dicendo ‘bene, ecco cosa farò di queste cose’ e dice, a nove mesi, che il neonato tipico ha respinto – eliminato dal proprio repertorio – le distinzioni fonetiche che non sono usate nel suo linguaggio. Dunque, inizialmente, naturalmente, ogni bambino è sintonizzato su ogni linguaggio. Ma un bambino, diciamo, giapponese a nove mesi non reagisce più alla distinzione tra ‘L’ e ‘R’; è in un certo modo eliminata. Così il sistema sembra riordinare una molteplicità di possibilità e restringerle a soltanto quelle che fanno parte del linguaggio, e c’è un insieme limitato di esse. Si può costruire un non-linguaggio in cui il bambino non ci riuscirà mai, e poi si cercano altre cose. Ad esempio per penetrare un tipo di linguaggio più astratto; ci sono prove sostanziali ormai che una cosa semplice come l’ordine lineare, cosa precede cosa, non entra nei sistemi computazionali sintattici o semantici; semplicemente non sono progettati per cercare quest’ordine lineare. Così si scopre prevalentemente che sono calcolate nozioni di distanza più astratte e non la distanza lineare, e si possono scoprire alcune prove neuropsicologiche anche di questo. Come nel caso in cui se insegnino alle persone dei linguaggi artificiali che utilizzino l’ordine lineare, ad esempio che si nega una frase facendo qualcosa con il terzo termine. Le persone possono risolvere l’enigma, ma apparentemente le aree standard del linguaggio nel cervello non sono attivate; sono attivate altre aree, perciò la cosa viene trattata come un dilemma, non come un problema linguistico. Ci vuole altro lavoro, ma …

Tu assumi come prova convincente che l’attivazione o la non attivazione dell’area cerebrale …

Chomsky: … E’ una prova; ce ne vorrebbero altre, naturalmente. Ma questo è il genere di prove … anche dal lato linguistico si guarda a come il linguaggio funziona; non si usano cose come la terza parola della frase. Prendi una semplice frase come “Istintivamente, le aquile che volano nuotano”; beh, ‘istintivamente’ si collega a ‘volano’, non va con ‘volano’, anche se la cosa non ha senso. Ed è una cosa automatica. ‘Istintivamente’, l’avverbio, non cerca il verbo più vicino, cerca quello strutturalmente più rilevante. E’ un tipo di calcolo molto più difficile. Ma è l’unico tipo di calcolo che è sempre utilizzato. L’ordine lineare è un tipo di calcolo molto semplice, ma non è mai utilizzato. Ci sono tonnellate di prove come questa, e qualche prova neurolinguistica, ma puntano nella stessa direzione. E quando si passa a strutture più complesse, è lì che si rinviene molto altro di questo.

E’ questo, almeno a mio modo di vedere, il modo giusto per cercare di scoprire come effettivamente funziona il sistema; proprio come nella visione, nel laboratorio di Marr, persone come Shimon Ullman hanno scoperto alcune cose piuttosto notevoli, come il principio di rigidità. Non lo si scopre attraverso l’analisi statistica dei dati. Ma lui lo ha scoperto attraverso esperimenti progettati accuratamente. Poi si guarda alla neurofisiologia per vedere se vi si trova qualcosa che esegua quei computi. Penso sia lo stesso nel linguaggio, lo stesso nello studiare la nostra capacità aritmetica, la pianificazione, quasi ogni cosa che si prende in considerazione. Cercare soltanto di occuparsene attraverso dati caotici non analizzati è improbabile che porti da qualche parte, proprio come non avrebbe portato da nessuna parte Galileo. In realtà se si ritorna a ciò, al diciassettesimo secolo, non era facile per persone come Galileo e per altri grandi scienziati convincere la NSA [la Fondazione Nazionale per la Scienza] dell’epoca – cioè gli aristocratici – che una qualsiasi di queste cose avesse senso. Voglio dire, studiare sfere che rotolano su piani privi di attrito, che non esistono. Perché non studiare la crescita dei fiori? Beh, si fosse cercato di studiare la crescita dei fiori all’epoca, forse si sarebbe arrivati a un’analisi statistica di come apparivano le cose. 

Val la pena di ricordare che riguardo alla scienza cognitiva siamo all’incirca pre-galileiani, stiamo soltanto cominciando a inaugurare un settore. E io penso che si possa imparare qualcosa da come funzionava la scelta [all’epoca]. In realtà uno degli esperimenti fondanti della storia della chimica è stato nel 1640 o giù di lì, quando qualcuno ha dimostrato, convincendo il mondo scientifico, da allora sino a Newton, che l’acqua può essere trasformata in materia vivente. Il modo in cui è stato fatto … ovviamente nessuno sapeva nulla della fotosintesi … così quello che si fa è prendere della terra, la si scalda in modo che ne esca tutta l’acqua, la si pesa e la si pone sul ramo di un salice e vi si versa dell’acqua e si misura l’acqua che vi si versa. Quando si è finito l’albero di salice è cresciuto e si prende dell’altra terra e la si riscalda in modo che ne esca tutta l’acqua … la stessa cosa di prima. Si è così dimostrato che l’acqua può trasformarsi in una quercia, o qualcosa del genere. E’ un esperimento, giusto a suo modo, ma è semplicemente che non si sa quali cose si dovrebbero cercare. E queste non sono state note sino a quando Priestly ha scoperto che l’aria è una componente del mondo, che contiene azoto, e così via, e si apprende la fotosintesi e così via. Allora si può rifare l’esperimento e scoprire cosa sta succedendo. Ma si può essere facilmente fuorviati da esperimenti che sembrano funzionare perché non si sa abbastanza su cosa cercare. E si può essere sviati ancor di più se si cerca di studiare la crescita degli alberi semplicemente raccogliendo una quantità di dati sulla crescita degli alberi, affidandoli a un grande computer, ricavandone delle statistiche e ottenendo un’approssimazione di ciò che è accaduto.

Nel campo della biologia considereresti il lavoro di Mendel come un caso riuscito, in cui si prendono questi dati caotici – essenzialmente conteggi – e si arriva a postulare questo argomento teorico …

Chomsky: … Beh, scartando un mucchio di dati che non quadravano.

… Ma comprendendo il rapporto che aveva senso, considerata la teoria.

Chomsky: Sì, fece la cosa giusta. Lasciò che la teoria guidasse i dati. C’erano dei dati contrari che furono più o meno scartati; sai, è qualcosa che non si scrive nei propri documenti. E lui naturalmente parlava di cose che nessuno poteva trovare, come lui non poteva trovare le unità che postulava. Ma, certo, quello è il modo in cui funziona la scienza. Lo stesso nella chimica. La chimica, fino alla mia infanzia, non poi così tanto tempo fa, era considerata uno strumento di calcolo. Perché non si poteva ridurla alla fisica. Così è solo un qualche modo per calcolare il risultato degli esperimenti. L’atomo di Bohr era trattato in quel modo. E’ il modo di calcolare il risultato degli esperimenti, ma non può essere scienza vera, perché non la si può ridurre alla fisica, che incidentalmente è risultata aver ragione, non la si poteva ridurre alla fisica perché la fisica era sbagliata. Quando è arrivata la fisica dei quanti, la si è potuta unificare con una chimica virtualmente immutata. Così il progetto di riduzione era semplicemente il progetto sbagliato. Il progetto giusto era vedere come questi due modi di guardare al mondo potevano essere unificati. Ed è risultato essere una sorpresa; erano unificati cambiando radicalmente la scienza sottostante. Questo potrebbe benissimo essere il caso, ad esempio, della psicologia e della neuroscienza. Voglio dire, la neuroscienza non è lontanamente avanzata quanto lo era la fisica un secolo fa.

Ciò contrasterebbe con l’approccio riduzionista di cercare molecole che siano correlati di …

Chomsky: Sì. In realtà l’approccio riduzionista si è spesso dimostrato sbagliato. E’ sensato l’approccio unificatore. Ma l’unificazione potrebbe rivelarsi non essere nella riduzione, perché il sapere scientifico centrale potrebbe essere mal concepito, come nel caso della fisica-chimica, e io sospetto molto probabilmente nel caso della neuroscienza-psicologia. Se Gallistel ha ragione, sarebbe un caso emblematico che, sì, possono essere unificate, ma con un approccio diverso alle neuroscienze.

Dunque si tratta di un obiettivo di unificazione valido o i campi dovrebbero procedere in parallelo?

Chomsky: Beh, l’unificazione è una specie di ideale intuitivo, parte della mistica scientifica, se si vuole. E’ che si cerca di trovare una teoria unificata del mondo. Ora, forse non ce n’è nessuna; forse parti diverse funzionano in modi diversi, ma l’assunto è che, fino a quando non ne sia definitivamente dimostrato l’errore, presupporrò che esista una rappresentazione unificata del mondo, ed è mio compito cercare di scoprirla. E l’unificazione può non derivare dalla riduzione … spesso non arriva così.  E questa è all’incirca la logica dell’approccio di David Marr: quello che si scopre a livello computazionale dovrebbe essere unificato con quello che un giorno emergerà a livello di meccanismi, ma forse non nei termini del modo in cui oggi comprendiamo i meccanismi.

E sembra essere implicito in Marr che non si possa lavorare parallelamente a tutti e tre [livello computazionale, algoritmico e attuativo] ma si debba procedere secondo una gerarchia dall’alto in basso, il che è un requisito molto stringente, dato che la scienza solitamente non opera in questo modo.

Chomsky: Beh, lui non avrebbe detto che si debba essere così rigidi. Come, ad esempio, scoprire di più a proposito dei meccanismi potrebbe indurre a modificare il proprio concetto di computazione. Ma c’è una specie di precedenza logica, che non è necessariamente la precedenza della ricerca, poiché nella ricerca tutto va avanti contemporaneamente. Ma penso che il quadro generale sia quello. Anche se dovrei citare il fatto che la concezione di Marr è stata progettata per i sistemi di input …

I sistemi di elaborazione delle informazioni …

Chomsky: Sì, come la visione. Ci sono dei dati là fuori … è un sistema di elaborazione … e  qualcosa entra dentro. Non è qualcosa di progettato molto bene per i sistemi cognitivi. Prendi ad esempio la capacità di eseguire operazioni matematiche …

E’ molto inadeguato ma, sì …

Chomsky: D’accordo [ride]. Ma è una capacità interna; sai che il cervello è un’unità di controllo come una qualche specie di macchina di Turing, e ha accesso a determinati dati esterni, come la memoria, il tempo e così via. E in linea di principio, si potrebbe moltiplicare ogni cosa, anche se ovviamente non in pratica. Si può cercare di scoprire cosa sia quel nostro sistema interno, ma la gerarchia di Marr in realtà non funziona molto bene. Si può parlare del livello computazionale, forse le regole che ho io sono gli assiomi di Peano [Nota del curatore: una teoria matematica (che ha preso il nome dal matematico italiano Giuseppe Peano) che descrive un insieme base di regole e numeri naturali da cui si possono dedurre molti fatti utili sull’aritmetica] o qualcosa del genere; quello è il livello computazionale. In teoria, anche se non sappiamo come, si può parlare del livello neurofisiologico, nessuno sa come, ma non c’è alcun vero sistema algoritmico. Perché non ci sono calcoli del sapere, è semplicemente un sistema di conoscenza. Per scoprire la natura del sistema della conoscenza non ci sono algoritmi, perché non c’è alcun processo. Usare il sistema della conoscenza può avere, sì, un processo, ma è qualcosa di diverso.

Ma, visto che commettiamo errori, non si tratta di una prova di un processo che non ha funzionato?

Chomsky:  Quello è il processo di utilizzo del sistema interno. Ma il sistema interno di per sé non è un processo, perché non ha un algoritmo. Prendiamo, ad esempio, la comune matematica. Se si accettano gli assiomi e le regole di inferenza di Peano, essi determinano tutti i calcoli aritmetici, ma non c’è un algoritmo. Se chiedi come li applica un teorico dei numeri … beh, in ogni genere di modi. Forse non cominci con gli assiomi e cominci con le regole d’inferenza. Si prenda un teorema e si vede se si può stabilire un lemma e, se funziona, allora si vede se si può cercare di fondare tale lemma su qualcosa e infine si ottiene una prova che è un oggetto geometrico.

Ma questa è un’attività fondamentalmente diversa dal sommare piccoli numeri nella propria testa, il che sicuramente ha un qualche genere di algoritmo.

Chomsky: Non necessariamente. C’è un algoritmo per il processo in entrambi i casi. Ma non c’è un algoritmo per il sistema in sé, è una specie di errore di categorizzazione. Non si pone la domanda su cosa sia il processo definito dagli assiomi e dalle regole d’inferenza di Peano; non c’è un processo. Può esserci un processo nell’utilizzarli. E potrebbe essere un processo complicato, e lo stesso vale per il tuo calcolare. Il sistema interno che hai … per quello non sorge la domanda sul processo. Ma sorge per il tuo utilizzo di quel sistema interno e si può moltiplicare la risposta in ogni genere di modi. Come forse quando si somma 7 e 7, diciamo, un algoritmo consiste nel dire ‘Vedrò quanto ci vuole per arrivare a 10. Ci vuole 3, e ora mi rimane 4. Così devo prendere 10 e sommare 4 e ottengo 14.’ Questo è un algoritmo per l’addizione; in effetti è un algoritmo che mi è stato insegnato all’asilo. E’ un modo di fare le somme.

Ma ci sono altri modi di fare le somme; non c’è un algoritmo giusto. Ci sono algoritmi per eseguire il processo del sistema cognitivo che si ha in testa. E per quel sistema non ci si interroga a proposito di algoritmi. Ci si può interrogare a proposito del livello computazionale, ci si può interrogare a proposito del livello del meccanismo. Ma non esiste il livello algoritmico per tale sistema. E’ lo stesso con il linguaggio. Il linguaggio è simile alla capacità matematica. C’è in esso un certo sistema che stabilisce il suono e il significato di una serie infinita di possibili frasi. Ma non è in questione quale sia tale algoritmo. Così come non è in questione cosa dica un sistema formale dell’aritmetica a proposito della dimostrazione dei teoremi. L’utilizzo del sistema è un processo e lo si può studiare in termini dei livelli di Marr. Ma è importante avere chiarezza concettuale riguardo a queste distinzioni.

Sembra proprio un compito sbalorditivo passare da una teoria a livello computazionale, come gli assiomi di Peano, al livello 3 di Marr dei …

Chomsky: meccanismi …

… meccanismi e delle applicazioni …

Chomsky: Oh, sì. Beh …

… senza almeno un algoritmo.

Chomsky: Beh, non penso che sia così. Forse informazioni su come il sistema è utilizzato diranno qualcosa a proposito dei meccanismi. Ma una qualche intelligenza superiore – forse più alta delle nostre – vedrebbe che c’è un sistema interno, ha basi fisiologiche e si possono studiare le basi fisiologiche di tale sistema. Non guardando al processo dal quale è utilizzato. Forse guardare al processo da cui è utilizzato può fornire informazioni utili su come procedere. Ma è un problema concettualmente diverso. Questo è il problema riguardo a quale sia il modo migliore per studiare qualcosa. Così, forse il modo migliore per studiare le relazioni tra gli assiomi di Peano e i neuroni consiste nell’osservare i matematici quando dimostrano teoremi. Ma ciò è soltanto perché se ne potranno ricavare informazioni che possono essere utili. Il vero risultato finale di ciò sarà un resoconto del sistema nel cervello, sulla base fisiologica di esso, senza riferimento ad alcun algoritmo. Gli algoritmi riguardano il processo di utilizzazione, che può contribuire a ottenere risposte. Forse come i piani inclinati ci dicono qualcosa a proposito della velocità di caduta, ma se si guarda alle leggi di Newton, queste non dicono nulla riguardo ai piani inclinati.

Vero. Dunque la logica di studiare i sistemi cognitivi e linguistici utilizzando questo tipo di approccio di Marr ha senso, ma poiché hai sostenuto che la capacità linguistica fa parte del patrimonio genetico, la si potrebbe applicare ad altri sistemi biologici, come il sistema immunitario, il sistema circolatorio …

Chomsky: Certamente. Penso che siano cose molto simili. Si può dire lo stesso dello studio del sistema immunitario.

Potrebbe, in realtà,  essere anche più semplice da fare con quei sistemi, piuttosto che riguardo alla cognizione.

Chomsky: Tuttavia ci si aspetterebbero risposte diverse. Lo si può fare per il sistema digestivo. Supponiamo che qualcuno studi il sistema digestivo. Beh, non studierà quello che succede quando si ha una gastroenterite o quando si è appena mangiato un Big Mac, o roba del genere. Torniamo allo scattare fotografie fuori dalla finestra. Un modo per studiare il sistema digestivo consiste nel raccogliere semplicemente tutti i dati che si riescono a trovare riguardo al sistema digestivo in ogni situazione, buttarli dentro a un computer, operare analisi statistiche; si ottiene qualcosa. Ma non è così che si comporterebbe un biologo. I biologi vogliono prescindere fin dall’inizio da quelle che presumono – forse erroneamente, ci si può sempre sbagliare – essere variabili irrilevanti, come il fatto di avere una gastroenterite.

Ma è esattamente quello che fanno i biologi; prendono di malati di patologie al sistema digestivo, li confrontano con i sani e misurano queste proprietà molecolari.

Chomsky: Lo fanno in uno stadio avanzato. Già sanno molto dello studio del sistema digestivo prima di fare dei confronti, altrimenti non si saprebbe cosa confrontare e perché uno è malato e uno no.

Beh, ci si affida ad analisi statistiche per scegliere le caratteristiche discriminanti. E’ un approccio altamente finanziabile, perché si rivendica di studiare gente malata.

Chomsky: Può essere il modo per finanziare le cose. Come forse il modo per finanziare lo studio del linguaggio consiste nell’affermare che può contribuire a curare l’autismo. E’ una questione diversa [ride]. Ma la logica della ricerca consiste nel cominciare a studiare il sistema prescindendo da quelle che, plausibilmente, si considerano intrusioni irrilevanti, vedere se si può scoprirne la natura fondamentale, poi chiedersi ‘beh, cosa succede quando introduco qualcos’altro, come ad esempio la gastroenterite?’

Sembra tuttavia che ci sia una difficoltà nell’applicare i livelli di Marr a questo tipo di sistemi. Se ci si chiede quale sia il problema computazionale che il cervello sta affrontando, abbiamo un qualche genere di risposta: è una specie di computer. Ma se ci si chiede quale sia il problema computazionale in corso di soluzione dai polmoni, è qualcosa di molto difficile addirittura da immaginare … non è evidentemente un tipo di problema di elaborazione di informazioni.

Chomsky: No, ma non c’è motivo per presumere che tutta la biologia sia computazionale. Possono esserci motivi per assumere che lo sia la cognizione. E in realtà Gallistel non sta dicendo che tutto ciò che è nel corpo andrebbe studiato per scoprire unità di lettura-scrittura-spostamento.

Sembra proprio contrario a ogni intuizione evolutiva. Questi sistemi si sono evoluti insieme, riutilizzando molte delle stesse parti, delle stesse molecole, degli stessi percorsi. Le cellule sono entità computazionali.

Chomsky: Non si studiano i polmoni chiedendosi cosa le cellule calcolano. Si studia il sistema immunitario e il sistema visivo, ma non ci si aspetta di trovare le stesse risposte. Un organismo è un sistema altamente modulare, ha una quantità di sottosistemi complessi, che sono più o meno integrati internamente. Operano in base a principi diversi. La biologia è altamente modulare. Non si assume che sia solo una grande confusione con ogni cosa che agisce allo stesso modo.

No, certo. Ma io sto dicendo che si applicherebbe lo stesso approccio allo studio di ciascun modulo.

Chomsky: Non necessariamente; non se i moduli sono diversi. Alcuni dei moduli possono essere computazionali e altri no.

E dunque quale penseresti sarebbe una teoria adeguata che sia esplicativa, piuttosto che semplicemente predittiva di dati, il metodo statistico? Quale sarebbe una teoria adeguata di questi sistemi che non sono sistemi computazionali? Potremo mai capirli?

Chomsky: Certo. Si può capire molto su, diciamo, quel che fa sì che un embrione evolva in un pollo piuttosto che in un topo, ad esempio. E’ un sistema molto intricato, implica ogni sorta di interazioni chimiche, ogni sorta di altre cose. Persino il nematode non è per nulla ovvio; di fatto ci sono rapporti sugli studi al riguardo … che è tutta una questione di reti neuronali. Si devono esaminare complesse interazioni chimiche che hanno luogo nel cervello, nel sistema nervoso. Si deve esaminare ciascun sistema individualmente. Queste interazioni chimiche potrebbero non essere correlate al modo in cui funziona la nostra capacità aritmetica; probabilmente non lo sono. Ma potrebbero benissimo essere correlate al se decidere di alzare un braccio o di abbassarlo.

Tuttavia se si studiano le interazioni chimiche ciò potrebbe portare a quella che tu hai chiamato semplicemente una ri-descrizione dei fenomeni.

Chomsky: O a una spiegazione. Perché forse vi è direttamente, crucialmente implicata.

Ma se lo si spiega in termini della sostanza chimica X che deve essere attivata, o dell’attivazione del gene X, non si è realmente spiegato come avviene la determinazione dell’organismo. Si è semplicemente scoperto un interruttore e lo si è premuto.

Chomsky: Ma poi si indaga ulteriormente e si scopre cosa fa fare a questo gene questo e quello in queste circostanze e qualcos’altro in circostanze diverse.

Ma se i geni sono il livello di astrazione sbagliato si è fregati.

Chomsky: In quel caso non si ottiene la risposta giusta. E forse non lo sono. Ad esempio, è notoriamente difficile spiegare come un organismo emerge da un genoma. Vi è ogni sorta di produzioni che avvengono nella cellula. Se si osserva soltanto l’azione del gene si può non essere al livello giusto di astrazione. Non lo si sa mai, è questo che si cerca di studiare. Non pensa ci sia alcun algoritmo per rispondere a queste domande; si tenta.

Dunque vorrei passare all’evoluzione. Ha criticato una posizione molto interessante che hai chiamato “empirismo filogenetico”. Ha criticato questa posizione per non avere un potere esplicativo. Afferma semplicemente che: bene, la mente è così com’è a causa di adattamenti all’ambiente in funzione del quale sono stati scelti. E sono stati scelti dalla selezione naturale. Hai sostenuto che questo non spiega nulla perché si fa sempre appello a questi due principi della mutazione e della selezione.

Chomsky: Beh, si può dir loro addio, ma potrebbero essere nel giusto. Potrebbe essere che, diciamo, lo sviluppo della nostra capacità aritmetica è sorto da una mutazione e selezione causale. Se risultasse vero, benissimo.

Sembra un truismo.

Chomsky: Beh, voglio dire, non significa che sia falso. I truismi sono veri [ride].

Ma non spiegano granché.

Chomsky: Forse si tratta del livello di astrazione più elevato cui si può arrivare. Si può inventare un mondo – non penso sia il nostro mondo – ma si può inventare un mondo in cui non accade altro che cambiamenti casuali negli oggetti e selezioni basate su forze esterne. Non penso che sia così che funziona il nostro mondo, non penso che i biologi pensino che funzioni così. C’è ogni genere di modi in cui la legge naturale impone canali nel cui ambito può aver luogo la selezione, e alcune cose accadono e altre cose non accadono. Un mucchio di cose che avvengono nella biologia degli organismi non sono così. Così prendiamo il primo passo, la meiosi. Perché le cellule si dividono in sfere e non in cubi? Non è una mutazione casuale o una selezione naturale; è una legge della fisica. Non c’è motivo di pensare che le leggi della fisica si fermino lì; operano lungo tutto il percorso.

Beh, limitano la biologia, certo.

Chomsky: Bene, allora non si tratta soltanto di mutazioni casuali e di selezione. Si tratta di mutazioni casuali, selezione e tutto quello che conta, come le leggi della fisica.

Così c’è spazio per quegli approcci che sono ora chiamati “genomica comparativa”, come l’Istituto Broad qui [al MIT/Harvard] che produce un’enorme quantità di dati, di genomi diversi, animali diversi, cellule diverse in condizioni diverse e sequenzia ogni molecola che sia sequenziabile. C’è qualcosa da spigolare a proposito di questi compiti cognitivi di alto livello da questi studi sull’evoluzione comparativa o è prematuro?

Chomsky: Non sto dicendo che sia l’approccio sbagliato, non vedo nulla che se ne possa ricavare. Né c’è da aspettarselo.

Non hai nessun esempio di come questa analisi evolutiva abbia informato qualcosa? Come le mutazioni Foxp2? [Nota del curatore: un gene che si ritiene implicato nelle capacità linguistiche o di espressione verbale. In una famiglia con una patologia stereotipa della parola sono state riscontrare mutazioni genetiche che hanno corrotto questo gene. Questo gene si è evoluto in molte mutazioni uniche alla linea evolutiva umana.]

Chomsky: La Foxp2 è piuttosto interessante, ma non ha nulla a che fare con il linguaggio. Ha a che fare con le coordinazioni di strutture motorie fini e cose del genere.  Il che ha luogo nell’uso del linguaggio, come il fatto che quando parli controlli le labbra e così via, ma tutto ciò è marginale rispetto al linguaggio, e lo sappiamo. Così, ad esempio, che tu usi gli organi dell’articolazione o il linguaggio dei segni, sai, i movimenti delle mani, il linguaggio è lo stesso. Di fatto è anche analizzato e prodotto nelle stesse parti del cervello, anche se una di esse muove le mani e l’altra muove le labbra. Così quale sia il genere di articolazione, sembra molto marginale. Penso che sia qualcosa di troppo complicato per parlarne ma penso che se si osservano attentamente le caratteristiche progettuali del linguaggio si trovano prove di questo. Ci sono casi interessanti nello studio del linguaggio in cui si scoprono conflitti tra l’efficienza computazionale e quella comunicativa.

Prendi il caso che ho già citato dell’ordine lineare. Se si vuole sapere a quale verbo si collega un avverbio, il bambino utilizza automaticamente la distanza strutturale minima, non la distanza lineare minima. Beh, si tratta di utilizzare distanze lineari minime, compito computazionalmente facile, ma ciò richiede aver disponibile l’ordine lineare. E se l’ordine lineare è soltanto un riflesso del sistema sensomotorio, il che ha senso, non sarà disponibile. Ciò è una prova che la mappatura del sistema interno in funzione del sistema sensomotorio è marginale per l’operatività del sistema computazionale.  

Ma potrebbe limitarlo, come la fisica limita la meiosi?

Chomsky: Potrebbe, ma ci sono scarse prove di questo. Così, ad esempio, il lato sinistro – sinistro nel senso di iniziale – di una frase ha proprietà diverse dal lato destro. Se vuoi porre una domanda, diciamo “Cosa hai visto?”, metti il ‘Cosa’ davanti, non alla fine. In effetti in ogni lingua in cui un termine di questo tipo – come ‘chi’, o ‘quale libro’, o simili – rimanda a qualcos’altro, si muove  verso sinistra, non verso destra. E’ molto probabilmente un limite elaborativo. La frase si apre dicendoti, dicendo all’ascoltatore, che di che genere di frase si tratta. Se è alla fine, si deve ascoltare prima tutta la frase dichiarativa e alla fine si ottiene l’informazione su ciò che sto chiedendo. Se la formuli, potrebbe essere un limite elaborativo. Dunque questo è un caso, se vero, in cui il limite elaborativo, l’esternazione, influenza effettivamente il carattere computazionale della sintassi e della semantica.

Ci sono casi in cui si riscontrano chiari conflitti tra l’efficienza computazionale e l’efficienza comunicativa. Prendiamo un caso semplice, l’ambiguità strutturale. Se io dico “Le visite dei parenti possono essere una scocciatura”, è ambiguo. [La frase originale è: “Visiting relatives can be a nuisance” dove “visiting relatives” può significare sia “visitare i parenti” oppure “i parenti in visita”; l’ambiguità della traduzione  in italiano, “le visite dei parenti”, da intendere come ‘visite dai parenti’ e visite ai parenti è meno forte – n.d.t.]. Parenti che vengono a visitarci, o andare a visitare i parenti?  Risulta che in ogni caso simile noto, l’ambiguità derivi semplicemente dal consentire che le regole operino liberamente, senza limitazioni, e ciò a volte genera ambiguità. Così si ha efficienza computazionale ma non efficienza comunicativa, perché si determinano ambiguità irresolubili.

O prendiamo quelle che sono chiamate frasi ingannatrici, frasi come “Il cavallo è stato condotto oltre il fienile cadendo”. [Di nuovo non pare possibile riproporre bene in italiano l’ambiguità della frase nell’originale inglese: “the horse raced past the barn fell”, anche se ne risulta un’ambiguità diversa: chi è caduto? – n.d.t.]. Chi ascolta la frase non la capisce, per il modo in cui è formulata; è ingannato. “Il cavallo è stato condotto oltre il fienile” suona come una frase, ma poi ci si chiede cosa ci stia a fare quel “cadendo” alla fine. D’altro canto, se ci si riflette, è una frase perfettamente ben formata. Significa che il cavallo che è stato condotto oltre il fienile è caduto. Ma le regole del linguaggio, quando funzionano semplicemente, capita che producano una frase che è inintelligibile a motivo del fenomeno dell’ambiguità. E c’è una quantità di casi simili. Ci sono cose che semplicemente non si possono dire, per qualche motivo. Perciò se io dico “i meccanici hanno aggiustato le auto” e tu dici “si sono chiesti se i meccanici hanno aggiustato le auto’, tu puoi porre delle domande sulle auto: “Quante auto si sono chiesti se i meccanici hanno aggiustato?”. Più o meno comprensibile. Ma immagina di voler porre una domanda sui meccanici: “Quanti meccanici si sono chiesti se hanno aggiustato le auto?” In qualche modo non funziona, non lo si può dire. E’ un interrogativo sensato ma non lo si può formulare così. Bene, se si esamina la cosa, le regole computazionali, più efficienti, ti impediscono di dirlo. Ma per esprimere il pensiero, per la comunicazione, sarebbe meglio se lo si potesse dire. E dunque c’è un conflitto.

E, di fatto, in ogni caso noto di conflitto vince l’efficienza computazionale. L’espressione genera ogni tipo di ambiguità ma per semplici motivi computazionali sembra che il sistema, internamente, stia computando in modo efficiente, non si preoccupa dell’espressione. Beh, non l’ho reso molto plausibile, ma se lo si esprime chiaramente penso se ne possa ricavare un argomento molto convincente.

Questo dice qualcosa riguardo all’evoluzione. Quello che suggerisce con forza è che nell’evoluzione del linguaggio, si è sviluppato un sistema computazionale, e poi è stato espresso. E se si pensa a come il linguaggio possa essersi evoluto, si è prevalentemente indirizzati a tale posizione. A un certo punto dell’evoluzione umana, e a un punto apparentemente piuttosto recente, considerati i dati archeologici – forse negli ultimi centomila anni, il che è nulla – a un certo punto è emerso un sistema computazionale che ha avuto proprietà nuove, che altri organismi non hanno, che ha una specie di proprietà di tipo aritmetico …

Ha consentito di pensare meglio prima di esprimersi?

Chomsky: Ci ha dato il pensiero. Una specie di ricablaggio del cervello, che accade in una sola persona, non in un gruppo. Così quella persona aveva la capacità di pensare, il gruppo no. Perciò non c’è alcun motivo per esprimersi. Successivamente, se questo cambiamento genetico prolifera, forse molti ne dispongono; bene, allora ha senso immaginare un modo per mapparlo nel sistema sensomotorio e quella è l’espressione, ma come processo secondario.

A meno che l’espressione e il sistema interno del pensiero non sia accoppati in modi che non siamo in grado di prevedere.

Chomsky: Non lo prevediamo, e non ha molto senso. Perché dovrebbe essere collegato al sistema esterno? In realtà, diciamo che la nostra capacità aritmetica non lo è. E ci sono altri animali, come gli uccelli canterini, che hanno sistemi computazionali interni, il loro canto. Non è lo stesso sistema ma è una specie di sistema computazionale interno. Ed è manifestato, anche se a volte no.  Un pulcino di una certa specie acquisisce il canto della specie ma non lo produce prima della maturità. Nel primo periodo esso ha il canto, ma non ha il sistema di espressione. In effetti vale anche per gli esseri umani; c’è una quantità di prove sperimentali al riguardo a significare che si è conseguito il sistema interno in qualche modo, ma non è possibile esprimerlo. Forse non c’è abbastanza memoria, o qualsiasi altro possa essere il problema.

Vorrei chiudere con una domanda a proposito della filosofia della scienza. In un’intervista recente hai affermato che parte del problema è che gli scienziati non riflettono abbastanza su ciò di cui si occupano. Ha raccontato di aver tenuto un corso di filosofia della scienza al MIT e i partecipanti dovevano leggere, diciamo, Willard van Orman Quine, e entrava loro da un orecchio e usciva dall’altro e tornavano a occuparsi dello stesso tipo di scienza di cui si occupavano prima. Quali sono le idee che si sono ottenute nella filosofia della scienza che sono più rilevanti per gli scienziati che tentano, ad esempio, di spiegare la biologia e di offrire una teoria esplicativa anziché una nuova descrizione dei fenomeni? Cosa ti aspetti da una teoria simile e quali sono le idee che contribuiscono a guidare la scienza in quella direzione? Anziché guidarla verso il comportamentismo che sembra essere un’intuizione che, diciamo, molti neuroscienziati hanno?

Chomsky: La filosofia della scienza è un campo molto interessante, ma non penso che contribuisca davvero alla scienza; apprende dalla scienza. Cerca di capire cosa la scienza fa, perché consegue dei risultati, quali sono i percorsi sbagliati, vede se possiamo codificare ciò e arrivare a capire. Quella che penso abbia valore è la storia della scienza. Penso che impariamo dalla storia della scienza un mucchio di cose che possono essere molto valide per le scienze emergenti. Particolarmente quando ci rendiamo conto che, diciamo, nelle scienze cognitive emergenti siamo davvero in una specie di stadio pre-galileiano. Non sappiamo cosa stiamo cercando più di quanto lo sapesse Galileo, e c’è molto da imparare da questo. Così un fatto che colpisce a proposito degli inizi della scienza, non solo di Galileo ma della rivoluzione galileiana, è stato il riconoscere che le cose semplici sono misteriose.

Facciamo il caso, ad esempio, che io sollevi questo [un bicchier d’acqua] e che l’acqua stia bollendo; il vapore sale, ma se lo lascio andare il bicchiere cade. Beh, perché il bicchiere cade e il vapore sale? Bene, per millenni c’è stata una spiegazione soddisfacente per questo: cercano il loro posto naturale.

Come la fisica aristotelica?

Chomsky: Quella è fisica aristotelica. Gli scienziati più grandi e migliori pensavano che quella fosse la risposta. Galileo si è permesso di lasciarsene sconcertare. Non appena ti permetti di essere sconcertato scopri immediatamente che tutte le tue idee sono sbagliate. Come la caduta di una massa grande e di una massa piccola, e così via. Tutte le tue intuizioni sono sbagliate; ci sono misteri dappertutto. E’ qualcosa da imparare dalla storia della scienza. Prendi l’esempio che ti ho proposto: “Istintivamente le aquile che volano nuotano”.  Nessuno ha mai pensato che fosse sconcertante. Beh, perché no? Se ci si riflette è molto sconcertante; si utilizza una computazione complessa invece di una semplice. Beh, se ti permetti di farti sconcertare da questo, come dalla caduta di un bicchiere, ti chiedi ‘perché?’ e sei introdotto a un percorso verso alcune risposte piuttosto interessanti. Come che forse l’ordine lineare semplicemente non fa parte del sistema computazionale, il che è un’affermazione forte per quanto concerne l’architettura della mente; afferma che fa soltanto parte del sistema dell’espressione, secondario, sai. E ciò apre ogni genere di percorsi; lo stesso con qualsiasi altra cosa.

Prendi un altro caso: la differenza tra la riduzione e l’unificazione. La storia della scienza offre diversi esempi molto interessanti di questo, come la chimica e la fisica, e io penso siano molto rilevanti per lo stato delle scienze cognitive e delle neuroscienze oggi.

Yarden Katz è un dottorando della Facoltà di Scienze Cognitive e del Cervello al MIT, dove studia la regolazione dell’espressione del gene nello sviluppo del sistema nervoso e nel cancro. [Brani video dell’intervista sono visibili all’indirizzo http://web.mit.edu/yarden/www/chomsky/ – n.d.t.].

Da Z Net – Lo spirito della resistenza è vivo

 

www.znetitaly.org

 

Fonte: http://www.zcommunications.org/where-artificial-intelligence-went-wrong-by-noam-chomsky

traduzione di Giuseppe Volpe

 

Traduzione © 2012 ZNET Italy – Licenza Creative Commons CC BY-NC-SA 3.0

 

 

 

Comments

comments

Powered by Facebook Comments

I commenti sono chiusi.