HomeIn primo pianoLa rete neurale CADIE: una speranza, una rassegnazione o un'anticipazione?

La rete neurale CADIE: una speranza, una rassegnazione o un’anticipazione?

Alle 23:59:59 del 31/03/2009, sulla sua home page, Google annuncia che pochi istanti prima era stata azionata per brevissimo tempo la prima (al mondo) Entità Cognitiva Autoeuristica a Intelligenza Distribuita, in sigla CADIE (Cognitive Autoeuristic Distributed-Intelligence Entity). Si tratterebbe di un sistema di reti neurali, un robot, per intenderci, capace di apprendere, o meglio di risolvere problemi di apprendimento per rinforzo, come il sistema di reti neuronali del nostro cervello. Insomma il gruppo di ricercatori di Mountain View avrebbe costruito una macchina capace di acquisire autonomamente conoscenza e quindi capace di procedimenti intuitivi e analogici.

Chi se le beve tutte, naturalmente ci avrà subito creduto, senza lasciarsi minimamente insospettire dal fatto che il momento scelto per l’annuncio della scoperta era la soglia del 1° aprile.
Ci avranno creduto, senza pensare inizialmente ad un pesce d’aprile, persone che hanno stima del più potente motore di ricerca del mondo e per di più ritengono che oggi è possibile pervenire a risultati come questi.
Avrà nutrito dei sospetti, o quanto meno avrà fatto i dovuti distinguo, chi stima Google,  ma sa che a tutt’oggi né un sistema top-down, né un sistema bottom-up può descrivere la coscienza.
Infine non ci avrà creduto chi generalmente mostra scetticismo verso qualunque annuncio di nuove scoperte, né avranno mostrato di credervi gli scettici di comodo per non dare vantaggi alla concorrenza.

- Advertisement -

Cerchiamo di vedere cosa può esservi dietro l’annuncio di Google. Insomma, perché Google ha scelto CADIE come pesce d’aprile 2009? Che sappiamo riguardo alla possibilità di realizzazione di una tale macchina? Vogliamo approfittare dell’evento per una riflessione sulle reti neurali e sulla Intelligenza Artificiale (abbreviazione inglese: A. I.).
Con questo scritto si vuole, quindi, cercare di sciogliere l’enigma delle interrogazioni contenute nella chiusura della monografia allegata all’annuncio: “Wil humans be surpassed by artificial evolution?” (Potrà l’uomo essere superato dalla evoluzione artificiale?), “Will be lose our sense of uniqueness, and if so, what would that meam?” (Riusciremo a perdere il nostro senso di unicità, e in caso affermativo cosa significherebbe?), “Did you really think we possibly coud?” (lett. Pensavate realmente che noi possibilmente potevamo?).
Procediamo con ordine, allora, e diamo uno sguardo ad alcuni punti salienti del rapporto tra ricerca psicologica e Intelligenza Artificiale.

Uno dei filoni del Cognitivismo, la Scienza Cognitiva, nata ufficialmente nel 1977 quando R. Schank, A. Collins e E. Charniak fondano una rivista, così chiamata, pone una forte accentuazione sull’Intelligenza Artificiale e sull’utilizzo della simulazione, tutto ciò partendo dall’analogia dell’uomo con il calcolatore.
Per capire la comprensione umana, la Scuola Cognitiva, tenendo conto delle acquisizioni della filosofia, della linguistica, della scienza della computazione e della psicologia, ha esplorato le aree dell’attenzione, del  ragionamento, dell’apprendimento e della memoria,  si è concentrata sul funzionamento della mente come sistema di elaborazioni e si è interessata dei meccanismi di comprensione del linguaggio e del pensiero (compreso il pensiero intuitivo), del ragionamento umano su base logica, senza tralasciare l’intreccio cognitivo-sociale, vale a dire i processi di attribuzione volti a spiegare il comportamento altrui.

Questi studi ci hanno fatto soffermare sull’importanza sia della consapevolezza dei nostri modelli di comprensione del mondo e della valutazione corretta, sia delle premesse di riuscita, sia della fallacia di tali modelli.
Ora, tralasciando di mettere a confronto i modelli della scuola cognitiva con quelli di altre scuole ma volendoci soffermare particolarmente sulle reti neurali in un rapporto tra cervello e macchina artificiale, cerchiamo di analizzare la situazione attuale fra cognitivismo, connessionismo e Intelligenza Artificiale.

Le reti neurali con la loro caratteristica di fondo rappresentata dal parallelismo hanno fatto del connessionismo un atteggiamento sicuramente rivoluzionario  nel modo di concepire l’intelligenza e di realizzarla su una macchina, una rivoluzione, con i limiti che sottolineeremo appresso, resa possibile dai progressi della ricerca teorica in fisica, nelle neuroscienze, in psicologia, e della tecnologia.

Se per i cognitivisti il computer è il modello della mente, per i connessionisti le reti neurali sono il modello del cervello. Coi modelli del connessionismo si riproducono aspetti dell’intelligenza altrimenti non producibili (ad esempio con i modelli dell’Intelligenza Artificiale). Torneremo più avanti su questo argomento, per ora diciamo che restano seri dubbi sulle possibilità per un sistema (il computer), che è fisicamente diverso dal cervello, di possedere l’intelligenza nella sua interezza. Pare comunque che si stia cercando di riprodurre artificialmente materiale biologico con il quale costruire sistemi artificiali realmente intelligenti (M. Bove, M. Giuliano, M Grattarola, S. Martino, “Reti bioartificiali di neuroni”, Le Scienze, n. 375, anno 1999, pp. 64 – 70).

I connessionisti ritengono che nella mente (cioè nel cervello) non vi sia nulla di simbolico e che essa è comprensibile solo attraverso i concetti della fisica/matematica. Il carattere simbolico della mente sarebbe allora all’esterno della mente stessa, “cioè nei nostri discorsi intorno alla mente” (Domenico Parisi, Intervista sulle reti neurali. Cervello e macchine intelligenti, Il Mulino, Bologna, 1989, p. 144). Il connessionismo creerebbe così le premesse che rendono possibile la distinzione tra pensiero e linguaggio e quindi lo studio del loro rapporto nell’ambito dell’intelligenza umana e di quanto la nostra intelligenza è influenzata dal fatto che possediamo un linguaggio.

Il connessionismo in alcune sue affermazioni è vicino al filone ecologico del cognitivismo nato con Ulric Neisser,  quando parla di addestramento di reti a saper prevedere come cambia l’ambiente, in quanto percepito dall’organismo e in funzione dei movimenti dell’organismo, come cambia in quanto manipolato e modificato dalle azioni dell’organismo e  come è possibile realizzare certi stati desiderati nell’ambiente, ed altro.
Indubbiamente la forza del connessionismo sta nel paradigma della complessità, ma non mancano però forti critiche al suo indirizzo e all’A. I.,  specialmente a quella parte ad esso connessa. Sono critiche che provengono sia dal campo filosofico, che da quello della fisica, da quello della biologia e delle neuroscienze, sì, proprio dalle neuroscienze alle quali propone i suoi modelli.

Certamente sia nei modelli della scienza cognitiva che in quelli delle reti neurali artificiali non ci si discosta da regole computazionali. Ma  in Ombre della mente. Alla ricerca della coscienza (Rizzoli, Milano 1996; ed. or. : Shandown of the Mind, 1994) Roger Penrose sostiene, fondando la sua critica anche sul teorema di incompletezza di Kurt Gödel, che nessun procedimento computazionale di questo tipo è adeguato a spiegare tutte le manifestazioni operative della comprensione umana cosciente e quindi anche le procedure che controllano le variazioni sinaptiche, che sono processi in cui probababilmente sono implicati certi fattori casuali e che sono, nello stesso tempo, il segno del fenomeno  noto come plasticità mentale.

Il neurobiologo Steven Rose (La fabbrica della memoria. Dalle molecole alla mente, Garzanti, Milano, 2a ed. 1995; ed. or. The Making of Memory, 1992)  ritiene che se il compito delle metafore della mente (sia quella del cognitivismo che quella del connessionismo) è quello di capire in che modo possono funzionare cervelli e menti reali – o anche la memoria – , si tratta di approcci fondamentalmente sbagliati. “Di qui – scrive Rose –  l’insuccesso di tutte le previsioni precedenti circa la data in cui gli specialisti dell’IA [Intelligenza Artificiale] costruiranno un computer simile alla mente” (cit. p.111). Rose ci ricorda che la metafora del cervello–computer fallisce perché i sistemi neuronali che costituiscono il cervello sono, diversamente dal computer, radicalmente indeterminati. Il cervello manifesta una grande plasticità – ossia una capacità di modificare la sua struttura, la sua chimica, la sua fisiologia e il suo output – in risposta a contingenze di sviluppo e di esperienza; esso manifesta però una ridondanza e una straordinaria capacià di recuperare un autput funzionalmente appropriato dopo danni e lesioni. Il cervello esegue calcoli lineari con relativa lentezza, ma può esercitare funzioni di giudizio con una facilità estrema, cosa che rappresenta un difficile rompicapo per i costruttori di modelli. La conclusioni a cui Rose perviene è che “il significato non è un processo riducibile ad un numero di bit di informazione” (cit. p. 116).

Ricordiamo poi che l’immunologo, premio Nobel, Gerald Edelman insiste sulla natura dinamica e di sviluppo dei processi biologici che l’analogia col computer  sopprime. Nel suo Bright Air, Brillant Fire (The Penguin Press, London 1992) suggerisce che, invece di regole del tipo di Hebb, dalle quali non sembrano discostarsi i connessionisti, nel cervello operi una forma di principio «darwiniano», che gli permette di migliorare continuamente le sue prestazioni per mezzo di una specie di principio di selezione naturale che controlla le connessioni  – essendoci, in questo modello, significativi punti di contatto con il modo con cui il sistema immunitario sviluppa la capacità di «riconoscere» sostanze. Molta importanza è poi attribuita al ruolo complesso dei neurotrasmettitori e delle altre sostanze chimiche implicate nella comunicazione tra i neuroni (cfr.  E. D’Angelo, P. Rossi e V. Taglietti, “Dalle Sinapsi alla memoria”, Le Scienze, n. 374, anno 1999, pp. 72 – 77).
Ritornando al fisico Roger Penrose, c’è da ricordare che egli non solo esclude che la mente possa essere rappresentata in termini computazionali, ma aggiunge anche che quando in uno schema l’azione di controllo è esercitata da un comune calcolatore di uso generale, allora questo schema evidentemente è di tipo computazionale. Egli è convinto che qualsiasi autentico progresso della comprensione fisica del fenomeno della coscienza richiederà – come requisito indispensabile – un cambiamento fondamentale della nostra visione del mondo fisico e nello stesso tempo non esclude che sia possibile costruire un dispositivo veramente intelligente, a condizione che non sia una «macchina»  nel senso specifico di essere controllato in modo computazionale. Un dispositivo di questo genere “dovrebbe incorporare quello stesso tipo di azione fisica che è capace di suscitare la nostra consapevolezza. Poiché non abbiamo ancora una teoria fisica di questa azione, è certamente prematuro far congetture e sulla possibilità di realizzare un simile dispositivo e sui tempi dell’eventuale realizzazione” (cit. p. 477).
Quindi solo quando esisterà un dispositivo capace di avere consapevolezza di quello che sta facendo, questo avrà, oltre alla qualità della comprensione, qualità di giudizi estetici e morali e quindi qualità per potere giudicare da solo ciò che è bello e ciò che è buono. Gli autori di questo scritto si chiedono sarà mai possibile? E come, se sarà possibile, entreranno a far parte di questo dispositivo quelle misteriose funzioni (le emozioni) provenienti  dalle zone sottostanti alla corteccia dove sono allocate amigdala, sistema limbico, ippocampo, corrispondenti alla parte più antica del cervello?

Noi con Penrose siamo convinti che le nostre facoltà di comprensione cosciente e di sensibilità sono problemi profondi che sono ancora lontani da una spiegazione e, come lui, siamo certi che su questi problemi nessuna risposta chiara sarà possibile senza il concorso delle caratteristiche che collegano quelli che in maniera irreale chiamiamo mondo platonico, mondo fisico e mondo mentale, ma che in realtà sono aspetti di un unico mondo, la cui natura vera in questo momento neppure intravediamo.

Penrose in sostanza sottolinea due cose principali:
1)    “Senza lo sbocco di una nuova fisica rimarremo impigliati nei lacci di una fisica completamente computazionale, o computazionale con elementi casuali. Entro questi lacci non vi può essere alcun ruolo scientifico per l’intenzionalità e l’esperienza soggettiva, ma se ce ne sciogliamo, ne abbiamo almeno la potenzialità” (cit. p. 510);
2)    Nonostante un calcolatore esegua calcoli con precisione e rapidissimamente e sa applicare ripetutamente le conoscenze dei programmatori, esso non ha alcuna comprensione di quello che sta facendo.

Queste, cose sottolineate da Penrose, ci richiamano le note critiche del filosofo americano John Searle all’intelligenza artificiale e ai modelli computazionali della mente umana. Il suo argomento della  «stanza
cinese»
ha segnato il dibattito sul mentale negli ultimi venticinque anni ed è riportato sia da Steven Rose in La fabbrica della memoria (cit. p.112) e sia da Roger Penrose in Ombre della mente (cit. pp. 63-64).

Searle, che si è occupato dell’intenzionalità e della coscienza, riscontra che nella teoria computazionale, che sostiene l’analogia tra la mente e il computer, ci sia un errore di fondo: «la teoria computazionale – egli dice –  si applica alla manipolazione di simboli, 0 e 1. Ma la mente implica qualcosa di più della manipolazione di simboli: la mente non possiede solo una sintassi, ma anche una semantica”(in Eddy Carli, “Biologicamente. A colloquio con John Searle”, Le Sienze, n. 374, anno 1999, pp. 12 – 13).
Searle dà a questa riflessione la forma di un «esperimento mentale», oggi conosciuto appunto come l’argomento della «stanza cinese». Egli in sostanza ci dice: “immaginate di avere a disposizione un software così sofisticato che vi consenta di fornire risposte corrette a domande in cinese, senza che voi conosciate una parola in cinese. Ma anche se riusciste a rispondere correttamente, questo non significa che sapete il cinese. Allo stesso modo il computer non fa che applicare le regole del programma senza capire nulla di quello che sta facendo” (cit. ).
Con tale argomento Searle ha voluto dimostrare in maniera molto semplice ed evidente che la mente umana non funziona come un programma per computer e che uno dei maggiori limiti del modello computazionale della mente è costituito dal suo essere profondamente antibiologico. Egli che è uno dei sostenitori di una teoria della coscienza in cui l’inconscio è considerato connesso alla coscienza, insiste sul fatto che dove è coinvolta la coscienza, il cervello ha un’importanza cruciale.

Noi non sappiamo quali nuove frontiere apriranno i computer del futuro. A proposito, a che punto siamo con la grande sfida rappresentata dall’utilizzo di speciali molecole funzionanti come commutatori e cavi, ma anche come elementi di memoria per calcolatori? (cfr. Mark A. Reed e James M. Tour, Molecole nel computer, Le Scienze, n. 384, anno 2000, pp. 86 – 92). E che ne è di macchine (o che dir si voglia agenti intelligenti) capaci di colmare lacune in alcune attività cerebrali provenienti da lesioni o altro tipo di danni? Potranno queste speciali molecole essere utilizzate nella neurochirurgia che si avvale oggi di una perfezionata metodica di mappaggio corticale, che “rappresenta uno degli elementi cardine per l’operabilità delle zone encefaliche ‘eloquenti’”? (Miran Skrap, “La stimolazione corticale: Indicazioni e tecnica”, in Miran Skrap (a cura di) Mappaggio corticale e Craniotomie con paziente sveglio, New MAGAZINE edizioni, Trento 2004. p. 77).

Il nostro discorso qui si arresta con la seguente domanda: che Google non abbia voluto preannunciarci in maniera giocosa qualche rimarchevole risultato collegabile all’utilizzo delle sopraddette speciali molecole?

Rinaldo Longo e Carmen Longo

MOSTRE

La Sapienza Università di Roma - Foto di Diego Pirozzolo
Fondazione Roma Sapienza, “Arte in luce” X edizione

LIBRI