gototopgototop
Registrazione

Centro Paradesha

SEI QUI: Home / Articoli / 456. La logica aperta della mente di Ignazio Licata
A+ R A-

456. La logica aperta della mente di Ignazio Licata

E-mail Stampa PDF

 

Di seguito, un estratto dalla prefazione dell’illuminante libro “La logica aperta della mente” di Ignazio Licata – Codice Edizioni. Un’indagine scientifica sulla complessità della vita che attraverso un linguaggio rigoroso, riesce a svelarne la sorprendente organicità, la quale si esplica nello studio della reciprocità dei rapporti che legano le singole parti del tutto.

*****

Prefazione
Dalla fisica alla mente: un invito alla complessità

Tutto è collegato”.
Haruki Murakami

 

Il divario tra le scienze della mente e quelle della materia è stato per lungo tempo così ampio e radicato da far pensare che ogni connessione tra loro dovesse comportare una perdita della fisionomia scientifica di entrambe e che l’intero progetto, pur legittimo nelle sue motivazioni fondamentali, fosse destinato a restare un argomento epistemologicamente mal posto. Ancora oggi, se pensiamo ad uno spettro ideale delle conoscenze, è radicata nella nostra cultura l’idea che fisica e psicologia rappresentano due estremi metodologicamente inconciliabili della scienza.

Fortunatamente le cose non stanno più così, ed in questi ultimi anni lo sviluppo della ricerca ha visto un’interazione sempre più forte ed una convergenza tra scienze cognitive, neuroscienze e fisica teorica che ha indebolito le vecchie dicotomie e lascia intravedere la possibilità di una nuova sintesi che rappresenta una delle sfide concettuali più affascinanti della scienza contemporanea, ed ha come obiettivo la costruzione di una teoria della conoscenza in grado di comprendere come la mente è radicata nel mondo, in una visione unitaria centrata sui nuovi concetti e metodi delle scienze della complessità e dell’emergenza.

I grandi successi delle scienze della materia sono dovuti alla capacità di costruire modelli matematici semplici e generali di un sistema fisico analizzando i comportamenti dei suoi costituenti, secondo un approccio riduzionista che equivale sostanzialmente ad eliminare gli aspetti contingenti di un fenomeno concentrando l’attenzione su pochi livelli considerati fondamentali. In questa categoria metodologica rientrano le ben note teorie unificate, che stanno realizzando il sogno di Einstein di costruire una teoria capace di descrivere le connessioni tra spazio-tempo e materia. Leon Ledermann, uno dei grandi sperimentali impegnati nel progetto, offrì una celebre immagine dell’unificazione, dicendo che l’obiettivo era quello di “catturare” gli aspetti essenziali del mondo in una “teoria del tutto” costituita da un gruppo di equazioni così piccolo da poter essere riprodotto su una t-shirt! Com’è noto, questo ambizioso programma lavora adesso a scenari ancora più ardui, come le supercorde, la teoria dei loop e dei twistor, e l’astrazione matematica è arrivata ad un livello di sintesi tale che le equazioni fondamentali oggi possono dirci qualcosa sulla comune origine della materia e dello spazio-tempo e potrebbero essere contenute in un francobollo (a patto di conoscere l’apparato matematico necessario per decodificarle!). Gli aspetti seducenti delle teorie unificate portano con inevitabilmente altre domande sulla natura di un programma di questo tipo. Quanta varietà del mondo che osserviamo va perduta in queste descrizioni? Quanto è “grande” il “tutto” promesso dalle TOE (Theory of Everything)?
Come tutti i fisici della mia generazione anch’io mi sono formato sui problemi della fisica delle particelle e della cosmologia, ma la pressione di queste domande e lo sviluppo di nuovi strumenti concettuali ha prodotto un mutamento di stile nella ricerca che rende oggi possibile confrontarsi con problemi che fino a pochi anni fa apparivano impensabili. Da molto tempo infatti i fisici non si occupano soltanto dell’infinitamente grande e dell’infinitamente piccolo, ma hanno rivolto la loro attenzione alle sfide formidabili della “terra di mezzo” dei processi mesoscopici e dei fenomeni collettivi. Chi consulta oggi una rivista di fisica o ArXiv, la grande risorsa on-line di pre-print utilizzata dalla comunità scientifica per comunicare velocemente i risultati, troverà molti articoli dedicati a temi che in genere non si associano all’attività “tradizionale” del fisico: DNA e folding protein, organizzazione di eco-sistemi, fluttuazioni del mercato finanziario, topologia del web, evoluzione del linguaggio e, in posizione privilegiata, quella che qui chiameremo per semplicità “fisica dei processi cognitivi”, l’espressione naturale dell’incontro tra le domande antiche della tradizione filosofica e le nuove prospettive teoriche della fisica dell’emergenza. Questo mutamento prospettico ha mostrato i limiti dell’approccio riduzionista ed ha aperto alla fisica nuovi campi d’indagine in cui l’attenzione è rivolta ai comportamenti collettivi, all’architettura globale del sistema ed alla dinamica dell’organizzazione che permette la comparsa di strutture non banalmente riconducibili ai costituenti elementari.

Al riduzionismo si è affiancata una nuova sensibilità metodologica ispirata ad un rinnovato interesse per l’epistemologia costruttivista e per l’approccio sistemico e cibernetico, in cui non si considera più la conoscenza come un’attività che procede dall’analisi dei “mattoni” del mondo ai sistemi più complessi con un processo lineare di accumulazione di informazioni, ma viene pensata come l’adozione di una pluralità di strategie cognitive che considerano in modo integrato più livelli d’analisi in relazione alla complessità del sistema studiato. Una delle trappole concettuali tipiche del riduzionismo è costituita infatti dall’idea che il mondo sia “già lì”, organizzato chiaramente dai livelli più piccoli a quelli più complessi e che questi ultimi non siano altro che un’espressione particolarmente intricata delle interazioni tra un gran numero di oggetti elementari. Questa non è soltanto una questione di natura filosofica, ma ha influito in modo decisivo a definire la fisionomia delle tecniche matematiche tradizionali della fisica teorica. Il punto fondamentale è che questa ordinata semplicità coglie soltanto una piccola parte del mondo in cui viviamo e la maggior parte dei sistemi interessanti – di cui gli organismi viventi ed i processi cognitivi sono esempi evidenti – non possono essere risolti da un approccio di questo tipo e rimangono invisibili ad un’ottica epistemica riduzionista. La scala della complessità comincia con sistemi costituiti da poche particelle ed inattaccabili con il metodo divide et impera del riduzionismo.
È il caso ben noto dei sistemi caotici, in cui processi retti da equazioni molto semplici possono mostrare comportamenti complicatissimi al limite dell’impredicibile, come il problema dei tre corpi in interazione gravitazionale, sistemi di pochi oscillatori accoppiati o il flusso di un rubinetto. In tutti questi casi è la tipica non-linearità del sistema, che dipende dal modo in cui interagiscono i componenti, a rendere questi sistemi intrattabili con i metodi matematici tradizionali. I computer hanno offerto ai fisici la possibilità di studiare il problema da un altro punto di vista, utilizzando la simulazione come un laboratorio di “matematica sperimentale” in cui si potevano controllare e variare a piacimento i parametri del sistema per analizzarne il comportamento. I matematici all’inizio trovarono tutto un po’ troppo euristico per il loro concetto di rigore, ma ben presto si resero conto che se il computer non poteva sostituire il concetto tradizionale di “dimostrazione”, era sicuramente uno strumento utilissimo per esplorare congetture sulla natura di un sistema. In un tipico processo caotico è impossibile fare previsioni sullo stato futuro del sistema, ma si tratta pur sempre di sistemi deterministici, in cui può essere calcolato “passo dopo passo” l’andamento dinamico del sistema. Ormai tutti hanno familiarità con i frattali e gli attrattori strani che riempiono lo schermo nella simulazione di un processo caotico, ma queste “novità” sono veramente tali? O sono piuttosto la conseguenza di un’estrema complicazione che può essere colta con la simulazione ma che è già “tutta lì”, contenuta tra le linee del programma? Nessuno di noi può calcolare cosa penserà ad un istante di tempo determinato, ed è dunque evidente che la complessità con cui si ha a che fare quando si studiano i processi cognitivi è di un ordine ancora più alto rispetto a quella dei sistemi caotici ed i processi emergenti di tipo più radicale.
Lo sviluppo dei metodi matematici per il trattamento dell’informazione – linguaggi di programmazione, diagrammi di flusso, organizzazione delle classi di dati –, ha avuto un’influenza molto forte sugli sviluppi moderni della teoria della conoscenza. Ha dato infatti agli scienziati la possibilità di disporre di un linguaggio rigoroso per parlare di quel particolare tipo di oggetti concettuali che sono le teorie fisiche. Qual è la struttura di una teoria? Come entrano i dati sperimentali e come escono dall’apparato formale della costruzione matematica? Come si costruisce una rappresentazione del mondo? La tradizione epistemologica aveva trattato questi temi usando il linguaggio dei filosofi, ma la teoria dell’informazione permetteva per la prima volta di parlare di scienza utilizzando un formalismo per sviluppare un’epistemologia con le caratteristiche di una vera e propria scienza per studiare il ragionamento scientifico. Va detto che i fisici hanno sempre avuto una particolare attenzione per la struttura delle loro teorie, interesse che è diventato sempre più marcato con l’avvento, agli inizi del secolo scorso, della fisica quantistica. Questa teoria ha modificato in modo così profondo ogni “evidenza” fisica che ancora oggi il dibattito sulle sue interpretazioni non può dirsi concluso ed ha trovato nuovi stimoli nelle ricerche di cosmologia e nello studio quantistico dell’informazione. Da allora l’attenzione dei fisici si è concentrata in modo particolare verso le strategie cognitive con le quali si mettono a punto le teorie scientifiche, intese non come una mera “rappresentazione” dei fatti ma piuttosto come un modo, mai unico e neppure univoco, di “organizzarli” all’interno di una costruzione teorica. È su questi temi epistemologici che fisica e cognizione si incontrano naturalmente all’interno del più generale ed antico problema delle relazioni tra mente e mondo che è il tema centrale di questo libro.
L’idea di poter formalizzare la teoria della conoscenza tramite risorse computazionali ha incontrato però nuove e radicali difficoltà.
L’ipotesi che i processi cognitivi possano essere descritti da modelli di questo tipo è alla base dell’Intelligenza Artificiale, disciplina su cui sono stati versati fiumi d’inchiostro. A dispetto dei suoi numerosi successi tecnologici, l’insegnamento più grande delle “menti artificiali” è stato quello di mostrare le differenze profonde tra i processi cognitivi umani e quelli artificiali. Il riduzionismo computazionale ha mostrato gli stessi limiti di quello fisico, di cui è per molti aspetti una filiazione. I processi della conoscenza umana non possono essere “catturati” da un insieme di algoritmi, non per qualche oscura ragione metafisica ma, come appare sempre più chiaro, proprio per le gerarchie intrecciate della complessità dei livelli in gioco. Le difficoltà dell’approccio computazionale e determinista mostrano che una comprensione dei processi cognitivi richiede un nuovo tipo di spiegazione scientifica, in cui l’obiettivo non è la riduzione a componenti fondamentali e la stretta predicibilità degli eventi, ma consiste piuttosto nel cercare le condizioni in cui un processo può effettivamente emergere.

In questi ultimi anni si è sviluppata una nuova fisica dell’emergenza il cui compito è proprio quello di indagare le gerarchie intrecciate dell’evoluzione dei sistemi complessi. Il concetto di emergenza si è sviluppato con lo studio delle transizioni di fase e dei processi collettivi ed ha fornito potenti strumenti concettuali e matematici che hanno permesso, con la loro naturale migrazione dalla fisica teorica alla biologia ed ai processi cognitivi, di illuminare con luce nuova l’annosa questione dei rapporti tra mente e mondo. L’idea centrale è che più un sistema è complesso più aumentano le prospettive da cui può essere osservato, mostrando aspetti e livelli organizzativi che non possono essere “scomposti” tra loro in modo netto e risolti da un singolo modello basato su quell’equazione “fondamentale” così importante nei sistemi tradizionali della fisica. La complessità richiede all’osservatore una pluralità di approcci d’indagine, nessuno dei quali di per sé fornisce una spiegazione “definitiva”. In questo modo l’osservatore e le sue strategie cognitive diventano parte integrante della teoria, e l’unità cercata tra fisica e cognizione si realizza in un progetto epistemologico generale sulle relazioni dialogiche tra l’osservatore e l’osservato, rinnovando il dialogo tra la scienza e le sue radici filosofiche. Come scriveva il grande storico della scienza Charles Singer:
Quel tipo di filosofo, che si permetteva di ignorare le grandi conclusioni cui è arrivata la scienza, sta ora per scomparire. Sembra piuttosto che la scienza stessa abbia ora raggiunto uno stadio in cui le sue necessità concettuali la spingono a considerare il mondo come una totalità interconnessa, […] uno stadio in cui scienza e filosofia debbono procedere affiancate.

tratto da “La logica aperta della mente” di Ignazio Licata
– Codice Edizioni Torino

Ignazio Licata è un fisico teorico, professore presso l’Institute for Basic Research di Palm Harbor, Florida, Usa ed attualmente direttore scientifico dell’ISEM, Institute for Scientific Methodology a Bagheria, Palermo, nato dalla confederazione tra UNIPA, CNR e Confindustria come luogo di crossing disciplinare, dove studiosi di diversa provenienza possono dialogare e collaborare.
Nel 1998 ha fondato l’Istituto di Cibernetica Non-Lineare per lo Studio dei Sistemi Complessi, la cui esperienza è confluita recentemente(2006) nella costituzione di ISEM e della rete.
Per chi interessato due link:
1 sito ISEM
2 Profilo e CORSI ISEM

Libro consigliato
Osservando la Sfinge. La realtà virtuale della fisica quantistica, Di Renzo, Roma, 2003

Centri Consigliati

centri consigliati

Libri consigliati

Libri consigliati

Riviste consigliate

Riviste consigliate

Link consigliati

Link consigliati