Sotto il profilo teorico sono state
essenzialmente le difficoltà a far rientrare la biologia ed i processi
cognitivi all’interno di un approccio riduzionistico a guidare verso la
nozione di apertura logica, ossia l’insufficienza di poter comprendere le
strutture viventi- e dunque anche i processi cognitivi- considerando
soltanto l’apertura termodinamica; è necessario invece considerare i molti
livelli di interazione sistema-ambiente ed il gioco di vincoli legati
all’inter-relazione tra i due. I fenomeni genuinamente emergenti, non
riconducibili ad una semplice "somma" lineare delle parti in gioco, hanno
a che fare con un livello molto alto di apertura logica, in grado di
considerare esplicitamente il gran numero di stimoli-risposte di un
sistema biologico situato in un ambiente. Un esempio si trova nella
robotica evolutiva, dove il "sistema cognitivo" del robot cresce in
complessità man mano che l’interazione con il mondo diventa sempre più
ampia, fino a produrre comportamenti impredicibili a partire dall’analisi
dello stato iniziale robot + mondo.
Un tentativo teorico interessante di cogliere questi aspetti peculiari dei
sistemi viventi è stato fatto da Maturana e Varela con la loro teoria
dell’autopoiesi, centrata su due punti fondamentali:
1) il vivente è una forma di organizzazione caratterizzata da relazioni a
più livelli tra gli elementi che costituiscono il sistema;
b) un sistema vivente ha un hardware in grado di sostenere tramite
dissipazione ed accrescimento della struttura materiale i vari livelli di
organizzazione.
E’ interessante notare la convergenza tra questa visione e la nozione di
apertura logica, poiché è ben rimarcato che un processo vivente non è la
sua struttura materiale, ma questa piuttosto è il "supporto" di una
complessa rete di relazioni dinamiche.
Queste teorie oggi sono messe alla prova dal gran numero di dati
sperimentali che costituisce il "cuore" della biologia moderna, e che è
esemplificato dalle varie aree in rapida espansione, le cosiddette
"omics": genomics, proteomics, metabolomics, e così via. In tutti questi
casi si pone il problema di comprendere in che modo un sistema, ad esempio
il DNA, è funzionalmente connesso ad altri sistemi, come la rete di
interazioni proteiche, e questi ultimi, a loro volta, sono aspetti di reti
ancora più complesse, come i processi metabolici.
Ogni modello matematico "chiuso", per quanto raffinato esso sia, che non
tiene conto di questo "interfacciamento" tra sistemi diversi, è destinato
a successi parziali che progressivamente possono trasformarsi facilmente
in false piste. Come è stato notato da Leroy Hood e Hwa Lim, oggi la
biologia sta passando da una fase di acquisizione di dati a quella
dell’organizzazione degli stessi in contesti teorici coerenti; passo
necessario anche dal punto di vista di applicativo, che richiede lo
sviluppo di nuovi strumenti di lavoro teorici. In alcuni campi è
particolarmente evidente che l'adozione di un modello piuttosto che un
altro presuppone delle scelte sugli "stili di ricerca". Qui vogliamo
soffermarci brevemente sulle differenze tra i sostenitori delle "teorie
fondamentali" e i più pragmatici studiosi di modelli - a volte detti
"galleggianti"- in relazione al nostro progetto di "scienza
semplice".Utilizzeremo come esempi il folding protein e la struttura
dell'acqua.
Com’è noto, per folding protein si intende quel complesso di
trasformazioni strutturali spontanee che portano una macromolecola da una
struttura disordinata a quella struttura tridimensionale in cui è in grado
di svolgere le sue funzioni. E’ plausibile ritenere che queste
imprevedibili configurazioni dipendano in modo complesso dall’ambiente in
cui la proteina è immersa. Si tratta dunque di un classico problema di
apertura logica, e di quella che viene definita emergenza intrinseca. Non
esistono a tutt’oggi teorie "fondamentali" in grado di fare predizioni
efficaci su queste "aggrovigliate" trasformazioni, teorie basate, ad
esempio, sulle caratteristiche "microscopiche" atomico-molecolari. Bisogna
dunque ricorrere a strumenti "globali" di tipo mesoscopico, basati
essenzialmente su tecniche statistiche in grado di offrire una buona
corrispondenza tra topologie , tempi osservati e calcolo della loro
probabilità di realizzarsi. Nel caso del folding protein si stanno
dimostrando di grande utilità le rei neurali, proprio per la loro
vocazione di sistemi dinamici in grado di connettere una configurazione in
input con una di output.
Da un punto di vista epistemologico si è fatta spesso una distinzione
troppo netta tra teorie "fondamentali" da una parte, in grado di offrire
spiegazioni dettagliate in base ad una ben definita gerarchia di
conoscenza acquisite sui vari livelli della fenomenologia in studio, e
modelli "fenomenologici", che fanno uso di strumenti statistici e
computazionali, i quali suggeriscono "correlazioni" e "vanno bene finché
non si trova qualcosa di meglio". Vediamo adesso con un pò d'attenzione, i
pregi ed i limiti dei due approcci.
Senza pretendere in alcun modo una definizione rigorosa, una spiegazione
basata su una teoria fondamentale è un modello derivato da un più vasto
corpus di conoscenze consolidato.Dunque la validità del modello è in un
certo senso "garantita", ed al tempo stesso "vincolata", ad una struttura
teorica molto radicata, che ha un ampio raggio di applicazioni e "regge"
una fenomenologia osservativo-sperimentale estremamente diversificata. Un
esempio classico è dato dallo sviluppo della fisica quantistica , che
permise di derivare da una sola equazione, l'equazione di Schrodinger,
fenomeni diversi, come l'effetto fotoelettrico, gli atomi idrogenoidi,
l'effetto tunnell, e così via. Il vantaggio di un modello basata su una
teoria di questo tipo è piuttosto evidente:con un unico "grimaldello"
concettuale è possibile non soltanto analizzare molti fenomeni, ma vedere
in quale modo sono connessi l'uno all'altro. Del resto, è anche vero che
in questo modo lo sviluppo successivo della ricerca trova una sua "strada
principale" che può rivelarsi a volte limitativa sotto almeno due punti di
vista 1) Ogni modello "eredita" una serie di opzioni concettuali di base
dal nucleo teorico centrale, e queste possono rivelarsi dei veri e propri
vincoli nell'adozione di nuove prospettive. Restando nel campo della
fisica quantistica, ci limitiamo qui a ricordare il problema
dell'interpretazione probabilistica in contesti quali l'EPR-Bell e le
correlazioni non-locali o l'uso di probabilità negative. Queste situazioni
impongono dei delicati lavori di "manutenzione" nei "sotterranei" della
teoria, il cui obiettivo è quello di migliorare l'efficacia dell'apparato
teorico senza perdere i vantaggi acquisiti. Inutile dire che questi lavori
sui "fondamenti" possono essere lunghi, difficili e frustranti; 2) A volte
il passaggio tra le equazioni "fondamentali" ed i problemi specifici del
modello è un passo molto complicato, e persino poco utile. Nessuno
utilizzerebbe le equazioni dell'elettrodinamica quantistica per analizzare
la caratteristiche di un circuito elettrico! In questo caso le poche
formule "chiuse" derivate dalle equazioni di Maxwell sono più che
sufficienti.Un altro caso è dato dal "caos dinamico", dove il problema non
nasce da insufficienze nelle meccanica classica, ma nelle relazioni con le
condizioni iniziali ed al contorno per sistemi hamiltoniani che descrivono
forme "radicali" di non-linearità.
I modelli "galleggianti" (usiamo questo termine non nel senso
dispregiativo, ma proprio perchè non pongono il problema di trovare
"radici" in una qualche teoria "profonda"), vanno incontro invece ad altri
pregi e naturalmente pongono invece altri problemi. In questi casi lo
studio del modello è strettamente mirato al fenomeno. Cosa vuol dire
questo? Che il modello ha come aspirazione principale, se non unica,
quello di correlare una certa sequenza di input-output tratti da un certo
quadro osservativo-sperimentale, e fare eventualmente delle previsioni
azzeccate all'interno dello stesso quadro.Questo approccio ha
evidentemente una grande flessibilità, e l'uso di strumenti di tipo
statistico può rivelare una grande "trasportabilità" da un campo ad
un'altro totalmente differente. Ad esempio,come è già accaduto spesso,
dalla biologia allo studio dei fenomeni sociali, alla linguistica.I
limiti, invece, possono essere focalizzati tramite il seguente
ragionamento. All'interno di ogni set sperimentale si ricavano una serie
di dati finiti di tipo x1, x2, x3,...; xn, con x misura di un evento,
ossia un intervallo di numeri razionali(misura+/- errore medio). Si può
dimostrare che per ogni sequenza finita di Xi esiste sempre un numero
infinito di polinomi di tipo F(xi)=0 in grado di interpolare il numero
finito di dati. E' chiaro che se costruissimo così un modello, per una
stessa sequenza di dati, avremmo infinite equazioni "buone", che possono
ottenersi con semplici software matematici in grado di trovare questi
polinomi , come ad esempio Maple, Mathematica, o strumenti simili, a
disposizione di ogni utente informatico.Quale scegliere tra tutte? Ad
esempio la più breve e compatta, seguendo un criterio di compressione
algoritmica.In questo modo avremmo una semplice proposizione matematica
che mette in relazione tutti i dati significativi.Ma naturalmente questo
risultato è insoddisfacente, poichè ci porterebbe ad una scienza
frammentata in tanti "modelli ad hoc" costruiti sul fenomeno definito
all'interno di un quadro osservativo prefissato . Ad un modello matematico
chiediamo non soltanto delle sequenze matematiche che correlano i dati
ottenuti, ma anche previsioni, ipotesi affidabili sull'andamento del
fenomeno in domini diversi, connessioni tra aree diverse della conoscenza,
insomma una forma di comprensione più "ampia" Per "selezionare"
un'equazione "buona" da tutte quelle ottenibili, è necessario dunque fare
un pò di lavoro teorico, ad esempio formulando delle ipotesi sulla
dinamica del fenomeno, sulle sue caratteristiche generali, su ciò che ci
si può aspettare variando i parametri in gioco.
Un esempio è dato dal problema della struttura dell'acqua, e delle sue
preziose anomalie (preziose per il ruolo che hanno per la vita; ricordiamo
qui il comportamento della densità tra 0 e 4 gradi Celsius, la viscosità
ad alte pressioni, la tensione superficiale molto elevata, i valori delle
transizioni di fase,la costante dielettrica molto elevata).
Non esiste a tutt'oggi un'unica teoria in grado di spiegare tutte le
caratteristiche dell'acqua liquida. Diversi modelli vengono utilizzati a
seconda del problema in gioco. Per una comprensione strutturale della
singola molecola la teoria quantistica degli orbitali molecolari è
sufficiente. Il vero problema nasce quando si considerano i comportamenti
collettivi di molte molecole.Esistono 3 grandi classi di modelli:
discontinui(Frank-Wen, dal 1957), continui(Pope, dal 1951),statistici. Nel
primo tipo si considerano dei cluster molecolari tenuti assieme da un
legame ad idrogeno che si distruggono e riformano in continuazione con
l'agitazione termica.Nei modelli continui si ipotizza che lo stato liquido
è caratterizzato da una particolare "distorsione" del legame idrogeno.Nei
modelli "puramente" statistici si assegna arbitrariamente la distribuzione
delle cariche all'interno della molecola, e si calcola poi che tipo di
"assestamento" può subire questa distribuzione in relazione ai valori in
gioco dei parametri essenziali. Si tratta, com'è evidente, con modelli
dalle "vocazioni" esplicative molto diverse. Il modello a cluster spiega
bene molte proprietà "ordinarie", i modelli continui sono efficaci nello
studio delle transizioni di fase e delle conseguenti modificazioni dello
spettro vibrazionale, quelli statistici, infine, nonostante l'apparente
"ingenuità" teorica, hanno permesso di studiare molte situazioni
"anomale".
Può esistere un modello teorico "forte" dell'acqua liquida? Una proposta
in questa direzione è arrivata nel 1988 da G. Preparata ed E. Del Giudice
sulla base dell'elettrodinamica quantistica, basata sui "domini di
coerenza", una sorta di "atomi" della materia condensata, che spiegano con
grande accuratezza le correlazioni long-range e la formazione dei cluster,
tramite una descrizione basata su un sistema di dipoli interagenti. Anche
qui, però, si trova la difficoltà tradizionale dei modelli teorici basati
sui "principi primi" della teoria dei campi: il problema di trovare
soluzioni non-perturbative (esatte, chiuse), è piuttosto arduo, cosa che
fa preferire ancora agli studiosi dell'acqua le classi di modelli
"galleggianti"(è il caso di dirlo....!) tradizionali.
Analogamente per molti problemi di fisica nucleare ( i modelli del nucleo
atomico sono legione).
Un atteggiamento ragionevole sarebbe dunque quello di cercare la
connessione con i principi "primi" laddove questa strada sia evidente e
percorribile, ma non dimenticare l'utilità di modelli che tengono in conto
anche una grossa fetta d'informazione che gli approcci "fondamentali"
tendono a sottovalutare, ossia che ogni osservazione è sempre "situata",
impone cioè molto di più che l'applicazione delle "leggi fondamentali", e
bisogna fare i conti con il gran numero di vincoli e opzioni da fare
quando si affronta un problema specifico in un quadro sperimentale
fissato.
La questione fondamentale/fenomenologico si pone in modo ancora più forte
per le cosidette "Teorie del Tutto", quelle rivolte ad unificare le teorie
di base in una costruzione ancora più compatta in grado di comprendere
teoria quantistica e relatività, con modificazioni/estensioni/superamenti
dell'una o dell'altra teoria: twistors, superstrings, teoria dei
loops,etc.In questo caso, ad es. la relatività generale, che oggi è
considerata la teoria "principe" della gravitazione, diverrebbe una teoria
fenomenologica, le cui radici "stanno altrove"! Tra l'altro, quando si
entra "dentro" queste teorie, si ha il forte sospetto che siano tutte
varianti di un solo schema, per far emergere il quale probabilmente sarà
necessario un mutamento di paradigma (es. spazio -tempo discreto, con
geometria "adatta"), e le difficoltà matematiche e sperimentali
giustificano ampiamente il fatto che ad occuparsi di queste aree piuttosto
"esoteriche" siano un pugno di teorici.
Il dato curioso, dal punto di vista della comunicazione scientifica, è che
a questi tentativi che persino un super-teorico come Penrose definisce
"provvisori" (ossia"lavori in corso", "pericolo di crolli"!), i media
danno un gran peso( i giornali di divulgazione sono pieni di multiversi
con 11 o 27 dimensioni!), mentre si assiste continuamente ad un
appiattimento sistematico di aree più "giovani" e di fascino teorico
indubbio, di sottile complessità e con impatto tecnologico non minore,
come il citato problema del "dialogo" tra DNA e proteine.
C'è da chiedersi se si tratti di genuina attitudine speculativa nel
"lettore di cose scientifiche", o se piuttosto attraverso imprese così
"onnicomprensive" e "globali" non si cerchi per l'ennesima volta di
accreditare presso il pubblico- che è poi colui che "paga" la ricerca e ne
dovrebbe beneficiare intellettualmente e praticamente- la visione
ciclopica della big-science, le sue strutture tecno-burocratiche,i suoi
modelli di investimento.Infine, queste teorie si propongono
ingannevolmente come "definitive".
In realtà,i fenomeni di emergenza intrinseca tipici dei sistemi viventi e
dei processi cognitivi ci insegnano proprio che una "teoria definitiva",
un singolo modello matematico valido per ogni range, può non esistere, o
può esistere ed essere poco utile e "maneggevole"! Quale dev'essere dunque
il rapporto tra teorie "fondamentali" e "modelli" legati ad uno specifico
range? Sicuramente non di tipo "deduttivo". Abbiamo visto che è piuttosto
raro derivare analiticamente le soluzioni "mirate" che interessano
direttamente da una teoria generale.Del resto un modello "ad hoc" può
risultare piuttosto "miope" se non sono chiare le sue connessioni con il
corpus generale delle conoscenze. Bisogna allora adottare una logica di
"compatibilità": il modello non deve essere in contrasto con la teoria più
generale e consolidata (ma se questo accade, ben venga! Una domanda in più
da porsi).L'avanzare della ricerca, poi, restingerà naturalmente il numero
dei modelli possibili secondo un principio di selezione, che il più delle
volte non riguarderà tanto la "verità" o "falsità" del modello in assoluto
(perchè la scienza non procede secondo gli schemi elementari di Carnap o
Popper!), ma la sua applicabilità e fecondità più o meno ampie.
Il confronto con i sistemi logicamente aperti ci ricorda che
l’intelligenza della Natura non può essere "catturata" da un’unica teoria,
e la Physis dev'essere piuttosto una pluralità di strategie cognitive in
relazione all’infinita sorgente di problemi posta dal mondo.
Ignazio Licata