DI FRONTE E ATTRAVERSO
898
Joseph Peter Zbilut
Alessandro Giuliani
L’ORDINE DELLA
COMPLESSITÀ
Prefazione all’edizione italiana
di Carlo Modonesi
Prefazione all’edizione americana
di F. Eugene Yates
Titolo originale
Simplicity. The Latent Order of Complexity
prima edizione americana, Nova Science Publishers,
New York 2007
Traduzione dall’inglese
Alessandro Giuliani
© 2009
Editoriale Jaca Book SpA, Milano
per l’edizione italiana, riveduta e aggiornata
Prima edizione italiana
settembre 2009
In copertina
Kazimir Severinovic Malevic,
Cerchio Nero, 1920 ca.
Olio su tela, Leningrado, Museo Russo
Redazione e impaginazione
CentroImmagine – Capannori (Lucca)
Stampa e confezione
Grafiche Flaminia, Foligno (Perugia)
agosto 2009
ISBN 978-88-16-40898-2
Per informazioni sulle opere pubblicate e in programma
ci si può rivolgere a Editoriale Jaca Book SpA, Servizio Lettori
via Frua 11, 20146 Milano – tel. 02/48561520-29 – fax 02/48193361
e-mail: serviziolettori@jacabook.it; internet: www.jacabook.it
Alla mia famiglia – per aspera ad astra.
J.P.Z.
A mio padre, che mi ha insegnato
a non prendere le mie idee troppo sul serio,
e a mia moglie
che continua a ricordarmelo.
A.G.
INDICE
Prefazione all’edizione italiana di Carlo Modonesi
9
Prefazione all’edizione americana di F. Eugen Yates
15
Presentazione
19
Capitolo primo
LA SEMPLICITÀ È DIFFICILE
21
Capitolo secondo
GLI SCIENZIATI SONO ARTIGIANI,
NON PRETI
35
Capitolo terzo
I COMPUTER SEMPLIFICANO
LA SCIENZA
57
Capitolo quarto
SCIENZA E SOCIETÀ
77
Capitolo quinto
SCIENZA RIGOROSA?
91
7
L’ordine della complessità
Capitolo sesto
PROSPETTIVE
107
Capitolo settimo
TROPPO ESATTO PER ESSERE VERO
(OVERFITTING/SOVRADETERMINAZIONE)
115
Capitolo ottavo
STILI SCIENTIFICI: PRIMI ELEMENTI
DI UNA CRITICA SCIENTIFICA
131
Capitolo nono
PROBABILITÀ E DETERMINISMO
147
Tutti a casa: una conclusione inconcludente
161
Per Joe, un ricordo
163
8
PREFAZIONE
ALL’EDIZIONE ITALIANA
Semplicità e complessità: la strana coppia
Nell’ipotetico lungometraggio dell’avventura umana, vent’anni occuperebbero tutt’al più lo spazio di un fotogramma. Eppure, in un tempo così insignificante possono innescarsi processi radicali e irreversibili che accompagnano il passaggio tra la fine di un’epoca e l’inizio di
un’altra. Gli studiosi interessati alle grandi transizioni del tempo profondo definiscono discontinuità queste brusche fiammate della storia
dalle cui ceneri si sviluppano nuovi assetti del mondo. Se questi studiosi hanno ragione, allora ciò che è accaduto tra gli anni Sessanta e
Settanta del secolo scorso assomiglia molto a una discontinuità.
In quegli anni le fondamenta in cemento armato di molte società
vennero scosse, sia pur con premesse e contesti differenti, da una sorta di onda sismica che si propagò da Berkeley a Tokyo passando per
Roma, Parigi e Berlino. Una moltitudine di paesi tra i più avanzati del
pianeta, e tutti di indiscutibile peso sulla scena internazionale, entrò
in crisi come se un uragano immateriale avesse travolto le strutture sociali su cui essi si reggevano. La protesta studentesca contro le rigidità
che imbalsamavano le università e inchiodavano il sapere a una realtà obsoleta si fuse con un bisogno più generale di rivedere i modelli dell’organizzazione sociale. L’auto-determinazione e la pari dignità
umana diventarono valori irrinunciabili e permisero a un’intera generazione di aprire gli occhi sugli spazi angusti dentro i quali erano rimasti imbrigliati l’ingegno e le libertà delle generazioni precedenti.
9
L’ordine della complessità
Naturalmente si verificarono molti altri eventi (positivi e negativi)
che qui non vengono considerati, perché questa presentazione intende soltanto ripercorrere per sommi capi alcuni dei cambiamenti culturali che oggi ci permettono di leggere libri come questo di Joe Zbilut e Alessandro Giuliani.
Tornando all’onda sismica accennata sopra, alla fine, come sappiamo, le cose non andarono esattamente secondo le previsioni dei tanti profeti di allora, e quasi tutti oggi concordano nel ritenere che il cemento armato resse bene la potenza dell’urto. Dopo il periodo caldo
molte utopie si sono dissolte lentamente nelle ideologie e con esse si
sono estinte, mentre altre hanno ceduto a pulsioni di segno opposto,
soprattutto all’omologazione, aprendo la strada a un’autentica involuzione culturale. Quasi senza accorgersene la civiltà occidentale è scivolata in un limbo antropologico indotto da un malinteso senso della
modernità, e ha partorito una strana idiosincrasia verso tutto ciò che
non si conforma al tal costume o alla tale convenzione. A prescindere dal fatto che si tratti di oggetti o idee, superstizioni o conoscenze,
idoli o valori, oggi tutto possiede cicli di vita vorticosi, infinitesimali, strettamente ancorati alle mode del presente. Quelle virtuali fanno
perdere il contatto con il mondo reale, mentre quelle materiali invertono la prospettiva, generando ulteriori stati confusionali nella psicologia collettiva. A questo punto è inevitabile l’impatto tra il cosiddetto mondo là fuori e i codici comunicativi che usiamo per socializzarlo,
visto che il primo seguita a funzionare con tempi e regole indipendenti dalle mode e dalle rappresentazioni che ne diamo.
All’interno di un simile quadro dominato dal finto e dal contingente, nemmeno la scienza ha saputo sottrarsi alla progressiva distorsione dei suoi presupposti culturali. Anche nella sfera scientifica, infatti, hanno avuto buon gioco le mode, la miniaturizzazione dei tempi,
la produzione in serie e lo slittamento verso filosofie più appropriate
al marketing che allo sviluppo di una conoscenza vera e innovativa. Il
dibattito alto che solo fino a un secolo fa scaldava gli animi di scienziati e filosofi si è spento, e si sono spente anche le grandi controversie a noi più vicine sui diversi modi (scientifici) di interpretare il mondo: si pensi solo a quelle scatenate dall’anarchismo metodologico di
Paul Feyerabend, o dalle strutture dissipative di Ilya Prigogine, o dagli equilibri punteggiati di Stephen J. Gould e Niles Eldredge.
Tutto questo determina sicuramente uno scadimento della cultura scientifica, che ormai cattura l’interesse generale soltanto quan10
Prefazione all’edizione italiana
do dalla torre della scienza si lasciano percolare elementi pruriginosi, spettacolari e appetibili per l’informazione da talk-show; il che,
però, trasforma automaticamente l’impresa scientifica nella sua caricatura più fuorviante, che purtroppo coincide anche con quella più
propagandata.
Insomma, a prima vista si direbbe che di quei due decenni non
si sia salvato proprio nulla. Sembra che manchi uno scatto morale in
grado di affrancare lo spirito del nostro tempo dai luoghi comuni più
oscuri. Uno degli effetti meno edificanti è che del periodo richiamato sopra, così gravido di novità positive e certamente anche negative,
si rischia di buttare via tutto: come si suol dire, «il bambino insieme
con l’acqua sporca».
Tuttavia, se solo si volesse andare oltre la superficie delle cose, si
scoprirebbe che nel lascito di quel periodo c’erano idee e modi di
pensare che stanno mostrando i loro primi frutti, come il libro che state per leggere. Per esempio, non è un caso se proprio a partire dagli
anni Sessanta-Settanta si è cominciato a pensare che l’impresa scientifica dovesse essere concepita diversamente. Non si trattava solo di investigare nuovi aspetti della realtà; si trattava soprattutto di cambiare il rapporto tra soggetto e oggetto dell’indagine scientifica, cioè tra
osservatore e osservato, rivedendo i codici e i metodi attraverso cui ricostruire scientificamente il mondo naturale. Fino a quel momento, la
pratica sperimentale aveva preteso di fornire descrizioni della realtà
emendate da qualsiasi elemento di soggettività da parte del ricercatore. Il linguaggio scientifico, con la sua asciuttezza e le sue formalizzazioni, costituiva lo strumento centrale di tale operazione di distacco,
fornendo la prova manifesta che tra soggettività umana e oggettività
del dato non vi era stata alcuna contaminazione. Ma quanto più le descrizioni degli oggetti di studio venivano mediate da costrutti linguistici molto specializzati, tanto più i settori disciplinari della scienza ortodossa perdevano la capacità di comunicare tra loro; quanto più la
frontiera dell’esplorazione si addentrava nella struttura profonda della natura, tanto più il quadro delle conoscenze complessive risultava incongruente e di difficile ricomposizione. In definitiva, mentre la
tanto agognata scoperta della legge fondamentale dell’universo si faceva attendere, gli specialisti delle scienze naturali imboccavano strade che non riuscivano più a incontrarsi tra loro, per non parlare del
loro completo scollamento dalle strade delle scienze umane. Scomponendo il mondo naturale in unità esplicative separate e autosufficienti,
11
L’ordine della complessità
la scienza riduzionista basata sulle monodisciplinarità subordinava le
domande alla possibilità di trovare le risposte. Così le risposte che arrivavano erano soltanto quelle che si presentavano su percorsi rigidamente stabiliti dalle teorie. Tutto il resto andava a riempire un’enorme
scatola nera, a cui la scienza non avrebbe dovuto prestare troppa attenzione. Con questo programma di lavoro, un corpo unificato di conoscenze in grado di amplificare i nessi tra linguaggi differenti si configurava come una delle tante utopie destinate alla polvere. Ma per
fortuna le cose presero un’altra piega.
Proprio tra gli anni Sessanta e Settanta un nuovo tipo di razionalismo attecchì nei grandi spazi tra una disciplina e l’altra, in cui si celavano interrogativi che il determinismo ortodosso aveva accuratamente evitato. Si svilupparono stili di pensiero innovativi rispetto a quello
positivista che aveva connotato la filosofia della scienza di tutta la prima metà del Novecento. Questo catalizzò l’avvicinamento tra scienziati, matematici, filosofi, storici, sociologi, metodologi della ricerca e
studiosi di informazione. Si cominciò a comprendere che il modello
di spiegazione mutuato dalle scienze dure (fisicalismo) era destinato a
fallire ogni volta che si trovava alle prese con fatti strettamente dipendenti dalle proprietà di scala di sistemi auto-organizzati e dotati di una
storia. Gli esseri viventi e la loro evoluzione fornirono il materiale rispetto al quale i tradizionali metodi di indagine delle scienze dure evidenziarono (ed evidenziano) i limiti più gravi. Lavorando su un unico
livello di spiegazione il fisicalismo si precludeva la possibilità di fare
luce su territori della biologia rimasti da sempre nell’ombra. La prova
è che le risposte ad alcuni grandi interrogativi, come quelli che riguardano i rapporti tra mondo organico e inorganico, ecologia ed evoluzione, ontogenesi e filogenesi, forma e funzione, ancora oggi restano
sostanzialmente inevase.
Occorreva quindi recuperare un approccio innovativo che sapesse riconoscere e collegare le diverse scale di movimento della materia e dell’energia, da cui dipendono i piccoli eventi fisici che avvengono all’interfaccia tra organico e inorganico, e le grandi trasformazioni
geo-biologiche della storia planetaria. Era un correttivo essenziale,
perché per troppo tempo le scienze della vita avevano imitato la fisica
senza di fatto saperne individuare i princìpi fondanti utili (per esempio la termodinamica) per orientarsi nell’impressionante complessità
del mondo biologico.
Quel tipo di approccio è alla base della proposta culturale di que12
Prefazione all’edizione italiana
sto libro e al tempo stesso ne è il filo conduttore. Tra le pagine emerge
chiaramente un’impostazione avanzata, ricca, rafforzata dalla convinzione che ogni fatto sottoposto a verifica scientifica deve essere valutato tenendo conto della sua storia e del suo contesto: ciò che Zbilut
e Giuliani chiamano condizioni al contorno. L’uso di ragionamenti statistici semplici e puliti incarna lo strumento principale per estrapolare dalla materia grezza, ma estremamente intricata, dei sistemi complessi di tendenze che diventano facilmente comprensibili persino ai
profani.
Il volume, comunque, richiama alla mente anche elementi che vanno oltre il senso epistemico dei suoi contenuti. In esso si può riconoscere un risvolto etico meno immediato, ma che probabilmente è
figlio della stessa discontinuità innescatasi tra gli anni Sessanta e Settanta.
Dopo lo spegnimento della fiammata, nonostante le derive culturali ricordate sopra, il mondo non è stato più lo stesso, anche in un’accezione moralmente positiva. Nuovi valori hanno messo radici nella società, molte dittature si sono sgretolate nell’arco di pochi anni, la
crescente rilevanza dei diritti civili ha portato a rovesciare stereotipi
che sembravano incrollabili, la centralità dell’ambiente nell’esistenza
umana è stata riscoperta. E l’elenco potrebbe continuare.
Grazie alla consapevolezza di questi nuovi valori, oggi possiamo
toccare con mano tutta la portata della globalizzazione in atto, perché riusciamo ad apprezzare i vincoli e le criticità che fondono insieme le componenti del pianeta in un sistema che è molteplice e unitario
al tempo stesso: ecologico, antropologico, sociale, tecnologico, ecc. In
altre parole, comprendiamo che non è più possibile separare la nostra
conoscenza della realtà dalla nostra presenza nella realtà. Le due cose
devono andare necessariamente insieme, e questo semplice concetto
è lo stesso che può imprimere una svolta profonda non solo al nostro
modo di guardare alla scienza ma persino al nostro modo di vivere.
Forse siamo davvero allo spartiacque tra due epoche, se è vero, come
sembra, che l’idea di una scienza che si disvela direttamente dal mondo naturale come se i risultati emergessero in modo spontaneo (guidati dal solo metodo scientifico) dalle pieghe della realtà è sulla via
del tramonto.
I ricercatori accorti come i nostri due Autori, che al di là del significato intrinseco del loro mestiere si interessano anche del suo significato contestuale, hanno realizzato che l’impresa scientifica non è al13
L’ordine della complessità
tro che uno dei tanti sviluppi della cultura, e come tale è assoggettata
agli stessi filtri cognitivi e sociali. Il suggerimento che ci arriva è che
dobbiamo imparare a considerare le rappresentazioni del mondo fornite dalla scienza non come fotocopie del mondo, ma come descrizioni
parziali al pari di quelle prodotte dagli artisti, per la semplice ragione
che in ciascuna di esse è sempre impressa la cifra di chi l’ha compiuta.
L’immagine della scienza ne esce dunque sensibilmente rafforzata anche in senso culturale ed etico.
Questo libro è di grande aiuto per capire qual è il succo dell’impresa scientifica, e per tale ragione ne andrebbe consigliata la lettura
a tutti coloro che nutrono un interesse per questioni di scienza e tecnologia, in particolare agli studenti universitari. Chi lo leggerà forse
sobbalzerà incontrando affermazioni che ancora oggi vengono liquidate come eresie intollerabili, del tipo: «la scienza, come qualsiasi attività umana, fa uso dello stesso modello di ragionamenti della vita quotidiana». Invece è proprio grazie a immagini simili che la scienza può
tornare a farsi capire e amare dalla società civile: se saremo più consapevoli della sua impossibilità di essere trascendente e assoluta saremo
tutti indotti a rispettarla di più.
Semplicità e complessità formano una strana coppia, ma in fondo
non così strana. La natura è troppo complessa perché la mente umana
possa impadronirsi di ogni suo singolo dettaglio e forza debole. Può
però coglierne le tendenze e le regolarità, acquisendo anche una buona capacità predittiva, a patto che al tempo stesso eviti di farsi guidare da pregiudizi superati, come quello che la riduce a un contenitore di dispositivi meccanici. Sembra la cosa più astrusa e difficile del
mondo ma Zbilut e Giuliani sanno essere persuasivi. Niente paura, è
proprio da queste apparenti contraddizioni che scattano i primi passi verso una conoscenza autentica e innovativa. Una scienza dell’uomo e per l’uomo.
Carlo Modonesi,
Museo di Storia Naturale
Università degli Studi di Parma
14
PREFAZIONE
ALL’EDIZIONE AMERICANA
Nei primi anni del XX secolo, la frase «Come funziona» apparve in
vari modi nel titolo di innumerevoli libri, che avevano come scopo
quello di svelare al profano il mistero delle innumerevoli forme e funzioni dei «doni» che la scienza e la tecnica offrivano al nostro benessere, al nostro divertimento, alla nostra felicità. Oggi la situazione è profondamente cambiata rispetto ad un secolo fa, al giorno d’oggi anche
quegli individui più dotati e volenterosi che erano in grado di mettere
le mani nel motore della loro automobile con cognizione di causa e regolare abilmente le puntine, o addirittura sistemare il carburatore, ora
sono resi impotenti da una tecnica fatta di iniettori, elettronica digitale, e in generale da essenze umanamente incomprensibili e accessibili
esclusivamente al computer di bordo.
L’ignoranza del pubblico rispetto al reale funzionamento delle cose
cresce in maniera esplosiva man mano che la tecnologia diventa sempre più astratta e la forma si separa nettamente dalla funzione. Non
possiamo neanche lontanamente comprendere in maniera dettagliata il
funzionamento di ciò che rende possibile la nostra vita nelle metropoli,
come i sistemi di purificazione dell’acqua potabile, la rete elettrica, la
fornitura e distribuzione di generi alimentari, lo smaltimento dei rifiuti. Ciò che non riusciamo a comprendere ci appare «complesso» almeno fino al momento in cui, attraverso lo studio o la pratica, arriviamo
ad una sorta di illuminazione in cui, toccandoci la fronte con la mano
(ma come avevo fatto a non pensarci prima?!) la complessità collassa in
semplicità e parte della nostra visione del mondo cambia per sempre.
15
L’ordine della complessità
In questo libro utile e affascinante gli autori, che hanno raggiunto una certa statura nell’ambito delle scienze teoriche e sperimentali, affrontano il più ambizioso «come funziona» possibile, quello legato ai metodi e ai limiti della scienza. Essi affrontano questo tema
con un piglio informale accessibile ad ogni lettore realmente interessato alla faccenda. Sin dall’inizio della scienza moderna abbiamo assistito ad innumerevoli controversie sui temi legati alla metodologia
scientifica, dibattiti ancora più accesi sono sorti riguardo alle limitazioni della scienza e dei suoi metodi di indagine. Persone responsabili e di grande cultura scrivono articoli e libri che hanno per tema «La
fine della Scienza».
In questo scenario, Zbilut e Giuliani guidano con sicurezza il lettore attraverso rovi e intrichi apparentemente inestricabili, emergendone senza un graffio, un risultato ammirevole.
Un punto cruciale per comprendere le scienze fisiche riguarda la
relazione esistente tra l’evidenza empirica (fatti, dati) e le astrazioni
matematiche (modelli, teorie) che si adattano ai dati. In queste scienze un approccio che si è rivelato molto efficace è stato quello di tradurre una teoria in un modello formale (cioè matematico), con vincoli e condizioni al contorno di applicabilità specifiche per ogni diversa
situazione, e poi controllare se il modello costruito sulla teoria fosse
compatibile con il modello emergente dai dati. Se questa compatibilità
era verificata, la teoria poteva sopravvivere per un altro po’ di tempo,
in attesa di nuovi saggi su nuovi dati. Questo approccio non ha avuto
lo stesso successo nel caso della biologia.
La più onnicomprensiva teoria biologica (la sintesi moderna delle
teorie di Darwin) guarda al passato come ad una storia, una cronaca
di eventi irripetibili, piuttosto che come un sistema dinamico espressione di quelle leggi del moto e del cambiamento così care alla fisica.
Freeman Dyson ha recentemente ricordato come le scienze fisiche abbiano dominato l’orizzonte della scienza pratica e della filosofia della
scienza fino a circa la metà del XX secolo, mentre da allora le scienze
biologiche abbiano sopravanzato la fisica in termini di importanza dal
punto di vista di aumento vertiginoso di finanziamenti, capacità di attrazione di talenti e tasso di nuove scoperte.
A fronte di queste tendenze e correnti di pensiero, un libro come
questo, che si situa su un meta-livello, fornisce un utile orientamento e
ci aiuta a non essere abbacinati dalle continue notizie (quasi sempre false) di nuove scoperte che si susseguono sui mezzi di comunicazione.
16
Prefazione all’edizione americana
Notevole a mio parere è soprattutto la critica del determinismo
nella scienza. Il famoso economista Kenneth Arrow definì il successo
della meccanica deterministica newtoniana come un «disastro intellettuale» in quanto essa divenne il paradigma indiscusso del movimento
e del cambiamento in ogni campo, provocando enormi danni e fraintendimenti. Zbilut e Giuliani offrono un dettagliato e motivato supporto a questa visione di Arrow, ma con un’attitudine più moderata, e
avanzano la proposta di un determinismo-a-tratti che «potrebbe aiutare a riconoscere gli elementi costituenti della natura di molti diversi
processi e allo stesso modo aiutare a riconoscere come questi elementi costituenti siano a volte difficili da assemblare». In questo modo gli
autori mettono pace tra i due schieramenti contrapposti di «riduzionisti» e «olistici».
In scienza capita spesso che tra un’idea e la sua realizzazione si interponga un’ombra – un’ombra che nasconde la semplicità sotto un
velo di complessità, questo libro identifica quest’ombra e, come un
buon foto-processore, mette in risalto i dettagli fuori dal buio.
F. Eugene Yates,
Professor of Medical Engineering (emeritus), UCLA Scientific
Advisor, The John Douglas French Alzheimer’s Foundation,
Los Angeles, CA
Los Angeles, California, luglio 2007
17
PRESENTAZIONE
Raggiunto un elevato livello di abilità tecnica, la scienza
e l’arte tendono a fondersi in estetica, plasticità e forma.
I più grandi scienziati sono anche degli artisti.
La gran parte delle idee fondamentali della scienza sono
intimamente semplici, e possono essere espresse in un
linguaggio comprensibile a chiunque.
Albert Einstein
La scienza occupa un posto molto particolare nell’ambito delle attività umane. Normalmente non prestiamo nessuna attenzione al fatto che una parte notevole della nostra esistenza quotidiana è resa più
comoda dalla scienza. Attività quotidiane come la pulizia dei panni,
la cucina, la disinfezione, i viaggi sono state rese più semplici e accessibili grazie alla scienza, anche se questo sembra essere così scontato
che difficilmente ci soffermiamo a pensarci. In altri casi invece, come
quando si parla di temi come le cellule staminali, lo screening genetico, il cambiamento climatico, il discorso diventa immediatamente delicato e le implicazioni della scienza vengono messe in risalto suscitando profonde passioni. Il filosofo, il teologo, il sociologo, lo scienziato
hanno delle idee più o meno definite, ma spesso molto appassionate,
su come le cose dovrebbero o non dovrebbero andare.
Noi vorremmo aggiungere questa nostra monografia al dibattito,
ma con un tono completamente diverso. La nostra ambizione, invece
di discutere delle implicazioni sociali e morali dei prodotti della scienza, è quella di fornire una vista sulla natura del mestiere della scienza che spesso è molto travisata. Questo non è un lavoro accademico.
Questa monografia è stata scritta per lettori con un medio grado di
cultura, non necessariamente scienziati o studenti di materie scientifiche, ma chiaramente interessati a comprendere qualcosa di questa
porzione del pensiero umano che chiamiamo scienza.
Sebbene il libro sia preferibilmente da leggere nella sua interezza,
ogni capitolo è una sorta di saggio autonomo e può quindi essere com19
L’ordine della complessità
preso anche isolato dagli altri. Le note alla fine di ogni capitolo sono
da intendersi più come commenti aggiuntivi che come vere referenze
bibliografiche complete.
Ci fa piacere ringraziare tutti gli amici e i colleghi che in miriadi di
discussioni e di brevi scambi, in maniera consapevole e non, ci hanno
aiutato a farci un’idea sui temi discussi qui.
Come ultima raccomandazione ci teniamo a sottolineare come il
nostro tono non sia un tono «serio» nel senso tradizionale, abbiamo
cercato di mantenere un tono allegro e bonariamente irriverente del
tipo di quello che ci si può aspettare in una chiacchiera da bar di fronte ad un caffè o ad un bicchiere di prosecco. Questo in parte dipende
dal fatto che non siamo capaci di scrivere in modo diverso da quello
con il quale parliamo e in parte dalla necessità di liberare la scienza da
un’aria un po’ triste e sussiegosa che sta assumendo in vecchiaia. Da
questo punto di vista ci siamo molto divertiti a scrivere questo libro e
il nostro augurio è che un pochino si divertano anche i nostri lettori.
20
Capitolo primo
LA SEMPLICITÀ È DIFFICILE
Pluritas non est ponenda sine necessitate.
Guglielmo di Ockham
La semplicità è l’estrema sofisticazione.
Leonardo da Vinci
Ciò che ci ha spinto a scrivere
Il dibattito sul ruolo e lo stato della scienza è di questi tempi piuttosto affollato. La cosa non è senza motivo perché tutti sentiamo, più o
meno confusamente, che attorno alle cose di scienza si gioca una partita fondamentale per l’essere umano. Non si tratta solo del destino
del nostro pianeta messo in gioco dai cambiamenti climatici e dal crescente inquinamento (largamente dipendente dallo sviluppo tecnologico), ma anche dal fatto che la scienza ha progressivamente invaso
campi molto lontani dalla sua iniziale collocazione, tanto da includere la religione, la filosofia e le convinzioni politiche. Questo ruolo esagerato e insolito della scienza ha provocato delle reazioni ugualmente esagerate e insolite, che vanno da una rigida opposizione ad una
egualmente rigida adorazione, un’idolatria.
A nostro giudizio tutto ciò è estremamente pericoloso tanto per la
scienza quanto per la società: per la scienza il rischio è quello di essere mummificata nel ruolo di «verità assoluta», al punto che rischia
di smarrire ogni possibilità di avanzamento (questo significa la morte
della scienza); per la società il rischio è quello di essere vincolata ad un
pensiero unico, dove esiste una soluzione «ottimale» per ogni problema senza alcuno spazio per la diversità di opinione, il che significherebbe la morte simultanea della democrazia e del progresso sociale1.
Per queste ragioni la conoscenza dei princìpi base dell’investigazione scientifica, di quello che effettivamente è l’attività scientifica
21
L’ordine della complessità
e non le sue idealizzazioni arbitrarie, diventa di importanza cruciale anche, e forse soprattutto, per chi scienziato non è. D’altra parte gli
scienziati professionisti sono spesso talmente preoccupati dagli aspetti minori del loro lavoro, dai dettagli specialistici che occupano gran
parte del tempo e dell’attenzione di un ricercatore, che essi non prestano più attenzione al senso del loro lavoro, o addirittura ne ignorano i princìpi di base, e di conseguenza perdono la possibilità di avere proficui contatti al di fuori della loro ristretta cerchia, largamente
auto-referenziale. I pochi che si occupano di «divulgazione» (orribile
concetto che implica uno sversamento dall’alto verso il volgo di un sapere non criticabile e pacificato) non hanno alcuna voglia di esporre il
funzionamento degli strumenti del mestiere ma solo di reclamizzare i
prodotti belli e fatti oppure − il che è anche peggio − assumono il ruolo di maestri di pensiero come se fossero i depositari di una superiore
saggezza conferita loro dal mestiere che esercitano.
La necessità di acquisire degli strumenti sofisticati di indagine
spinge gli studenti ad immergersi subitamente nei particolari specialistici delle loro discipline, trascurando così gli aspetti più propriamente culturali del loro lavoro, che sono poi quelli che costituirebbero il terreno comune con cui dialogare con il resto della società.
Quando poi questi studenti diventano grandi, la spinta ad affermarsi
nel mondo della ricerca, ad avere fondi, preclude loro definitivamente la spinta ad allargare gli orizzonti anche verso le discipline limitrofe. Le lauree universitarie si sono lentamente allontanate dal concetto di «educazione» per andare ad occupare una collocazione analoga
a quella delle gilde medievali, la cui funzione era essenzialmente una
funzione protezionistica verso l’ingresso indiscriminato di competitori in mestieri predefiniti. Alla base della parola apparentemente positiva di «professionalizzazione» è nascosto questo retrogusto amaro della chiusura in recinti (non a caso si parla di ordini professionali)
guardati da arcigni custodi2.
Ad essere onesti, comunque, bisogna dire che non è che la «professionalizzazione» sia un fatto solo negativo, essa presenta degli indubbi
meriti, e in ogni caso ha avuto un ruolo di sviluppo importantissimo
nei decenni passati. Semplicemente, ora, in un’epoca di rifondazione
della scienza e di rapida dissoluzione delle barriere disciplinari, è diventata controproducente restringendo in maniera ormai insopportabile le prospettive di sviluppo creativo. La scienza «professionalizzata» riesce difficilmente a distinguersi dalla tecnologia e perde la sua
22
La semplicità è difficile
dignità culturale, tanto che i mezzi di comunicazione di massa diventano spesso gli arbitri della significatività scientifica di un risultato. La
scienza diventa sempre meno razionale e sempre più fonte di «miracoli». La confusione tra scienza e tecnica, adombrata nella parola tecnologia, racchiude un pericolo grave.
Un’utile analogia si trova nella distinzione fra artigiano e artista:
entrambi svolgono un ruolo importantissimo grazie alle loro differenti abilità. Questa differenza è la differenza tra chi riesce a presentare
fedelmente una determinata prospettiva sul mondo (sia essa un affresco, una musica, una casa o un’equazione) e chi apre una prospettiva nuova e inaspettata accettando il rischio che non sia fedele (efficace, produttiva, utile). Michelangelo e Galileo sono due esempi di
artisti rinascimentali, laddove la supposta rivalità fra Mozart e Salieri è la rappresentazione romantica (in un’epoca che esaltava gli artisti a scapito degli artigiani e perciò si condannava all’esplosione della
bruttezza nel mondo, ma su questo torneremo in seguito) dell’opposizione fra l’artista e l’artigiano. Il punto importante è che sia l’artista
che l’artigiano, sia la scienza che la tecnica, hanno la stessa importanza
e dignità, l’uno aiuta l’altro in un rapporto bidirezionale (quella della scienza applicata in cui prima c’è la teoria innovativa e poi l’applicazione è una fola). Enfatizzare il ruolo dell’uno a scapito dell’altro, o
annullare le differenze fra i due, mette a rischio l’esistenza di entrambi e, ancora peggio, della possibilità di reale innovazione. Questo è un
pericolo fortemente presente nei nostri tempi, in cui la scienza sta rapidamente perdendo di efficacia nell’affrontare i problemi del mondo
reale; e la spia più evidente di questa crisi è la paradossale correlazione negativa tra l’apparente aumento della nostra conoscenza biologica e il numero di nuovi farmaci immessi sul mercato.
Lo scopo di questo libro, allora, è quello di dare un contributo infinitesimo (ma più grande di zero) allo scopo di una maggiore comprensione di che cosa è veramente il lavoro scientifico, sia esso portato
avanti da artigiani o da artisti (chi affrescava una chiesetta di campagna
aveva lo stesso armamentario tecnico di Giotto quanto a mescole di colori, trattamento delle superfici ecc.). Per questo la nostra attenzione
si concentrerà sugli strumenti che gli scienziati usano nel loro lavoro
di tutti i giorni, e da qui speriamo di trarre una giustificazione convincente della necessità di una drastica semplificazione delle metodologie
scientifiche, da ottenersi attraverso l’eliminazione di tutti quegli inutili fardelli che la scienza ha accumulato nei suoi ultimi tre secoli di vita.
23
L’ordine della complessità
Siamo fermamente convinti che il senso fondamentale del lavoro scientifico possa essere trasmesso al profano senza entrare negli specifici
contenuti delle differenti discipline (impresa impossibile) ma concentrandosi invece sui metodi di ragionamento usati dagli scienziati.
La diffusione di strumenti di calcolo molto potenti a basso costo ci
offre la possibilità pratica di intraprendere questa opera di semplificazione; gli ostacoli semmai sono di ordine differente: essi hanno un’origine mista in cui si mescolano motivazioni di tipo filosofico (cosa è la
verità e amenità del genere), storico (da dove è nata la vera scienza),
sociologico (chi è uno scienziato accreditato) e sono profondamente
radicate nella comunità e nelle istituzioni scientifiche. Non c’è da stupirsi, ogni istituzione diventa molto conservatrice e rigida con l’età,
e la scienza non fa eccezione. Cercheremo allora di presentare, con
l’aiuto di alcuni casi paradigmatici di scienza semplice3 (nella speranza
che il senso dato a questo aggettivo risulti chiaro nel seguito), un metodo efficace per eliminare le incrostazioni che si sono depositate sulla
chiglia della vecchia ma sempre valida barca della scienza. Un ultimissimo corollario ai proclami precedenti. Questo libro riporta le nostre
particolari e personali opinioni su cosa è la scienza: né una filosofia né
tanto meno una religione o una scelta di vita, bensì un affascinante lavoro artigiano che in alcuni rari casi sconfina nell’arte.
Fissare le regole del gioco o «la semplicità di Michael Jordan»
Chiedete a un matematico che cosa intende per «semplice», probabilmente vi mostrerà una formula molto concisa che − lui assicura − spiegherà un’infinità di cose (o meglio «una classe molto ampia di problemi»). Questo è uno sporco trucco, chiunque abbia frequentato un
corso universitario di matematica conosce l’abisso che separa le prime due pagine di qualsiasi libro di testo di matematica dal resto della trattazione: concetti apparentemente molto semplici si trasformano
in un formalismo completamente innaturale quasi impossibile da seguire. Possiamo chiamare questo effetto «la maledizione del rigore assoluto»: con l’idea di sviluppare un modo auto-consistente e oggettivo di descrivere le cose andiamo fatalmente a cozzare con il carattere
finito della nostra esperienza quotidiana e con il carattere dipendente da contesto dell’intuizione. Qualsiasi formalizzazione che si propone di essere auto-consistente e indipendente da contesto civetta con
24
La semplicità è difficile
la stupidità e l’assurdo. C’è una barzelletta molto famosa che aiuta a
comprendere questo punto ed è quella dei due carabinieri nella loro
automobile con il primo che chiede all’altro: «mi controlli se funziona
la lanterna sul tetto?» e l’altro «ora sì, ora no. Ora sì, ora no…»4.
Se andiamo appena appena un po’ a fondo nell’esegesi della barzelletta ci accorgiamo che la risposta del secondo carabiniere è completamente appropriata se non teniamo conto della «informazione
proveniente dal contesto» e cioè che il funzionamento normale dei dispositivi di segnalazione delle automobili dei carabinieri (e della polizia, dei pompieri, delle ambulanze...) implica l’intermittenza. Ora
proviamo a immaginare che razza di fatica dovremmo fare se volessimo eliminare tutte le dipendenze da contesto di una regola per generare un linguaggio auto-consistente e autonomo. Il sogno della semplicità si trasformerebbe immediatamente in un incubo. Questo è il
motivo per cui la «ricerca della generalità» non è una strada consigliabile per trovare la semplicità. Ora però un esempio più serio, che deriva da una locuzione onnipresente in fisica e matematica che in italiano suona «... con X tendente a zero» e non fa una grande impressione,
ma che in inglese si traduce «... with X vanishingly small». Ora, per
chi ha fatto studi di fisica o di matematica questa è una frase usuale,
tanto usuale che non fa caso a quel vanishingly, ma un profano dotato di un certo gusto per la lingua trova un po’ magica quella X che
svanisce rimpicciolendosi progressivamente ma senza mai scomparire del tutto. Insomma sembrerebbe un tocco di magia nel supposto
regno della razionalità assoluta, invece qui abbiamo a che fare con la
base profonda del calcolo differenziale. Questo concetto consente di
descrivere in modo molto conciso ed efficace una grande varietà di sistemi fisici; ciononostante, se alcune assunzioni implicite non sono accuratamente verificate, da questa idea potente del limite di una grandezza che tende a zero, si scatenano una serie di assurdità simili alla
barzelletta dei carabinieri.
Immaginiamo, usando il vocabolario della fisica, il caso del moto
monodimensionale di una particella decelerata da una forza di frizione (attrito) rispetto a un equilibrio dato. In parole povere stiamo
descrivendo il moto di un oggetto che si sta avvicinando a un punto dove si fermerà progressivamente rallentato dall’attrito. In termini matematici questa situazione si esprime con la formula: m(n˘) = F(n)
dove m è la massa dell’oggetto e n è la velocità, il puntolino sul termine n rappresenta la sua derivata, cioè la sua velocità di variazione,
25
L’ordine della complessità
e quindi l’accelerazione della massa (che in questo caso è negativa visto che l’oggetto si sta fermando). Ora, il modo di lavorare della matematica impone che ci sia una sola soluzione al problema così esposto. Di prammatica si procede così: si comincia con il linearizzare la
forza F rispetto all’equilibrio, che poi significa semplicemente che la
forza cala proporzionalmente all’avvicinarsi al punto in cui il sistema
si ferma, il che è assolutamente ragionevole. Matematicamente questo
si esprime come:
n = 0: F → –an at n = 0, a = (∂F/∂n)n = 0 > 0
La soluzione di questa equazione, quando l’oggetto si avvicina al punto di quiete è:
n = n0 e
−
a
t
m
→ 0 per t → ∞, n0 = n(0)
Non è importante andarsi a spulciare le varie caratteristiche di questa equazione; quello che a noi interessa è solo l’espressione t → ∞ che
implica né più né meno che la particella non si fermerà mai completamente! Il che è francamente contrario al buon senso e agli esperimenti. La spiegazione usuale che viene data nei corsi di fisica dei primi anni
di università di questo strano effetto è che, data l’accuratezza finita della nostra limitata scala di osservazione, la particella «a tutti gli effetti» raggiunge l’equilibrio in un tempo finito e si ferma anche se l’equazione ci dice il contrario. Insomma si insinua (senza mai ammetterlo
esplicitamente però, si badi bene) che la realtà vera è quella descritta
dall’equazione, ma le nostre limitate forze umane e la povertà della realtà rispetto al mondo delle idee non ci permettono di apprezzarlo. Insomma l’equazione è una barzelletta (e come la barzelletta dei carabinieri assolutamente logica, da cui la comicità) ma questo è meglio non
dirlo a voce alta, tanto poi sappiamo come vanno davvero le cose.
Questa piccola difficoltà ricorda da vicino il famoso paradosso proposto dal filosofo Zenone di Elea, che egli utilizzava per dimostrare
come il movimento fosse solo un’illusione. Come riportato da Aristotele (Fisica VI, 9) la faccenda ruota attorno al fatto che se uno vuole andare dal punto A al punto B, prima deve percorrere metà del percorso,
poi metà del rimanente, poi un’ulteriore metà... messa così la storia diventa esprimibile come una somma di termini ½, ¼, 1/8... Insomma, bi26
La semplicità è difficile
sognerebbe attraversare un numero infinito di tratti, invero sempre più
piccoli ma comunque infiniti, e quindi ci si dovrebbe impiegare un’infinità di tempo. Risulta chiaro a tutti che qui il problema è con il formalismo, che non riesce a gestire i punti «estremi» del fenomeno che
rappresenta, il che tuttavia è inammissibile in un’ottica che considera
come «vera» la formula matematica e come illusione l’osservazione. Il
problema principale della nostra equazione è che pretende di offrire
una formulazione newtoniana classica con una sola soluzione deterministica. Senza per ora impegolarci nella questione determinismo/probabilità (lo faremo più avanti), qui ci preme mettere in evidenza i forti
limiti dell’idealismo di stampo platonico che ancora inquina le scienze. La formulazione del problema è presentata attraverso un ente a cui
diamo il nome di «particella», un’entità amorfa e sconosciuta che ci garantisce la generalizzazione. Ma la vita reale non è sempre congruente
con queste generalizzazioni. Prendiamo un esempio facile facile: l’atto di piantare un chiodo con un martello. A ogni colpo il martello segue approssimativamente la stessa traiettoria, ma noi sappiamo che la
traiettoria non è sempre la stessa; allo stesso modo, se noi facciamo scivolare una pallina giù da un piano inclinato molte volte, le traiettorie
saranno lievemente diverse l’una dall’altra. Anzi, in questo caso, possiamo sbizzarrirci a variare l’angolo di inclinazione così da aumentare
o diminuire a piacere la similitudine relativa delle traiettorie. Il punto è
che questi oggetti reali (il martello, la pallina), non particelle ideali, arrivano al loro punto di quiete (il chiodo, il fondo del piano) in un tempo finito e lo fanno con differenti soluzioni (traiettorie) e non con una
soluzione unica come preteso dal formalismo matematico. Gli approcci classici disprezzano questi piccoli dettagli in quanto le loro soluzioni sono basate su realtà idealizzate e non su oggetti reali. Questo fissarsi su idealizzazioni invece che sulla realtà consente di dimenticare il
«contesto», il che, mentre sulle prime sembrerebbe rendere le cose più
semplici, alla lunga le complica, perché prima o poi ci si trova di fronte a degli apparenti paradossi che in prima battuta si liquidano con formule magiche vanishingly, ma nei casi seri, fuori dalle aule, provocano
complicazioni incredibili, rendendo impotente questo approccio ideale a qualsiasi sistema appena più complesso dei casi di scuola (questo
problema è adombrato dall’ossessione quasi maniacale delle scienze di
tenere sotto controllo le variabili sperimentali).
Di fatto ci sarebbe una soluzione matematica a questo problema:
ammettere soluzioni multiple. I lettori con il pallino della matematica
27
L’ordine della complessità
daranno a questa trovata l’esoterico titolo di «rilassamento delle condizioni di Lipschitz per l’unicità e l’esistenza». Più semplicemente potremmo dire che rinunciamo ad ottenere una soluzione unica a una
equazione differenziale.
Comunque, il messaggio importante è che molte assurdità e complicazioni nelle formulazioni scientifiche spesso derivano dall’ansia di
trattare con idealizzazioni indipendenti da contesto. I matematici lo
sanno bene, tant’è che una considerevole parte del loro lavoro è volto
ad analizzare le cosiddette «condizioni al contorno» delle loro formalizzazioni, i minacciosi confini cioè da dove la barbara realtà con il suo
disordine, viene a insidiare il mondo assoluto e inesorabile delle idee.
È profondamente ingiusto prendere in giro i matematici per queste
ansie, tanto più che da recenti studi di neuroscienze sembrerebbe che
sia una necessità del funzionamento del nostro cervello scoprire schemi ordinati anche laddove non esistono.
Convinti? In ogni caso, a scanso di equivoci, è bene ricordare che
la matematica è una benedizione e non un malanno per la scienza, posto che la si usi allo stesso modo in cui un falegname usa un martello,
non come un fine in sé ma per piantare chiodi. Le affermazioni scientifiche vivono di una vita finita in un mondo finito e sono nate con stretti vincoli di applicabilità, al di fuori dei quali si trasformano in barzellette più o meno divertenti. Insomma, stiracchiare le affermazioni
scientifiche verso le loro conseguenze estreme (portarle all’infinito) le
rende sciocche e inutili, invece l’infinito è proprio quel luogo dove la
matematica va a cercare le prove dei suoi teoremi e la frequentazione dell’infinito non la rende certo sciocca. La scienza e la matematica
sono quindi due cose molto diverse e la semplicità della matematica è
sicuramente affascinante, ma non è quello che stavamo cercando.
Ora chiedete a un giocatore di pallacanestro che cosa intende per
«semplice», egli vi mostrerà i cosiddetti «fondamentali», che sono solamente tre azioni: a) il tiro a canestro; b) avanzare facendo rimbalzare
la palla; c) il cosiddetto «terzo tempo», che consiste in due passi compiuti con la palla in mano seguiti da un tiro in corsa.
Questo è tutto, questo è veramente semplice e può essere spiegato in dieci minuti a chiunque. Ma cosa rende Michael Jordan sideralmente differente da noi per ciò che riguarda il basket? Due cose:
a) l’istinto di scegliere dallo stringato repertorio che abbiamo riportato in precedenza la cosa giusta da fare in ogni possibile situazione di
gioco; b) eseguire ognuno dei fondamentali nel modo più efficace pos28
La semplicità è difficile
sibile. Questa è la semplicità che stavamo cercando: trovare l’insieme
minimo di azioni fondamentali e facili da capire e da eseguire. A questo punto la partita può iniziare e il campione sarà quello che troverà la cosa giusta da fare di fronte a un mondo imprevedibile e in continuo cambiamento.
Chiaramente quasi nessuno diventerà bravo come Michael Jordan,
ma ognuno dovrebbe essere in grado di apprezzare la differenza fra
Michael Jordan e i figli dei nostri amici quando li vediamo su un campo di basket. Questa capacità di apprezzare le differenze fra un campione e un giocatore mediocre nel gioco della scienza è lo scopo di
questo libro.
Il gioco dei fondamentali scientifici
La scienza ha a che fare con la retorica. In tempi moderni ci si è abituati a considerare la retorica una cosa brutta, ma questo non era il
caso dell’antica Roma, dove la retorica era correttamente considerata
come uno degli strumenti che gli avvocati (o chiunque avesse responsabilità pubbliche) usavano nel loro lavoro. Lo strumento della retorica è di per sé neutrale, né buono né cattivo, diventa cattivo quando voglio convincere un malcapitato a investire i suoi risparmi in un
affare che so di sicuro che finirà con una bancarotta. È sicuramente buono quando dovete convincere la vostra figlioletta di tre anni
a bere una medicina molto amara che però voi sapete che di certo le
farà bene alla salute. La perniciosa illusione di un linguaggio completamente auto-consistente, auto-esplicativo, auto-evidente come il linguaggio naturale della scienza ha portato alcuni filosofi a dire che la
retorica non ha nulla a che fare con «una scienza obiettiva», ma questo è, a sua volta, un esempio di pessima retorica. Negare il carattere
contestuale delle affermazioni e dei risultati scientifici e la loro natura finita è semplicemente una frode che contraddice tutti gli sviluppi
storici della scienza: la storia è piena di pseudo-scienze come la frenologia, di pseudo-entità come il flogisto, la cui assoluta esistenza e veridicità era pomposamente affermata in perfetta buona fede dai più
grandi scienziati del tempo. La vera scienza nasce dagli errori. Più in
generale qualsiasi cosa che viene dotata di troppi «auto-» nella sua definizione alla fine si risolve in una delusione e dimostra la sua insufficienza come tutti quanti abbiamo scoperto nella nostra adolescenza.
29
L’ordine della complessità
Questo significa che è un nostro compito primario quello di dover
convincere gli altri della plausibilità e della rilevanza delle nostre conclusioni. Non esiste alcun risultato scientifico che sia convincente «di
per se stesso». Dopo aver detto che la retorica (l’arte di convincere il
prossimo della plausibilità delle nostre asserzioni) gioca un ruolo preminente nella scienza, passiamo a esaminare quali siano le principali figure retoriche della scienza; qui indichiamo solo i due capostipiti,
che possono essere espansi a piacere a diversi livelli di dettaglio.
La prima figura possiamo chiamarla «Traduzione». Immaginiamo
un epidemiologo che voglia convincerci dell’effetto cancerogeno di
una sostanza chimica X. Il suo modo di argomentare sarà più o meno
questo; per prima cosa dividerà una certa popolazione di soggetti in
due gruppi: il gruppo T formato da individui esposti alla sostanza X e
il gruppo P di non esposti. Scordiamoci per un attimo le enormi difficoltà connesse all’accertamento della correttezza di questa classificazione; teniamo comunque a mente che è su queste difficoltà e su eccezioni alla correttezza di queste classificazioni che si nutre gran parte
della ricerca epidemiologica e clinica.
In ogni caso l’epidemiologo userà alcuni «trucchi del mestiere» per
cercare di minimizzare le critiche a questa assegnazione. Gran parte
di questi trucchi deriva dal semplice buon senso ed è comprensibile a
chiunque; avrà insomma a che vedere con questionari di esposizione,
valutazione delle abitudini alimentari, vicinanza o lontananza da fonti di emissione di X e così via: siamo comunque in un orizzonte del discorso strettamente legato alla vita quotidiana.
Definiti i gruppi, l’epidemiologo eseguirà un secondo tipo di classificazione sui soggetti dividendoli in due gruppi: «ammalati di tumore» (C) e «sani» (S). A questo punto abbiamo il momento della traduzione: se la classificazione P/T è rispecchiata dalla classificazione C/S,
allora ho «tradotto» l’esposizione alla molecola in effetto biologico di
sviluppo del tumore e posso affermare «X aumenta la probabilità di
sviluppare il cancro». Chiaramente la traduzione non sarà mai perfetta, non tutti gli individui T saranno C (TC) e non tutti gli individui P
saranno S (PS), ci saranno esposti sani (TS) e malati non esposti (PC).
La significatività statistica della traduzione verrà giudicata dalla misura del grado di allontanamento dal puro assortimento casuale degli individui nelle quattro classi TC, TS, PC, PS. La distribuzione casuale
è fatta corrispondere alla simmetria assoluta: l’assortimento degli individui nelle diverse classi composte (quelle formate da due lettere)
dipende esclusivamente dall’abbondanza iniziale delle classi singole
30
La semplicità è difficile
(quelle a una sola lettera, insomma quanti esposti e quanti malati indipendentemente dalla loro associazione). Questa «legge di simmetria»
si traduce semplicemente con l’osservazione che le frequenze attese
per puro caso nelle classi composte corrispondono ai prodotti delle
frequenze nelle classi semplici corrispondenti.
L’informazione scientifica deriva quindi dalla dimostrazione di una
«rottura di simmetria», poiché le cose vanno in maniera diversa dal
puro assortimento casuale. Quanto l’epidemiologo si deve allontanare dal puro assortimento casuale per essere convincente? Egli può appellarsi a una procedura apparentemente ineccepibile: e cioè riferirsi
a distribuzioni di probabilità note e calcolare con che probabilità egli
avrebbe osservato il suo risultato nel caso di un assortimento casuale. Questa tecnica gli consentirà di fare un’affermazione del tipo: «il
risultato osservato ha solo l’1% di probabilità di essere osservato per
opera del caso, quindi la mia affermazione è accettabile».
È usanza comune scegliere come limite di accettabilità il 5%, valore che dipende dalla storia della statistica, ossia da una convenzione
storica che non ha nulla di necessario. Esso fu originariamente fissato da William Gosset. Alla fine dell’Ottocento, egli era il responsabile
del controllo di qualità della birra Guinness a Dublino e doveva risolvere il problema di trovare un criterio ottimale per controllare la qualità della birra, in modo da limitare al massimo le bottiglie di prodotto scadente immesse sul mercato e insieme non interrompere troppo
spesso la produzione con falsi allarmi quando i parametri di controllo (concentrazione relativa di malto) apparissero differenti dalla norma. Gosset derivò in maniera empirica una distribuzione della probabilità di fermare la produzione a fronte di una certa concentrazione
di malto quando in realtà le cose andavano secondo la norma. Questa distribuzione prese il nome di t di Student (Student era lo pseudonimo di Gosset, che nella pubblicazione preferì non firmare con il
suo nome per paura di ritorsioni dalla Guinness) e il livello di probabilità del 5% era semplicemente il livello di errore ammesso (fermare la catena quando non c’era bisogno) che massimizzava l’efficienza
del controllo in termini di qualità e di profitto. La scienza sperimentale prese così come era questo costrutto e tutto apparentemente fila
per il verso giusto.
Qui abbiamo però un altro insidioso punto di attacco del maledetto
infinito, che non la smette mai di rendere paradossali le nostre affermazioni scientifiche. È naturale che se l’epidemiologo avesse osservato 10
individui (5 P + 5 T) e avesse osservato una distribuzione del tipo:
31
L’ordine della complessità
gruppo P = 3 S, 2 C
gruppo T = 2 S, 3 C
le sue argomentazioni avrebbero una base ben debole, ed effettivamente il calcolo della significatività statistica gli darebbe torto; la distribuzione non è sufficientemente lontana da quanto ci aspetteremmo assortendo a caso gli individui nelle quattro classi, la differenza fra
2
/5 di malati nel gruppo dei non esposti e 3/5 di malati negli esposti non
è significativa.
Se lo stesso epidemiologo avesse molti più denari ed eseguisse le
sue rilevazioni su un gruppo molto più grande di soggetti, diciamo
2.000, potrebbe ottenere questo risultato:
gruppo P = 550 S, 450 C
gruppo T = 450 S, 550 C
In questo caso lo squilibrio della distribuzione sarebbe nettamente
minore che nel caso precedente, ma ciononostante la differenza sarebbe significativa in quanto il campione, molto più numeroso, renderebbe più potente il test (cioè il campione è maggiormente rappresentativo della popolazione globale). Questo meccanismo perverso5,
per cui in maniera assolutamente logica si arriva a risultati assurdi, è
lo stesso meccanismo che abbiamo visto all’opera nel caso della particella sottoposta ad attrito: portare al limite infinito le misure fa deragliare l’affermazione scientifica che vive nel finito verso l’assurdo logicamente ineccepibile.
L’uso della significatività statistica è allora ammissibile all’interno
di una dimensione del campione relativamente bassa e comunque la
rilevanza del dato, al di là della significatività statistica, deve derivare
da considerazioni umane e quindi opinabili (e non da considerazioni
automatiche e necessarie) sulla reale entità dello squilibrio osservato.
L’asserzione «suffragato da imponente sperimentazione» è quindi di
per sé un’asserzione ambigua.
Chiaramente abbiamo anche altri problemi di valutazione dell’efficacia della traduzione dovuti a possibili cause concomitanti, come
ad esempio una possibile asimmetria del numero di fumatori nei due
gruppi P e T che potrebbe spiegare il risultato o differenze d’età, quello che conta per ora è ritenere il punto essenziale di questa prima figura retorica «descrivere un fatto osservato con altre parole» e quindi
una probabilità di tumore con l’assunzione di una molecola organica,
32
La semplicità è difficile
il punto di fusione di un composto con la sua formula, la pressione di
un gas con il suo volume...
La seconda figura retorica è quella della «Misura». Questa è una
cosa apparentemente banale; dopotutto è qualcosa che facciamo abitualmente, misuriamo l’altezza dei nostri figli, la distanza su una mappa, addirittura riusciamo a fare una previsione di spesa delle nostre
prossime vacanze. Ma vale la pena prestarle una certa attenzione. Cosa
intendiamo per «metro»? Chiaramente ci riferiamo a qualche forma di
misura standard che sappiamo avere delle relazioni anche con un’altra misura che chiamiamo centimetro. Questo genere di relazioni deriva da una sorta di patto sociale stabilitosi nei millenni: l’umanità ha
sempre sentito il bisogno di trovare un accordo sulle unità di misura,
così da chiarire il senso degli scambi, e alcune misure come il «piede»
nei paesi anglosassoni ancora portano traccia di questa origine sociale (difficilmente rintracciabile nella asetticità positivista del metro che
è definito in relazione alla lunghezza dell’equatore). Il punto è che nella scienza abbiamo la necessità non solo di trattare le misure per quella
che è la loro relazione con un pezzo di materia tangibile (per esempio,
un chilo di cipolle), ma di assumere che un chilo di cipolle equivale a
un chilo di rape e che quindi, se ho comprato un chilo di cipolle e un
chilo di rape, ho nella borsa due chili di verdura. Questo passaggio,
utilissimo e fondamentale per conoscere il mondo, mi consente di operare un altro passo e domandarmi se l’errore che ho nel pesare un chilo su una bilancia digitale sia maggiore o minore dell’errore che introduco con una bilancia meccanica. A questo punto il chilo ha solo una
valenza operativa, legata all’atto della misura e posso con sicurezza avventurarmi ad associare numeri specifici a diversi «pezzi di mondo»,
preoccupandomi solo della congruenza del mio sistema di misura. Manipolando questi numeri potrò derivare delle informazioni sugli oggetti a cui questi numeri sono associati. Questa è forse una delle origini
della confusione tra complessità e semplicità: i numeri sono delle astrazioni degli attributi percepiti6. La manipolazione di un mondo di astrazioni è estremamente più conveniente della manipolazione degli oggetti a cui questi numeri si riferiscono, ma il mondo astratto non è in tutto
e per tutto equiparabile al suo corrispondente fisico. Questa che sembra una banalità ha comunque tenuto occupate generazioni di pensatori, dai filosofi medievali ai fisici teorici contemporanei.
Insomma, da questi esempi avrete capito che la semplicità che andiamo cercando è difficile da raggiungere e implica la necessità di sta33
L’ordine della complessità
re con gli occhi bene aperti in ogni situazione, per quanto innocua
essa possa sembrare. Nei capitoli che seguono passeremo da questi
esempi di scuola a pezzi reali di scienza, entrando più nel dettaglio ma
seguendo sempre le mille sfaccettature di «traduzione» e «misura».
Questo darà alla trattazione un andamento «spiraliforme» che disturberà qualche lettore, a cui chiediamo scusa in anticipo, ma che ci porterà a riconoscere questi due fondamentali del fare scientifico in differenti forme e contesti.
NOTE
1
Il libro di Ermanno Bencivenga I passi falsi della Scienza, edito da Garzanti, è una
lettura illuminante rispetto a questi punti e un sano antidoto contro le prese di posizione preconcette (in un senso o nell’altro) sul nobile mestiere della scienza.
2 È utile (anche se un po’ scoraggiante) andare a controllare le categorie concorsuali
dei posti di professore nelle università italiane (ma lo stesso avviene più o meno negli
altri paesi), si troveranno delle amenità come fisica chimica considerata una disciplina
diversa da chimica fisica, astruse sottodefinizioni disciplinari e così via.
3 Su questo tema si rimanda al sito internet http://www.dis.uniroma1.it/~farina/
semplice/ dove si delineano i lineamenti principali della nostra proposta.
4 I carabinieri sono in generale delle persone splendide, leali, oneste e anche spiritose. Gran parte delle barzellette su di loro sono state infatti messe in giro dagli stessi
ufficiali dell’Arma.
5 La perversione risiede nella confusione tra la nozione di «casuale» e la nozione di
«rilevante». Mentre è assolutamente corretto considerare che una piccola asimmetria di distribuzione sia più verosimilmente provocata dal puro effetto del caso in un
campione piccolo piuttosto che in un campione grande, è altresì vero che una piccola
asimmetria rimane «piccola» anche se probabilmente non è casuale. Il fatto che sia
piccola potrebbe renderla a tutti gli effetti irrilevante in quanto non provoca alcuna
conseguenza nel mondo reale. Immaginiamo di avere un farmaco che, in maniera
statisticamente significativa, è stato dimostrato provocare una diminuzione dell’1%
della pressione arteriosa, questa diminuzione non avrebbe alcun effetto sullo stato
di salute di un paziente, il farmaco sarebbe completamente inutile. L’esempio non è
affatto peregrino: molti farmaci sostanzialmente inutili e a volte dotati di pericolosi
effetti collaterali sono stati immessi sul mercato con il meccanismo della «significatività statistica su popolazioni numerose».
6 Lucio Russo, nel suo libro La rivoluzione dimenticata. Il pensiero scientifico greco e
la scienza moderna, edito da Feltrinelli, fa l’interessante ipotesi che i famosi Elementi
di Euclide siano in realtà interpretabili non come i fondamenti concettuali della geometria bensì come gli equivalenti di righello e compasso, insomma uno strumento
di calcolo. Questo implicherebbe che l’ideale non sia sempre stato l’oggetto principe
della matematica. Questa cosa ci fa rammentare delle geometrie «non euclidee» del
XIX secolo, che invece facevano vanto della loro completa e incorrotta (sic) matrice
«ideale».
34
Capitolo secondo
GLI SCIENZIATI SONO ARTIGIANI,
NON PRETI
I poeti affermano che la scienza distrae dalla bellezza delle stelle – semplici globi di gas. Anche io riesco a vedere le stelle in una notte
nel deserto e sentire la loro magia. Ma vedo più o meno cose? La vastità
dei cieli stimola la mia immaginazione – preso da questo vortice il mio
piccolo occhio può contemplare luce vecchia di un milione di anni. Un
disegno mirabile ed immenso, di cui io sono parte. Quale il disegno, il
significato, il senso? Certamente conoscerne una piccolissima porzione
non rovina il mistero. La verità è immensamente più stupefacente di
quanto gli artisti abbiano mai immaginato. Ma perché i poeti odierni
non ne parlano? Che tipo di persone sono questi poeti che riescono a
parlare di Giove solo immaginandolo in forma umana, ma se invece
lo debbono descrivere come un’immensa sfera di metano e ammoniaca
sono costretti a tacere?
Richard Feynman
La ricerca di senso è stata forse il tema più importante che ha pervaso l’intera storia dell’umanità. Con ricerca di senso qui intendiamo
lo sforzo senza fine di comprendere il «reale» ed il posto occupato
dall’uomo nel quadro della realtà. Un corollario di questa ricerca è lo
sforzo dell’uomo di controllare questa realtà per i suoi fini.
La religione è un elemento centrale di questa ricerca. Tutte le culture, dalla più primitiva alla più sofisticata, hanno dato una forma peculiare a questa continua ricerca.
Nella tradizione occidentale, con l’avvento del Rinascimento, assistiamo ad un distacco significativo della ricerca di senso dall’esclusività degli approcci puramente religiosi: un distacco a cui viene tradizionalmente dato il nome convenzionale di «nascita del metodo
scientifico», con i suoi tentativi di comprendere in un quadro il più
possibile unitario e conseguente l’insieme delle percezioni provenienti
dal mondo. Parallelamente al suddetto distacco, si sviluppò anche un
apparato filosofico di supporto al movimento scientifico. Ciò provocò l’individuazione e la parziale separazione della nozione di «ragione» dal discorso più ampio indicante il mondo reale, quasi come se le
idee avessero una sorta di vita propria rispetto alla materia, mentre la
teologia si trovò separata in un mondo a parte. Astenendoci da qual35
L’ordine della complessità
siasi giudizio di valore, potremmo affermare che la definizione formale di un mondo delle idee (res cogitans) come di un argomento a parte rispetto al mondo osservabile (res extensa), che è poi la definizione
di idealismo, si possa far risalire a Cartesio e a Kant. La traduzione
dell’idealismo ai nostri tempi è il riconoscimento della radice del successo della «scienza» nella sua oggettività ed imparzialità, nel suo appartenere al mondo ordinato delle idee e quindi nella sua capacità di
mettere ordine nel mondo confuso e disordinato della materia, proprio perché in ultima analisi non vi appartiene. Da ciò nasce il prestigio sociale della scienza per cui, sebbene la grandissima parte delle
persone ne abbia una conoscenza praticamente nulla, quasi nessuno
le ha negato importanza e valore. L’odierna «crisi di rigetto» nei confronti della scienza, rappresentata da vari movimenti e mode che a diverso titolo contestano risultati e pensiero scientifico, derivano (anche
se spesso senza averne consapevolezza) dalla manifesta assurdità della pretesa di «oggettività» della scienza, di cui comunque si avverte il
fascino perverso. Non a caso spesso questi movimenti propugnano
una loro «verità oggettiva», che simula le teorie onnicomprensive della scienza idealista e quindi partecipa della stessa illusione.
Qui noi proveremo a convincere la lettrice ed il lettore che la «rottura» tra la scienza e la teologia in realtà non è mai avvenuta, o meglio
non è stata completa, per lo meno nell’immaginario generale, e che
questa mancata «rottura» è alla base di tanti fraintendimenti.
In moltissime occasioni leggiamo ed ascoltiamo frasi come «le verità scientifiche» o «i miracoli della scienza»; spesso gli scienziati descrivono il loro lavoro come una «ricerca della verità». Gran parte di
questo vocabolario è un residuo dei tempi in cui la realtà era interpretata solamente dalla religione e dai suoi rappresentanti ufficiali formanti il clero, ma questo residuo è tutto meno che innocuo; a forza
di ripeterlo si potrebbe essere tentati di crederci e la scienza rischierebbe di diventare una pericolosa religione senza amore. La connotazione di mistero e di potenza insita nel guardare alla scienza come
«ricerca della verità» non è soltanto falsa e fuorviante, ma altamente
dannosa per l’umanità.
Negli anni Settanta, Ivan Illich fece la sua breve e sfolgorante comparsa come critico radicale della modernità. I suoi lavori ebbero una
larghissima eco, ma da allora sono stati largamente ignorati. Nonostante la contraddittorietà di molte sue posizioni egli fu essenzialmente un critico feroce dell’idealismo contemporaneo incarnato nelle isti36
Gli scienziati sono artigiani, non preti
tuzioni moderne, soprattutto scientifiche. Nel suo Nemesi medica egli
asserisce che i medici avevano ormai preso il posto del clero come
«maestri della buona morte»1.
Sebbene molti critici, trent’anni fa, avessero tacciato Illich di esagerazione e catastrofismo, il tempo gli ha dato sicuramente ragione,
e moltissimi ormai riconoscono la medicina come il canale in cui la
scienza moderna entra più pesantemente nella nostra vita quotidiana
con la brutalità di un integralismo fideistico. La medicina è diventata il tempio della fede nella scienze e del «vivere corretto»; basta dare
un’occhiata alle edicole o alla televisione per notare l’abbondanza di
consigli per vivere bene a lungo propinatici da signori in camice bianco pericolosamente simili a sacerdoti di un culto idolatrico, poco importa se si contraddicano ad intervalli di tempo brevissimi. La medicina dei nostri giorni è ormai diventata uno sforzo collettivo dell’intero
establishment scientifico, dalla fisica nucleare che si incarna nei grandi strumenti per la terapia e la diagnosi radio-nucleare fino alla biologia molecolare ed alla chimica degli apparati diagnostici e della farmacologia. È interessante notare come, parallelamente ad una caduta
diffusa di interesse nei paesi occidentali verso la cultura scientifica, i
mezzi di comunicazione di massa abbiano moltiplicato le informazioni legate a temi biomedici. Il risultato è analogo al comportamento di
un fedele nel Medioevo, che si affidava al giudizio della Chiesa per
ogni incombenza della vita di tutti i giorni. I «fedeli» dei nostri giorni sono i consumatori dei miracoli medici e dei media che promettono battaglie senza quartiere contro la morte. Le «virtù» della Chiesa
medica, allora, saranno i comportamenti «salubri» che tengono lontane le malattie2. Ma se la religione medievale offriva grandi spazi di rivolta e di «riforme dal basso» che hanno mantenuto il messaggio della
Chiesa contemporaneo e vivo (si pensi ai grandi movimenti di riforma
monastica e a figure come san Francesco, Celestino V, ma anche a loro
modo ai grandi movimenti ereticali o i folli di Dio curiosamente presenti contemporaneamente nelle Marche e nel mondo islamico persiano con la spiritualità sufi), la scienza medica è molto più impermeabile a questo tipo di riforme e di partecipazione.
Ma tutto ciò è profondamente perverso.
Quello dello scienziato dovrebbe essere un mestiere artigianale
per cui parlare di ortodossia non dovrebbe avere alcun senso: la base
dell’impresa scientifica, infatti, è il suo carattere evolutivo.
Insomma, la scienza si contraddice in continuazione, raffina le sue
37
L’ordine della complessità
2.1. Immagine rappresentante «La lingua degli Uccelli» una delle opere più
importanti della spiritualità sufi scritta dal poeta persiano al-Attar nel XIII secolo.
In essa in qualche misura si «sovvertiva» una concezione troppo legalistica
dell’Islam per cercare una spiritualità più diretta.
posizioni, e la sua interpretazione del mondo non è mai completa. In
qualche modo potremmo affermare che ogni teoria scientifica risulterà, a lungo andare, falsa o quanto meno incompleta. La storia della
scienza è piena di teorie che un tempo erano considerate inattaccabili
e che poi sono state miseramente abbandonate.
Questa fallibilità costituzionale è la forza stessa della scienza, i guai
nascono quando i risultati scientifici vengono accettati senza critiche
38
Gli scienziati sono artigiani, non preti
e scetticismo, come se fossero dei pronunciamenti definitivi, del tipo
«è scientificamente dimostrato che...».
Bisogna dire, a onor del vero, che questo genere di affermazioni
apodittiche sono più frequenti in chi la scienza crede di interpretarla
(da politico, da filosofo, da giornalista...) che in chi la scienza la fa sul
serio. In ogni caso, i peggiori guai degli ultimi due secoli – dal colonialismo al razzismo fino alle violenze e ai genocidi di massa – tutti incorporano al loro interno delle teorie «scientifiche». I crimini contro
l’umanità giustificati dall’applicazione di teorie che apparivano perfettamente ragionevoli (motivo per cui venivano disgraziatamente definite verità scientifiche) sono innumerevoli. Qui ci basti ricordare il
«darwinismo sociale», che forniva una sorta di giustificazione «scientifica» all’espansione coloniale ed al razzismo. Come spesso accade
nelle vicende umane, l’orrore confina con il ridicolo (il che forse addolcisce un po’ la pillola). C’è una famosa storiella che circola negli
ambienti scientifici riguardante uno statistico che aveva presentato un
lavoro scritto a mano (si parla di vent’anni fa circa) al suo superiore, il
quale non dimostrò alcun interesse verso i risultati. Lo statistico tornò allora alla carica con uno sfavillante apparato di grafici e di stampe
computerizzate ottenendo un grande successo, riproponendo di fatto la stessa informazione di base guarnita con un’iconografia più spettacolare. Ora, una cosa del genere non sarebbe possibile, nessuno più
scrive a mano, ma quella storiella mantiene un significato profondo,
che ha a che vedere con la famosa frase di Marshall McLuhan per cui
«il mezzo è il messaggio»3. Il che, tradotto in altre parole, suona così:
«se sta scritto in un libro allora vuol dire che è vero». Nel frattempo il
world wide web si prepara a giocare il ruolo del «libro dei libri» per le
prossime generazioni. A questo punto dovrebbe risultare chiara l’urgenza di ribadire che per «scienza» si deve intendere semplicemente
la «ricerca di quello che può funzionare». L’unica impresa scientifica
guidata principalmente dalla teoria è stata la costruzione della bomba
atomica (il che non corrisponde esattamente a un’impresa di cui andare troppo fieri), mentre in tutte le altre occasioni la teoria è venuta dopo la dimostrazione pratica. Quando i fratelli Wright, due geniali costruttori di biciclette americani, fecero volare il loro apparecchio
sulla spiaggia di Kitty Hawk, le università erano affollate da fisici teorici che avrebbero potuto dimostrare in modo inoppugnabile l’impossibilità del volo a motore.
Naturalmente questo non significa che occasionalmente dalla teo39
L’ordine della complessità
2.2. L’apparecchio dei fratelli Wright mostra chiaramente l’ascendenza artigiana di
costruttori di biciclette dei geniali Wilbur e Orville.
ria non si possano trarre utili spunti per risolvere dei problemi, ma
di sicuro, con buona pace di tutto il marchingegno idealista del prestigio della scienza come res cogitans, la scienza è sempre stata un affare per gente piuttosto pragmatica. Il modello tolemaico è un buon
esempio di tutto questo; esso era basato sulla teoria errata della Terra come centro dell’Universo, e ciò nonostante ha funzionato egregiamente per secoli. Nessuno fu in grado di mettere in crisi il modello finchè non furono scoperti degli errori (peraltro di entità minima)
di predizione4.
Sebbene a Newton sia di solito riconosciuto il merito di avere formulato le leggi del moto, di fatto, in accordo con il suo stesso motto in
cui asseriva di essersi «... issato sulle spalle di giganti», molti scienziati in Europa avevano già iniziato a suggerire queste leggi derivandole
dall’osservazione empirica. Certamente Galileo è fra questi ed una visita al museo della Scienza di Firenze sui Lungarni, dove sono esposte
le sue macchine sperimentali, ci fornisce un’idea immediata di quanto
40
Gli scienziati sono artigiani, non preti
2.3. Il piano inclinato di Galileo. Per risolvere il problema della misura accurata del
tempo di percorrenza di una sfera che rotolava nella canaletta, Galileo sistemò dei
campanelli a distanze variabili che venivano fatti tintinnare dalla sfera in corsa.
Il raggiungimento, percepibile all’orecchio, di un intervallo regolare di suoni
a distanze variabili dei campanelli corrispondeva all’accelerazione del sistema.
Questo è un esempio luminoso di «soluzione artigiana».
l’artigianato giocasse, molto di più della matematica, un ruolo di primo piano nella scienza dell’epoca. Newton ebbe comunque la genialità di riportare queste idee in un quadro coerente, e in questo senso
l’uso del formalismo matematico fu prezioso.
La catastrofe intellettuale fu dovuta agli epigoni settecenteschi del
pensiero di Newton, che diedero vita ad una bolsa mitologia delle leggi del moto equiparandole al disvelamento di una verità assoluta.
Ciò portò all’equivoco di considerare l’aggettivo «scientifico» sinonimo di «dimostrato come vero»; tale equivoco ancora persiste in
molti ambienti intellettuali e scientifici e nella cultura popolare, nonostante molte idee accreditate come «verità scientifiche» – come il
flogisto, l’età della Terra descritta dalla termodinamica, la presenza
di elettroni nel nucleo, la frenologia, il dogma della biologia molecolare e molte altre – si siano dimostrate con il tempo completamente
41
L’ordine della complessità
false5. In altre parole, l’aggettivo «scientifico», lungi dall’essere sinonimo di «vero», è incompatibile con la verità, proprio perché la scienza reale è un continuo raffinamento dei risultati ottenuti ed ha a che
vedere con punti di vista programmaticamente parziali e personali6.
Sebbene la «rivoluzione scientifica» sia spesso descritta come l’abbandono del primato della metafisica in favore degli osservabili empirici, le cose non stanno proprio così. La scienza ha a che vedere con le
misure e quindi con quantità osservabili, quindi un oggetto fisico potrà essere studiato per la sua temperatura, il suo volume, la sua massa,
ecc. Questi fattori possono essere ulteriormente manipolati per cercare delle relazioni tra di loro. Se queste relazioni si ripetono in maniera
consistente in certe condizioni potranno essere la base per la «predizione» di altri comportamenti misurabili degli stessi oggetti fisici. La
ben nota legge dei gas ideali descrive le relazioni fra volume, pressione
e temperatura dei gas in certe condizioni ben specifiche: gas ideali di
cui i gas reali possono essere delle buone approssimazioni se molto rarefatti lontani dal punto di fusione. La legge derivata empiricamente,
però, non è aliena da astrazioni. Si pensi per esempio alla prima legge
di Newton, che afferma che la forza equivale al prodotto della massa
per l’accelerazione. La massa e l’accelerazione possono essere misurate, ma la forza non è altro che un’astrazione resa operativa da una relazione tra massa e accelerazione, così come un gas ideale non esiste, ma
è un’astrazione derivante dall’esistenza di una relazione tra volume,
pressione e temperatura. Lo stesso si può dire di concetti come «lavoro» ed «energia» in uso nella scienza derivanti da operazioni su osservabili fisici effettivi. Gli psicologi hanno tentato di rendere scientifico
lo studio della mente attraverso definizioni operative di vari concetti,
a partire da comportamenti, dando vita a pseudo-entità che ad un certo punto acquisivano vita propria senza che il legame con la realtà fosse più ricostruibile (a differenza del lavoro e dell’energia, le ricette per
aggiustare gli osservabili per dar vita alla relazione desiderata in psicologia sono praticamente impossibili da riprodurre).
Molti scienziati hanno notato il fatto curioso che questi «concetti»
scientifici resi operativi dalla matematica hanno una fortissima relazione con la filosofia platonica delle idee. Il famoso fisico David Ruelle7 ed il matematico David Mumford8 hanno rimarcato questa parentela e hanno speculato sulla relazione esistente tra la mente umana ed
il mondo circostante. Le nostre percezioni hanno a che vedere con le
nostre categorie mentali, che noi poi rendiamo operative (e quindi at42
Gli scienziati sono artigiani, non preti
tive fuori di noi su delle misure provenienti dal mondo esterno) in
vari modi. Sempre più studi sperimentali ci suggeriscono che la mente umana tende ad utilizzare forme ed astrazioni per immagazzinare in
maniera efficiente le percezioni. Fintanto che tale immagazzinamento
avviene in maniera efficiente le nostre astrazioni sono utili, ma quando
queste non riescono più a rendere ragione di particolari percezioni, allora cerchiamo di cambiarle e raffinarle. È interessante notare come
Pascal, fiero oppositore di Cartesio, avesse posto l’attenzione, nei suoi
Pensieri, nella prima metà del Seicento, al carattere materiale di «impulsi nervosi» delle categorie, rifiutando nettamente l’esistenza di un
mondo autonomo delle idee.
La scienza però, come ogni attività umana, ha ben radicata nella sua natura la «ricerca di un senso», che è una forma di «cammino
verso la verità». Non possiamo allora esimerci dal cercare di definire
quale sia il senso della scienza, il suo specifico cammino verso la verità che, se non risiede nei suoi contenuti, che abbiamo visto essere fallibili per definizione, oltre che strettamente dipendenti nella forma da
come il nostro cervello immagazzina i dati della percezione, deve nondimeno essere da qualche parte, pena la totale mancanza di significato e di interesse dell’attività scientifica. Dobbiamo insomma cercare
dove si nascondono i «valori duraturi» dell’attività scientifica, che ci
faranno comprendere il ruolo giocato dalla scienza nella promozione
della dignità umana.
La «verità» nascosta nella scienza è, secondo noi, lo stesso tipo di
verità nascosta nel lavoro degli artisti e degli artigiani. Una bellissima
raccolta di racconti dello scrittore americano Raymond Carver è intitolata Di cosa parliamo quando parliamo d’amore. In questo titolo meraviglioso è racchiusa la definizione di tutto ciò a cui diamo il nome
di «arte»: l’arte è qualsiasi cosa che parli di «qualcos’altro» rispetto al
suo significato apparente. Questo è il motivo per cui la vera arte ha
una durata molto maggiore rispetto alle sue motivazioni immediate:
quando ammiriamo le pitture di Caravaggio ne deriviamo ancora delle profonde sensazioni e risonanze con la nostra esperienza personale
senza essere degli esperti critici d’arte.
La vista della Conversione di Matteo nella cappella Contarini di
San Luigi dei Francesi a Roma parla al nostro cuore anche se ignoriamo totalmente il problema della Grazia nella Riforma cattolica,
che poi è il tema principale del dipinto (ed in un certo senso di tutta l’opera di Caravaggio). Nel quadro riportato in figura, Gesù opera
43
L’ordine della complessità
2.4. La Conversione di Matteo, Caravaggio, San Luigi dei Francesi, Roma.
una chiamata personale a Matteo che sembra domandare, toccandosi il petto «è me che vuoi?» (rimarcando così il contributo personale dell’individuo nell’opera della salvezza in opposizione alla teologia
protestante), la Grazia è simbolizzata dalla luce che squarcia la scena,
proveniente dal lato dove è posto Gesù, non è una luce terrena, infatti proviene ortogonalmente rispetto alla finestra. La Grazia è personale: alcuni presenti, come il giovanotto ad una estremità del tavolo che
continua imperterrito a contare il denaro, non la percepiscono... potremmo discutere a lungo di questo quadro, che è pieno di simbolismi
e rimandi alla cultura del tempo, ma anche se ignorassimo tutti questi particolari ugualmente potremmo comprendere nell’immediato (e
così effettivamente hanno fatto generazioni di fedeli analfabeti) il significato fondamentale della scena.
44
Gli scienziati sono artigiani, non preti
Il riferimento a «qualcos’altro» rispetto all’uso primario ed autoevidente di uno specifico oggetto è comune a qualsiasi prodotto artigianale. Quando guardiamo una vecchia barca a vela di legno oppure
l’architettura di un antico aratro, anche se questi oggetti garantiscono
prestazioni (rispetto al loro uso primario) inferiori alla maggior parte dei loro corrispondenti moderni, ciononostante ne apprezziamo il
senso e la logica intrinseca. Il senso deriva dalla particolare relazione
struttura/funzione incarnata nel disegno e nella realizzazione del pezzo, dalla cooperazione di tutte le parti per uno scopo definito, alle piccole singolarità che rendono unico ogni pezzo artigiano e ci parlano di
infinite «altre cose» rispetto all’uso primario dell’oggetto.
Questi oggetti ci parlano del lavoro umano e dell’ingegno, della
fantasia, della passione e degli sforzi dell’uomo che li ha costruiti ed
usati.
La produzione di massa, eliminando le singolarità e costringendo l’oggetto verso un «singolo punto di ottimo» genera una drastica riduzione del senso attraverso una massiccia de-complessificazione
dell’oggetto. Questa de-complessificazione non corrisponde alla semplificazione nella direzione che proponiamo in questo libro, ma al suo
esatto opposto.
Mentre la semplificazione deriva dal riconoscimento della molteplicità delle richieste ambientali (ai fisici piace chiamarle «condizioni
al contorno») e al conseguente bisogno di non fare troppe assunzioni ingiustificate, la de-complessificazione deriva dalla pretesa di poter estrarre una singola caratteristica «essenziale» dei sistemi studiati
da sostituire alla «cosa reale», e come tale ottimizzata semplicemente scartando tutte le cose considerate «al contorno». Questa strategia de-complessificante è riuscita ad essere economicamente vincente
per circa centocinquanta anni, ma ora si dimostra, in ambiti tra loro
diversissimi, assolutamente anti-economica, proprio per l’emergere
di vincoli inizialmente considerati minori e non facenti parti a buon
diritto del «quadro energetico da minimizzare». In questo modo, le
case costruite senza criteri estetici, considerati anti-economici e «inutili cascami» (e quindi fuori dai criteri di ottimo), sono risultate energeticamente fallimentari per il condizionamento termico, e al tempo
stesso hanno generato quartieri invivibili, dove la violenza e l’emarginazione hanno provocato altissimi costi sociali ed umani. Considerazioni analoghe si possono fare sull’uso delle risorse non rinnovabili,
l’acqua potabile, la copertura forestale e tutti i problemi che da più
45
L’ordine della complessità
2.5. Trulli in Val d’Itria.
parti spingono ad un profondo rovesciamento del cosiddetto pensiero moderno.
Il legame fra la Rivoluzione industriale e la «nascita della bruttezza» è stato indagato da molti autori9, e in Italia risulta particolarmente
percepibile se appena volgiamo la mente alla bellezza dell’architettura
popolare italiana fino al XIX secolo (si pensi ai trulli pugliesi, alle case
della Costiera Amalfitana e della Riviera Ligure, ai masi delle Dolomiti o ai casali laziali) e la confrontiamo con gli orrori delle periferie moderne. I costruttori contemporanei sono di solito molto più colti – in
un senso propriamente moderno e idealista «di letture colte», non di
cultura materiale – di quelli antichi ma, purtroppo per tutti noi, essi
condividono un singolo «ottimo» di massa riguardo al loro lavoro,
che va da Shangai a Siracusa e che elimina completamente la bellezza ed il senso del loro lavoro, distruggendo il paesaggio e l’ambiente. I
loro predecessori, invece, erano estremamente attenti alle «condizioni al contorno» proposte dall’ambiente circostante, grazie al carattere
46
Gli scienziati sono artigiani, non preti
locale, di cultura materiale ed artigiana, delle loro abilità. Non a caso
le abitazioni tradizionali sono energeticamente molto più efficienti di
quelle moderne, oltre ad abbellire l’ambiente invece di mortificarlo.
La scienza è stata fino a non molto tempo fa il luogo in cui accanto ai
proclami idealisti, tutto sommato più ascoltati dai filosofi che dai veri
scienziati, è prosperata una cultura artigiana molto raffinata: le specifiche abilità e i «trucchi del mestiere» con cui ogni singolo scienziato
risolve i suoi problemi, integrati con lo stile di ragionamento, l’applicazione della metodologia, le linee logiche con cui spiega i suoi risultati sono nel complesso delle «firme» che garantiscono l’unicità del prodotto artigiano e fanno parte di culture locali tradizionali, tramandate
da maestro ad allievo nella pratica quotidiana e spesso non traducibili e formalizzabili in modo preciso e definitivo.
Ciò fa sì che, analogamente all’aratro e alla barca a vela, noi possiamo continuare ad imparare da pezzi di scienza il cui contenuto e motivazione primaria sono ormai ampiamente sorpassati da nuove acquisizioni e teorie. Un esempio illuminante è il coefficiente di correlazione
di Pearson, che fu immaginato per provare, tra la fine del XIX e l’inizio
del XX secolo, alcune teorie eugenetiche demenziali. Ebbene, nonostante quelle teorie siano ormai morte e sepolte, il coefficiente di Pearson è una grande fonte di ispirazione per il nostro lavoro quotidiano
di statistica, e il coefficiente stesso è la metrica più usata per l’analisi dei dati nel campo, in rapidissima espansione, della biologia computazionale e della cosiddetta biologia dei sistemi (Systems Biology).
Il valore aggiunto che mantiene giovane ed attuale il coefficiente di
Pearson, mentre le teorie che lo avevano ispirato sono ormai morte, è
il fatto che esso ci parla di «qualcos’altro», incorporando l’irriducibile
sforzo artigiano per raggiungere l’obiettivo, che produce valore indipendentemente dallo scopo prefissato.
Tutto questo non vale più per la scienza di massa, dove miriadi
di scienziati-gnomi lavorano ad un minuscolo particolare di un grande quadro di cui non capiscono il senso generale. Essi semplicemente applicano dei metodi standard già definiti dalla comunità scientifica come «i più adatti allo scopo» (i medici organizzano delle grandi
riunioni dette consensus conferences, in cui la comunità decide i metodi più adatti per ogni singolo aspetto della professione, mentre le altre
comunità scientifiche stanno seguendo la stessa strada che porta alle
periferie urbane abbandonando la sapienza artigianale del trullo).
Gli gnomi si contentano di aggiungere il loro piccolo mattone alla
47
L’ordine della complessità
torre di Babele, la cui architettura generale è decisa altrove, ma le torri di Babele hanno una pericolosa propensione al crollo. Questa è stata la storia del progetto Genoma umano, vale a dire del progetto per
il sequenziamento completo del DNA dell’uomo. La «grande idea» alla
base del progetto è che, nascosto nella sequenza del DNA, risiede il piano ultimo da cui derivare tutte le informazioni rilevanti riguardo agli
organismi fino ad ora studiati da altre discipline come la zoologia, la
botanica, la fisiologia, il cui corpo di conoscenze può, almeno in linea
di principio, essere ridotto al piano inscritto nel DNA. Conformemente
alla stessa logica, ogni eventuale parte irriducibile può essere considerata un accidente trascurabile, una contingenza che si sovrappone alla
realtà ideale della molecola del DNA. Come si può notare si tratta di un
paradigma di stampo nettamente alchemico, in cui il DNA è la quintessenza, la pietra filosofale, l’equazione definitiva da cui far discendere
tutte le manifestazioni del vivente. Il cosiddetto «dogma» principale
della biologia molecolare, «un gene - una proteina», con l’aggiunta del
corollario «una proteina - un carattere fenotipico», è il passo iniziale
per il successo del progetto. Un’armata di scienziati operai fu assunta per l’impresa e il completamento della sequenza, ma alla fine tutte
le premesse iniziali furono sconvolte. I risultati, infatti, lasciavano intravedere uno scenario del tutto inatteso: il numero delle proteine che
sopravanzava di molto quello dei geni, modifiche post-traslazionali
delle proteine che ne facevano cambiare struttura, funzione e relativo fenotipo, eredità alternative alla sequenza del DNA ottenute attraverso differenti pattern di metilazione degli istoni, una gran quantità
di DNA ritenuto senza evidente funzione («DNA spazzatura»), insomma un mondo selvaggio e senza regole si rivelava al posto della rigida economia di piano DNA-RNA-proteine che forniva l’ossatura teorica
del progetto. La de-complessificazione era fallita ed aveva rivelato un
mondo ancora vergine da generalizzazioni.
La torre di Babele era crollata al suolo, distruggendo i sogni (o forse gli incubi) del controllo totale del vivente attraverso l’ingegneria genetica che avevano motivato l’avventura «genoma umano». Questa è
stata nel complesso una grande lezione di umiltà, anche se chiaramente c’è chi ancora persegue il sogno attraverso forme più sofisticate di
controllo. Nel complesso, infatti, la comunità scientifica sembra essere arrivata alla conclusione che ogni sforzo arbitrario di riduzione della complessità del vivente ad un unico «sacro Graal» seguendo lo stile
delle «teorie del tutto» di stampo fisico sia destinato al fallimento.
48
Gli scienziati sono artigiani, non preti
Quando un grande edificio, o addirittura un’intera città, collassa,
in giro rimangono tantissime macerie di svariate dimensioni, dai singoli mattoni fino a interi muri più o meno solidi. Qualcosa del genere
accadde a Roma dopo le guerre gotiche alla fine del VI secolo, quando una città di un milione di abitanti collassò in un piccolo paese abitato da poco più di duemila persone. Gli archeologi hanno ricostruito
a grandi linee cosa accadde: le persone adattarono le strutture costruite sulla grande scala urbana (grandi templi, teatri, moli) alla scala del
paese (piccole case, chiese) attraverso un uso nuovo dei pezzi vecchi.
Questo ri-ciclaggio implicava uno spirito completamente differente
e uno sforzo per trovare nuove funzioni ad elementi pre-formati, un
classico compito artigiano. Le macerie del progetto genoma sono ora
nel web sotto forma di sequenze proteiche, dati di espressione genetica differenziale (microarray), mappe metaboliche, ecc. Questo è un
territorio perfetto per scienziati artigiani che vogliano trovare un nuovo uso per questo materiale: per far ciò essi non necessitano di molto
denaro o di sofisticate apparecchiature ma solo di fantasia, abilità statistica e spirito creativo, gli ingredienti della scienza semplice10.
La «scalabilità» delle grandi costruzioni, cioè il loro possibile adattamento a dimensioni più ridotte, così come la scalabilità dei progetti
scientifici, ci spinge ad un’ulteriore considerazione.
Esiste la tendenza a definire «complesse» cose che sono semplicemente «grandi». Per esempio, il DNA, sebbene contenga un’enorme quantità di «materiale genetico», è di fatto costituito da due tipi
di coppie di basi; di conseguenza la sua complessità deriva dalla sua
mole. Lo stesso si può dire di un palazzo che è costituito da mattoni
semplici e così via: come si può intuire, la complessità è un derivato
della percezione e della necessità umane di avere un quadro completo
per «tenere sotto controllo» l’oggetto studiato.
Il premio Nobel e pioniere dell’Intelligenza artificiale Herbert A.
Simon, fece alcune interessanti osservazioni a proposito. Egli osservava come il processo decisionale umano fosse strettamente dipendente dalle condizioni al contorno. Contrariamente alla credenza comune
che le persone cerchino di raccogliere tutte le informazioni rilevanti a disposizione prima di prendere una decisione, il processo cognitivo avviene in modo molto più pragmatico (ed efficiente): raccogliere tutti i fatti e poi decidere è un processo praticamente impossibile
per la mente umana, ed in ogni caso ritarderebbe talmente la decisione da essere controproducente. La mente umana semplicemente si ac49
L’ordine della complessità
contenta di una soluzione anche non ottimale basandosi sulle informazioni più facilmente raggiungibili in una versione miniaturizzata
(la «scalabilità», appunto) del problema iniziale. In altre parole, noi
formuliamo, più o meno consciamente, un modello su scala ridotta
del problema, assumendo automaticamente che è troppo «grande»
(e quindi complesso, ma questa identificazione deriva dal fatto che
noi ci poniamo di fronte alla cosa come ad un problema per noi, cioè
dal punto di vista del solutore); il modello in scala è quindi accettato
come una copia fedele del problema iniziale e risolto.
Chiaramente l’idea di fondo è che se avessimo sufficiente tempo e
risorse potremmo attaccare direttamente il problema nelle sue dimensioni reali.
L’implicazione per la forma del legame che lega la semplicità alla
complessità, che ha ispirato il titolo del nostro lavoro, e che non è che
una cosa è complessa in sé, è che ce n’è troppa. La complessità sembra insomma essere un surrogato per processi, idee, strutture, società
che, essendo grandi ed estese, sono di conseguenza costruite con molti piccoli pezzi interconnessi. Insomma, la questione cruciale è il passaggio di scala, ciò che veramente marca i nostri tempi è che ci siamo
tornati ad interessare delle interconnessioni come elemento cruciale
per comprendere (controllare, spiegare, costruire a seconda dei casi)
i fenomeni, laddove la scienza riduzionista coltivava il sogno segreto
che, arrivati al mattone fondamentale, l’intera costruzione sarebbe andata a posto da sola.
Se osserviamo il cervello è immediato comprendere come, da un punto di vista strutturale, esso sia un oggetto estremamente semplice: il
cervello è fatto da neuroni, sebbene di tipo diverso, il cui comportamento conosciamo piuttosto bene. Il difficile nasce dal fatto che di
queste cellule ce ne sono presenti milioni e milioni, connesse in vari
ed inestricabili modi. Come se non bastasse i neuroni si inviano costantemente segnali tra loro, e spesso simultaneamente. Anche il processo di segnalazione, posto che si conosca il linguaggio, è qualcosa di
semplice. Immaginiamo due onde sinusoidali che vengano trasmesse
simultaneamente.
Dalla figura risulta chiaro che l’onda è composta da più di un segnale e, con un po’ di pazienza, ci si potrebbe immaginare di che segnali si tratti. Sfortunatamente i casi reali non sono così diretti e puliti
perché, come ogni scienziato sa, i segnali sono di solito accompagnati dal «rumore». Non è facile definire cosa sia il rumore per sé, se non
50
Gli scienziati sono artigiani, non preti
2.6. Convoluzione di due onde sinusoidali.
rifacendosi a definizioni piuttosto astruse e tecniche e sempre limitative, come «un segnale in cui tutte le frequenze siano presenti con la
stessa intensità» (rumore bianco, quello del televisore non sintonizzato, che «fa la neve» come si diceva un tempo) o con una certa ben
nota distribuzione di frequenze (rumore rosso, rumore rosa, ecc.).
Per quanto tautologica la migliore definizione di «rumore» è «tutto
ciò che non è legato al segnale come contenuto informativo ma che
è ugualmente presente», anche se il risultato ricorda un po’ la definizione dei buchi del groviera, che sono indissolubilmente legati al formaggio (se non li avesse non sarebbe «groviera») ma di per sé non si
mangiano. Nel caso dei due neuroni che si scambiano segnali, rumore sono gli echi da altre aree, cellule che «scaricano» autonomamente nelle vicinanze, disturbi elettrici sulla membrana, errori di misura,
e così via. Il punto è che il rumore complica di molto le cose, come si
vede dalla figura seguente, in cui abbiamo aggiunto un po’ di rumore «random».
Come si vede, il segnale diventa più difficile da interpretare. Chiaramente abbiamo dei sistemi matematici (analisi di Fourier, Singular
Value Decomposition, ecc.) per aiutarci a decifrare i segnali, ma anche
così i segnali presenti contemporaneamente in una traccia elettroen51
L’ordine della complessità
2.7. Il segnale originale è «sporcato» dal rumore.
cefalografica (EEG) sono tali e tanti, oltre che rumorosi, che il problema iniziale dei due neuroni che si scambiavano onde di segnalazione
non è più recuperabile nella sua semplicità. Naturalmente i due neuroni sono sempre lì, solo che nel frattempo il loro discorso si è allargato ad una grande folla vociante di cui non distinguiamo che il brusio indistinto.
E proprio perché è una questione di scala, una grande città come
Roma può essere ricostruita dai suoi pezzi più piccoli e le proteine
dagli aminoacidi. Ma la questione è che Roma non è stata ricostruita
identica, e due proteine con la stessa composizione amino-acidica ma
con differente sequenza hanno due funzioni completamente diverse.
La conoscenza delle interconnessioni è allora il punto cruciale di tutto il ragionamento.
Possiamo allora senz’altro affermare che esiste una semplicità latente alla complessità delle «cose grandi», e che questa complessità ha
a che vedere con le condizioni di funzionamento del nostro cervello,
che percepisce l’interezza dei fenomeni e ne cerca versioni scalabili e
controllabili, più che nella costituzione delle cose in sé (da qui la sostanziale delusione nel conoscere tutti i pezzi e la struttura del singolo pezzo senza chiarirne le interconnessioni). Ma le interconnessioni,
a differenza dei pezzi fondamentali, non sono necessarie, cambiano a
52
Gli scienziati sono artigiani, non preti
seconda delle contingenze e sono strettamente dipendenti dalle condizioni al contorno molto più che dalle leggi fondamentali della natura. Esse necessitano dello spirito artigiano, di intuizione molto più
che di rigore10.
NOTE
1 Ivan Illich, Medical Nemesis, Random House, New York 1976 (tr. it. Nemesi Medica, Boroli Editore, Milano 2005). Nel libro l’autore critica severamente le basi scientifiche della medicina che egli giudica fortemente deficitarie. In qualche misura la
corrente odierna verso la cosiddetta EBM (Evidence Based Medicine) può essere fatta
risalire alle sue critiche. Gli fu diagnosticato un tumore nel 1980 ma egli, coerentemente con le sue posizioni, rifiutò ogni tipo di terapia e morì nel 2002.
2 Illich suggeriva che un risultato del consumismo medico sarebbe stato un aumento
paradossale dell’uso dell’apparato medico sia in termini di diagnosi che di cura. Le
sue predizioni si sono avverate in pieno. Per quel che riguarda l’aspetto di culto della
salute è affascinante l’articolo di F.T. Fitzgerald, The Tyranny of Medicine, in “New
England Journal of Medicine”, 331(1994), pp. 196-198, riguardo alla sottile modifica
della definizione di «salute», per cui la «norma» della salute si trasforma in «ideale»
di salute. Così la malattie e gli accidenti diventano colpe. Dice la dott.ssa Fitzgerald:
«Noi consideriamo alcune forme di abuso di sé come meritevoli di riprovazione, e
molti di noi hanno visto dei colleghi rifiutare le cure per alcune persone «dipendenti»
(obesi, fumatori, bevitori, eroinomani, malati di HIV) con il pretesto che queste persone «se la erano voluta» poiché non si erano comportate come noi medici avevamo
consigliato loro di comportarsi. In questo modo noi possiamo incolpare i pazienti
per le loro malattie e rifiutare loro compassione e cure... La necessità economica di
risparmiare sul costo della salute per la società sta creando una associazione tra viziomalattie e sanità pubblica». Parafrasando Illich «... in questo modo noi stabiliremo
una sorta di tirannia medica in cui i malati saranno coloro che si sono comportati
male (con alcuni comportamenti tollerati o addirittura apprezzati ed altri condannati)... classificare tutti i guai dell’umanità come problemi medici è l’antitesi della vera
salute, in quanto limita la possibilità degli esseri umani di imparare ad affrontare il
dolore, la malattia e la morte come parti integranti della vita. La salute non consiste
nella libertà dall’inevitabilità della morte, della malattia, dell’infelicità ma piuttosto
la capacità di affrontare tutte queste cose in modo efficace. Se le cose stanno così,
più la medicina e la società dirigeranno il comportamento individuale, più la salute
dell’uomo declinerà».
3 Marshall McLuhan, Quentin Fiore, The Medium is the Message: An Inventory of
Effects, ed. by Jerome Agel, 1a ed., Random House, New York 1967 (tr. it. La cultura
come business: il mezzo è il messaggio, Armando, Roma 1998).
4 Howard Margolis documenta in maniera brillante il dibattito attorno alla questione Tolomeo/Copernico nel suo libro It Started with Copernicus, McGraw Hill,
New York 2002. L’intervento più illuminante e genialmente provocatorio sul tema
53
L’ordine della complessità
si deve però al grande e compianto fisico teorico italiano Giuliano Preparata che
nel suo godibilissimo articolo dal titolo Se Simplicio avesse avuto un Cray («Il Nuovo
Saggiatore», 10(1994), n. 1, p. 59) ci dimostra che con la capacità di calcolo odierna l’ipotesi eliocentrica forse non si sarebbe mai affermata in quanto le piccole
discrepanze dalle osservazioni del modello tolemaico sarebbero state risolte da un
trattamento computazionale «aggressivo» come quello appunto reso possibile da un
computer potente come un Cray.
5 Ermanno Bencivenga, I passi falsi della scienza, Garzanti Editore, Milano 2003. La
lettura di questo libro è vivamente consigliata!
6 Bruno De Finetti è stato uno dei massimi scienziati del secolo scorso, grande teorico del calcolo delle probabilità ed insieme persona eminentemente pragmatica,
come il ruolo rivestito a lungo di Direttore dell’Ufficio Statistico delle Assicurazioni
Generali di Trieste richiedeva.
7 David Ruelle, Mathematical Platonism Reconsidered, in “Nieuw Archief voor
Wiskunde”, 5(2000), pp. 30-33.
8 David Mumford, The Dawning of the Age of Stochasticity, in V. Arnold, V. Atiyah,
P. Lax, B. Mazur (a cura di), Mathematics: Frontiers and Perspectives, AMS, New York
2000.
9 Forse il saggio più chiaro e profetico sull’argomento si deve ad un grande artista,
Wassily Kandinsky e risale al 1910: Lo Spirituale nell’Arte, Bompiani, Milano 1999.
Kandinsky identifica chiaramente i rischi impliciti in una considerazione eminentemente materialistica dell’arte senza alcun legame con scopi educativi e sociali. La
teoria ottocentesca dell’«Arte per l’Arte», dice Kandinsky, è stata la pietra tombale
dell’arte che poteva realmente essere apprezzata dal popolo anche incolto. Gli architetti di avanguardia del XVII secolo (es. Francesco Borromini) proponevano idee che
poi percolavano nell’architettura di tutti i giorni attraverso l’opera di anonimi mastri
carpentieri e scalpellini, influenzando l’aspetto delle case dei poveri, che erano così a
contatto diretto con l’arte «colta». Le (peraltro bellissime) opere di O’Gehary e Calatrava sono ora delle cattedrali nel deserto di periferie squallide e anonime. Il saggio
più completo, e che entra nel merito di una teoria storico-filosofica della nascita della
bruttezza e della contemporanea crisi del ruolo sociale dell’arte nel mondo moderno,
è il meraviglioso La perdita del centro di Hans Sedlmayr, edito da Borla. È un libro
scritto nel 1948, ma, letto adesso, se ne riesce ad apprezzare la dimensione profetica.
10 Il primo pensiero di Pascal (B. Pascal [1670], Pensées, Gallimard, Paris 1977, tr. it.
Fratelli Fabbri Editore, Milano 1997) sintetizza la proposta del nostro libro riguardo
alla necessità di complementare il rigore con l’intuizione e quindi l’apprezzamento
delle condizioni al contorno: «Ciò che dunque impedisce che determinati spiriti intuitivi siano matematici, è che sono del tutto incapaci a volgersi verso i princìpi della
matematica; ma ciò che rende non intuitivi taluni spiriti matematici è che essi non
vedono ciò che sta davanti a loro e che, essendo abituati ai princìpi puri e tangibili
della matematica, e non a ragionare, che dopo aver ben visti e maneggiati questi princìpi si perdono entro le cose dell’intuizione, dove i princìpi non si lasciano trattare
allo stesso modo. Infatti esse si vedono a mala pena, si sentono piuttosto che vedersi;
ed è molto difficile farle sentire a chi non le sente da sé; sono cose talmente tenui e
tanto numerose, che occorre una sensibilità molto delicata e precisa per sentirle e
per giudicare giustamente e proprio secondo tale sensibilità, senza poterle, per la
54
Gli scienziati sono artigiani, non preti
maggior parte dei casi, dimostrare con ordine, come in matematica, perché non se
ne possiedono allo stesso modo i princìpi; e volerlo fare sarebbe un’impresa senza
fine. Bisogna cogliere la cosa tutta d’un colpo, in un solo sguardo, e non per un
progredire del ragionamento, almeno fino ad un certo punto. E così è raro che gli
spiriti matematici siano intuitivi, e gli spiriti intuitivi matematici, a causa del fatto
che i matematici vogliono trattare matematicamente queste cose dell’intuizione, e si
rendono ridicoli, volendo cominciare con le definizioni ed in seguito con i princìpi,
metodo fuor di luogo in questo tipo di ragionamenti. Non che lo spirito non agisca
così, ma lo fa in modo tacito, naturale e senz’arte, perché l’espressione di esse eccede
le capacità umane, e solo pochi ne possiedono la sensibilità. E gli spiriti d’intuizione,
al contrario, essendo così abituati a giudicare a colpo d’occhio, sono tanto meravigliati quando si trovano di fronte a proposizioni di cui non comprendono nulla, e alla
cui comprensione si arriva solo attraverso definizioni tanto sterili, che essi non sono
affatto abituati a esaminare così minutamente, da allontanarsene e disgustarsene. Ma
gli spiriti falsi non sono mai né intuitivi né matematici. I matematici, che sono soltanto
tali, hanno dunque una mente retta, purché si spieghino loro bene tutte le cose con
definizioni e princìpi; altrimenti sono falsi e insopportabili, perché non sanno ragionare rettamente che su princìpi ben chiariti. E gli spiriti intuitivi che sono soltanto tali
non possono avere la pazienza di scendere fino ai primi princìpi delle cose speculative
e d’immaginazione, che non hanno mai incontrato nel mondo, e che sono del tutto
fuori dell’uso comune.
55
Capitolo terzo
I COMPUTER SEMPLIFICANO
LA SCIENZA
La scienza è tutto ciò che capiamo abbastanza per
spiegarlo ad un computer. Tutto il resto è arte.
Donald Knuth
La scienza è basata sul fatto che gli esperti ignorino
molte cose.
Richard Feynman
Negli ultimi venticinque anni abbiamo assistito ad una rivoluzione
nell’insegnamento della matematica. Gradualmente la penna e la carta hanno lasciato il posto ai computer nell’insegnamento di materie
come la geometria e il calcolo differenziale. In maniera quasi impercettibile, il riconoscimento dell’utilità dei computer nell’insegnamento ha portato a una sorta di «riformulazione» del mondo continuo
del calcolo differenziale in termini di matematica discreta (o di calcolo numerico, come si diceva fino a qualche tempo fa nei corsi di ingegneria). La noia mortale, tradizionalmente legata ai calcoli e alla difficile arte della semplificazione, è stata alleviata dal computer, mentre
il «tempo liberato» dello studente è stato (almeno in teoria) reso disponibile per l’apprendimento dei concetti e delle teorie alla base del
calcolo stesso. Gli educatori ancora dibattono se questo cambiamento sia stato positivo per la preparazione generale degli studenti, ma in
ogni caso la situazione appare ormai senza ritorno. Insomma, il computer è lo strumento ideale per compiti tediosi e ripetitivi da eseguire in maniera esatta e in questo non scopriamo niente di nuovo. Gli
storici del calcolo ci spiegano che nei secoli ci sono stati innumerevoli tentativi di meccanizzare il calcolo, tra cui i logaritmi e il regolo calcolatore sono forse i più noti.
La liberazione dalla necessità di portare avanti tediosi calcoli con
carta e matita porta con sé la liberazione dalla necessità di apprendere le formule del calcolo. È sufficiente comprendere il «senso generale» dei procedimenti (che spesso sono descrivibili a parole o con me57
L’ordine della complessità
tafore) per utilizzare con profitto le potenzialità della matematica in
campo scientifico.
Ciò fa sì che, attraverso una discussione con uno «specialista», si
possa ottenere in qualsiasi campo di interesse una descrizione semplificata di un problema scientifico passibile di essere affrontato con
un software, dopodiché è sufficiente accendere il computer e iniziare
a lavorarci. Questo modo di lavorare è sempre più diffuso nei circoli scientifici: il lavoro interdisciplinare si traduce quasi sempre nell’interazione fra uno (o più) specialisti di una certa area e uno (o più)
specialisti di computazione. L’espressione «Scienza computazionale»,
che fino a qualche decennio fa sarebbe stata assolutamente oscura, è
ormai declinata in decine di modi (Computational Biology, Computational Chemistry, Computational Neuroscience...) contribuendo ad
operare un proficuo scambio tra campi tradizionalmente separati.
Essere uno «scienziato computazionale» (come gli autori di questo libro) significa essere uno strano ibrido che prolifera nella nicchia
ecologica creata dalla disponibilità di un’enorme potenza di calcolo
ad un costo praticamente nullo. Da quanto detto sopra deriva che la
qualifica di «scienziato computazionale» non deriva necessariamente
da matematica, fisica o statistica (le scienze cosiddette «hard»), poiché
la possibilità di saltare più o meno a piè pari la «formulistica» consente anche a scienziati con un retroterra matematico decisamente minore (biologi, chimici, geologi) di apprendere l’arte della computazione.
Anzi, spesso questi ultimi hanno il vantaggio di una maggiore sensibilità verso i problemi proposti dagli specialisti. Lo specialista, insomma, può essere considerato il cliente dello scienziato computazionale
in un ruolo molto simile a quello che si creava tra l’artista e il «mecenate» nell’arte del Rinascimento, o tra il regista e il produttore nella
Hollywood prima della guerra (dove il «producer», così come il mecenate e lo specialista, aveva un ruolo cruciale nel processo creativo).
In ogni caso, l’ultimo giudice del lavoro dello scienziato computazionale è proprio lui, lo scienziato esperto in un determinato campo, che
dovrà convincersi della congruità della rappresentazione quantitativa ai suoi problemi realizzata dal primo: se sarà soddisfatto avrà l’impressione di aver contribuito all’avanzamento della scienza, altrimenti non se ne farà niente e le due parti rimarranno con uno sgradevole
senso di incomunicabilità.
Il giudizio dello specialista è uniformabile al criterio di valutazione di un affresco o di un poema epico: se gli oggetti matematici (così
58
I computer semplificano la scienza
come la pittura o le rime) riescono a tradurre in modo immediato le
aspettative e i concetti che il mecenate (lo specialista) aveva nel suo
animo, egli apprezzerà il lavoro dello scienziato computazionale, altrimenti egli rimarrà freddo e deluso.
Nell’esempio successivo vedremo un caso particolare di questa procedura in cui, in maniera apparentemente bizzarra ma coerente con
quanto detto in precedenza, uno «sponsor» «matematicamente raffinato» (esperto di fisica teorica) ha gradito una soluzione «computazionale» ad un problema caratterizzata da uno stile derivato da scienze meno matematizzate come la biologia. In altre parole si è offerta
una soluzione bottom-up (generalizzazione da un insieme di esempi,
nello stile delle scienze soft come la biologia) ad un problema tradizionalmente affrontato in termini top-down (applicazione di princìpi fondamentali ad un caso particolare).
Negli ultimi venti anni abbiamo assistito ad un grande dibattito
sulla definizione del concetto di complessità. Il dibattito era stato stimolato all’inizio degli anni Ottanta, dallo sviluppo del progetto di ricerca sul cosiddetto «caos deterministico», un costrutto teorico basato sull’osservazione di comportamenti apparentemente imprevedibili
e bizzarri da sistemi assolutamente deterministici come equazioni differenziali molto semplici.
Un legame diretto fra questi costrutti matematici (e la loro appendice geometrica dei cosiddetti frattali) e il mondo reale era stato suggerito dall’analisi di serie temporali relative a diversi ambiti sperimentali e osservazionali, che andavano dal battito cardiaco all’andamento
dei mercati finanziari. La vasta letteratura sull’argomento, fiorita tra la
metà degli anni Ottanta e la metà degli anni Novanta del secolo scorso, rappresentò in qualche modo l’ultimo disperato tentativo di un
pensiero strettamente deterministico di riconquistare l’egemonia della frontiera teorica delle scienze: la possibilità di definire il comportamento impredicibile e selvaggio dei sistemi complessi con un pugno
di equazioni. Il tentativo fallì quando ci si accorse che le condizioni di
applicabilità dei metodi di riconoscimento del caos erano completamente inapplicabili a qualsiasi raccolta di dati proveniente dal mondo
reale e non dalle simulazioni numeriche.
Nonostante l’inevitabile rapido declino della «Teoria del caos»,
alcuni dei problemi messi sul tappeto e svariate tecniche numeriche
sviluppate nel perseguimento del progetto erano ancora vitali e interessanti. Come quasi sempre accade nella scienza, le metodiche e
59
L’ordine della complessità
le domande iniziali sopravvivono alla morte delle teorie che le hanno apparentemente supportate. La stessa cosa avviene nell’arte, dove
la motivazione profonda e gli aspetti formali e tecnici delle opere sopravvivono ai proclami teorici e alle visioni del mondo che le supportavano. A nostro avviso si tratta del fatto che gli esseri umani che si
occupano di arte e di scienza sono molto più ricchi e sfaccettati delle teorie che propugnano, ogni pezzo di scienza porta dentro di sé un
carico di «conoscenza non esplicitata» che supera di molto, come negli iceberg, la parte emersa, e che garantisce la persistenza del sapere
e il suo sviluppo.
Uno degli scopi di questo libro è offrire la nostra idea su dove sia
situata questa parte nascosta e persistente, spingendo a distogliere lo
sguardo dalle fallibili e labili teorie tanto amate dai filosofi della scienza, per puntarlo sulle metodiche di lavoro artigiano, che sono molto
più prese in considerazione da gran parte di coloro che si occupano in
prima persona del mestiere della scienza (nelle riunioni di lavoro degli
scienziati non si fa quasi mai menzione della teoria X o della teoria Y;
si parla invece quasi sempre di metodologie sperimentali e problemi
tecnici: insomma, quando si parla di lavoro tra ricercatori, l’atmosfera
è molto più simile a quella di «Pimp-my-ride»1 che all’Accademia platonica, il che rende il mestiere di scienziato, se preso per il verso giusto, immensamente divertente).
Tornando a noi, la commissione era legata alla scoperta di un metodo affidabile per misurare la complessità relativa di serie numeriche
(di solito serie temporali, ma non necessariamente, anche sequenze
di biopolimeri o comunque vettori ordinati di numeri) indipendentemente da qualsiasi teoria. L’importanza di questo problema derivava
da osservazioni eminentemente pragmatiche, che avevano a che vedere con la maggiore e minore predicibilità dei fenomeni, con l’evidente ma non facilmente e univocamente quantificabile cambiamento di
«aspetto generale» delle serie temporali più diverse (dagli elettroencefalogrammi alle registrazioni sismiche) in corrispondenza (e a volte
anche in leggero anticipo) di eventi catastrofici come crisi epilettiche
e terremoti. L’idea «implicita» era che ci fosse qualcosa di comune a
questi cambiamenti, che potesse essere utilmente formalizzato in un
indice di «complessità» (declinata come ricchezza di particolari, difficoltà di riproduzione e così via) in maniera non dissimile a quello che
era successo nei secoli precedenti con la media (cioè un indice di locazione utile per avere un’idea generale della grandezza di un fenome60
I computer semplificano la scienza
3.1. Uno dei capolavori di «Pimp-my-Ride»: l’automobile del surfista.
no) o con la deviazione standard (cioè un indice di dispersione, utile
per farsi un’idea sulla variabilità di ciò che si sta osservando).
A grandi linee possiamo dividere gli approcci alla definizione quantitativa di complessità in due grandi famiglie: la definizione matematica e la definizione fisica.
La definizione matematica ha a che vedere con il paradigma della
complessità algoritmica: l’idea è quella del programmatore di computer, l’oggetto di riferimento è il software. La complessità di un fenomeno (ad esempio una serie temporale) è pari alla lunghezza in termini di linee di programma, di istruzioni, dell’algoritmo più stringato
che riesce a riprodurre esattamente la serie in questione. Questa idea
generale ha ispirato non solo degli algoritmi di misura della complessità di serie di dati, ma è alla base di software molto diffusi come i
cosiddetti «zipper» (o «zippatori» nella vulgata informatica italiana)
che, ricercando ridondanze e ripetizioni nei file a loro sottoposti, forniscono una misura della loro complessità (inversamente proporzionale al rapporto di compressione).
La visione fisica ha come modello non il software ma la costruzione di un sistema di equazioni (o comunque di un modello matemati61
L’ordine della complessità
co) che preveda l’evoluzione dell’andamento temporale del fenomeno studiato. Il numero di dimensioni dello spazio delle fasi del sistema
è allora la sua complessità, questo è un altro modo per dire «la complessità di un sistema è pari al numero di variabili che devo conoscere
per controllarne il comportamento». Anche la via della fisica ha prodotto importanti strumenti per descrivere le serie temporali e, cosa
ancora più rilevante, ha rivitalizzato tecniche statistiche come l’analisi in componenti principali e vari metodi spettrali, conferendo loro un
senso molto più ampio. Molta dell’odierna ricerca sul clima è debitrice di questi sviluppi.
Come si vede la via della matematica e la via della fisica convergono verso la definizione di complessità come il «numero di regole (matematica) o di equazioni (fisica) necessarie a riprodurre un certo fenomeno». Il che equivale ad affermare, in termini forse più rozzi ma
certamente più efficaci, che la complessità è il grado di impredicibilità di un sistema2.
Sia le ricette matematiche che quelle fisiche usano un approccio
idealistico tipico delle scienze dure: un concetto può (e deve) essere
definito indipendentemente dagli oggetti veri e propri a cui è applicato. In questo modo possiamo descrivere agevolmente che cos’è la velocità, e cioè la derivata (il tasso di cambiamento) dello spazio rispetto al tempo, anche senza riferirci a un particolare oggetto in moto.
Questo genere di ragionamento è molto potente in tantissime occasioni e consente definizioni molto generali e rigorose. Allo stesso tempo,
però, questo modo di porre le cose non funziona nelle scienze biomediche: immaginiamo di voler dare una definizione rigorosa di «linfocita» evitando il riferimento ai globuli bianchi del sangue! Le entità
biologiche possono essere definite solo con un approccio bottom-up,
cercando di scovare delle similitudini rilevanti (correlazioni) tra entità individuali effettivamente osservate.
Da Linneo in avanti, la biologia lavora costruendo delle categorie
operativamente utili dall’osservazione di similitudini e differenze, ed è
solo così che noi definiamo organi, tessuti, specie di piante e animali.
Lo stesso approccio si sta ora allargando a sequenze di DNA e di proteine, a reti metaboliche e a profili di espressione genica. L’impressione di estrema pedanteria e conservativismo che spesso i fisici riscontrano nei medici e nei biologi deriva proprio dalla necessità di questi
ultimi di «costruire» faticosamente i propri «oggetti di studio», il materiale primario della loro scienza, compito che invece è molto più im62
I computer semplificano la scienza
3.2. Un modello a scatola nera, l’unica possibilità di studio è quella di associare certi
ingressi a determinate uscite, senza poter vedere «all’interno» del dispositivo.
mediato per i fisici, che si devono preoccupare esclusivamente della
coerenza formale delle loro definizioni. Questa faticosa vita delle definizioni in biomedicina è alla base di attività come le cosiddette conferenze «consensus» (consensus conference) in cui i medici si accordano sulla definizione e sulla stessa esistenza di specifiche malattie, fino
ad arrivare ai casi estremi e un po’ paradossali delle definizioni utilizzate in psichiatria e psicoanalisi, dove è proprio sulla base di diverse idee di classificazione e definizioni che si definiscono le cosiddette «scuole».
Tornando alla complessità, il tentativo che qui vogliamo discutere
è quello di trovare una via di mezzo fra i due mondi delle definizioni top-down e bottom-up, e per far questo chiederemo aiuto agli ingegneri e ai fisiologi. I fisiologi analizzano i sistemi biologici usando descrizioni molto ridotte, esattamente come un ingegnere utilizza una
descrizione ridotta di un amplificatore3. Un ingegnere quasi mai è interessato a quello che c’è dentro l’amplificatore e che effettivamente
produce il guadagno in potenza.
Di solito l’ingegnere studia le proprietà del guadagno in potenza, il
suo carattere lineare, la sua dipendenza dalla frequenza del segnale, e
così via. Una descrizione completa della struttura dell’amplificatore è
l’ultima cosa di cui ha bisogno, molto più utile sarà una descrizione efficiente delle relazioni ingresso/uscita del dispositivo. Lo scopo è una
comprensione «semplice» del sistema. Chiaramente la struttura interna dell’amplificatore è importante qualora l’ingegnere abbia intenzione di migliorare le prestazioni dell’amplificatore, ma certo non è essenziale quando lo scopo sia quello di usare l’amplificatore in modo
efficiente o connetterlo con altre apparecchiature per costruire un sistema integrato. Un ingegnere che voglia capire se un’ignota «scatola
nera» sia o meno un amplificatore è come un biologo che si trova davanti ad un componente sconosciuto di un sistema vivente (per esempio un enzima, una regolazione genica): entrambi hanno bisogno di
63
L’ordine della complessità
un minimo di conoscenza strutturale. L’ingegnere non potrà andare
molto avanti se almeno non conosce dove poter collegare lo strumento ignoto alla rete elettrica, quali siano le entrate del segnale, quali le
uscite, ma è chiaro che l’intero diagramma del circuito è ridondante.
I fisiologi hanno affrontato con successo lo studio di molti «strumenti biologici» con questo tipo di approccio: il rene filtra il sangue
(entrata) e produce urina (uscita), i polmoni trasportano l’ossigeno
dall’aria al sangue, i muscoli si contraggono, i canali del sodio producono potenziali d’azione e così via. Ogni definizione in fisiologia – si
tratti di organi, tessuti, cellule, organelli cellulari, proteine – è associata con un modello di strumento, di apparecchiatura con un ingresso e un’uscita esattamente come in ingegneria ogni descrizione di uno
strumento è associata con un modello di massima che ne descrive la
funzione e le relazioni ingresso/uscita.
Gli approcci matematici e fisici di tipo top-down (prima i concetti!) alla definizione di complessità hanno generato un insieme di «misure di complessità» che, almeno in linea di princìpio, possono essere applicate ad oggetti reali, in particolare a serie temporali generate
sperimentalmente e costituite da vettori corrispondenti all’evoluzione
temporale (spaziale) dei fenomeni più vari, come il battito cardiaco,
i tracciati elettroencefalografici, le osservazioni meteo, le sequenze di
DNA e proteine. Il problema era che, appena si provava ad applicare
i metodi proposti ai sistemi reali, invariabilmente si violava una o più
delle premesse teoriche su cui le misure erano fondate: le serie erano
troppo corte, non stazionarie, non numeriche, ecc. In pratica nessuno dei metodi proposti poteva essere applicato rigorosamente ai dati,
di conseguenza occorreva un po’ di mestiere artigiano per aggiustare
la situazione.
Quando affrontammo questo problema4, decidemmo di percorrere una via completamente opposta a quella seguita sino ad allora da fisici e matematici: invece di cercare una definizione di complessità che
fosse insieme rigorosa e applicabile ai sistemi reali, accettammo come
inevitabili i limiti intrinseci a tutti i metodi proposti fino allora ma allo
stesso tempo assumemmo che tutti questi metodi imperfetti catturassero una porzione più o meno grande, un aspetto particolare, del concetto di complessità.
Ogni metodo, insomma, aveva dentro di sé un pezzo della «vera»
definizione di complessità, non tutta la verità naturalmente ma una
porzione diversa da zero, per quanto piccola.
64
I computer semplificano la scienza
La seconda assunzione fu di immaginare che i vari metodi si allontanassero dalla «perfezione» in direzioni diverse, cioè che essi facessero errori di tipo diverso nella definizione del grado di complessità
di una serie numerica, ma al tempo stesso si avvicinassero alla realtà
in maniera convergente. Ciò corrisponde più o meno a dire che mentre si può sbagliare in molti modi, si è nel giusto in una maniera sola.
Questo è un nodo fondamentale che ha a che vedere con il difficile
e contrastato rapporto tra scienza e verità. Ogni volta che si parla di
«verità» finisce che si producono fiumi di inchiostro che raccontano
la lunghissima «storia filosofica del concetto di verità». Gli scienziati,
dal canto loro, non hanno molta pazienza per le dispute ontologiche e
ben fondate ragioni per comportarsi così. Il concetto abbastanza intuitivo e apparentemente grossolano del fatto che le «soluzioni giuste»
di un problema sono in ogni caso molte di meno delle soluzioni sbagliate (spesso la soluzione giusta è una sola) si traduce nella semplice constatazione che la parte comune ai diversi metodi di misura della
complessità ha a che vedere con il loro lato «veritiero», mentre la parte variabile con le loro singolarità e quindi con i loro errori.
Insomma, la porzione consensuale dei metodi è l’immagine del
loro comune riferirsi al concetto di complessità.
Chiaramente questo approccio presuppone che «imperfetto» non
sia semplice sinonimo di «sbagliato»: l’imperfezione vive in uno spazio continuo in cui si possono avere diversi livelli (e qualità) di imperfezione, laddove – invece – in una tabella logica di verità non esistono
gradazioni, e quindi un’asserzione o è vera o è falsa.
Ma se l’imperfezione è un «continuum», allora da un’accorta mistura dei metodi esistenti potremo distillare la misura ottimale di complessità che, in accordo con quanto detto sopra, corrisponderà alla
parte correlata dell’informazione portata dai diversi metodi o, in termini statistici, alla loro prima componente principale.
Il raggiungimento di questo ottimo, come con qualsiasi strumento di misura, corrisponderà al raggiungimento di un ordinamento corretto di un insieme opportunamente scelto di serie numeriche, dalla
più ordinata (e quindi prevedibile) alla più disordinata (e quindi imprevedibile). Perché la correlazione fra metodi prenda forma occorre innanzitutto disporre di una popolazione ben scelta di serie temporali su cui applicare le differenti tecniche di misura della complessità.
Questa popolazione, definita anche di prova (training set), deve essere formata da serie analoghe a quelle incontrate nella pratica speri65
L’ordine della complessità
mentale: non troppo corte e non troppo lunghe, e soprattutto con un
largo spettro di grado di regolarità che va da sequenze assolutamente deterministiche (per esempio sinusoidi) a sequenze completamente stocastiche (per esempio eventi di decadimenti singoli di sostanze
radioattive).
Un altro criterio importante per la costruzione dell’insieme di prova è l’inserimento di alcune «serie matematiche» ottenute dall’applicazione di regole decise a priori in cui siamo noi a controllare in maniera fine il grado di regolarità immesso.
Queste serie artificiali sono preziose per controllare la rilevanza dei
nostri risultati in quanto, analogamente all’uso di concentrazioni standard per la taratura di uno strumento di analisi chimica quantitativa,
ci consentono di valutare la concordanza della misura ottenuta con
una «complessità nota». I segnali standard da noi inclusi nella popolazione di serie «naturali» sono stati di due tipi:
1. Gruppo RAN (i): Questi segnali derivano da una serie originale completamente randomica costituita da 1.000 valori numerici (RAN
(0)). Questi valori sono stati successivamente ordinati secondo segmenti di diversa lunghezza in cui i valori andavano dal più piccolo al
più grande, per cui RAN (1) deriva da RAN (0) attraverso l’ordinamento
dei primi 10 valori di RAN (0) dal più piccolo al più grande, poi dei secondi 10 e così via. RAN (2) era costituita dall’ordinamento dei primi
20 valori, poi dei secondi 20, analogamente RAN (3) era costituita da
«isole di ordine lineare» lunghe 50, RAN (5) da isole lunghe 200.
In questo modo il grado di ordinamento della serie dipendeva
strettamente dalla lunghezza del «segmento ordinante» (patch).
2. Gruppo SNR (i): Se nel caso precedente una quantità progressivamente maggiore di regolarità (segmenti ordinati più lunghi) veniva aggiunta ad una «serie madre» inizialmente irregolare, in questa
seconda famiglia di serie matematiche si è proceduto inserendo progressivamente un rumore in un segnale inizialmente regolare. Le serie
della famiglia SNR (dall’acronimo Signal-to-Noise-Ratio, rapporto segnale-rumore utilizzato in elettronica) parte dalla serie madre SNR (0)
costituita da un segnale assolutamente regolare (onda quadra) costituita dalla giustapposizione di un segmento A di cinquanta valori tutti uguali a 10 e di un segmento B di altri 50 valori uguali a 0. Questa
alternanza di segmenti A e B viene continuata fino ad arrivare a 1.000
valori. A questa serie assolutamente regolare viene aggiunto, elemento
per elemento, il risultato di un’estrazione casuale da una distribuzione
66
I computer semplificano la scienza
3.3. Le prime tre serie della figura corrispondono a tre elementi della famiglia RAN (i)
a livelli crescenti di ordine (e quindi decrescenti di complessità). Il secondo gruppo
di tre serie si riferisce invece alla famiglia SNR a tre livelli crescenti di rumore
aggiunto (complessità crescente).
gaussiana avente media 0 e deviazione standard crescente, partendo
da un rapporto segnale/rumore di 12 (SNR(1)) fino a 1 (SNR(12)). A valori crescenti di rumore la serie perde progressivamente il suo aspetto
di onda quadra e diviene molto irregolare e praticamente indistinguibile da una serie randomica.
La scelta delle regole di costruzione di queste serie artificiali è dettata esclusivamente dalla necessità di avere a disposizione un saggio
immediato che ci permette di scoprire se il nostro sistema «misura
bene»; infatti, solo un metodo in grado di mettere in fila nel giusto ordine in termini di complessità crescente le serie secondo l’entità relativa della loro parte imprevedibile (sia essa la quantità di rumore immesso come nel gruppo SNR o la diminuzione della lunghezza delle
isole ordinate nel gruppo RAN) è un buon misuratore di complessità.
La figura 3.3 riporta alcuni esempi tratti dalle famiglie RAN (i tre
pannelli superiori della figura) e SNR (tre pannelli inferiori).
67
L’ordine della complessità
Una buona misura di complessità dovrà quindi ordinare gli elementi delle famiglie RAN e SNR lungo il loro parametro d’ordine, rispettivamente la lunghezza del patch ordinato per la famiglia RAN e il
rapporto segnale-rumore per la famiglia SNR.
Se l’analisi di una popolazione di serie naturali attraverso la separazione della «porzione correlata» e quindi della parte comune di informazione, condivisa dagli indici di complessità, sarà in grado di ottenere «l’ordinamento corretto» delle serie simulate, avremo ottenuto
la nostra misura di complessità in maniera bottom-up direttamente dai
dati, senza alcun inserimento di elementi «di teoria» dall’esterno che
non siano quelli implicitamente contenuti negli indici di complessità. L’insieme di prova viene quindi ad essere costituito da 200 serie
temporali di origine e carattere molto eterogeneo, per esempio l’andamento nel tempo dei fondi pensionistici americani, i decadimenti
radioattivi, la larghezza degli anelli di accrescimento degli alberi, le registrazioni di piovosità, le sequenze di DNA e di proteine, e così via.
Tutte queste serie sono state descritte dal valore di complessità loro
assegnato da 13 differenti indici di complessità derivanti dall’applicazione di diversi paradigmi teorici sul significato del termine «complessità» ottenendo quindi una matrice di dati M con 200 unità statistiche (righe della matrice, sequenze numeriche) e 13 variabili (punteggi
di complessità, colonne). La matrice M è stata analizzata con la tecnica più diffusa di analisi multidimensionale (sviluppata nel 1873 dal
matematico italiano Eugenio Beltrami e resa operativa nelle scienze
sperimentali da Karl Pearson nel 1901, e da allora applicata nei campi più disparati dalla psicologia alla fisica teorica), vale a dire l’analisi in componenti principali (PCA, acronimo di Principal Component
Analysis).
Senza andare a fondo nella spiegazione del metodo, qui è sufficiente notare come il suo scopo sia quello di estrarre da una serie di misure
(variabili) la loro porzione di informazione correlata, così da generare uno (o più) punteggi sintetici che riassumono la porzione correlata di informazione inizialmente dispersa sulle variabili originali. Questa correlazione viene estratta a partire dal grado di correlazione delle
misure osservato su un insieme di unità statistiche (le nostre serie). La
prima componente principale è allora la direzione nello spazio multidimensionale (nel nostro caso a 13 dimensioni corrispondenti alle
variabili originali) in cui l’accordo fra le misure è massimo (ovvero è
massima la probabilità che il punteggio relativo di complessità di una
68
I computer semplificano la scienza
3.4. La parte comune dell’informazione dispersa sulle due variabili X ed Y è la
diagonale lungo la quale si ordinano i valori delle unità statistiche (osservazioni),
essa corrisponde alla direzione di massimo allungamento dalla nuvola di
punti e corrisponde alla prima componente principale del sistema descritto
dalle due dimensioni X ed Y. Passare da una descrizione a due dimensioni
(ogni osservazione è definita dalle sue coordinate X ed Y) ad una descrizione
monodimensionale (ogni osservazione è descritta dalla sua posizione lungo
la prima componente principale) permette di salvare la ‘parte comune’
dell’informazione portata da X e da Y scartando le loro singolarità. La nostra
scommessa è stata quella di affermare che la complessità fosse la parte comune
(componente principale) dell’informazione portata dai 13 descrittori teorici. Ogni
descrittore teorico ‘vede’ un aspetto particolare delle serie temporali, quello su cui
sono tutti d’accordo è la ‘complessità’.
serie secondo il metodo i-esimo sia in accordo con il punteggio secondo il metodo j-esimo, k-esimo, n-esimo...).
La figura 3.4 offre una rappresentazione grafica di cosa si intende
per porzione comune di informazione in uno spazio bidimensionale
descritto da due variabili x e y: l’informazione comune (prima componente principale) è la linea diagonale che attraversa il piano, laddove
l’informazione singolare è la dispersione dei punti (unità statistiche)
attorno alla linea.
L’estrazione di un analogo della «linea di comunanza» rappresentata in figura in uno spazio a tredici dimensioni è eseguito con estre69
L’ordine della complessità
3.5. L’ordinamento corretto delle serie temporali di prova da parte della prima
componente principale è raggiunto con ottima approssimazione.
ma facilità da un semplice computer da tavolo con software commerciale.
In termini algebrici la prima componente principale è espressa
come una combinazione originale delle 13 variabili originali come:
PC1 = a*T1 + b*T2 + c*T3 + ...m*T13
Essendo a, b, ...m coefficienti numerici (scalari) e i valori da T1 a T13
i punteggi di complessità.
Il punteggio di PC1 può in questo modo essere facilmente misurato per tutte le serie analizzate. Questo punteggio ha effettivamente
ricostruito in maniera molto efficiente l’ordine corretto di complessità delle serie standard, come ripreso in figura 3.5, dove è riportata
la concordanza del valore di PC1 con il parametro d’ordine delle famiglie RAN e SNR (rispettivamente il log della lunghezza del patch e il
rapporto segnale rumore). La concordanza è effettivamente quasi assoluta raggiungendo un valore di r (coefficiente di correlazione di Pearson) vicino al valore massimo ottenibile (r = 1).
In questo modo la complessità passa dall’essere un concetto vago ad
un costrutto operativo senza l’utilizzo di alcuna assunzione teorica.
Al contrario la complessità rimane definita utilizzando uno stile tipico delle scienze soft come la biologia, cercando un criterio di classificazione dal basso invece che una definizione teoricamente rigorosa dall’alto.
70
I computer semplificano la scienza
In qualche misura questo approccio può risultare piuttosto insoddisfacente per le scienze cosiddette «hard». La fisica è abituata a ragionare sulla base di esempi teorici trattabili matematicamente in maniera rigorosa ed esauriente. In questo modo si può parlare di oggetti
«privi di massa» o di «piani senza attrito» senza preoccuparsi dell’esistenza di tali costrutti. Anche passando all’esperimento si può sempre
immaginare di rendere minime (vanishingly small) le inevitabili deviazioni dal modello ideale e quindi ragionare come se queste deviazioni
proprio non esistessero.
Le cose stanno in modo molto diverso nelle scienze biologiche e
comportamentali: la natura stessa delle osservazioni in queste scienze le rende affette da un rumore intrinseco e ineliminabile. Un luogo
comune abbastanza diffuso è infatti l’affermazione che queste scienze
difettino della «precisione» delle scienze fisiche, ma le cose stanno in
maniera molto diversa.
Come abbiamo detto in precedenza, le scienze fisiche si confrontano con il mondo da una prospettiva di tipo idealistico e i fenomeni sono strettamente «controllati» sia in termini di descrizione che di
successiva spiegazione. Le scienze biologiche e comportamentali non
si possono permettere questo lusso, e non perché non dispongano di
osservabili assolutamente ripetibili e deterministici: se batto le mani
posso essere sicuro al 100% che il coniglio sul prato fuggirà via anche
se la sua fuga deriva dal comportamento integrato di meccanismi a me
per larga parte ignoti. Allo stesso modo le diagnosi cliniche raggiungono livelli di accuratezza sicuramente confrontabili con quello degli
esperimenti di fisica. Il fatto è che questo livello di accuratezza e ripetibilità deriva dal comportamento collettivo di sistemi che microscopicamente sono invece altamente stocastici e impredicibili. Insomma,
se volessimo ricostruire il motivo della fuga del coniglio dallo studio
delle sue proteine non andremmo avanti di un passo.
I fenomeni biologici e in generale tutti i fenomeni complessi mostrano il tipo di regolarità emergente dalla meccanica statistica dove
il comportamento stocastico degli atomi ingenera la regolarità dell’insieme costituito da miliardi di atomi.
Le scienze comportamentali, inoltre, sono ulteriormente complicate dal fenomeno dell’«autocoscienza», poiché i ruoli dell’osservatore e dell’osservato si mescolano in maniera imprevedibile. A
questo punto le «imperfezioni» dalla regola generale non possono
essere considerate come noiosi accidenti che si sovrappongono ad
71
L’ordine della complessità
3.6. Nel pannello A si riporta la simulazione nella grande scala di variabilità tra –35 e
+35, nel pannello B si riporta un ingrandimento della figura A) tra –5 e +5.
un ordine «reale» soggiacente, ma semplicemente corrispondono al
diverso livello di «casualità» tipico della scala di osservazione utilizzata per un particolare fenomeno e quindi di quanto ci allontaniamo (o avviciniamo) al piano della integrazione collettiva degli atomismi coinvolti.
L’universo può quindi essere visto come un quadro con diversi livelli relativi di apparente determinismo e rumore a seconda della scala di osservazione, come descritto in figura 3.6. A seconda del nostro
livello di dettaglio la randomicità può essere vista come «rumore» o
72
I computer semplificano la scienza
come il risultato dell’esistenza di scelte multiple da parte del sistema
osservato, e quindi come il segnale da studiare.
Un semplice esempio numerico ci potrà aiutare ad apprezzare
questa «dipendenza di scala». Immaginiamo di fare un esperimento
simulato: costruiamo un grafico che abbia nell’asse delle ascisse (l’asse orizzontale o delle X) dei valori che vanno da –35 a +35; in corrispondenza di ogni valore della X calcoliamo una Y (valore delle ordinate, asse verticale) secondo la formula: Y = X + N(0,7), con N(0,7)
indicante l’estrazione da una distribuzione casuale gaussiana a media 0 e deviazione standard 7. La figura 3.6 riporta i risultati della simulazione.
La formula ci dice che il valore di Y è uguale a quello della X sommato ad un «rumore casuale» (che possiamo immaginare come un errore di misura o qualsiasi altro evento di disturbo ma anche le conseguenze dell’intervento di cause minori e ignote) descritto dal termine
N(0,7) che rappresenta un’estrazione casuale (come prendere una pallina da un’urna) da una distribuzione di numeri con media 0 e deviazione standard 7 (deviazione standard 7 vuol dire che due estrazioni
prese a caso in media differiranno di un valore pari a 7).
Il pannello A) ci dice quello che effettivamente ci aspettavamo (la
risposta è giusta) e cioè che la Y e la X sono correlate: a valori grandi della X (a destra nel grafico) corrispondono valori elevati della Y
(in alto) e viceversa per valori piccoli. Il legame tra X e Y non è deterministico (lo sarebbe stato se mi fossi limitato a pretendere Y = X)
per cui i punti non si dispongono esattamente su una linea diagonale nel grafico, ma mostrano una certa variabilità attorno a questa linea
dovuta al termine stocastico (estrazioni casuali) N(0,7). Comunque la
correlazione è molto forte (r = 0,82, il massimo sarebbe r = 1) e quindi,
se X e Y fossero stati i risultati di un esperimento, saremmo autorizzati a dire che la Y dipende dalla X (con una certa approssimazione).
Passiamo ora al pannello B), che non è altro che un ingrandimento
del pannello A), focalizzandoci (stringendo la lente) in una zona più
piccola del grafico (tra –5 e +5) che è comunque l’area più popolata
(l’80% delle osservazioni cade in questo intervallo). Qui le cose cambiano bruscamente, il legame fra le due variabili crolla da 0,82 a 0,27,
questo legame non è più significativo; se la X e la Y fossero state due
misure sperimentali avremmo detto (a torto ma in maniera matematicamente ineccepibile) che la Y non dipende dalla X.
Questo vuol dire semplicemente che la distanza corretta da cui
73
L’ordine della complessità
guardare il fenomeno era quella del pannello A), mentre nel pannello
B) ci siamo avvicinati troppo e non riusciamo più a scorgere il legame
esistente fra le due misure, che è «sepolto» dal rumore casuale.
Da un punto di vista conoscitivo il risultato della simulazione ci
dice che qualsiasi costrutto situato ad una scala di variabilità «grande»
(–35; +35) descriverebbe il comportamento delle due variabili X e Y
come «comprensibile e spiegato dal modello», laddove una descrizione il cui spettro di variabilità si situasse sulla piccola scala (–5; +5) darebbe un risultato «negativo» di assenza di leggi. I dati sono gli stessi,
le conclusioni opposte, entrambe corrette, entrambe parziali, entrambe legate alla particolare prospettiva scelta.
Questa inestricabile miscela di rumore e segnale che chiamiamo
variabilità e che racchiude il senso ultimo dello studio dei sistemi
complessi richiede un ragionamento di tipo statistico piuttosto che
strettamente matematico; e quando siamo dalle parti della statistica
(numerosi elementi coinvolti) la carta e la penna divengono quasi subito inservibili e il calcolo deve essere eseguito dai computer. In qualche modo potremmo pensare che la matematica si sia evoluta proprio
perché non si avevano a disposizione dei computer; insomma, la matematica sarebbe un linguaggio di programmazione in assenza di strumenti di calcolo automatici. La matematica, insomma, non è la realtà,
ma un linguaggio relazionale. Anche i concetti della fisica come quelli di «forza», «massa», «energia» sono astrazioni, non realtà sensibili.
Questi concetti descrivono delle relazioni che noi non comprendiamo
nel profondo, ciononostante essi ci consentono di prevedere dei comportamenti osservati in natura, quindi «funzionano». Tutto ciò offre la
non trascurabile possibilità di sviluppare un linguaggio efficiente, che
in ultima analisi non è altro che un costrutto legato al funzionamento
della nostra mente.
Il fisico David Ruelle ha approfondito questo punto. La nostra
mente non viene attratta dalle sottigliezze ma semplicemente da schemi globali, e dunque ragionerebbe sulle astrazioni. L’esempio classico
è la nostra capacità di rammentare le configurazioni generali dei volti e non i singoli dettagli: un artista ha bisogno di riferirsi ad una fotografia o ad un modello in carne e ossa per dipingere un ritratto. In
buona sostanza, le «imperfezioni» sarebbero i dettagli, e solo dall’organizzazione di questi dettagli può emergere un quadro completo. Ma
allora, dove i dettagli sono innumerevoli e compresenti, non è proprio
74
I computer semplificano la scienza
possibile fare a meno del computer che, in maniera opposta rispetto
alla nostra mente, con i dettagli si trova benissimo.
NOTE
1
Nel programma televisivo americano «Pimp-my-ride» (in onda anche in Italia su
un affiatatissimo gruppo di esperti meccanici trasforma automobili pronte per
lo sfascia-carrozze in prodigi luccicanti, magari un po’ cafoni, ma assolutamente unici
e dotati di una loro misteriosa bellezza. Come degli angeli tecnologici, il team di
«Pimp-my-ride» sceglie di beneficare il padrone di uno scassone offrendo questa vera
rinascita della sua automobile in via assolutamente gratuita. È uno dei due o tre programmi preferiti da entrambi gli autori.
2 Per una discussione approfondita sull’argomento vedi J.P. Zbilut, A. Giuliani, Algorithmic complexity, in Encyclopedia of Nonlinear Science, Fitzroy Dearborn, 2004.
3 Siamo debitori a Bob Eisenberg dell’Università Rush di Chicago. Per questo esempio, vedi comunque E.F. Keller, A clash of two cultures, in “Nature”, 445(2007), p.
603; oppure B.J. Enquist, S.C. Stark, Follow Thompson’s map to turn biology from a
science into a Science, in “Nature”, 446(2007), p. 611.
4 A. Giuliani, M. Colafranceschi, C.L. Webber JR, J.P. Zbilut, A complexity score derived from principal components analysis of nonlinear order measures, in “Physica A”,
301(2001), pp. 567-588. Questo è il lavoro originale descritto in questo capitolo.
MTV)
75
Capitolo quarto
SCIENZA E SOCIETÀ
Non esiste scienza che sia immune dall’infezione della
politica e dalla corruzione del potere.
Jacob Bronowski
Una delle frasi più inquietanti riguardo alla scienza è l’affermazione di
Francis Bacon per cui scientia est potentia (la scienza è potenza, o la
conoscenza è potenza). Questa frase è interessante non solo per quello
che afferma ma anche per come la versione latina è arrivata fino a noi.
Originariamente Bacone, nelle sue Sacrae Meditationes, aveva scritto:
nam et ipsa scientia potestas est (la conoscenza è un potere in se stessa).
La cosa curiosa è che la parola latina potestas venga scambiata con l’altra parola potentia. Potestas è un termine legale che indica il diritto e
l’autorità su una cosa, laddove potentia era usato nella filosofia medievale allo stesso modo di come noi usiamo il termine «potenzialità» (di
una persona o di una cosa), cioè la capacità di eseguire un’azione, un
potere nel senso stretto del termine «io posso (perché nessuno me lo
può impedire e ne sono capace) fare questo o quello». Questo scambio suggerisce una sorta di salto nel pensiero filosofico, avvenuto attorno al XVI secolo: da una parte evoca il pensiero alchemico, dall’altra sottolinea la connessione strettissima nata proprio in quegli anni
tra sviluppo scientifico, tecnologia e guerra come conquista del potere su uomini e cose.
È importante sottolineare come l’alchimia, che nella società medievale era sostanzialmente considerata un’attività eticamente neutra, nel
Rinascimento cominci ad acquisire una reputazione sinistra, probabilmente connessa agli eccessi legati alle pratiche magiche degli adepti.
Nei secoli successivi questa reputazione sinistra è rimasta in qualche
modo adesa alla scienza «newtoniana» (Newton, non a caso, era un
77
L’ordine della complessità
grande alchimista) e alle sue supposte o reali brame di «controllo del
mondo». Forse questa nefasta connessione non avrebbe potuto essere
evitata. Il potere personale tende inevitabilmente a trasformarsi in potere politico e a sua volta l’osservazione tende a divenire manipolazione, e non sempre per scopi benefici.
Sebbene la propaganda «positivista» ci restituisca un’immagine
della scienza come un’attività disinteressata e sostanzialmente «oggettiva», non bisogna dimenticare che la scienza moderna nasce in un periodo in cui il pensiero religioso ancora prescriveva quale dovesse essere la «visione corretta» della realtà. Quasi sicuramente Newton avrà
passato molto più tempo sulla Bibbia che su argomenti che noi consideriamo più «tradizionalmente scientifici», come la fisica. I suoi seguaci lo dipingono come una persona profondamente convinta di avere una missione sovrannaturale (lo stesso fatto che fosse nato il giorno
di Natale lo spingeva a considerarsi, e nei secoli questa posizione fu
addirittura appoggiata da molti scienziati e filosofi, una sorta di «nuovo Messia»). Ciò che a noi sfugge è proprio come Newton considerasse le cose che studiava: egli descriveva il fenomeno della «gravità»,
che a noi appare una normale regolarità dell’Universo facilmente verificabile nella nostra vita quotidiana, come un concetto magico alchemico. Non c’è niente di «fisico» (nel senso di materiale) nel modo in
cui Newton descrive la gravità. Ciò che egli fa è semplicemente descrivere in maniera matematica una proprietà che guida le relazioni fra i
corpi. Mentre un alchimista del tempo non aveva alcuna difficoltà ad
accettare l’idea di un’azione a distanza implicita nel concetto di gravità, ancora oggi si verificano dispute accesissime sulla natura della forza gravitazionale e i gravitoni, una sorta di correlato materiale di un
concetto tutto sommato magico come la gravità, non sono ancora stati individuati in maniera inoppugnabile, nonostante grandi e reiterati sforzi di ricerca.
A questo punto si capisce come mai, ancora ai nostri giorni, la
scienza, la religione e l’occulto siano così intrecciati, e da dove vengano molte interminabili discussioni e quanto debole sia il tentativo positivista di elevare il sapere scientifico su un piedistallo di oggettivo e
inevitabile «progresso». Gli orrori dei programmi di eugenetica, portati avanti per il bene della società da illustri e rispettati scienziati fino
a pochi decenni addietro (e purtroppo sempre risorgenti sotto mentite spoglie, nonostante gli orrori della Shoà e di altri genocidi del secolo scorso) sono figli della scienza «razionale». Il colonialismo e il
78
Scienza e società
razzismo hanno avuto giustificazioni scientifiche dal cosiddetto darwinismo sociale, così come la smania di prevalere delle varie nazioni
alla base delle guerre più sanguinose che la storia ricordi.
La memoria di queste esperienze chiaramente influenza il dibattito recente sull’etica della scienza.
Il legame tra la conoscenza e la guerra era presente probabilmente
fin dall’inizio della storia umana, ma lo sviluppo delle armi da fuoco
provocò una transizione improvvisa in questo rapporto. Per la prima
volta nella storia dell’uomo una persona debole, vigliacca e maligna
poteva prevalere su un valoroso, giusto e generoso cavaliere. I tempi
moderni iniziano con questa transizione, dopo questa acquisizione un
intero sistema di valori con una storia ricca e gloriosa crolla fragorosamente. Molti filosofi e artisti tra il XV e il XVI secolo (i decenni in cui si
affermarono le armi da fuoco) percepirono la rilevanza di questa transizione. Nel IX canto di quell’opera stupefacente che è l’Orlando furioso, ecco come Ludovico Ariosto descrive i primi archibugi1:
Che si puo’ dir che tuona e che balen
Né men che soglia il fulmine ove passa
Ciò che tocca arde, abbatte, apre e fracassa.
(IX, 29, 6-8)
Questa sorta di «fulmine terrestre» ha una potenza che appare immediatamente come soprannaturale:
Chi vide mai dal ciel cadere il foco,
che con si orrendo suon Giove disserra,
e penetrare ove un richiuso loco
carbon con zolfo e con salnitro serra;
ch’a pena arriva, a pena tocca un poco,
che par ch’avampi il ciel, non che la terra;
spezza le mura, e i gravi marmi svelle,
e fa i sassi volar sin alle stelle.
(IX, 78, 1-8)
L’arma da fuoco è identificata come opera diabolica proprio nel senso
di sovversione dell’ordine sacro del mondo, ed ecco allora che Orlando, dopo essere sfuggito alla potenza dell’arma utilizzata dal perfido
re Cimosco, la getta per sempre nell’inferno da dove proviene:
79
L’ordine della complessità
O maladetto, o abominoso ordigno,
che fabricato nel tartareo fondo
fosti per mano di Belzebù maligno
che ruinar per te disegnò il mondo,
all’inferno, onde uscisti, ti rasigno.
Così dicendo lo gittò in profondo.
(IX, 91, 1-6)
L’impresa di Orlando fu portata a termine con successo per più di due
secoli dalla classe dirigente giapponese, che ebbe una chiara percezione dell’effetto di stravolgimento dell’ordine sociale da parte delle armi
da fuoco: agli inizi del Seicento, il Giappone vietò l’uso delle armi da
fuoco sul territorio nazionale, così che la guerra potesse rimanere un
affare ristretto ad una élite di guerrieri coraggiosi e uniti da un codice
d’onore, i samurai. Per mantenere questo stato di cose il Giappone si
chiuse completamente ai rapporti con gli Occidentali, che avevano accesso solo all’area ristretta del porto di Nagasaki. Purtroppo il Giappone fu costretto ad abbandonare questa politica a metà del XIX secolo quando le cannoniere del generale Perry (le famose «navi nere») si
affacciarono nella baia di Nagasaki e l’imperatore Meij, preoccupato
dalle mire colonialistiche dei paesi occidentali e dalle conseguenze per
l’indipendenza nazionale, decise di introdurre bruscamente il Giappone nell’era moderna e quindi di accettare la tecnologia delle armi
da fuoco. Le guerre, dopo l’introduzione delle armi da fuoco, smettono di essere una questione di élite per diventare qualcosa di molto più
sanguinoso in cui tutti i cittadini sono coinvolti.
La nozione di riduzionismo è implicita nell’uso delle armi da fuoco: chi ha in mano una pistola non si deve preoccupare più di tanto delle «condizioni al contorno» come la forma fisica e spirituale del
momento, l’arte del duello, la motivazione profonda dello scontro; nel
caso delle armi da fuoco la sola cosa importante è colpire il bersaglio.
Una situazione inizialmente sfaccettata e molteplice collassa verso il
suo centro, tutte le cose accessorie (ma potenzialmente cruciali) semplicemente svaniscono (vanishingly small, ancora questo termine magico, l’abracadabra del riduzionismo che fa scomparire tutti i particolari che disturbano il nitore della teoria) e diventano irrilevanti.
Questo è esattamente il compimento del sogno alchemico dell’«essenza»! Ed è corrispondente all’attrazione esercitata sugli scienziati
dai «princìpi primi», dalle «leggi immutabili della natura», da cui
80
Scienza e società
derivare tutte le altre caratteristiche (accessorie) del mondo per il
mezzo della pura ragione. L’idea di fondo è che sia solo la nostra
ignoranza che non ci permette di portare a termine definitivamente
il compito ambizioso della teoria definitiva e ultima e che, almeno in
linea di princìpio, si possa sviluppare una teoria del tutto che riduca
il mondo ad un’equazione che renda completamente inutile un’ulteriore scienza fatta dall’uomo con creatività e intuito: tutto potrebbe
a questo punto essere messo nelle «mani» di un computer, che farebbe discendere automaticamente tutte le conseguenze di tale teoria fin nei minimi dettagli, esattamente come accade nei racconti di
Isaac Asimov.
Ovviamente, molti pensatori in tutte le epoche (da Blaise Pascal a
Bruno De Finetti)2 hanno riconosciuto le intrinseche aporie e i corti
circuiti logici di questo modo di pensare. Un eloquente articolo di Robert Laughlin e David Pines è l’ultima – e noi speriamo definitiva, ma
la sete di potere dell’uomo è purtroppo inestinguibile – brillante messa in ridicolo dei sogni di dominio delle teorie del tutto, ma questo paradigma onnicomprensivo è così inestricabilmente legato alla scienza
moderna che il linguaggio degli scienziati trasuda immagini guerresche. Così noi identificheremo «un bersaglio molecolare» per un certo farmaco o un virus, a sua volta una medicina molto efficace è detta «pallottola magica» (magic bullet), mentre chiaramente una teoria
«trionfa» oppure «viene demolita da nuove osservazioni», e paradigmi «vincenti» sostituiscono paradigmi «perdenti». Questo stridore di
armi ha ottenuto dei grandiosi successi nell’era moderna: ad esempio
ha permesso di sviluppare farmaci efficienti nel caso di malattie acute (dove effettivamente un bersaglio molecolare singolo poteva essere
individuato) e, per la stessa ragione, ha consentito di individuare delle
cause eziologiche particolarmente rilevanti e importanti come batteri,
virus e (pochi a dire la verità) agenti ambientali come le radiazioni ionizzanti, il fumo di sigaretta, l’amianto.
Nei casi in cui non esista un «singolo nemico» da isolare, identificare e colpire, la «scienza da guerra» è molto meno efficiente: lo vediamo nel caso delle malattie croniche e degenerative, dove non esiste
un «bersaglio privilegiato» ma una miriade di co-fattori e con-cause,
ciascuna singolarmente abbastanza irrilevante e dispensabile, che si
coordinano in maniera largamente ignota per provocare l’effetto macroscopico. Le stesse difficoltà le incontriamo quando dobbiamo valutare l’effetto di scelte «localmente razionali» su sistemi complessi e
81
L’ordine della complessità
inter-dipendenti come i sistemi ecologici, oppure quando dobbiamo
immaginare di mettere un argine all’epidemia di malattie nervose e
psichiatriche che sta dilagando nei paesi ricchi.
La persistenza di paradigmi «guerreschi» più o meno impliciti nel
pensiero scientifico, a nostro avviso, sta diventando un forte limite
allo sviluppo di impostazioni realmente nuove ed efficaci per capire
nuove classi di problemi e quindi operare nel mondo reale.
Quando si descrivono «problemi multi-fattoriali» si parla con il
linguaggio della probabilità. Per fare ciò dobbiamo rivoltare da cima
a fondo l’intera impostazione «storica» della fisica. In questa storia
si è iniziato con il postulare l’esistenza di «leggi» agenti a livello macroscopico (ma aventi una base nel tessuto profondo della materia)
che sono in realtà delle distribuzioni probabilistiche «molto strette»,
mentre le stesse distribuzioni, guardate a livello «microscopico», sono
molto più incerte e «diffuse». Se consideriamo bene questa situazione dovremmo concludere che il luogo dove cercare «i determinanti»
di un qualsiasi evento non è certo il «livello fondamentale». Il grande matematico e statistico italiano Bruno De Finetti, negli anni Trenta, diede una brillante spiegazione di tutto ciò semplicemente considerando come la scienza non si occupi della realtà in quanto tale, ma
di «rappresentazioni» del reale né più né meno dell’arte2. Il problema
di dove «abitano le leggi fondamentali della natura» è quindi un falso
problema perché di leggi non ne esistono proprio, o quantomeno non
ne esistono di indipendenti dalle nostre rappresentazioni (misure), e
la chiarezza maggiore e minore ha a che vedere semplicemente con il
particolare spazio di probabilità in cui ci muoviamo e dalla scala delle nostre osservazioni come dimostrato nel capitolo precedente. Chiaramente questo non implica che non esistano realtà e verità, a nostro
parere esistono entrambe, ma la scienza ha con loro un rapporto filtrato dalla soggettività dello scienziato.
Insomma, le radici del pensiero scientifico, da cui esso trae la sua
unità, sono da cercarsi nel concetto di valutazioni di probabilità degli eventi, che non possono essere più considerate come un surrogato delle «vere leggi che saranno scoperte in futuro», ma come il luogo
dove vive la conoscenza scientifica del mondo. Se le cose stanno così,
le condizioni al contorno, come nei duelli con la spada, diventano la
cosa più importante da considerare. La scienza ritorna al suo ramo artistico abbandonando la via alchemica: la probabilità di un evento è
determinata dalle condizioni al contorno e dal giudizio soggettivo del82
Scienza e società
lo scienziato, il quale «valuta criticamente» (in queste due ultime parole sono racchiuse le basi etiche della scienza, che non può più essere
considerata come una conseguenza necessaria a partire da certe premesse) le evidenze in suo possesso, per andare avanti in un processo
infinito di aggiustamento e spostamento di prospettiva.
Questa attività implica un’interazione continua tra osservatore e
osservato3, ed è quindi personale e irripetibile e, come tale, artistica,
che è poi un altro modo per dire che è umana e individuale. Possiamo scorgere il carattere individuale dell’attività scientifica (il termine
«individuale» non deve essere inteso come opposto a «collettivo», in
quanto la maggioranza dei lavori scientifici di oggi è frutto di collaborazioni fra diversi ricercatori; il risultato finale è esattamente il prodotto di tale interazione, il che non riduce ma anzi esalta i contributi
personali, come nella costruzione delle cattedrali romaniche) nel piano degli esperimenti, nella scelta del materiale, dei metodi di analisi,
nel carattere delle misure, nello stile argomentativo e apprezzare (o
anche disapprovare) l’intero lavoro, in maniera non dissimile da come
apprezziamo il lavoro di un falegname o di un sarto.
Passando al «mondo naturale», è interessante notare come il primato delle condizioni al contorno diventi schiacciante allo stesso livello in cui inizia «il mondo dei sistemi complessi»: lo studio della struttura e della funzione delle proteine4.
Consideriamo uno dei temi più importanti della ricerca odierna, il
cosiddetto problema del protein folding.
Anche se ormai il DNA pervade l’immaginario collettivo e il linguaggio comune, al punto che affermazioni del tipo «è nel suo DNA» hanno
sostituito immagini ben più realistiche (come documentato dal fallimento di tutti i tentativi di ricondurre i caratteri complessi dell’uomo
e di molti altri organismi a specifiche sequenze nucleotidiche) e suggestive (si pensi alle tradizionali espressioni «è nelle sue corde» oppure «nel suo arco ha molte frecce»), si trascura che di fatto il DNA «si
limita» a conservare una parte fondamentale dell’informazione genetica nel passaggio da una generazione a quella successiva e a dirigere, con l’aiuto irrinunciabile della macchina enzimatica, la sintesi delle
proteine, che sono poi gli oggetti chimico-fisici che svolgono «il lavoro biologico reale». Il carattere di questo lavoro è largamente dipendente da come le proteine si ripiegano nello spazio (il termine folding
si riferisce esattamente a tale processo) acquisendo non solo una forma tridimensionale specifica ma anche un intero spettro di possibilità
83
L’ordine della complessità
4.1. Il processo di folding è quello che fa assumere ad una sequenza lineare di
aminoacidi la caratteristica forma tridimensionale che costituisce la proteina
fisiologicamente attiva.
dinamiche, cioè di movimenti organizzati dei loro atomi, da cui in ultima analisi dipende il loro ruolo fisiologico.
Subito dopo la biosintesi le proteine si presentano come stringhe
lineari di aminoacidi legati fra loro da un legame covalente. La stringa corrispondente ad una particolare proteina può essere considerata
come una «parola» costruita combinando 20 possibili lettere (gli aminoacidi) a partire dalla sequenza di nucleotidi corrispondente al suo
gene di riferimento, attraverso il cosiddetto «codice genetico», vale a
dire un insieme di regole che associano a triplette di nucleotidi ogni
singolo aminoacido. Poiché queste stringhe sono generate in un solvente (di solito acquoso), esse assumono una forma (si ripiegano) nello
spazio del solvente, cercando di minimizzare l’energia di solvatazione,
cioè cercando di arrivare ad una configurazione il più stabile possibile. In linea di princìpio noi conosciamo molto bene tutti gli «ingredienti energetici importanti» che, a livello microscopico, guidano il
processo di ripiegamento da cui la proteina scaturirà con la sua configurazione «nativa», che è alla base del suo funzionamento di «piccola ed efficiente macchina chimica». Sappiamo che l’agente energetico
più importante che guida il processo di folding è la relativa propensità dei singoli residui aminoacidici verso i solventi oleosi od acquosi (in
pratica, la loro idrofobicità relativa). Ciò fa sì che le porzioni «idrofobiche» della molecola proteica tendano ad allontanarsi dal contatto col solvente acquoso laddove le zone «idrofiliche» si espongono al
84
Scienza e società
solvente. Altri fattori importanti che entrano in gioco nel determinare
il particolare ripiegamento della proteina sono la tendenza a formare
legami idrogeno, l’ingombro sterico, la carica elettrica.
Il fatto è che, anche se conosciamo tutte le forze fisiche in gioco, non riusciamo a prevedere la forma che una specifica sequenza
di aminoacidi, una particolare proteina, assume alla fine del processo. Quello del folding è un processo stocastico che ammette differenti soluzioni a seconda delle condizioni al contorno (pH, temperatura,
forza ionica, concentrazione della proteina e di altre molecole, ecc.).
La principale ragione di questa molteplicità di opzioni è dovuta alle
differenze energetiche esistenti tra le diverse opzioni possibili: differenze talmente risibili da essere praticamente insignificanti in quanto dello stesso ordine di grandezza dell’agitazione termica del mezzo.
Questa non è solo una limitazione alle nostre possibilità di conoscenza, ma anche un fatto assolutamente essenziale per il lavoro biochimico svolto dalla proteina che, per svolgere il suo lavoro, deve continuamente cambiare di forma e adattarsi al microambiente chimico-fisico
in cui si trova. Una proteina immobile, cristallizzata nella sua forma di
minima energia da alte barriere di potenziale, è sostanzialmente una
proteina inattiva.
Di fatto questo è il marchio di fabbrica di ciò che definiamo «complesso»: un sistema che ha molteplici stati di equilibrio che rappresentano altrettante risposte all’ambiente in cui si trova immerso e i
cui comportamenti non possono essere predetti dai suoi costituenti fondamentali. Insomma, la complessità non nasce da uno scenario
deduttivo e deterministico, ma da un paradigma combinatorio. Ad
ogni passaggio del processo di folding, la scelta adottata (dipendente
dal contesto) porta verso questa o quella «forma quasi-stabile». Qui
possiamo vedere come la «complessità» sia, tutto sommato, piuttosto
«semplice»: le scelte a disposizione sono spesso facilmente identificabili, ma la loro concatenazione diventa velocemente «complessa».
È la stessa complessità che soggiace ai classici modelli probabilistici come quello della distribuzione binomiale, dove concatenazioni di
semplici scelte binarie generano sequenze di eventi di straordinaria
complessità.
Se però potessimo seguire il «percorso» della proteina durante il
folding su una mappa che, analogamente a una carta stradale, indica tutte le strade disponibili, pur rimanendo impredicibile il risultato preciso (figura 4.2, pannello superiore), la particolare destinazione
85
L’ordine della complessità
4.2. Nel pannello superiore si descrive una sorta di «storia evolutiva» di un sistema
a scelte multiple in cui ogni biforcazione (scelta) porta ad una storia differente.
Il pannello inferiore riporta le singole traiettorie ad uno spazio di probabilità
rappresentato da una specie di «ombrello» nello spazio delle fasi.
di arrivo, potremmo comunque avere a disposizione il ventaglio delle
opzioni disponibili in termini probabilistici (pannello inferiore di figura 4.2). La mappa insomma, pur non consentendo di prevedere il
singolo accadimento, ci consentirebbe di comprendere dove e come
la proteina può spostarsi nel suo spazio conformazionale. In qualche
modo la complessità svanirebbe, in quanto ogni movimento troverebbe il suo corrispettivo nella mappa.
Questo è un fenomeno generale che trova molti riscontri nel quotidiano. Pensiamo ad esempio all’abilità di una persona media nel comprendere come l’elettricità entra e si muove nella sua casa, e quindi nel
86
Scienza e società
cercare un eventuale guasto. Di solito la persona in questione si arrende di fronte alla complessità del problema e telefona ad un elettricista.
All’elettricista ciò che appariva complicato al padrone di casa sembra
piuttosto semplice, in quanto possiede una mappa dell’impianto elettrico e qualche cognizione di base per interpretarla.
Questa storiella ha a che vedere con le osservazioni degli antropologi sull’aumento di «complessità» delle società moderne rispetto al
passato: si tratta della nota divisione del lavoro che ha generato una
società dipendente dall’esistenza di «esperti» che mantengono in vita
l’intero sistema attraverso le loro porzioni di competenza, sempre più
limitate e specialistiche.
La caduta dell’Impero romano provocò una catastrofe tecnologica
di lunga durata, in cui strumenti sostanzialmente semplici (ma complessi per i non esperti) come i sistemi fognari sparirono dall’Europa
per centinaia d’anni. Tornando alle proteine, e in un certo senso alla
«vera» (non apparente) complessità, il problema serio è che le mappe non solo non si conoscono, ma spesso cambiano in corsa, il che ci
limita forzatamente ad una conoscenza probabilistica molto grossolana dei sistemi analizzati.
Ma possiamo spingerci oltre in questa nostra contemplazione della disarmante semplicità della complessità. Consideriamo il fatto che
due atomi di idrogeno, quando si legano con un atomo di ossigeno,
generano una nuova sostanza (l’acqua), che ha proprietà che non hanno nulla a che fare con i due gas dalla cui unione l’acqua dipende.
Spesso si sente dire che i sistemi complessi mostrano delle proprietà
«emergenti». L’acqua sembra proprio un caso di «emergenza», anche se
dal punto di vista costitutivo è senza dubbio semplice, visto che la formula H2O racchiude completamente la sua costituzione atomica. Tutta
la chimica d’altra parte, a partire dalla tavola periodica degli elementi, è
un’affascinante cavalcata tra emergenze di comportamenti complessi e
assolutamente non derivabili dalla combinazione di elementi semplici,
che costituiscono la base composizionale delle molecole. Insomma, qui
abbiamo un campionario praticamente infinito di proprietà emergenti
che non si possono dedurre dagli elementi di partenza.
Dovrebbe allora risultare chiaro allora che ad attenderci c’è un lavoro praticamente infinito per poter costruire una metodologia e un
pensiero «olistici», che cerchino di conoscere gli «oggetti» della realtà senza necessariamente ridurli a pezzi o identificarli con il loro supposto «nucleo essenziale».
87
L’ordine della complessità
Abbiamo bisogno di uno stile di pensiero che ci consenta di non dimenticare la vista d’insieme di ciò che stiamo studiando anche quando
per necessità ci muoviamo al livello delle sue parti costituenti. A ben
vedere, si tratta del problema della composizione in pittura, che artisti di varie epoche hanno risolto seguendo differenti strade. Nel capitolo precedente abbiamo descritto un’applicazione del metodo delle
componenti principali, che è uno dei metodi di analisi che più si avvicina all’approccio artistico che propugnamo.
Oltre al metodo delle componenti principali, comunque, abbiamo
molti altri utili strumenti di analisi, il punto è che tutti questi metodi
necessitano di una conoscenza «di prima mano» del sistema studiato.
Questa esigenza è molto avvertita in questi tempi, in cui la nascita e lo
sviluppo di termini come network paradigms o systems biology riflettono la forte esigenza di «prospettive d’insieme», mentre la produzione
di conoscenza di prima mano viene sempre più perseguita attraverso
la costruzione di «gruppi multidisciplinari». A nostro modo di vedere questa non è una buona strada per costruire una «scienza nuova» e
libera dal paradigma guerresco/alchemico che ne sta fortemente minando le capacità di progresso. La parola stessa «gruppo multidisciplinare» implica che ogni unità del gruppo sia (almeno) una persona
identificata dalla sua specifica disciplina che, in quanto tale, la qualifica a far parte del gruppo e ad apportare la sua visione peculiare separata dagli altri. In questo modo si pensa di poter ottenere l’integrazione dalla semplice coalescenza di discipline differenti. Nella nostra
esperienza questa strategia non ha mai dato buoni frutti. Per funzionare davvero e dar vita ad una reale integrazione, ogni membro del
gruppo deve dimenticarsi di gran parte del suo bagaglio culturale specifico e mantenere solo quella porzione di conoscenza operativa immediatamente utilizzabile (e condivisibile) dagli altri membri. In molti
anni di lavoro abbiamo potuto osservare come ciò sia possibile solo se
il gruppo è tenuto insieme da veri e profondi legami di amicizia. Questo ci riporta ai tempi dei duelli all’arma bianca e ai fortissimi legami
che univano piccoli gruppi di combattenti5.
La via proposta implica che si debba ritornare a scienziati poliedrici non legati a specifiche discipline, insomma «scienziati dei sistemi»
nel vero senso della parola. Un luogo comune è che la crescita esponenziale del contenuto dei diversi campi scientifici abbia reso impossibile la formazione di «scienziati generalisti», ma questa convinzione
non coincide per nulla con la nostra esperienza professionale, che ci
88
Scienza e società
ha fatto invece vedere quanto più utile ed efficace sia che ogni singolo ricercatore attraversi differenti campi di indagine. La cosa importante è che nel gruppo di amici-ricercatori vi sia qualcuno in grado
di mettere gli altri a parte degli elementi fondamentali del problema
trattato, dopodiché l’elaborazione può procedere in modo autonomo
condividendo strumenti di analisi e esperienze pregresse. Al contrario è proprio in momenti di crisi di paradigma come quelli odierni che
l’iper-specializzazione si trasforma facilmente in un binario morto,
esattamente come viene descritto nel racconto di R. Macauley pubblicato sulla “Kenyon Review” nel 1956, intitolato The Chevigny Man.
Il racconto è la storia di un accademico che aveva costruito interamente la sua carriera sull’opera di un famoso autore, per arrivare
a scoprire che questi aveva detto solo grandi banalità. La moda perniciosa di oggi prevede che gli scienziati si trasformino in «esperti di
chiara fama» e limitino al massimo il proprio settore di attività, proprio come certi saprofiti che si scelgono una nicchia ecologica iperspecializzata. Tale consuetudine perversa viene alimentata dalle istituzioni che finanziano la ricerca, che non vedono di buon occhio lo
scienziato generalista. Ma a lungo andare tutto questo potrebbe rivelarsi pericolosissimo sia per la scienza sia per le stesse istituzioni.
NOTE
1
L’Orlando furioso di Ludovico Ariosto (1516) è, insieme alla Divina Commedia e
(ma solo in parte) ai Promessi sposi, l’unico esempio di letteratura italiana che sia stato
apprezzato dall’élite e dal popolo allo stesso modo. Anche se si tratta di un’opera essenzialmente scritta per un pubblico elitario, la travolgente bellezza dei versi, la continua ispirazione, l’ambientazione favolosa e una ispirazione potentissima ne hanno
allargato la diffusione fino a farla diventare base di teatro popolare (si pensi all’Opera
dei pupi in Sicilia) con un travolgente e quasi unico processo di inculturazione spontanea. Una versione pdf dell’opera si trova sul sito: http://www.letteraturaitaliana.
net/pdf/Volume_4/t325.pdf.
2 Bruno De Finetti ha sviluppato la concezione moderna di probabilità soggettiva.
Per un inquadramento generale del suo pensiero si rimanda al bellissimo libro del
1938 di B. De Finetti, L’invenzione della Verità, riedito nel 2007 dall’editore Raffaello
Cortina e da cui è tratto il seguente, illuminante, brano: «... Per tal modo la posizione
della scienza del calcolo delle probabilità appare del tutto rovesciata in confronto
alle concezioni anteriori: esso non è più un surrogato da usare, quando ancora le
leggi certe non sono note, ma la radice vera di ogni teoria scientifica, anche nel caso
limite in cui per semplicità la si esprime mediante ‘leggi’ precise, sottintendendo,
89
L’ordine della complessità
data la grande probabilità, la distinzione a rigore necessaria tra grande probabilità e
certezza assoluta. L’unità del metodo scientifico non può che avvantaggiarsi da una
tale evoluzione, mentre i temuti inconvenienti sono solo apparenti. Si teme forse uno
scetticismo o un disinteresse per la Scienza? Ma perché si ritiene che si possa appassionarsi di più per conoscere delle verità preesistenti e immutabili che per quelle che
vivono nel nostro sforzo creativo senza fine? Non si appassiona l’artista inseguendo
i fantasmi cui sente il bisogno di dar vita? O si teme che ogni pazzo sia autorizzato
a buttar giù teorie strampalate? No, vi sono tante difficoltà da conciliare per costruire una teoria scientifica utile, che un tale pericolo si può escludere; rimane solo il
vantaggio di non ostacolare le innovazioni quando sono realmente possibili». Robert
Laughlin ha scritto insieme a David Pines un articolo molto chiaro e accessibile ai non
specialisti sul tema, l’articolo è scaricabile gratuitamente dalla rete all’indirizzo dei
‘Proceedings’ dell’Accademia americana delle Scienze: www.pnas.org (R. Laughlin,
D. Pines (2000) The Theory of Everything. Proc. Natl. Acad. Sci. USA (97): 28-32).
3 Il libro di Ignazio Licata, La logica aperta della mente, edito nel 2008 da Codice
Editore, riporta degli interessanti approfondimenti su questo tema.
4 L’articolo di Hans Frauenfelder e Peter Wolynes, due grandi pionieri del campo
del protein folding dall’evocativo titolo: Biomolecules: where the physics of complexity
and simplicity meet, apparso su “Physics Today” del febbraio 1994 (Frauenfelder and
Wolynes, in “Physics Today”, 47(2)(1994), pp. 58-64) è una lettura affascinante anche
per il non specialista.
5 Il famosissimo film di Akira Kurosawa I sette samurai (1954), oltre ad essere il
padre nobile di tutta la filmografia western e di azione dell’ultimo mezzo secolo è il
miglior trattato che si possa consigliare sulla complementarietà tra individualità differenti e la creazione dei vincoli necessari a compiere l’opera scientifica (e il combattimento per un ideale). Il film veicola inoltre lo stesso afflato verso la riappropriazione
(lì dell’arte della guerra, qui della possibilità di apprezzare il lavoro della scienza) di
saperi elitari da parte dei non esperti, che è alla base di questo libro.
90
Capitolo quinto
SCIENZA RIGOROSA?
Sebbene possa sembrare paradossale, tutta la scienza
esatta è dominata dall’idea di approssimazione.
Bertrand Russell
Uno degli attributi più frequentemente associati alla scienza è «rigorosa». Non a caso, per spiegare che un pezzo di scienza è considerato mediocre si dice che «non è rigoroso»; viceversa la più alta onorificenza che si possa assegnare ad un procedimento scientifico (sia esso
un teorema, un piano sperimentale, le conseguenze che si ricavano da
un’osservazione) è che è «molto rigoroso».
Rigor è una parola latina a cui si possono associare vari significati:
durezza, resistenza, punizione, freddo estremo, severità, inflessibilità,
disciplina. Insomma la parola evoca qualcosa (o qualcuno) che deve
essere tenuto fermo dall’azione di una temperatura molto bassa o per
l’effetto di una punizione, di un vincolo. Nel caso più estremo parliamo di rigor mortis, della rigidità che i cadaveri acquisiscono qualche
tempo dopo il decesso. L’accezione di «disciplina» merita un supplemento di riflessione. Disciplina deriva dal latino discere (apprendere),
si viene quindi a creare il corto circuito per cui l’apprendimento implica un vincolo da imporre al comportamento erratico, un freno alle
tendenze naturali. La fisica, la chimica, la matematica, la biologia sono
discipline, perciò devono essere rigorose, e quindi imporre dei vincoli al naturale modo di pensare.
Perché abbiamo bisogno di congelare qualcosa per conoscerlo?
All’inizio della scienza moderna, un esperimento non era considerato uno strumento da cui derivare dei suggerimenti per delineare
una spiegazione plausibile di un pezzo di mondo – un esperimento era
una dimostrazione della verosimiglianza di un’idea precostituita. Se io
91
L’ordine della complessità
sono convinto che l’attrazione gravitazionale ha lo stesso effetto su un
corpo leggero e su uno pesante, allora debbo impegnarmi a fondo per
organizzare una strategia sperimentale adatta a verificare questa assunzione. Prima di dover ammettere di essermi sbagliato, cercherò di
«aggiustare» tutte le condizioni sperimentali in molti modi differenti,
di modo da imporre una «disciplina» alle condizioni ambientali tale
da soddisfare i miei desideri.
Questo atteggiamento mentale è evidente nel lavoro di Galileo e
nella sua separazione di «affezioni quantitative» e «qualitative», essendo le prime quelle «ideali e ordinate» e le seconde noiose contingenze che mascherano l’ordine soggiacente alla natura. Il bravo scienziato è allora quello abile ad individuare le idee semplici e «scritte in
linguaggio matematico» alla base della natura, senza farsi ingannare
dai comportamenti erratici e imprevedibili che le mascherano. In maniera più esplicita e brutale, Francis Bacon affermava che la Natura
doveva essere torturata per farle «confessare la verità».
Nonostante la rivoluzione scientifica si affermasse con il dichiarato ripudio dell’approccio alla realtà tipico della filosofia medievale,
manteneva intatta la tradizionale dicotomia tra l’essenza di una cosa e
i suoi caratteri accidentali, cioè, i suoi attributi contingenti. L’implicazione è che la realtà (come appare) in qualche modo oscura ciò che la
cosa realmente è. Chiaramente qui vediamo le tracce del mito platonico della caverna. La cosa curiosa è che questo modo di ragionare prefigura ciò che sembrano suggerire i moderni studi di neurofisiologia,
e cioè che il cervello umano tende a memorizzare i concetti e le percezioni generali piuttosto che i dettagli. Insomma è come se preferissimo vedere delle forme (pattern) che ci appaiono più semplici da categorizzare e ricordare piuttosto che mettere da parte una gran mole
di dettagli.
Chiaramente questo non ha nulla a che vedere con il mondo «là
fuori», ma è semplicemente una caratteristica del nostro modo di ragionare, che con ogni probabilità ci ha fornito importanti vantaggi in
termini di sopravvivenza.
Questa strategia è in ogni caso molto efficace in presenza di princìpi chiari ed evidenti, il cui effetto è preponderante su quello esercitato da altri possibili fattori (come nel caso della forza di gravità),
ma diventa assolutamente deleteria quando la comunità scientifica si
imbatte in un’idea poco produttiva ma attraente. Ci sono moltissimi
esempi di questi vicoli ciechi nella storia della scienza: la ricerca in92
Scienza rigorosa?
fruttuosa dell’etere, cioè di un fluido che avrebbe dovuto riempire lo
spazio così da permettere alle onde di viaggiare o la «frenologia», cioè
l’idea che si possa comprendere il carattere e le tendenze di una persona misurando alcune caratteristiche morfologiche della testa di una
persona (alcune versioni aggiornate di frenologia sono ancora presenti
nella comunità scientifica sotto nomi apparentemente astrusi). Insomma, noi esseri umani siamo portati a considerare più «vero» il modello
ideale di una cosa che la cosa stessa con la sua ingombrante materialità: è il «modello scientifico», espresso in linguaggio matematico, che
viene considerato «la cosa reale», e non ciò che i nostri sensi ci permettono di osservare. E a ben vedere perché mai non dovrebbe essere così? Uno dei primi temi scientifici, presente sin dalla preistoria, è
quel corpo di conoscenze che noi ora chiamiamo «astronomia». Molte
culture, da Stonehenge agli Incas, dimostrarono un grande interesse
per il movimento del sole, della luna, degli astri e impiegarono grandi risorse per la costruzione di osservatori. La necessità di prevedere
il corso delle stagioni forniva l’aspetto applicativo all’impresa scientifica. Lo sviluppo della moderna astronomia (con il corollario del suo
possente supporto matematico) garantì una precisione prima inimmaginabile; il papa Gregorio XIII nel 1582 fondò un osservatorio (al Collegio romano, l’antica Università dei Gesuiti nel centro di Roma), con
lo scopo di riformare il calendario. Questo implicava il graduale riconoscimento della fallibilità del senso comune, a tutto vantaggio della precisione di osservazioni rigorose e della matematica a loro connesse.
Questa era comunque una storia vecchia: il graduale slittamento
dei significati di verità e realtà lontano dal senso comune era già attivo nel Medioevo, nel grande periodo della Scolastica. Sebbene Tommaso d’Aquino sia normalmente considerato come il campione della
filosofia scolastica, a nostro avviso il pensiero della scuola francescana
inglese con Ruggero Bacone, Guglielmo di Ockham, Giovanni Duns
Scoto ebbe un effetto molto più duraturo e radicale sullo sviluppo
della filosofia naturale (il vecchio nome della scienza). È a questi filosofi francescani che si deve il primo inizio del pensiero scientifico
moderno, anche se in verità si trattava di questioni molto sottili (non
a caso Duns Scoto aveva il soprannome di «dottor Sottile») in cui
difficilmente riconosceremo delle preposizioni che noi chiameremmo «scienza» nell’accezione moderna del termine. Ciononostante alcuni motivi di base del fare scienza come la ricerca della soluzione
93
L’ordine della complessità
«più semplice», il carattere eminentemente statistico della conoscenza scientifica vista la fondamentale inconoscibilità delle essenze individuali, addirittura la disposizione dei dati in tabelle a doppia entrata
che gli statistici chiamano matrici di dati, i nostri tempi faciloni «fogli Excel», ma il cui nome originario era tabulae veritatis, derivano da
questo ambiente filosofico e spirituale.
Tommaso d’Aquino, grazie anche alla sua formazione di avvocato, inserì nell’armamentario filosofico un’altra caratteristica che poi
ritroveremo nel moderno dibattito scientifico, vale a dire l’attenzione smisurata verso il significato precipuo dei termini: un altro aspetto
del «rigore scientifico». Mentre le sententiae (le definizioni) venivano
dibattute fino allo spasimo (rigorosamente), le osservazioni venivano
praticamente neglette, e comunque considerate ostacoli che mascheravano la «vera realtà». Il primato assegnato alla teologia e alla filosofia (scientia nel linguaggio medievale) veniva trasferito senza colpo ferire alla scienza così come la conosciamo noi. Ovviamente, se qualcosa
potesse essere non solo espresso in termini «rigorosi», cioè mettendo
da parte tutti i comportamenti inaspettati ed erratici di cui è fatto il
mondo reale, ma anche attraverso una sofisticata ed efficace tortura
(metodologia sperimentale) che lo fa apparire come tale ai nostri sensi (vedere per credere!), noi saremmo tutti felicissimi di affidarci completamente a quanto affermato.
Vi è insomma un’alleanza talmente forte tra teoria (i termini rigorosi monosemici opposti alla naturale polisemia del linguaggio quotidiano) e metodologia sperimentale (accettare solo le osservazioni
ottenute in condizioni altamente vincolanti in un laboratorio rigidamente controllato) da negare il diritto di fregiarsi del termine di «realtà» alle esperienze fenomeniche che il mondo ci propone in modo
immediato1.
Tuttavia, per la stessa ragione per cui ammiriamo le top model ma
poi ci innamoriamo delle donne vere, se vogliamo costruire un vero
aeroplano che stia in cielo senza precipitare preferiamo studiare le
traiettorie di modelli semplificati ma ancora largamente empirici nelle gallerie del vento che usare le elegantissime equazioni di NavierStokes delle turbolenze dell’idrodinamica; o meglio, possiamo usarle
dopo, solo per aggiungere fascino alle nostre asserzioni. D’altronde se
le equazioni di Navier-Stokes ci consentissero di progettare aeroplani
funzionanti non avremmo alcun bisogno di gallerie del vento.
Che cosa è reale? Che cosa è apparente? E perché la realtà ha li94
Scienza rigorosa?
5.1. Schema di galleria del vento dove vengono provati prototipi di automobili e aerei
per osservare le turbolenze generate dall’inserimento di questi corpi in un flusso
d’aria.
tigato con le sensazioni? C’è la vecchia barzelletta del fisico che è in
grado di predire il vincitore di una corsa di cavalli «nel caso di cavalli
sferici», che è un esempio molto famoso di quanto lontano nel mondo
del ridicolo ci possa trasportare il pensiero rigoroso. Per essere scientifico debbo «congelare» «disciplinare» gli insofferenti cavalli nell’interessantissimo e rigorosamente trattabile «caso sferico». Questa è
una barzelletta solo perché tutti sanno che non esistono cavalli sferici;
le equazioni di Navier-Stokes, invece, sono un pezzo rispettabilissimo
di scienza, anche se (come i cavalli sferici) nessuna barca a vela e nessun aeroplano le rispetta, il che è un segreto per pochi eletti e quindi
una barzelletta su queste equazioni non farebbe ridere nessuno.
Quanti cavalli sferici dovremmo produrre per onorare il rigore?
Quanto oltre ci possiamo spingere nel torturare la Natura?2
Esistono dei problemi aperti, soprattutto nelle scienze biomediche, che sono molto più riottosi, rispetto a quelli normalmente incontrati in fisica, a seguire la disciplina che tentiamo di imporre loro.
Nelle scienze della vita abbiamo tutta una serie di idee preconcette
derivanti da plausibilissime spiegazioni di fatti osservati sperimentalmente, per cui il mitico «esperimento cruciale» è stato cercato da
legioni di scienziati e in molti casi è sembrato che effettivamente si
fosse arrivati al dunque, provocando la nascita di nuovi campi di
ricerca, cattedre universitarie, laboratori, progetti finanziati, movi95
L’ordine della complessità
5.2. Il fenomeno della LTP come osservato nel cervello di ratto con un elettrodo posto
nell’area dell’ippocampo.
menti filosofici, per poi arrivare ad una triste e malinconica «morte silenziosa».
Un caso paradigmatico è la triste storia della «Long Term Potentiation» (LTP), uno dei temi caldi delle neuroscienze della fine del secolo scorso. In poche parole, gli scienziati avevano scoperto che le
risposte di neuroni isolati a stimoli ripetuti mostravano le caratteristiche del cosiddetto apprendimento hebbiano (dal nome del fisiologo americano Donald Hebb, che alla fine degli anni Quaranta aveva
immaginato un paradigma di apprendimento basato sul progressivo
«adattamento» dei neuroni a configurazioni ricorrenti, per cui alcune «vie neuronali» più battute venivano progressivamente facilitate).
Questi neuroni modificavano la loro risposta in seguito alla somministrazione ripetuta dello stesso stimolo (habituation) con un potenziamento della loro risposta man mano che lo stesso stimolo veniva
ripresentato. In altri termini, i neuroni «apprendevano», e questo apprendimento era per la prima volta apprezzabile direttamente a livello molecolare con misure elettriche o con l’attivazione di un ricettore
specifico (NMDA [N-methyl-d-aspartate] receptor). Questo fenomeno
di apprendimento permetteva di tradurre eventi elettrici alla membrana post-sinaptica (potenziali d’azione) in segnali chimici (attivazione del ricettore dell’aspartato), che a loro volta erano ipotizzati es96
Scienza rigorosa?
5.3. Il «Morris water maze»: l’animale è posto in una grande vasca piena d’acqua resa
opaca, da dove può uscire solo aiutandosi con una piattaforma a lui invisibile
posta sotto il pelo dell’acqua. L’animale dopo un po’ di prove impara ad orientarsi
anche facendo tesoro di riferimenti visivi posti nella stanza.
sere alla base di un aumento duraturo della «forza sinaptica» (legame
fra due neuroni contigui) che, nel paradigma hebbiano, costituisce
l’essenza della memoria. L’eccitazione per questa scoperta fu tale (la
base molecolare della memoria!) che in pochissimo tempo arrivò la
conferma sperimentale del legame diretto tra LTP e memoria, osservata a livello dell’organismo intero in termini di abilità ad orientarsi di
ratti immessi in un labirinto acquatico («Morris water maze»), in questo modo chiudendo il cerchio dal microscopico al macroscopico ed
esaudendo un vecchio sogno della comunità scientifica: liberare l’intelligenza dalle fumosità delle discipline «umanistiche» e offrirle un
solido e obiettivo correlato strutturale.
L’LTP divenne in breve «la cosa vera», mentre tutte le restanti manifestazioni fenomeniche dell’intelligenza, dal labirinto acquatico alla
Cappella Sistina, si trasformarono in contingenze occasionali.
Dopo molti anni di risultati contrastanti, la nascita di un giornale
scientifico dedicato, difficoltà a riprodurre il fenomeno, ragionamenti sempre più contorti per riconciliare tutte le esperienze in un quadro
unitario, i riflettori malinconicamente si spensero sopra l’LTP, che tri97
L’ordine della complessità
stemente abbandonò le scene più prestigiose della scienza per riapparire soltanto su pubblicazioni provinciali e nascoste. Ora ancora qualcuno si ricorda di «lei» (un po’ come quelle vecchie attrici che ancora
ricevono qualche biglietto dai loro antichi ammiratori) quando occorre commentare qualche risultato un po’ bislacco, ma il ruolo della star
è occupato da altri temi.
L’atteggiamento di considerare le idee più affidabili delle evidenze sensoriali non è poi così pazzoide come sembra, al contrario è assolutamente razionale ed efficacissimo: noi saremmo semplicemente
sopraffatti dalla quantità di informazione che ci proviene dai sensi se
dovessimo prenderne in considerazione ogni singolo elemento. Se vogliamo confrontarci con successo col mondo là fuori abbiamo assoluto bisogno di generalizzazioni che riducano drasticamente il carico di
informazioni in ingresso da elaborare1. Così il giocatore di baseball fa
(anche se in maniera inconscia) un modello della traiettoria della palla che deve afferrare e, a tutti gli effetti, quel modello per lui sostituisce la realtà. Se una folata improvvisa di vento altera la traiettoria della
palla, questo è considerato un «errore»; chiaramente il giocatore non
è che da quel momento in poi cambia drasticamente il modello standard di traiettoria, e fa benissimo a non cambiarlo. Ciò che differenzia il giocatore di baseball dallo scienziato e che lo rende molto più ragionevole è che egli è conscio dell’esistenza del vento. Il giocatore non
pretende di eliminare il vento dalla terra e nemmeno dalla sua visione
del mondo, semplicemente accetta con umiltà il difetto del suo modello di traiettoria e, in mancanza di meglio, continua ad usarlo. Gli
scienziati, invece, in molti casi hanno tentato di definire come «apparente» (e conseguentemente non reale, illusorio, inesistente) tutto ciò
che non potevano mettere a forza nei loro modelli, che pretendevano
di essere perfetti e onnicomprensivi, e questo è veramente un modo
di comportarsi da matti. Ciononostante, anche se un po’ folle, questo modo di pensare, quando si trattava di definire i princìpi primi del
mondo fisico con ardite semplificazioni, è stato molto positivo per lo
sviluppo della scienza. Molto del folklore dello «scienziato pazzo» di
cartoni animati e film deriva proprio da questa discrasia tra «schemi
vincenti nella scienza» e «schemi vincenti nella vita di tutti i giorni».
Ora però che i confini della scienza si sono spostati verso l’analisi dei
sistemi complessi (cioè verso la vita di tutti i giorni, che è piena di sistemi complessi come giardini, vie trafficate, cani invadenti, malattie
e praticamente priva di punti materiali, gas perfetti e sistemi inerzia98
Scienza rigorosa?
5.4. Helycobacter pylori.
li conservativi) in cui le condizioni al contorno e gli innumerevoli accidenti e contingenze del reale sono la parte più importante del gioco,
le cose sono molto cambiate.
A questo punto un sospetto si sta probabilmente affacciando nella mente del lettore, il sospetto che stia leggendo un libro blasfemo,
un libro che sostiene che il rigore sia una cosa da sottoporre a critica.
Il lettore ha sicuramente ragione: il rigore non è necessariamente una
bella cosa e, nella vecchia accezione della supremazia del modello ideale rispetto all’osservato sta diventando un princìpio molto pericoloso
per lo sviluppo della conoscenza, specialmente di questi tempi in cui
la frontiera dell’ignoto è dalle parti dei cosiddetti sistemi complessi:
un campo in cui di leggi e princìpi primi ne abbiamo ben pochi.
Un esempio interessante di ciò è il premio Nobel per la medicina assegnato nel 2005 a Barry Marshall. Nei primi anni Ottanta Marshall e Warren avevano identificato nell’Helicobacter pylori un agente
infettivo potenzialmente molto importante per l’eziologia dell’ulcera
dello stomaco.
Le teorie prevalenti sull’eziologia dell’ulcera all’epoca vedevano
nello stress e in altri fattori psicosomatici le cause scatenanti della malattia. L’idea che l’ulcera avesse un’origine infettiva era assolutamente contraria al dogma prevalente. Questo fece sì che ai due scienziati
fosse precluso ogni accesso alla letteratura scientifica, addirittura non
era loro permesso esporre le loro idee ai congressi specialistici, tanto la forza delle idee precostituite era preponderante rispetto alle evidenze sperimentali. Solo dopo più di dieci anni, grazie all’accumulo di
99
L’ordine della complessità
evidenze sempre più chiare e a un mutato clima culturale sulle cause
generali delle malattie, con una risorgenza di interesse verso le «cause organiciste» rispetto a quelle psicosomatiche, i due scienziati ebbero riconosciuto il valore della loro scoperta. Questo ci insegna come
il rigore spesso non sia obiettivo e come a farne le spese possano essere stati dei malati di ulcera a cui per molto tempo è stato negato un
semplice antibiotico che poteva eradicare in poco tempo la causa dei
loro dolori.
Ciononostante la tecnologia va avanti: usiamo farmaci i cui meccanismi d’azione sono «just-so-stories» («storie-proprio-così», dal godibilissimo libro per l’infanzia di Rudyard Kipling, che dimostra a posteriori ogni accadimento) inventate dai farmacologi per dare una patina
di scienza alla sgradevole empiria, guidiamo automobili ottimizzate
in maniera empirica e così via. Probabilmente l’unica volta che la teoria ha preceduto l’applicazione pratica è stato nel caso della bomba
atomica, il che non costituisce certamente un precedente di cui andare fieri.
Il guaio, però, è che questo modo di andare avanti sta cominciando
a mostrare evidenti segni di cedimento: i farmaci innovativi introdotti sul mercato sono sempre di meno, la nostra capacità di prevedere le
conseguenze delle nostre scelte di pianificazione sembra molto ridotta
e abbiamo una scarsissima conoscenza dei sistemi ecologici reali. Abbiamo bisogno di una completa rifondazione del nostro modo di considerare il reale e questo nuovo modo dovrà addolcire il rigore per accogliere princìpi più «soffici». Chiaramente non possiamo pretendere
di avere un occhio infinitamente aperto sul mondo per non trascurare
niente, facendo quindi a meno delle generalizzazioni e affrancandoci
da odiose «discipline». Neanche è auspicabile uno sciocco relativismo
da molluschi per cui «tutto-va-bene» (questa purtroppo sembra essere l’alternativa emergente con un proliferare di false sapienze e scienze
supposte alternative che, guarda caso, hanno sempre «una parola per
tutto» quindi ereditando il lato arrogante della scienza supposta ufficiale) che metta sullo stesso piano tutte le sorgenti di informazione rinunciando ad ogni spirito critico per un’apparente democrazia diretta
della conoscenza. Forse la parola magica da scegliere al posto del vecchio rigore è «prospettiva».
Anche qui abbiamo una suggestiva origine latina: la parola prospettiva deriva da perspicere, che è un verbo composto formato dal
prefisso per (attraverso) e da spiciere (guardare, il cui corrisponden100
Scienza rigorosa?
te nome verbale è spectum). Insomma, il significato è «guardare attraverso», ma mantiene anche il senso di qualcosa che non risulta visibile
ad un solo osservatore ma può essere mostrato a tutti, e questa è la ragione per cui parole come spettatore e spettacolo condividono la stessa radice. Se qualcuno è considerato perspicace vuol dire che, visto
che ha il senso della prospettiva, lo riteniamo acuto e con una visione
chiara del mondo. L’arte e la pratica della prospettiva sono state formalizzate dai maestri del XV secolo come Brunelleschi, Masaccio, Piero della Francesca. Il punto cruciale era proprio quello di scegliere un
punto privilegiato per osservare il mondo e poi accomodare la scena
in funzione di questo punto privilegiato che, nella sua accezione più
letterale, era proprio un foro in una scatola, da cui si «guardava attraverso» ottenendo l’illusione della tridimensionalità. Più realistica era
l’illusione (ma sempre di illusione si trattava), migliore la prospettiva.
Questo atteggiamento rimanda quindi ad una visione deliberatamente
parziale del mondo, una semplificazione, ma una semplificazione efficiente che garantisca una illusione di realtà e che con la realtà si confronti, non una dogmatica riduzione del reale ad una essenza.
Offrire delle regole chiarificatrici della particolare prospettiva utilizzata, e quindi chiarire bene le metodologie e le visuali scelte, diventa quindi il marchio di fabbrica di un buon pezzo di scienza. L’enfasi passa dunque dal rigore nel contenuto al rigore nella metodologia,
la vista scientifica diviene acuta e quindi efficace nel comprendere il
mondo in virtù della sua abilità nello scovare le illusioni più suggestive del tutto, che non si può per definizione conoscere in quanto tale.
La molteplicità degli angoli visuali, per cui diversi scienziati forniscono viste differenti ma tutte in grado di ricostruire qualcosa che non
si era espressamente «messo dentro da prima» è il segno della buona
scienza. Il rigore in quanto tale non è più una virtù; il rigore nello scegliere e rendere esplicito l’angolo visuale diventa una virtù nella misura in cui permette ad un artigiano di usare criticamente i risultati ottenuti da un altro prima di lui. Lo scienziato, insomma, deve fornire
un’adeguata spiegazione della prospettiva utilizzata.
La prospettiva nel Rinascimento aveva come principale applicazione la trasposizione di una scena a tre dimensioni in un’immagine bidimensionale attraverso l’applicazione della geometria euclidea. Filippo
Brunelleschi aveva ideato un particolare apparato con cui l’architetto
era in grado di «guardare attraverso» (perspicere) un buco fatto sulla
superficie esterna di una scatola avente uno specchio al suo interno in
101
L’ordine della complessità
cui è rimandata l’esatta prospettiva bidimensionale dell’oggetto e così
riportare ciò che osserva nel suo disegno. Analoghi ed ancora più sofisticati strumenti erano utilizzati da Caravaggio per ottenere nei suoi
quadri un effetto «più vero del vero», questa verità «esacerbata» per
cui il pittore riusciva a «bloccare» un racconto in una scena singola
solo passando attraverso l’artificio, la scelta consapevole di uno specifico punto di vista attraverso il gioco di specchi, ancora ci riempie
di stupore. È istruttivo considerare come Caravaggio di tre secoli precedente, sia molto più attuale della fasulla «neutralità» dell’osservatore, che invece tanto entusiasmò i più ingenui pittori positivisti dell’impressionismo francese.
Questo atteggiamento consapevole dell’artigiano rinascimentale
corrisponde in scienza alla scelta di una particolare misura (il buco
nella scatola, il particolare punto di vista, la sistemazione degli specchi) attraverso cui lo scienziato guarda al mondo. Ogni punto di vista è deliberatamente limitato e locale (come il buco), ogni misura è
una mappa che fa «collassare» differenti stati del mondo verso lo stesso valore: differenti individui hanno la stessa altezza, differenti molecole hanno lo stesso peso molecolare... Adottare la corretta prospettiva, quindi, non vuol dire «salvare il maggior numero di particolari»
ma scegliere il punto di vista che garantisce la visione più suggestiva
(nel vero senso della parola, che suggerisce di più, che evoca una maggior ricchezza di contenuti senza mostrarli esplicitamente) del pezzo
di mondo rappresentato. Esattamente come l’arte, dove l’arte precipua dello scienziato consiste nel suggerire allo spettatore la ricchezza di implicazioni che si dispiegano dal punto di vista privilegiato che
si è scelto. Allora se egli è capace di predire il punto di fusione di una
molecola da un indice topologico basato esclusivamente sulla formula di struttura della molecola stessa, senza bisogno di avere la sostanza in mano e senza bisogno di metterla in un calorimetro (le cose che
ordinariamente bisogna fare per stabilire il punto di fusione), ciò significa che l’indice topologico (il buco attraverso cui egli guarda alle
sostanze chimiche) garantisce una buona prospettiva sul processo chimico-fisico di fusione dei solidi in liquidi. Ciò non implica in nessun
modo che l’indice topologico sia la causa della fusione, o che noi possiamo tranquillamente dimenticarci di tutto ciò che non sia la formula
strutturale del composto chimico per spiegare tutti gli aspetti del processo di fusione.
Una buona prospettiva può nascere dalla combinazione di molte
102
Scienza rigorosa?
diverse misure (come nel caso da noi descritto in un precedente capitolo della generazione di una misura «consensuale» di complessità), ma la metafora rimane comunque valida, posto che il punto di vista sia comunque unico e ben esplicitato. La misura di complessità di
una serie numerica è la porzione correlata di tutti i diversi indici. Insomma, nel passare dal paradigma del rigore a quello della prospettiva quello che noi proponiamo è abbandonare la teoria per la metodologia e la realtà ideale per una rappresentazione suggestiva. Può tutto
ciò essere considerato un buon affare?
Fare questa domanda significa tornare indietro nel tempo alle dispute dei filosofi medievali: e precisamente all’esistenza di qualcosa di
«realmente reale» (la filosofia prima o poi dà vita a questi orrori linguistici e sicuramente la cosa non è accidentale, ma se volessimo indagare questo curioso effetto si andrebbe veramente troppo in là) opposto a ciò che è reale solo in apparenza. Forse è più comodo (anche
se un po’ codardo, ammettiamolo) cavarsela con una scoperta delle
neuroscienze di qualche anno fa, quella per cui la rappresentazione
mentale del mondo (nel senso tradizionale della filosofia medievale)
è largamente imperfetta e deficitaria. Il cervello sembra ritenere solo
i tratti fondamentali delle scene che gli vengono presentate. Il pericolo quindi è duplice: da un lato si rischia che le rappresentazioni che
esso crea siano false (nessuna corrispondenza con il reale come nel
caso di alcune illusioni ottiche presentate in molti libri di testo), mentre dall’altro che le rappresentazioni tralascino, per i loro limiti, qualche aspetto importante.
Questo è particolarmente evidente nei processi giudiziari per fatti criminosi, dove spesso accade che i testimoni oculari compiano in
buona fede dei clamorosi errori di valutazione.
Per molto tempo si è sostenuto che l’identificazione visiva del colpevole fosse la prova più forte di evidenza, ma le recenti evidenze basate sul riconoscimento del DNA, unite ai risultati della psicologia sperimentale, hanno fatto vacillare questa apparentemente incrollabile
affermazione.
Un esempio ancora più cogente, in quanto interamente basato
sull’arte della prospettiva, ci è fornito dall’arte di Julian Beever, i cui
selciati dipinti in Europa hanno un’appassionata cerchia di ammiratori. Nella figura si osservano dei passanti che evitano il «buco» anche
se sanno che è solo apparente. La percezione provoca loro una componente emozionale abbastanza vivida da suggerire alla loro «mente
103
L’ordine della complessità
5.5. Il film Rashomon, del grande maestro Akira Kurosawa narra di un fatto di
sangue come percepito da diverse persone a vario titolo coinvolte. Gli autori
ne consigliano la visione a chi volesse approfondire il tema delle molte verità,
piuttosto che imbarcarsi in testi filosofici e libri di pedanti.
razionale» di evitare l’ostacolo probabilmente secondo il vecchio adagio precauzionale del «non si sa mai».
Una massima latina recita Nemo dat quod non habit (nessuno può
offrire ciò che non ha); allo stesso modo, se il nostro macchinario
mentale e percettivo, a causa dei suoi limiti, non ci può offrire «l’intero reale», perché assumere che esista qualcosa che sia «realmente reale»? La realtà in ultima analisi consiste nella consapevolezza dei nostri
limiti. L’avventura della conoscenza è una continua opera di affinamento delle nostre percezioni, di errori e di verifiche: per moltissimo
tempo l’umanità pensava che la Terra fosse il centro dell’Universo, è
solo grazie a misure più accurate e alle loro relative discrepanze dal
modello di riferimento che abbiamo capito che le cose stavano in maniera differente. I telescopi hanno acuito il nostro occhio verso il macrocosmo, i microscopi verso il microcosmo, allora il «realmente reale» cessa di essere una inutile astrazione ontologica per diventare un
104
Scienza rigorosa?
5.6. Un’opera di Julian Beever.
processo altamente pragmatico che ci permette di estendere le nostre
prospettive e di osservare cose mai viste. In altre parole abbiamo bisogno del «realmente reale» per andare avanti nella conoscenza e, allo
stesso modo, l’ampliamento delle nostre prospettive è una prova della
sua esistenza e insieme della impossibilità del suo definitivo possesso.
Questo è ciò che salva la scienza dal relativismo assoluto delle sue posizioni e quindi dalla morte termica (tutte le ipotesi sono equivalenti e
quindi non ha scopo continuare l’impresa).
La posizione dell’esistenzialismo assoluto racchiuso nella posizione «se io non so che una cosa esiste essa effettivamente non esiste per
me» è smentita da numerosi casi reali. Il Medioevo ignorava l’esistenza di batteri e virus come causa di malattie. Ciò corrispondeva al fatto
che l’intero mondo degli agenti infettivi non esisteva per l’uomo medioevale; ciononostante, anche se interpretato come effetto di punizioni divine o malefici, questo mondo aveva delle pesanti conseguenze per le persone di allora in termini di morte e dolore.
Forse il lavoro principale della scienza è proprio quello di saggiare costantemente il mondo, alla ricerca di cose che non sembrano esistere ma che invece esistono e hanno pesanti conseguenze sulla con105
L’ordine della complessità
dizione umana come i virus e i batteri; la tecnica e la scienza ci hanno
portato a credere all’esistenza di organismi piccolissimi e di enormi
galassie. Tommaso d’Aquino aveva assolutamente ragione ad affermare hominem unius libri timeo (Ho paura di chi si basa su un solo libro).
Infatti, sappiamo bene come un’unica prospettiva possa dare delle false impressioni sullo stato delle cose. Osservare le cose da prospettive
differenti può rivelare aspetti inattesi e nascosti di ciò che pensiamo
di conoscere benissimo. Forse il rigore può generare una buona prospettiva, sicuramente non tutte le prospettive.
NOTE
1
Il bellissimo libro del nostro amico Ignazio Licata, La logica aperta della mente,
Codice Editore, Torino 2008.
2 Un altro grande amico è Tito Arecchi, che nel 2007 ha scritto per i tipi della Di
Renzo Editore un libro affascinante dove questo dissidio tra il reale come ci viene
proposto ai nostri occhi e il «reale scientifico» è vissuto attraverso la storia intellettuale dell’autore, fisico teorico e ingegnere. T. Arecchi, Coerenza, Complessità, Creatività,
Di Renzo Editore, Roma 2007.
3 Un capolavoro nascosto è il volume di Giovanni Ferraro edito da Jaca Book nel
2001 dal titolo Il libro dei luoghi. Apparentemente non ha molto a che fare con i temi
trattati in questo capitolo, ma solo apparentemente; infatti, uno dei temi portanti del
libro è legato al rincorrersi delle rappresentazioni letterarie dei luoghi e i luoghi stessi
e di come i rimandi continui tra rappresentazione ed oggetto forniscano la base della
nostra conoscenza.
106
Capitolo sesto
PROSPETTIVE
Il miglior modello di un gatto è un altro gatto o, ancora
meglio, lo stesso.
Norbert Wiener
Nel capitolo precedente avevamo proposto la metafora della prospettiva per giudicare i meriti di un’impresa scientifica. Ora si tratta di trasformare una metafora sibillina, e quindi sostanzialmente inutile, in
un princìpio operativo. Per farlo descriveremo un lavoro scientifico in
cui l’arte della prospettiva in scienza è indagata con grande acume e
messa in pratica in maniera molto chiara.
Il caso è riportato in un lavoro del 20051, il campo di indagine è
la chimica farmaceutica e il problema oggetto di studio la predizione,
basata sulle caratteristiche chimico-fisiche e strutturali di una serie di
molecole organiche, delle loro abilità relative a legarsi ad alcuni ricettori biologici (un ricettore è una molecola proteica solitamente situata
sulla membrana cellulare a cui i farmaci si legano per poi iniziare una
catena di eventi che porta alla risposta biologica del sistema).
Possiamo individuare due termini della questione: da una parte i
composti organici, cioè un insieme di piccole molecole rispetto alle
quali possiamo derivare una larga messe di informazioni, a partire
dalla loro formula di struttura, attraverso l’applicazione dei princìpi della chimica-fisica organica; dall’altro lato abbiamo un polimero biologico complesso (il ricettore), una proteina, di cui conosciamo
in maniera molto accurata struttura tridimensionale cristallografica e
sequenza aminoacidica. Il compito di predire quali molecole organiche si riveleranno i ligandi più efficienti viene iterato per undici diversi ricettori e per un numero variabile di composti, secondo la tavola seguente:
107
L’ordine della complessità
Attività farmacologica
Numero di composti saggiati
Antagonisti del ricettore 5HT3
Agonisti del ricettore 5HT1A
Inibitori del ricettore 5HT
Antagonisti del ricettore D2
Inibitori della Renina
Antagonisti del ricettore AT1
Inibitori della Trombina
Inibitori della sostanza P
Inibitori della protease di HIV
Inibitori della ciclo-ossigenasi
Inibitori della protein-chinasi C
752
827
359
395
1.130
943
803
1.246
750
636
452
Per ognuna delle attività farmacologiche riportate in tabella, i ricercatori avevano a disposizione una sorta di «molecola di riferimento»,
cioè un farmaco che già aveva mostrato l’attività in questione, questo
farmaco poteva essere usato come modello per esplorare i differenti
insiemi di dati, alla ricerca delle molecole «più simili» secondo differenti criteri di similitudine (le diverse prospettive appunto).
Le prospettive provate per la loro efficienza di previsione sono state nove, ognuna basata su un diverso concetto di che cosa si dovesse intendere per «similarità» tra due molecole e quindi di quale fosse
l’informazione rilevante da utilizzare per costruire un ligando efficiente e per modellare l’interazione farmaco/ricettore. I nove metodi si possono ordinare in una scala che va da una grossolanità inaudita
ad una sfrenata sofisticazione. Il metodo più grossolano è la semplice conta degli atomi, detta anche atom counts, per cui la probabilità
di una molecola di essere attiva dipende solo da quanto il suo numero
(e tipo) di atomi costituenti sia simile al numero (e tipo) di atomi presenti nella molecola di riferimento. Secondo questo semplice criterio,
una molecola con lo stesso numero di atomi di carbonio, azoto, ossigeno dello stampo ha probabilità 1 di essere attiva.
All’estremo di sofisticazione massima, e quindi di entità delle conoscenze prese in considerazione, troviamo il metodo DOCKSIM.
Questo metodo prende in considerazione non solo la formula strutturale delle molecole, che allinea fra di loro tenendo conto delle diverse configurazioni possibili, ma anche la struttura cristallografica del
ricettore, per cui la similarità fra una molecola e il riferimento non è
calcolata di per sé ma sempre prendendo in considerazione la struttura tridimensionale del ricettore con cui la molecola è supposta interagire (l’interazione di due molecole si chiama «docking», da qui il
nome del metodo).
108
Prospettive
6.1. In alto, nella figura, viene riportata la molecola di riferimento nota per presentare
l’attività farmacologica desiderata (antagonista del ricettore 5HT3), nelle
colonna di sinistra e di destra le molecole previste «attive» dai metodi m1 e
m6 rispettivamente sulla base delle similarità con la molecola di riferimento
(template).
C’è poi un competitore molto speciale in questa gara per giudicare il «miglior metodo predittivo»: si tratta di un «estrattore casuale» (Random Selection), cioè di un software che semplicemente pesca
a caso le molecole da considerare dei ligandi efficaci del ricettore in
questione. Questo è un partecipante assolutamente stolto, programmaticamente privo di ogni traccia di ragionamento su qualsiasi criterio di similitudine con il farmaco di riferimento o con l’interazione
ligando/ricettore. Ma è proprio questa stoltezza programmatica alla
109
L’ordine della complessità
base dell’importanza vitale della pesca casuale per valutare l’intera
competizione, in quanto permette di giudicare l’abilità predittiva di
ogni metodo, fornendo una «linea di base» che non può che essere
una pesca casuale, corrispondente alla totale assenza di informazioni,
al fatto che per puro effetto del caso ci si possa imbattere in una molecola che presenta l’attività desiderata.
Per ogni partecipante alla gara il punteggio finale corrisponde alla
sua frequenza media di successi, in altre parole alla percentuale di molecole predette «attive» che in effetti si legano al ricettore quando provate in maniera sperimentale.
La media si intende calcolata sull’intero insieme di 11 differenti attività. La figura 6.2 riporta i risultati della competizione.
Il metodo più sofisticato (DOCKSIM) è inaspettatamente il peggiore! Esso è infatti il più vicino allo stolto estrattore casuale che,
come atteso, arriva buon ultimo. Il fatto che la totale mancanza di informazione (random selection) porti comunque ad una percentuale di
successi minore di qualsiasi altro metodo ci dice che tutte le diverse
prospettive ci raccontano qualcosa della realtà: hanno insomma dentro di loro delle reminescenze del fenomeno in esame. Il metodo migliore (più realistico) si dimostra MOLPRINT 2D, che ottiene una
percentuale di successi attorno al 75%.
Il fatto che la gara abbia coinvolto migliaia di composti ci spinge a prenderne molto sul serio i risultati; diamo quindi un’occhiata più da vicino al vincitore. Si tratta di un metodo piuttosto semplice di «digitalizzazione» (cioè trasformazione in un vettore numerico)
dell’usuale formula di struttura bidimensionale delle molecole organiche (il modo in cui sono descritte nei libri di chimica del liceo e nella
figura 6.1). La digitalizzazione consiste essenzialmente nell’associare
ad ogni formula di struttura un vettore binario (1/0) a seconda della presenza/assenza di particolari gruppi chimici o di specifici legami,
la similarità tra due molecole risulterà quindi essere la proporzione di
caratteristiche comuni ad entrambe le molecole. Questo sembra a prima vista un concorrente piuttosto debole, qualsiasi studente di chimica ha imparato che la formula di struttura è niente altro che un’astrazione, le molecole vivono in uno spazio tridimensionale e non nelle
due dimensioni del foglio. Prendere in considerazione l’effettiva tridimensionalità della struttura non può che migliorare le prestazioni.
Verissimo, ma DOCKSIM, che non solo prende in considerazione la
struttura 3D delle molecole ma addirittura considera anche la strut110
Prospettive
6.2. In ascissa i nomi dei metodi, in ordinata la loro percentuale media di successo.
tura tridimensionale del ricettore, funziona appena meglio della pesca casuale e addirittura peggio dell’ignorantissima conta degli atomi!
Non solo, ma tutti i quattro primi arrivati (MOLPRINT 2D, Feature
Trees, ISIS MOLKEYS e Daylight Fingerprints) sono tutti basati sulla formula di struttura 2D. Il quinto (Sybil) complica la semplice formula 2D con delle considerazioni (teoricamente assolutamente corrette) di chimica-fisica; d’altro canto, nella zona bassa della classifica,
i due metodi FLEX# sono entrambi 3D come DOCKSIM, solo un po’
meno sofisticati. Insomma la lezione è molto chiara: il modo migliore
per fare delle previsioni efficaci sull’attività delle molecole, la migliore
prospettiva sulla loro attività farmacologica è costituita dalla formula di struttura bidimensionale; cercare di prendere in considerazione
il fatto che si tratti in realtà di oggetti tridimensionali peggiora solo le
cose, e tanto più le peggiora quanti più particolari cerchiamo di inserire nel quadro. Il caso si presenta come incredibilmente interessante:
che cosa rende la formula di struttura (come espressa da MOLPRINT
2D) una prospettiva così efficace? Perché è meglio non esagerare con
la sofisticazione? Che cosa distingue la realtà da quello che gli scienziati considerano «realistico»?
Uno degli ingredienti alla base dell’interesse di questo caso è il suo
111
L’ordine della complessità
porsi all’interfaccia tra scienze cosiddette hard e scienze considerate
soft. La chimica quantistica è un campo di studi molto sofisticato in
cui la matematica gioca un ruolo essenziale (hard science) e in cui si riesce a derivare un’informazione ricchissima su una singola molecola,
lo stesso si può dire per la strutturistica chimica e in generale per le
descrizioni chimico-fisiche delle piccole molecole organiche. Le cose
stanno in maniera molto diversa per quel che riguarda il versante delle
interazioni delle stesse molecole con le strutture biologiche (proteine,
acidi nucleici, membrane...), che è esattamente dove inizia la complessità o, più precisamente, dove le condizioni al contorno hanno molta
più importanza delle leggi (soft science).
Mentre quindi possiamo spingere la descrizione di una specifica
molecola organica ad un livello di dettaglio molto elevato (predittori
sofisticati come DOCKSIM), non possiamo fare altrettanto per quel
che riguarda la loro effettiva interazione con le macromolecole biologiche, dove entrano in gioco fattori a noi largamente sconosciuti nei
dettagli. Se noi semplicemente pensiamo di allargare la prospettiva
dalla piccola molecola organica in quanto tale alla sua interazione con
il ricettore, con una semplice approssimazione dal piccolo al grande,
non facciamo altro che insozzare la nostra rappresentazione con miriadi di errori di approssimazione, che finiranno per oscurare l’informazione rilevante che era inizialmente presente nella descrizione più
semplice. Mentre crediamo di diventare via via più realistici aggiungendo nuovi dettagli che noi consideriamo «reali» e potenzialmente
importanti, non ci accorgiamo che in realtà ciò che stiamo facendo è
confondere progressivamente il nostro dipinto. Noi siamo così tronfi e superbi da dare per scontato che ciò che è più «avanzato» debba
funzionare meglio, in qualsiasi occasione, di ciò che è più semplice e
antico. È chiaro che le molecole vivono in uno spazio a tre dimensioni,
ma siamo sicuri che queste dimensioni siano le stesse che rappresentiamo con i nostri metodi? Una statua (oggetto tridimensionale) può
essere meno realistica di un quadro (bidimensionale) così come una
fotografia in bianco e nero rispetto ad una fotografia a colori.
Che cosa rende MOLPRINT 2D così efficiente come metodo di
predizione? Una buona prospettiva.
Osserviamo con attenzione una formula di struttura come quella
riportata in figura 6.3: questa è l’informazione su cui si basa il metodo
vincente MOLPRINT 2D. Ci accorgiamo immediatamente come si
tratti di molto di più di una rappresentazione bidimensionale di qual112
Prospettive
6.3. Una formula chimica «stampo» per una classe di composti organici.
cosa. La formula comprende informazione simbolica come i nomi degli etero-atomi, cioè gli atomi diversi dal carbonio e dagli idrogeni legati ai carboni (in questo caso gli eteroatomi sono ossigeno e azoto, O
e N), o la generalizzazione a possibili sostituenti che si indicano con
una lettera generica (R e R′) intendendo dire: qui legate ci possono essere altre entità chimiche ma noi consideriamo solo questo scheletro
di base. La formula ha all’interno informazione topologica, le linee
corrispondono a legami chimici, che indicano che gli atomi ai poli della linea sono «legati» fra loro; il fatto di avere una o due linee (legami
semplici o doppi) rimanda ad ulteriori informazioni su molte altre caratteristiche della molecola come la sua flessibilità, stabilità ecc., che
trascendono la semplice rappresentazione bidimensionale.
A ben vedere, le formule di struttura si iscrivono nel solco di una
gloriosa e lunghissima tradizione di comunicazione, che va dai geroglifici delle tombe egizie, passando per gli affreschi delle Chiese medievali fino ai moderni fumetti. L’efficienza di questo genere di comunicazione che mescola simboli (frasi, segni di riconoscimento
convenzionali, rimandi) e immagini è enorme, in quanto consente di
integrare informazioni eterogenee fra loro mantenendo un quadro
coerente. Considerare una formula di struttura come una semplice
rappresentazione bidimensionale che ovviamente è superata da una
rappresentazione 3D è, nel migliore dei casi, riduzionismo ingenuo,
ciononostante i chimici farmaceutici hanno dibattuto a lungo (e ancora dibattono) sulla «paradossale» (sic) superiorità dei descrittori molecolari bidimensionali rispetto a quelli tridimensionali.
Il grande biofisico Arthur Winfree passò una buona parte della sua
carriera scientifica a cercare di estendere il suo modello bidimensionale della diffusione dell’attività elettrica del cuore ad un modello tridimensionale, che avrebbe dovuto essere più realistico. Alla fine dovet113
L’ordine della complessità
te tristemente ammettere che la cosa era semplicemente impossibile e
che, se avesse voluto ottenere un buon modello tridimensionale della conduzione elettrica del cuore, la strada migliore non avrebbe potuto essere la generalizzazione di un buon modello 2D ma qualcosa
di completamente diverso. Avrebbe insomma dovuto ricominciare da
capo, né più né meno di come una bella statua non si ottiene dall’aggiungere una dimensione ulteriore a un bel quadro.
La domanda che sorge spontanea è allora «come facciamo a sapere quando un certo modello ha raggiunto il suo grado ottimale di
funzionamento e dobbiamo fermarci per non rovinarlo?». Questo è
l’argomento di una patologia molto diffusa nella scienza «sofisticata», si chiama overfitting (sovradeterminazione) e sarà l’argomento del
prossimo capitolo. Per ora accontentiamoci di questo bell’esempio di
«scienza semplice»2, con cui abbiamo iniziato a comprendere la differenza tra una buona e una cattiva prospettiva, portiamoci anche a casa
un po’ di diffidenza verso una visione ingenua del progresso per cui i
metodi più sofisticati debbano essere necessariamente i più potenti.
NOTE
1
A. Bender, R.C. Glen, J Chem Infr Model, 45, 2005, pp. 1369-1375.
Il sito web «Scienza Semplice» cerca di sensibilizzare su questi argomenti mettendo in luce le trappole legate allo scientismo e alla considerazione della scienza come
un processo lineare in continuo progresso. Vengono inoltre riportati alcuni esempi
(tra cui quello descritto qui) di scienza semplice in azione: http://www.dis.uniroma1.
it/~farina/semplice/.
2
114
Capitolo settimo
TROPPO ESATTO PER ESSERE VERO
(OVERFITTING/SOVRADETERMINAZIONE)
La massima più importante per chi si occupa di analisi
di dati, e che purtroppo molti statistici sembrano aver
dimenticato, è questa: molto meglio una risposta
approssimata alla domanda giusta, che spesso è piuttosto
vaga, che una risposta esatta alla domanda sbagliata, che
può essere resa infinitamente precisa.
John Tukey
Ogni pezzo di scienza può essere considerato come un problema di
traduzione: in fin dei conti, quando facciamo scienza la nostra attività iniziale consiste nell’osservare diversi esempi di un certo fenomeno
ed esprimere gli aspetti che a noi sembrano più interessanti delle nostre osservazioni attraverso i valori di una o più variabili Y. Se noi siamo in grado di prevedere con ragionevole accuratezza i valori della(e)
Y in una determinata circostanza facendo uso di altre variabili (dette X), e quindi costruire una regola che traduca una certa configurazione delle(a) X nella corrispondente configurazione Y, allora quello
che abbiamo in mano è un pezzo di scienza fatto e finito. Chiaramente questo è un quadro ultra-semplificato della situazione, perché la
cosa vada aldilà del puro gioco statistico; inoltre, sia le X (variabili indipendenti nel gergo statistico) che le Y (variabili dipendenti) dovranno avere un significato accessibile, e la mia osservazione si dovrà collegare ad altre osservazioni simili eseguite da altri ricercatori, attraverso
le quali arrivare a provare o a confutare una certa ipotesi. Comunque questo avviene dopo, e può avvenire se, e solo se, ho in mano una
qualche forma di regola di traduzione dal campo X al campo Y, sia
essa una funzione matematica del tipo Y = 76*X + 12 o una semplice
asserzione del tipo «chi ha la caratteristica x incorre con più frequenza degli altri nella conseguenza Y». Chiaramente le X e le Y devono
appartenere a due domini separati e generare da osservazioni indipendenti sulla stessa unità statistica soggetto dello studio; se la Y è una
semplice trasformazione matematica a priori della X (ad esempio il ri115
L’ordine della complessità
sultato di un elaborato calcolo), alla fine avrò fatto della matematica,
magari dell’ottima algebra, cioè una raffinata e spesso utilissima tautologia, ma non potrò dire di avere fatto scienza. In pratica, avrò semplicemente descritto la stessa cosa con altre parole ma non avrò messo in comunicazione due mondi.
La tabella successiva riporta alcuni esempi di scienza secondo i termini utilizzati in questo capitolo:
Tabella 1
X
Y
Regola di Traduzione
Pressione
Volume
Funzione matematica (iperbole)
Sequenza proteica
Struttura proteica
Ancora ignota in generale, in alcuni casi specifici
esprimibile come grado di analogia tra sequenze
Sintomi
Malattia
Non esistono regole generali, ragionamento probabilistico largamente inconsapevole anche se
motivabile caso per caso
Numero di elettroni
dell’orbitale esterno
Stechiometria delle
reazioni chimiche
Regole deterministiche basate sull’aritmetica
Se osserviamo con attenzione gli esempi riportati in tabella, ci rendiamo facilmente conto che manca una colonna importantissima: la colonna che ci dice in quali casi la regola di traduzione X/Y riportata si
può applicare con efficacia. Potremmo definire questa colonna «nel
caso in cui...» oppure, qualora ci volessimo considerare degli scienziati seri o degli ancor più seri epistemologi «condizioni al contorno».
Allora il primo esempio indicato in tabella vale solo nel caso in cui
abbiamo a che fare con un gas ideale, e (visto che i gas ideali non esistono), con accettabile approssimazione nei gas molto diluiti e lontani
dal punto di fusione. Il secondo esempio vale solo nel caso in cui si abbiano a disposizione una o più proteine di riferimento di cui sia nota
la struttura tridimensionale, e la cui omologia di sequenza con le proteine a struttura sconosciuta sia uguale o maggiore al 40%.
Il terzo esempio si applica solo nel caso in cui una certa entità patologica abbia una diagnosi differenziale nota. Infine, l’ultima riga della
tabella ci porta nel caso in cui la reazione studiata avvenga in un ambiente standard di reazione con una caratterizzazione completa delle
specie atomiche presenti.
In tutte queste situazioni, i vincoli da soddisfare per l’applicazione corretta delle regole coinvolgono degli attori differenti da X e Y.
116
Troppo esatto per essere vero (Overfitting/Sovradeterminazione)
Nel primo caso la relazione iperbolica tra pressione e volume descritta dalla legge di Boyle è mediata dall’azione combinata della densità
relativa e della temperatura del gas; una densità troppo elevata infrange la regola di traduzione in quanto le molecole iniziano ad interagire fra di loro, la stessa cosa accade con una temperatura troppo bassa.
Nel secondo esempio abbiamo un caso estremo di dipendenza dalle condizioni al contorno: la possibilità di associare ad una proteina
avente una certa sequenza di aminoacidi la sua struttura tridimensionale dipende dalla conoscenza effettiva della struttura di altre proteine simili! Ragionamenti di questo genere si possono fare per gli altri
due esempi e per ogni altro risultato scientifico. Ciò che ci appare una
stringente e inesorabile legge di natura ha in realtà un’esistenza molto precaria, essendo valida solo grazie ad una seria di condizioni «incidentali» che decidono della sua applicabilità.
Ciò che rende uno scienziato stimato nel suo ambiente è proprio la
sua abilità nel definire ed esprimere chiaramente le condizioni di esistenza delle regolarità rilevate, così permettendo ai suoi colleghi di verificare le sue proposizioni. Quando uno scienziato riesce a portare a
termine questo compito nasce una nuova teoria o, nel linguaggio postmoderno un po’ meno filosofico, e più democratico e dimesso, «un
nuovo modello». Lo sforzo di definizione delle condizioni di applicazione dei modelli occupa la maggior parte della letteratura scientifica,
che è piena di discussioni senza fine sul come e sul quando si possa applicare un costrutto piuttosto che un altro. Vale la pena allora di andare a vedere come le condizioni al contorno tendano insidiose trappole
ai modelli degli scienziati. Come in altre parti di questa trattazione, ci
serviremo di un modello ultra-semplificato: un’equazione lineare attraverso cui predire i valori di una variabile Y a partire dai valori di
un’altra variabile X. Per aggiungere un tocco di realismo alla nostra
simulazione, immaginiamo che X sia una caratteristica chimico-fisica
di una molecola organica e Y la sua attività biologica.
In analogia con il capitolo precedente, Y sarà la forza di legame
delle molecole ad un ricettore, mentre X corrisponderà al logaritmo
del coefficiente di ripartizione ottanolo/acqua (LogP), che è la misura più usata in chimica farmaceutica per valutare l’idrofobicità di una
molecola: in altre parole la propensione del composto a essere solubile nei solventi oleosi (alto LogP) piuttosto che in quelli acquosi.
Questa proprietà è molto importante in chimica farmaceutica per una
somma di ragioni che vanno dalla possibilità del composto di essere
117
L’ordine della complessità
7.1. Nella figura i punti corrispondono a differenti composti la cui descrizione
chimico/fisica consiste nella loro idrofobicità (LogP), cioè nella loro propensione
ad essere sciolti in solventi oleosi (idrofobici) piuttosto che nell’acqua. Questa
descrizione fornisce la coordinata x (ascissa). In ordinata (y) gli stessi composti
sono rappresentati in termini della loro attività biologica osservata attraverso un
saggio sperimentale. La presenza di una relazione tra la posizione in x e quella in
y indica la possibilità di costruire un modello predittivo dell’attività biologica a
partire dalle caratteristiche chimico-fisiche delle molecole.
assorbito fino alla sua capacità di legare una proteina, e quindi anche
un ricettore, che di solito è a sua volta una molecola proteica.
Immaginiamo di fare il nostro esperimento di relazione struttura/
attività (in senso lato anche LogP è una proprietà strutturale, in quanto dipendente dalla formula di struttura della molecola) su un insieme di ammine organiche, cioè su composti del carbonio che hanno
come tratto distintivo la presenza di un gruppo funzionale amminico
con formula –NH2.
Alla fine degli esperimenti avremo una figura come la 7.1.
Possiamo essere abbastanza soddisfatti del lavoro svolto: il legame
tra LogP e l’attività biologica è decisamente significativo (coefficiente r di Pearson = 0,88), compatibile con la normale indeterminazione
degli esperimenti biologici. Saremmo quindi autorizzati ad afferma118
Troppo esatto per essere vero (Overfitting/Sovradeterminazione)
re: «nel caso delle ammine organiche l’attività biologica è direttamente proporzionale alla loro idrofobicità». Questa è un’affermazione
puramente descrittiva, potremmo però andare oltre e affermare che
«l’attività biologica delle ammine aromatiche si può calcolare dalla
loro idrofobicità secondo l’equazione: attività = 0,703 + 2,732(logP)»,
e avremmo in qualche modo scoperto una nostra piccola, umile, «legge di natura» (che i fisici con un certo sussiego chiamerebbero fenomenologica, intendendo qualcosa di un po’ raffazzonato in attesa della «legge vera»). Per essere presi sul serio dovremmo però dimostrare
che il nostro modello riesce a prevedere l’attività di altre ammine aromatiche oltre a quelle che abbiamo usato per fare i nostri calcoli.
Chiaramente non ci sogneremmo mai di pensare che la nostra
equazione funzioni per qualsiasi molecola organica, e questo perché
già sappiamo che l’attività biologica di una molecola deriva da una miriade di fattori largamente ignoti di cui l’idrofobicità è solo uno, magari importante, ma certo non unico. Limitandoci però alle ammine
organiche potremmo immaginare che gli altri fattori siano più o meno
identici fra le diverse molecole della serie, il che ci permette di considerare l’idrofobicità come l’unico determinante dell’attività effettivamente in gioco. In altre parole è solo ritagliandosi delle ben definite condizioni al contorno (le ammine aromatiche sono un ben piccolo
sottoinsieme delle sostanze chimiche) che possiamo definire un modello efficace, poiché le condizioni al contorno non solo limitano la
validità, ma rendono possibile la costruzione di modelli.
Questa non è una semplice sottigliezza filosofica, come nel libro di
Raymond Carver che abbiamo citato in precedenza: con il nostro modello noi stiamo «parlando di qualcos’altro», cioè parliamo di attività
biologica discutendo di idrofobicità ma sappiamo che questa non è la
verità. L’attività biologica non può essere ridotta all’idrofobicità, questa è un’illusione ottica dovuta all’aver scelto una particolare e ristret119
L’ordine della complessità
7.2. Questa figura riporta gli stessi dati della precedente con aggiunta una
specificazione ulteriore del carattere delle molecole che sono suddivise nei due
gruppi di ammine «cicliche» e «aromatiche».
ta prospettiva (le ammine organiche), che ci permette di dimenticare
per un po’ tutti i fattori ignoti che determinano l’attività biologica di
una molecola organica. Un po’ come quando diciamo al nostro amore «cara, almeno per questa sera scordiamoci di tutti i nostri affanni e
pensiamo solo a noi due».
Tornando al nostro modello a cui vogliamo affidare un po’ della
nostra reputazione scientifica allora immaginiamo di ottenere un po’
di dati sperimentali su delle altre ammine organiche e che alcune molecole siano predette molto bene e altre molto male. La prima cosa che
ci viene in testa è che forse «ammine organiche» è un campo troppo
generico; proviamo allora a evidenziare nel nostro campo iniziale quali sono le ammine aromatiche e quelle solo cicliche: ora le cose appaiono come in figura 7.2.
Forse è il tempo di essere un po’ più concreti:
A sinistra appare un’ammina aromatica dove i doppi legami «risuonando» tra diverse posizioni rendono conto della caratteristica di
aromaticità (con tutte le conseguenze chimico-fisiche del caso), a de120
Troppo esatto per essere vero (Overfitting/Sovradeterminazione)
7.3. Qui la figura non riporta più lo stesso modello delle due precedenti, in questo
caso abbiamo costruito due diverse funzioni empiriche per spiegare la relazione tra
struttura ed attività nei due gruppi di molecole.
stra un’ammina «solo» ciclica. Apparentemente non sono molto diverse, eppure...
Ecco cosa succede (figura 7.3) se, partendo dai nuovi dati costruisco due modelli separati per le ammine cicliche e per quelle aromatiche.
Le relazioni che legano l’attività biologica all’idrofobicità per le
due classi di sostanze hanno segno opposto. Nella prima analisi il fatto di aver «pescato» dei rappresentanti delle due classi in un intervallo di sovrapposizione di attività ci aveva dato la falsa impressione di
un modello valido per entrambe le classi di ammine aromatiche. La
sostanziale eterogeneità dei modelli di relazione struttura/attività per
le ammine cicliche e le ammine aromatiche era alla base delle nostre
previsioni sbagliate.
Le due classi di ammine esercitano la loro attività con due diversi meccanismi (a noi ignoti) che generano i due differenti modelli, ora
121
L’ordine della complessità
7.4. Un modello non lineare sembra spiegare meglio la relazione struttura-attività
rispetto al modello lineare.
però, con una definizione migliore del campo di validità dei nostri
modelli, possiamo avere previsioni più accurate. Vale la pena notare
come, adesso che abbiamo aggiustato il tiro, l’adeguamento (fit) dei
modelli ai dati è molto migliore rispetto al modello indiviso per le ammine organiche (correlazione di Pearson pari a 0,92 e 0,98 per le due
classi di ammine, una precisione sbalorditiva): questa è una conseguenza fornita dalla possibilità di lavorare con un materiale più omogeneo in cui la nostra «prospettiva semplificatrice», la nostra «illusione di riportare l’attività ad un semplice parametro chimico-fisico» è
molto più realistica ed efficace (anche se sempre di illusione si tratta),
perché è proprio basandosi su questo tipo di modelli che si prendono utilissime decisioni sulla tossicità o sull’attività farmacologica delle molecole organiche.
Qualcuno comunque potrebbe pensare di prendere in considerazione una delle due classi e notare che l’adattamento ai dati sarebbe
ancora migliore con un modello non lineare che prenda esplicitamente in considerazione il fatto che la Y tende a raggiungere un plateau
per alti valori della X. Il nostro esageratamente puntiglioso scienziato
otterrebbe un modello come quello di figura 7.4.
Ora l’adattamento è perfetto. Se nel caso lineare un coefficiente
122
Troppo esatto per essere vero (Overfitting/Sovradeterminazione)
di correlazione pari a 0,98 lasciava scoperto un 7% circa di varianza
non spiegata dal legame fra l’attività e l’idrofobicità (la varianza spiegata è pari al quadrato del coefficiente di correlazione), con il nuovo
modello riusciamo a spiegare tutto, l’incertezza è praticamente nulla consentendoci una ricostruzione quasi perfetta dell’attività biologica a partire dall’idrofobicità. Ciononostante quando questo modello
non-lineare è provato con altre molecole, mostra una capacità predittiva molto peggiore del semplice e più approssimato modello lineare. Questa è una tipica patologia dei modelli che gli statistici chiamano overfitting (sovradeterminazione). Per arrivare a spiegare tutto di
una certa configurazione di dati, il modello considera «informazione
rilevante» anche ciò che deriva dalle sempre presenti fluttuazioni sperimentali, che sono tipiche del particolare insieme utilizzato per costruire il modello e quindi non generalizzabili ad altre osservazioni. In
altre parole, oltre un certo dettaglio si inizia a descrivere il «rumore»
e non più le regolarità statistiche (segnale) dell’insieme studiato. Questo fatto provoca una rapida degenerazione della capacità predittiva
dei modelli stessi quando diventano troppo «esatti».
Questo fenomeno contraddice l’idea intuitiva che un modello più
accurato sia anche il migliore. Un modello, per definizione, è una rappresentazione parziale e approssimata di alcuni aspetti rilevanti di un
fenomeno, non la sua descrizione completa. La ricerca del massimo di
spiegazione possibile implica che tutto ciò che osserviamo è importante per la costruzione del modello, che non esistano particolari accessori e insignificanti, come abbiamo visto nel nostro esempio quest’ansia
di controllo totale porta necessariamente a inquinare il modello con
elementi spuri che ne minano la generalizzabilità. Capire quando fermarsi, nella costruzione di un modello, è una delle abilità più importanti dello scienziato che implica, a parte una certa sensibilità statistica, una conoscenza non banale del caso studiato.
Il caso discusso nell’esempio è estremamente semplice, il che rende assai agevole il controllo statistico dei risultati e quindi la decisione
sulle modifiche da apportare all’analisi per massimizzarne l’efficienza di predizione. Diverso è il discorso dei modelli che vengono usati in biologia computazionale che hanno a che vedere con migliaia di
variabili e con basi di dati sterminate. In queste condizioni il problema dell’overfitting è esacerbato dall’alta dimensionalità del problema,
che permette una tale flessibilità da far sì che praticamente ogni possibile risultato sperimentale si possa in qualche modo «adattare» allo
123
L’ordine della complessità
schema interpretativo. Una massa enorme di interazioni fra proteine,
sequenze di biopolimeri, vie metaboliche, accumulate grazie alle ricerche di migliaia di ricercatori in tutto il mondo dentro i data base
«post-genomici» rende molto difficile discernere la pura tautologia
da un reale avanzamento della conoscenza. Insomma, abbiamo a disposizione una conoscenza sufficientemente ricca per spiegare tutto,
e quindi niente. Questa paradossale situazione è molto pericolosa per
l’avanzamento della scienza ed è molto ben descritta in un lavoro apparso recentemente sui “Proceedings” dell’Accademia delle scienze
statunitense1. Gli autori introducono il termine di «microparadigmi»
(microparadigms) per identificare quelle idee che, indipendentemente
dalla loro validità, pervadono progressivamente la comunità scientifica per il semplice fatto che i risultati sperimentali su cui si basano diventano impossibili da verificare, in quanto ormai «istituzionalizzati»
all’interno di enormi basi di dati che automaticamente costituiscono
delle «basi di fatti» dati per veri e quindi le fondamenta su cui basare
nuovi modelli. Questa è la maledizione prodotta dalla degenerazione
di quello che originariamente (ossia quando era basato su un numero di variabili che si potevano contare sulle dita di una mano) era uno
schema di ragionamento assolutamente produttivo: lo schema bayesiano. Questo nome deriva dal reverendo e statistico inglese Thomas
Bayes (1702-1761), che propose una definizione di probabilità che
comprendeva anche le aspettative precedenti all’esperimento. In altre
parole, il peso che una determinata osservazione acquisisce viene a dipendere non solo dall’osservazione in sé, ma anche dalla conoscenza
pregressa secondo la formula:
P(A^B) = P(A/B)/P(B)
(*)
Nella (*) P(A^B) indica il verificarsi dell’evento A insieme all’evento
B, P(A/B) è la probabilità del verificarsi di A se B è già noto essere avvenuto, e P(B) è la probabilità a priori di B. Senza entrare nel dettaglio
della formula possiamo immaginare come la probabilità di pioggia (A)
sia modificata dal sapere che la giornata è molto nuvolosa (B) rispetto
al non sapere nulla di cosa avviene fuori dalla finestra. I due eventi A
(pioggia) e B (nuvolosità) sono infatti collegati tra di loro e scambiano
informazione tra di loro. Di fatto il reverendo Bayes, in maniera semplice e geniale, non fa altro che formalizzare il normale buon senso
che utilizziamo quotidianamente quando siamo di fronte a scelte sul
124
Troppo esatto per essere vero (Overfitting/Sovradeterminazione)
7.5. In figura è riportata la descrizione di un’importante processo della fisiologia
cellulare: l’apoptosi o morte cellulare programmata. Le «scatole» corrispondono
a proteine, DNA o piccoli metaboliti coinvolti nel processo, le frecce ad interazioni
fra le molecole alle loro estremità.
percorso da preferire per minimizzare il rischio di traffico o quale località preferire per le ferie. La scienza, come qualsiasi attività umana,
fa uso dello stesso modello di ragionamenti della vita quotidiana.
Nel caso degli esperimenti di espressione genica differenziale (i cosiddetti microarray, in cui l’attività di decine di migliaia di geni viene
simultaneamente misurata su campioni biologici), un risultato significativo «corroborato» da altri risultati significativi in geni «equiparabili in quanto a funzione» vale più di un risultato significativo in un gene
«isolato». Ovviamente, a differenza del semplice caso pioggia/nuvole, l’enorme molteplicità classificatoria raggiungibile da significati ricchi e sfaccettati come quelli biologici è molto rischiosa in termini di
sovra-determinazione.
Immaginiamo di avere a disposizione un software (effettivamente ne esistono molti, scaricabili gratuitamente sulla rete, che funzionano più o meno così) che cerchi, all’interno degli alberi di classifica125
L’ordine della complessità
zione multipla di geni in cui ogni singolo gene è associato a tutte le vie
metaboliche e di regolazione a cui partecipa nella cellula, la combinazione di vie metaboliche (pathways) note che risulta maggiormente in
accordo con la lista di geni riconosciuti come statisticamente significativi in un esperimento di microarray. Un pathway è la rappresentazione di un processo biologico con l’usuale grafica a «scatole-e-linee»,
dove le scatole indicano i geni e le linee dei «legami di relazione» tra i
geni. Questi legami di relazione sono frasi codificate del tipo «il gene
A attiva il gene B» o «il gene B interviene sul prodotto del gene A» e
così via.
In figura 7.5 viene riportato un pathway di questo tipo come lo
possiamo trovare su una base di dati sul web (in questo caso si tratta
di KEGG (Kyoto Enciclopedia of Genes and Genomes, una delle più
note, è consultabile al sitohttp://www.genome.ad.jp/kegg/).
Il processo schematizzato nella figura 7.5 è l’apoptosi, la morte cellulare programmata, un meccanismo mediante il quale le cellule di un
organismo superiore decidono di «suicidarsi» quando l’accumulo di
danni a differenti strutture molecolari impedirebbe un funzionamento adeguato della cellula stessa. Esistono migliaia di questi schemi, riferiti a diversi fenomeni fisiologici che costituiscono l’informazione a
priori con cui andiamo ad analizzare in maniera bayesiana i dati degli
esperimenti di microarray.
A questo punto il problema di «quale classificazione scegliere» è a
sua volta un problema risolubile in maniera algoritmica: si esplorano
le basi di dati che raccolgono i diversi pathway, cercando le combinazioni di questi pathway che si accordano meglio con i geni effettivamente riconosciuti come modificati in termini di espressione.
L’enorme numero di combinazioni (e per di più tutte plausibili derivando dall’informazione scientifica accumulata negli anni) fa sì che
praticamente ogni analisi di questo tipo fornisca una risposta «ragionevole in termini biologici», il che rischia di rendere l’esperimento di
microarray una noiosa ripetizione del già noto, una stucchevole esercitazione in cui ci si bea di ritrovare «in bella forma» quello che già
si sospettava esserci: siamo tutti contenti, si pubblica un articolo e via
così nel più puro manierismo senza aumentare di nulla la nostra conoscenza sul mondo anzi, al contrario, rendendo un pochino più difficile
scalzare quanto già si credeva noto con nuove idee e paradigmi.
Come spesso avviene, qualcosa di molto soddisfacente su piccola scala, diventa una specie di incubo quando si trasporta ad una sca126
Troppo esatto per essere vero (Overfitting/Sovradeterminazione)
la molto diversa. Si confronti a questo proposito una gita al mare che,
per strade solitarie in mezzo alla campagna, ci porta a scoprire una
spiaggia contornata di pini con pochi bagnanti, con una gita che richiede ore di fila incolonnati in auto sotto il sole per arrivare in una
sorta di inferno di carni sudate e cemento.
L’approccio bayesiano in presenza di una base di conoscenze a priori troppo vasta e flessibile può essere equiparato ad una grande torre
che ammette ad ogni piano un piccolo grado di instabilità (l’incertezza
delle singole informazioni della base di dati): quando i piani diventano
troppi, la torre diventa globalmente instabile ed è praticamente impossibile tornare indietro e scoprire il singolo «elemento scorretto da riparare». Quando semplicità e chiarezza (princìpi estetici, rasoio di Ockham) non sono più considerate le guide principali del fare scientifico,
questi crolli di torri di Babele sono all’ordine del giorno.
È notevole considerare come la scienza moderna sia nata nel XVII
secolo grazie ad un collasso «alla-Babele» del tipo di quello che stiamo descrivendo. Il grande astronomo Johannes Kepler era impegnato nel problema della descrizione dell’orbita di Marte. A quel tempo
gli astronomi avevano a disposizione una metodica di calcolo molto
potente per descrivere le orbite dei corpi celesti, anche molto complesse: il metodo degli epicicli (7.6). Ogni orbita è approssimata dalla somma pesata di un numero a piacere (il processo termina quando
l’orbita osservata è perfettamente riprodotta) di orbite circolari che si
sovrappongono a diversi livelli di dettaglio (epicicli). Questo metodo
consentiva agli astronomi del tempo di ottenere delle rappresentazioni molto accurate delle traiettorie dei corpi celesti mantenendo l’assunto aristotelico della circolarità delle orbite.
Ora noi sappiamo perché il metodo degli epicicli funzionasse così
bene in tutte le circostanze: gli epicicli non sono altro che una differente versione dello spettro di Fourier di una traiettoria (un modo per
descrivere segnali anche molto complessi come somma pesata di segnali sinusoidi regolari), ed esiste un teorema che dimostra come ogni
segnale, comunque complesso, possa essere espresso come la convoluzione di onde sinusoidali.
Ma proprio perché il metodo funziona in ogni caso, la sua applicabilità alla descrizione di una traiettoria non aggiunge nulla a ciò che
già si sapeva, si tratta semplicemente di dire la stessa cosa che si è osservata con altre parole, si tratta di una tautologia, insomma, si tratta
di matematica e non di scienza.
127
L’ordine della complessità
7.6. Il calcolo degli epicicli eseguito da Keplero per la descrizione dell’orbita di Marte.
Kepler ebbe lo scatto d’ingegno che gli consentì di liberarsi dalla
sterile perfezione del calcolo degli epicicli e insieme dare un grande
contributo alla nascita della scienza moderna: egli prese la decisione
di considerare delle orbite ellittiche invece che circolari. Questa scelta
consentì a Kepler di semplificarsi di gran lunga la vita grazie a calcoli molto meno complicati, con il risultato che la qualità delle predizioni non migliorò rispetto a prima, ma neanche peggiorò visibilmente.
La mossa di Kepler aveva insomma delle motivazioni puramente estetiche ma allo stesso tempo, poiché il suo modello semplificato non
era automaticamente applicabile, per puro effetto della matematica,
a qualsiasi traiettoria, egli entrava direttamente nel merito del sistema
studiato apportando un contributo effettivo di conoscenza.
Prima o poi (meglio prima) anche noi dovremo rischiare e abbandonare i nostri modi di pensare, i nostri paradigmi esplicativi, e li do128
Troppo esatto per essere vero (Overfitting/Sovradeterminazione)
vremo abbandonare perché sono troppo potenti e quindi immodificabili. Il gruppo di Rzhetsky ci ha mostrato in maniera chiara come
una sorta di «cascata informativa» tenda a rovesciarsi su ogni nuova
potenziale scoperta. Quando esploriamo nuovi territori abbiamo l’insopprimibile tendenza a orientarci secondo mappe già note, orientandoci lungo le prospettive derivanti dai lavori precedenti. C’è l’idea che
se riusciamo a riconoscere «il già visto» o quantomeno qualcosa che
lo ricordi, nel nuovo territorio di osservazioni, possiamo utilmente
utilizzare la nostra esperienza per controllare il nuovo spazio. Questa
della ricerca di analogie è una molla potentissima dell’animo umano
e nella stragrande maggioranza dei casi porta a strategie di successo.
Ma nella scienza odierna potremmo essere arrivati ad uno di quei momenti (rari ma cruciali, come abbiamo visto nel caso di Kepler) in cui
questo modo di procedere risulta dannoso.
NOTE
I temi trattati in questo capitolo sono in parte presentati in La science a-t-elle un avenir?, un articolo pubblicato dalla rivista “Alliage” diretta dal fisico e filosofo francese
Levy-Leblond al numero 61 nel dicembre 2007, a firma «Gruppo Scienza Semplice»,
di cui fanno parte gli autori di questo libro e altri amici e colleghi che condividono
la loro impostazione, tra cui Carlo Modonesi, autore della presentazione all’edizione
italiana. L’articolo allarga la prospettiva del problema della sovradeterminazione alle
sue conseguenze etiche e ha avuto una storia molto travagliata attraverso differenti
editori, che dimostra una certa scomodità ed eterodossia delle tesi sostenute.
1
A. Rzhetsky et al., Microparadigms: chains of collective reasoning in publications
about molecular interactions, in «Proc. Natl. Acad. Sci. USA», 103 (2), 2006, pp. 49404945.
129
Capitolo ottavo
STILI SCIENTIFICI: PRIMI ELEMENTI
DI UNA CRITICA SCIENTIFICA
La scienza si costruisce con i fatti, né più né meno di
come una casa si costruisce con le pietre; ma un cumulo
di fatti non costituisce la scienza così come un cumulo di
pietre non è una casa.
Henri Poincaré
Di molte attività umane (anche complesse e difficili da padroneggiare)
esistono esperti e «conoscitori» che, pur non in grado di eseguire personalmente tali attività, riescono ad apprezzare le differenti gradazioni e livelli di eccellenza di tali attività. Questi esperti giocano un ruolo vitale, anche se controverso e non esente da critiche, nel collegare il
campo specifico al resto della società.
Questo è il caso degli esperti di arti figurative e di letteratura, dei
critici cinematografici e teatrali, dei giornalisti sportivi, degli esperti di gastronomia, dei valutatori delle attività economiche come consulenti e agenzie di «rating». La mancanza di questo genere di esperti nella scienza è un fatto notevole ed è alla base di alcune patologie
della comunità scientifica che stanno divenendo sempre più evidenti. La proposta di ciò che potrebbe servire come base per la nascita di
una «critica di scienza» da parte di persone non direttamente coinvolte nell’attività scientifica vera e propria è uno degli scopi primari di
quest’opera e si collega strettamente a ciò che nel primo capitolo chiamavamo «la semplicità alla Michael Jordan». Una tale critica potrebbe essere utile sotto molti aspetti: ad esempio potrebbe aiutare per
una migliore allocazione delle risorse nella ricerca, ma anche a promuovere la nascita di idee realmente innovative attraverso la fertilizzazione reciproca di diversi campi di indagine.
Nei capitoli precedenti abbiamo implicitamente accennato ai lineamenti di ciò che potrebbe costituire una sorta di giudizio estetico delle scienze attraverso la disamina di alcuni elementi di stile del
131
L’ordine della complessità
fare scientifico sottolineando le scelte esteticamente gradevoli (e quindi efficaci) ma anche le cadute di tono. Ora cercheremo di essere più
espliciti traendo vantaggio dalla nostra esperienza di «nomadi scientifici» con alle spalle soggiorni più o meno lunghi in diversi territori
dell’impresa scientifica, dalla matematica applicata fino alla chimica e
alla psicologia.
Chiaramente, come qualsiasi onesta critica d’arte, non abbiamo alcuna intenzione di essere né obiettivi né generali. Ogni critica onesta è per definizione partigiana e parziale prendendo le mosse da una
specifica visione del mondo e quindi dell’arte. Insomma, possiamo (e
dobbiamo) essere fieri del carattere personale delle nostre posizioni estetiche, con lo scopo anche di stimolare il dibattito e – perché
no? – spingere altri «esperti» a dissentire dalle nostre posizioni e ad
assumere diverse linee interpretative.
Come indicato dallo stesso titolo del libro, la nostra linea di pensiero si può sintetizzare come «semplicità senza semplificazioni», intendendo con tale espressione la ricerca di uno stile di condotta il più
possibile chiaro ed essenziale, scegliendo i modelli che consentono di
ridurre il più possibile il ricorso alla matematica. Nel contempo dovremmo avere chiaro in mente che lo studio dei sistemi complessi, il
luogo dove sembra si sia spostato l’intero accampamento della scienza, non è certo il posto ideale dove trovare leggi definitive e generali,
per cui questa riduzione all’essenziale si dovrà sempre intendere come
economia descrittiva e mai come pretesa di stilare improbabili «teorie del tutto».
Per la nostra proposta di critica estetica delle scienze ci concentreremo sugli aspetti procedurali piuttosto che sul contenuto dei diversi
pezzi di scienza. Questo è a nostro parere un punto importantissimo:
ogni critica scientifica dovrebbe essere il più possibile indipendente
dal contenuto e concentrata sul modo con cui lo scienziato presenta le
sue tesi. Questo chiaramente non vuol dire che la scienza sia un affare
principalmente procedurale e che con un buon mestiere si possa spacciare di tutto; al contrario siamo fermamente convinti che il contenuto
specifico di ogni piccolo elemento di scienza sia la cosa più importante, ma proprio per questo motivo, la possibilità che il valore intrinseco di questo contenuto sia valutabile e quindi contribuisca al bene comune sia in termini spirituali che materiali dipende strettamente dalla
sua appetibilità, dai suoi valori estetici. Gli argomenti di cui negli anni
la scienza si è occupata, così come l’arte, sono stati per larga parte det132
Stili scientifici: primi elementi di una critica scientifica
tati da interessi esterni alla scienza e legati a varie committenze sociali.
Di conseguenza lo scienziato, così come l’artista, si trova a soddisfare
le esigenze del committente attraverso la sua maestria. Sarà dei canoni di questa maestria che qui discuteremo in maniera non dissimile da
come un’agenzia di valutazione economica considererà lo stato di salute di un’azienda dalla sua disponibilità di cassa, dall’allocazione delle risorse, dalla presenza sul mercato, senza considerare cosa effettivamente questa azienda produca ma valutando in che misura la sua
organizzazione generale è consona all’obiettivo dichiarato.
Questa impostazione procedurale è spesso assente o presente solo
in minima parte nel classico processo di peer review (revisione tra
pari), il tipo di valutazione utilizzato nella comunità scientifica, dove
i giudici di un «pezzo» di scienza presentato sotto forma di articolo
scientifico sono persone che non solo fanno lo stesso mestiere dell’autore, ma si occupano spesso proprio degli stessi argomenti. Si pensi
a cosa accadrebbe se i film fossero visti e giudicati solo da altri attori
e registi, o se le canzoni fossero ascoltate solo dai cantanti; tra l’altro,
non da attori, registi e cantanti indipendenti, ma da attori che magari
avrebbero voluto far parte del cast, registi che avrebbero voluto girare
proprio quel film, cantanti con medesima impostazione e stile artistico. Un tale sistema di valutazione diventerebbe sempre più auto-referenziale e rischierebbe di impaludarsi in argomenti (canoni, stili) considerati «meritevoli» dalla ristretta comunità di valutatori, o magari da
alcuni leader di questa comunità più influenti degli altri.
Il giudizio di questi addetti ai lavori produrrebbe sempre gli stessi
risultati, magari fino a quando l’adesione a una nuova moda da parte
di un leader non imponesse una nuova legge a cui conformarsi per valutare ed esprimere il giudizio.
Questo è esattamente quanto sta accadendo alla scienza contemporanea, un fenomeno che gli epistemologi chiamano «Effetto proteo», con degli effetti devastanti sull’efficacia della ricerca1.
Ecco quindi perché di «critica indipendente» della scienza forse è
il caso di iniziare a discutere.
Esiste un apparente paradosso economico nella ricerca scientifica:
quando uno degli autori di questo libro (A.G.) pubblicò il suo primo
lavoro scientifico in una rivista peer reviewed corse subito a comunicare la bella notizia al padre, che a sua volta gli disse «ottimo! Quanto
ti hanno pagato per questo articolo?». Il figlio rimase di sasso e spiegò
pazientemente al padre che i giornali scientifici non pagano per gli ar133
L’ordine della complessità
ticoli, anzi, al contrario spesso sono gli autori che debbono pagare una
certa quota per ogni pagina pubblicata. Al che il padre concluse «bè,
ma questo vuol dire che i vostri articoli non sono poi così importanti,
chiunque può veder pubblicate le sue idee se paga». Il padre di A.G.
non era uno scienziato ma un avvocato, e il suo modo di ragionare era
assolutamente legittimo in tutto il mondo reale, con l’unica eccezione della scienza (N.B.: l’unica stupefacente e gloriosa eccezione a questo strano atteggiamento del mondo scientifico che abbiamo incontrato nella nostra carriera è stata la volta che siamo riusciti a pubblicare
un articolo sulle prestigiose “Chemical Reviews” che ci pagarono un
onorario complessivo di circa ottocento dollari da spartirsi tra i sei autori. In questo modo al nostro articolo veniva espressamente attribuito un valore economico al pari di altri autori che scrivono su argomenti non scientifici). Nonostante questa singolare attitudine, la scienza è
parte del mondo capitalistico, ma allora se gli articoli scientifici non
meritano di essere pagati dalle riviste che li ospitano e anzi agli autori si richiede un contributo per la pubblicazione, questo significa una
cosa sola: gli articoli scientifici sono, da un punto di vista strettamente
economico, delle inserzioni pubblicitarie. Infatti questo è ciò che onestamente alcuni giornali come i “Proceedings of National Academy of
Science (PNAS)” dichiarano per ogni articolo pubblicato (... this must
be considered an advertisement...).
Ma se le cose stanno così, che cosa pubblicizzano gli articoli scientifici? Bè, se escludiamo gli articoli riguardanti risultati di nuove terapie o di nuovi dispositivi che vengono utilizzati dalle ditte che hanno commissionato gli studi per propagandare i propri prodotti le cui
qualità vengono descritte negli articoli stessi, la risposta è: gli oggetti della pubblicità sono gli autori stessi dell’articolo che, riuscendo a
pubblicare e quindi a superare il filtro della peer review, dimostrano ai
loro colleghi di avere un’elevata reputazione scientifica e così aumentano le loro possibilità di accedere ai fondi per la ricerca. Allo stesso
tempo il loro ego viene sicuramente soddisfatto e blandito... ma questa non è proprio l’idea che i non addetti ai lavori hanno degli scienziati!
Ciò che impariamo a scuola è che ogni pezzo di scienza è magari
un piccolo ma importante passo verso l’inesorabile avanzamento della
conoscenza, e quindi il raggiungimento di una vita migliore per tutti.
Questa mitologia di stampo ottocentesco è ancora così pervasiva che,
nel 2006, quando un famoso scienziato venne accusato di molestie
134
Stili scientifici: primi elementi di una critica scientifica
sessuali ai danni della figlioletta di dieci anni di un suo collega – un
crimine unanimamente considerato efferato e che non trova («giustamente» aggiungeremo noi) alcuna comprensione nell’opinione pubblica – per il solo fatto che a commetterlo fosse stato uno scienziato
famoso, impegnato in quello che veniva considerato un progetto utile alla salute, si formò un vasto movimento per il suo perdono, suggerendo che egli potesse scontare la sua pena continuando il suo lavoro
per il bene di tutta l’umanità2.
Anche noi siamo fermamente convinti che le scoperte della scienza, di cui gli articoli scientifici sono la forma di presentazione e, di
fatto, l’unico riscontro materiale nell’immediato, contribuiscano sul
lungo periodo al generale avanzamento della conoscenza, che, se ben
utilizzato dalla società, si traduce in indubbi miglioramenti del vivere. Ma intanto ciò non provoca ipso facto una santificazione dello scienziato, che è un peccatore come qualsiasi altro essere umano,
e come ogni altro essere umano ha la possibilità di fare un immenso
bene ai suoi simili. Passando ai risultati scientifici, delle loro conseguenze sul «bene dell’umanità» o anche semplicemente «sull’avanzamento delle conoscenze», si può giudicare solo in termini molto generali ed ipotetici. Valutare nell’immediato la rilevanza del singolo
articolo scientifico, poi, è di fatto impossibile, anche perché il beneficio effettivo non dipenderà tanto dalla validità della scienza lì racchiusa quanto dall’uso che se ne farà: e questo chiaramente è al di
fuori della portata di ogni possibile speculazione. Chiunque si immagini di valutare l’impatto della scienza sulla società nel momento in
cui la scienza stessa viene generata di solito si presta solo ad un’iniziativa più o meno velata di marketing. Differente è il caso della tecnica che può (e aggiungeremo noi, «deve») essere sottoposta ad un
vaglio critico sulla sua rilevanza sociale nel momento in cui si affaccia
sulla scena del mondo. Qui però stiamo parlando di scienza, del confine fra il noto e l’ignoto, di ancora dubbia e peregrina applicazione,
stiamo parlando di speculazione sul possibile, convinti, da inguaribili ottimisti, che l’odierno abbaglio della «tecnoscienza» – cioè di una
sostanziale indistinguibilità degli aspetti conoscitivi e industriali – sia
una patologia passeggera.
La nostra proposta è allora molto più modesta ma sicuramente più
fattibile, rispetto a quella positivista del «bene dell’umanità», e si basa
sull’analogia tra arte e scienza che abbiamo cercato di mettere in luce
in tutto questo libro, la proposta suona più o meno così: «un pezzo di
135
L’ordine della complessità
scienza rilevante è un pezzo di scienza bello, indipendentemente dalle
sue future applicazioni. Se un pezzo di scienza soddisfa il senso estetico del lettore (ascoltatore, utilizzatore) riuscendo a stimolare il suo
senso critico ed evocando nella sua mente sentieri nuovi e prospettive
inusitate, allora questo è un bel pezzo di scienza».
Chiaramente non pensiamo esistano ricette infallibili per raggiungere l’ideale di bellezza descritto sopra, tenteremo però di dare qualche indicazione che, a nostro parere, può essere utile per discriminare
i capolavori da pezzi decisamente meno importanti... insomma un inizio per cominciare ad affinare il gusto. Per fare ciò ci riferiremo a tre
tipologie principali di pezzi scientifici.
– Lo studio descrittivo. Questo genere di lavori è l’analogo dei
grandi cicli di affreschi, che decorano le cupole e le mura delle Chiese o i soffitti dei palazzi antichi. Esattamente come nei grandi affreschi dove accadono un sacco di cose contemporaneamente e l’occhio
è catturato da molteplici particolari, anche in questi studi ci si presentano una moltitudine di stimoli ed elementi di conoscenza. Gli studi
di espressione genetica differenziale (i cosiddetti microarray), di proteomica, di metabolomica, sono i più comuni rappresentanti ai nostri
giorni di questa particolare forma di scienza. In questi lavori siamo di
fronte a migliaia di differenti variabili (geni, proteine, metaboliti, interazioni fra macromolecole) che ruotano attorno ad un tema di base
del tipo «la discriminazione di pazienti che soffrono di una certa malattia dalle persone sane» o «la caratterizzazione di un dato tipo cellulare».
Questo tema può essere trattato in due maniere:
a) il modo «barocco», in analogia con i grandiosi affreschi delle
Chiese e dei palazzi del Seicento come il bellissimo Trionfo dei Barberini di Pietro da Cortona nel palazzo Barberini a Roma (figura 8.1);
b) il modo «medievale» che ha una delle sue massime espressioni
negli affreschi di Giotto della basilica di san Francesco ad Assisi (figura 8.2).
Nel primo modo il tema specifico è una pura occasione contingente per rappresentare una sovrabbondanza di spunti e sensazioni,
la vita nelle sue innumerevoli manifestazioni, che avvengono simultaneamente; nel secondo modo lo svolgimento è invece molto più legato al tema, che si sviluppa in una sequenza di scene legate da un ordine temporale ben scandito.
Entrambi i modi sono validi se riescono a rendere la sostanziale
136
Stili scientifici: primi elementi di una critica scientifica
8.1. Il Trionfo dei Barberini, Roma, Palazzo Barberini, Pietro da Cortona.
137
L’ordine della complessità
8.2. Vita di Francesco, Giotto, Basilica di san Francesco, Assisi.
unitarietà della rappresentazione: il convergere delle molteplici e simultanee sfaccettature del mondo in un unico «vortice», negli affreschi barocchi, la coerenza di una storia in quelli medievali.
Trasportando questi modi al caso dei microarray, un bel lavoro barocco sarà un lavoro che, prendendo spunto da un certo insieme di
dati, ci mostrerà le strutture di correlazione che uniscono le decine di
migliaia di geni in un unico «vortice» che in questo caso saranno le
poche (quattro o cinque) componenti principali che rendono conto
dell’attività dell’intero insieme di geni. Un bel lavoro in stile «medie138
Stili scientifici: primi elementi di una critica scientifica
vale» sarà un lavoro in cui la discriminazione fra sani e malati si ripresenterà a più riprese, per diversi gruppi di geni, con la stessa forma ripetuta a differenti livelli di definizione e quindi collegando e portando
ad unità meccanismi apparentemente diversi.
Il rischio più grave degli studi descrittivi è senza dubbio quello
della sovradeterminazione (overfitting). Avendo a disposizione migliaia di variabili si può discriminare qualsiasi cosa per puro effetto del
caso gli autori quindi, per non cadere in una patologia del genere «cicli/epicicli», dovranno usare la massima attenzione per ridurre la dimensionalità del sistema indipendentemente dal compito della discriminazione, che sarà differito a quando il sistema sarà risolto nelle sue
poche componenti principali (stile barocco) oppure che dovrà essere
dimostrato sempre uguale a se stesso con scelte molteplici e distinte di
punti di vista corrispondenti a diverse pesche di geni, scelte con una
logica indipendente dalla massimizzazione della discriminazione (geni
dell’immunità, geni del metabolismo, ecc.), ma che dovranno non di
meno fornire la stessa struttura di discriminazione delle singole unità statistiche, così come le differenti storie raccontate negli affreschi
di Giotto ci rimandano una caratterizzazione unitaria di san Francesco. In ogni caso è importante che la soluzione sia internamente consistente, si regga da sola insomma, senza ricorrere troppo spesso a dati
di letteratura che giustifichino un certo risultato in virtù del fatto che
il gene X è stato dimostrato dal ricercatore Y essere importante in un
caso simile al nostro. Oggi, con l’enorme massa di letteratura scientifica che ingombra lo spazio della rete, si può dimostrare qualsiasi cosa
con analogie di questo tipo.
– Lo studio di simulazione. Questo è, almeno in potenza, il genere
di lavoro scientifico più «libero e onesto» di tutti. In linea di princìpio
lo scienziato può preparare lo scenario in cui provare la sua ipotesi in
una maniera completamente libera da ogni distorsione o inconsistenza, visto che i dati non provengono dalla sperimentazione ma sono generati per via numerica; accidenti come la sovradeterminazione possono essere eliminati a priori dalla scena. Un esempio tipico di questo
tipo di lavori si ha nelle simulazioni di sistemi reticolari, molto in voga
nel campo della cosiddetta «Systems Biology»3. Tipicamente lo scienziato pone una questione molto generale del tipo «esistono differenti reti di regolazione che generano dei comportamenti indistinguibili
fra di loro e quindi risultano equivalenti per l’organismo?». A questo
punto egli appronta un software in cui assegna in maniera arbitraria
139
L’ordine della complessità
8.3. Wassily Kandinsky, composizione n. 17.
dei nomi biologici alle variabili numeriche e ai parametri liberi della simulazione; dopodiché dichiarerà uno schema di lavoro del tipo:
«chiamiamo A, B, ...Z un insieme di geni, le cui relazioni reciproche
possono essere di attivazione o di repressione e sono descritte dalla
matrice D(i); costruiamo n diverse matrici D(i) che si fanno interagire
tramite un algoritmo genetico, la cui funzione di ottimo è massimizzare la resa della proteina P1 che risulta dai prodotti dei geni...».
Lo schema così descritto sarà implementato in un programma, calcolato dal computer e, quando il calcolo avrà raggiunto una soluzione
stabile, questa soluzione sarà descritta dallo scienziato come la conseguenza necessaria scaturita dalla particolare miscela degli ingredienti
utilizzati. Se la soluzione ottenuta ricorda nella forma un fatto di natura noto, la miscela iniziale di ingredienti risulta essere una spiegazione
possibile del fatto di natura stesso. L’analogo artistico di questo stile è
la pittura astratta di Kandinsky (figura 8.3).
Wassily Kandinsky aveva una spiccata sensibilità teorica, i lettori
dei suoi trattati4 possono risalire al senso specifico di tutti gli elementi
della composizione in maniera non dissimile dalle descrizioni dei parametri degli studi di simulazione. In ogni caso però, l’effetto complessivo della composizione viene giudicato dall’osservatore che, se
libero da pregiudizi e da mal riposta soggezione verso la critica («se
140
Stili scientifici: primi elementi di una critica scientifica
l’ha fatto un pittore famoso mi deve piacere per forza») può valutare
se effettivamente la miscela proposta ha stimolato il suo animo oppure lo ha lasciato freddo.
Il rischio sia dell’arte astratta che della simulazione numerica è insomma quello della completa irrilevanza, il punto delicato di questo
stile è la connessione che lo scienziato stabilisce tra il suo costrutto e
la realtà che vuole simulare, che, nel caso dell’artista, corrisponde alla
connessione tra segno grafico o pittorico e sentimento che pretende
di evocare.
Nel caso della scienza questa connessione si basa su un assunto
forte e semplice del tipo «il metabolismo cellulare può essere immaginato come una rete di distribuzione di elettricità». Questa è senza
dubbio un’idea suggestiva, che può fornirci5 spunti interessanti su argomenti biologici come la predizione di quali siano, negli organismi
unicellulari, gli enzimi la cui mancanza impedisce la crescita. Bisogna
però sapere fin dove sia lecito spingersi con la metafora, per cui nonostante l’arguzia della metafora «rete elettrica-rete metabolica» difficilmente potremmo trovare qualcosa come l’analogo della legge di Ohm
nel metabolismo.
Questi pezzi di scienza, esattamente come nel caso della pittura
astratta rispetto a quella naturalistica, sono quindi molto più difficili da valutare, in quanto presuppongono una conoscenza non superficiale sia della realtà che si desidera evocare (metabolismo) che del modello ispiratore (rete elettrica). Per questa ragione dovremmo esigere
dallo scienziato una chiara ed esauriente descrizione delle corrispondenze tra modello ispiratore e realtà simulata per tracciare chiaramente i limiti di esportabilità delle conclusioni.
– Il nuovo paradigma di misura. Questo tipo di lavoro scientifico
diviene immediatamente di moda appena la tecnologia produce un
nuovo strumento di misura. Questo è stato il caso del microscopio a
forza atomica in biologia strutturale, della risonanza magnetica funzionale nelle neuroscienze, della Polymerase Chain Reaction (PCR) in
biologia molecolare e di tanti altri campi di indagine aperti dallo sviluppo di nuove metodiche di indagine o dall’applicazione in un nuovo
ambito di uno strumento messo a punto per un diverso campo di indagine. I problemi di questo stile scientifico sono essenzialmente dei
problemi di traduzione analoghi a quelli che si incontrano nelle traduzioni di testi poetici da una lingua in un’altra. A differenza che in
altri tipi di traduzione qui è essenziale che chi traduce una poesia sia
141
L’ordine della complessità
a sua volta un poeta altrimenti il rischio è quello di rovinare completamente dei capolavori; questa è stata l’esperienza di uno degli autori
alle prese con due traduzioni italiane delle poesie di John Donne – la
prima che ha permesso al lettore di apprezzare un grandissimo genio,
la seconda francamente imbarazzante. La peculiarità della traduzione
poetica deriva dal fatto che il senso dell’opera non deriva solo dal significato delle frasi ma dalle risonanze che evoca nel lettore la frase
in quanto tale e quindi dalle suggestioni di prospettive differenti evocate dalla giustapposizione delle parole, dalla scelta dei termini, dalla metrica del verso. Si tratta di piste solo accennate nel testo, che si
sprigionano compiutamente solo attraverso la lettura (questo è il motivo per cui la poesia può essere letta e riletta infinite volte scoprendo
ogni volta qualcosa di nuovo a differenza della prosa) e che mutano
da lettore a lettore. Rendere gli stessi effetti in un’altra lingua impone che il poeta-traduttore abbia sentito lui stesso queste risonanze e
che le riproponga al lettore con uno strumento linguistico differente,
che riscriva insomma un’altra poesia ispirata dalla lettura della prima.
Lo stesso accade quando nell’applicazione di uno strumento di misura si cerchi di tradurre un determinato osservabile fisico in un’entità
concettuale che l’osservabile fisico è supposto rappresentare. Nei casi
di routine questa traduzione è obbligata e si trova già pronta, per cui,
quando misuriamo la febbre con un termometro a mercurio, la traduzione dalla legge di dilatazione termica dei metalli (l’osservabile fisico
alla base del funzionamento degli usuali termometri che si comprano
in farmacia) alla presenza di un’alterazione febbrile è data da una venerabile esperienza di misurazioni pregresse e si situa al superamento dei 37 gradi centigradi, il che chiaramente non provoca difficoltà di sorta e non ci consente di immaginare di fare scienza ogni volta
che ci mettiamo il termometro sotto l’ascella. Differente è il caso della risonanza magnetica funzionale dove ci avventuriamo in una traduzione «senza rete» tra la concentrazione relativa di emoglobina ossidata in una certa area del cervello (la grandezza fisica effettivamente
osservata) e il fatto che in quell’area del cervello stia avvenendo l’elaborazione di una certa informazione (entità concettuale inferita). Il
rischio è che l’ipotesi semplificante alla base della traduzione (variazione di emoglobina ossidata – metabolismo più attivo – maggiore attività neuronale – processo mentale in corso) non tenga conto delle
miriadi di significati alternativi, risonanze, effetti spuri che, in analogia con la poesia, si sovrappongono alla semplice trasposizione del si142
Stili scientifici: primi elementi di una critica scientifica
gnificato immediato. Potremmo pensare che la stessa misura possa
derivare da artefatti di movimento, balzi pressori, alterazioni del microcircolo, particolari anatomici, e via di questo passo.
Insomma, il rischio di questo genere di studi è di fare dei parallelismi ingiustificati tra piani diversi di rappresentazione. Gli antidoti con
cui possiamo cercare di minimizzare questo rischio sono legati ad un
uso intensivo e in parte maniacale della statistica, e in ogni caso tentare di mantenere il profilo più basso possibile considerando le nostre
misure come «segni indiretti» della grandezza di interesse e non come
una sua misura quantitativa, almeno fino a quando un legame necessario e duraturo tra la misura e la grandezza di interesse non si venga
a stabilire (i chimici potranno ad esempio pensare alla legge di Lambert e Beer per la spettroscopia).
È importante rimarcare come il nostro scopo non sia quello di dimostrare come l’arte e la scienza siano la stessa cosa. Al contrario
esortiamo il lettore a diffidare di chi troppo spesso invoca il carattere «artistico» di certe attività scientifiche: si tratta spesso molto più
semplicemente di settori della scienza non ancora ben compresi, in
cui la soggettività dello scienziato non ha ancora trovato il modo di
esprimersi attraverso un canone di regole condiviso. Dove l’arte e la
scienza sono effettivamente ancora indifferenziate si trova un territorio che le precede entrambe ed è il territorio dell’«immaginazione».
Einstein amava ripetere che «l’immaginazione è più importante della conoscenza», intendendo dire che, mentre l’immaginazione implica
un’espansione della nostra visuale, la conoscenza impone dei vincoli che restringono la stessa visuale. L’immaginazione artistica e l’immaginazione scientifica sono probabilmente la stessa cosa, o quanto
meno operano la stessa azione di generazione di mondi possibili. La
resa tecnica delle conseguenze di questa immaginazione è poi nei due
casi vincolata al soddisfacimento di canoni e regole che ne consentono la traduzione in uno specifico pezzo artistico o scientifico. Queste
regole sono differenti per l’arte e la scienza ma, operando sullo stesso
materiale (immaginazione) e con lo stesso scopo (la produzione di un
pezzo singolo riconoscibile) hanno sicuramente delle similitudini che
in questo capitolo abbiamo tentato di illustrare.
La costruzione di un gusto condiviso da parte di «critici scientifici»
può essere di aiuto allo sviluppo scientifico; quanto più il numero di
questi critici è alto, tanto più grande è insomma il pubblico di intenditori. Viceversa, la creazione di una cerchia elitaria di pochi critici,
143
L’ordine della complessità
che decidono cosa possa chiamarsi «buona scienza» e cosa no, sarebbe qualcosa di assolutamente deleterio e non dissimile dall’odierno sistema di peer review, anzi forse ancora più insopportabile e di limitati
orizzonti. Abbiamo avuto prova di ciò nell’arte figurativa e nella musica «colta»: entrambe in epoca contemporanea hanno assistito all’esaurirsi progressivo del loro ruolo sociale per rinchiudersi in un circolo
auto-referenziale. Ci auguriamo quindi che il gusto per la contemplazione di un bel pezzo di scienza possa diffondersi al di fuori delle minuscole cerchie di addetti ai lavori, per garantire all’attività scientifica
il respiro che solo il confronto continuo con l’esterno assicura.
NOTE
1
Nel bellissimo articolo del 2005 dal titolo Early extreme contradictory estimates may
appear in published research: The Proteus phenomenon in molecular genetics research
and randomized trials, in “Journal of Clinical Epidemiology”, 58(6), pp. 543-549, gli
autori Ioannidis e Trikalinos mostrano delle impressionanti statistiche sul progressivo decadimento di risultati che, inizialmente considerati sbalorditivi, con il tempo e
il conseguente accumularsi di lavori scientifici sull’argomento di ricercatori attirati
dalla «moda del momento» si ritrovano ad essere in realtà degli «abbagli» e ad essere
drasticamente ridimensionati. La metafora di Proteo è strettamente legata a quel procedimento inconsapevole per cui adattiamo ogni immagine esterna ai nostri desideri
e pre-concetti (si veda a proposito N. Yee, J.N. Bailenson, The Proteus Effect: Self
transformations in virtual reality, in “Human Communication Research”, 33(2007))
Un altro articolo molto interessante su questa patologia della scienza contemporanea,
anche se necessita di un certo grado di sofisticazione statistica per essere apprezzato,
è J.P. Ioannidis, Why Most published research findings are false, in “Plos Medicine”
2(8)(2005), p. 124.
2 Chi fosse interessato a questa triste vicenda può consultare http://www.the-scientist.com/news/display/23996/.
3 La biologia dei sistemi o «Systems Biology» segna la presa di coscienza della crisi
del progetto di ricerca della biologia molecolare. Per capire qualcosa dell’immenso
mare di dati prodotti dalla ricerca molecolare si avverte la necessità di costruire degli
schemi di «funzionamento generale» che permettano di prevedere le proprietà emergenti collettive (sistemiche appunto) delle intricate reti di regolazione che i biologi
hanno accumulato negli ultimi venti-trenta anni. Per tentare di fare ciò ci si riferisce
alla tradizione dell’ingegneria dei sistemi, l’articolo inaugurale di questo filone di ricerca può forse essere considerato H. Kitano, Systems Biology: A Brief Overview, in
“Science”, 295(2002), pp. 1662-1664.
4 Abbiamo già citato il fondamentale Lo Spirituale nell’Arte di Wassily Kandinsky
(Editore SE), un altro libro interessantissimo è, sempre di Kandinsky, Punto, Linea,
Superficie, edito da Adelphi. In entrambi questi trattati, in modo più generale nel
144
Stili scientifici: primi elementi di una critica scientifica
primo, più specifico nel secondo, si cerca di stabilire una connessione tra colori o
segni grafici ed emozioni. Circa ottanta anni dopo le teorizzazioni di Kandinsky, la
neurologia e la psicologia sembrano confermare le intuizioni del pittore russo.
5 Le conseguenze di questa analogia sono discusse in: M.C. Palumbo, A. Colosimo,
A. Giuliani, L. Farina, Functional Essentiality from Topology features in metabolic
networks: a case study in yeast, in “FEBS Letters”, 579(2005), pp. 4642-4646 e anche in
M.C. Palumbo, A. Colosimo, A. Giuliani, L. Farina, Essentiality is an emergent property of metabolic network wiring, in “FEBS Letters”, 581(13)(2007), pp. 2485-2489.
145
Capitolo nono
PROBABILITÀ E DETERMINISMO
Dio non gioca a dadi con l’universo – Albert Einstein.
Albert, piantala di dire a Dio cosa deve e non deve fare.
Niels Bohr
Non solo Dio gioca a dadi con l’universo, ma qualche
volta tira i dadi dove non riusciamo a vederli.
Stephen Hawking
Uno dei temi di fondo dei capitoli precedenti è stato il riconoscimento dei molteplici fallimenti a cui vanno incontro i modelli scientifici deterministici quando si scontrano con la realtà dei fatti. In questi
casi preferiamo allora ripiegare su dei modelli probabilistici, nei quali
le proprietà studiate hanno un valore esclusivamente statistico, valido
su base di popolazione, ma che non permettono di determinare esattamente il comportamento della singola unità. Questo accade praticamente sempre nelle scienze biologiche e sociali.
Sebbene il determinismo sia nato con la filosofia greca, i suoi inizi moderni su basi quantitative si possono far risalire alla famosissima
(e disgraziatissima) frase di Laplace: «noi dobbiamo considerare lo
stato attuale dell’universo come l’effetto dei suoi stati precedenti e la
causa dello stato a seguire. Un’intelligenza che conoscesse tutte le forze che agiscono in natura ad un determinato istante, così come le posizioni istantanee di tutti gli enti costituenti l’universo, potrebbe raccogliere in una singola formula i movimenti dei corpi più grandi così
come quelli degli atomi più leggeri, solo che fosse provvista di un intelletto sufficientemente robusto da sottoporre ad analisi tutti questi
dati: a questa intelligenza niente del futuro sarebbe incerto, il futuro
così come il passato sarebbero presenti allo stesso momento di fronte
ai suoi occhi. La perfezione che la mente umana è stata capace di raggiungere nelle previsioni astronomiche non è che una pallidissima eco
di una tale intelligenza» (Laplace 1820).
147
L’ordine della complessità
Il princìpio sotteso alla frase è quello dell’esistenza di una forza divina onnisciente: la mente umana non potrà mai raggiungere neanche
lontanamente tale livello di perfezione. In questo ambito Laplace (tra
l’altro cultore di calcolo delle probabilità) vuole affermare l’impossibilità di una predizione esatta dei fenomeni naturali. Ciononostante, come spesso accade, per motivi strettamente ideologici funzionali
all’idolatria scientifica (nell’epoca di Laplace iniziano i tempi bui del
positivismo trionfante), una frase che suggerirebbe l’impossibilità di
perseguire il sogno del «controllo totale» è stata invocata per sottolineare la possibilità implicita (anche se sul lungo periodo) di ottenere una tale forma di conoscenza definitiva. Da allora in poi ogni «progresso scientifico» fu più o meno apertamente considerato come un
passo verso la direzione di tale «controllo totale».
Il fascino pervasivo di questo sogno di potenza che gli antichi Greci chiamavano uvbri" (hubris, che significa violenza derivante da una
esagerata stima delle proprie possibilità), unito con l’implicazione sviluppata in maniera magistrale dalla tragedia classica che questo sentimento sia foriero di terribili catastrofi, ha contaminato praticamente tutti i campi della scienza. Proprio come in una tragedia di Sofocle,
gli orrori prodotti dalla uvbri" scientifica e tecnologica sono di fronte a noi: il colonialismo, il razzismo, l’eugenetica, le catastrofi ecologiche, lo scempio del paesaggio, il cambiamento climatico globale, fino
alla tristezza pervasiva dei cittadini europei contemporanei. La forza
di questo sogno è stata così grande da far dimenticare a molti scienziati che le acquisizioni più importanti della scienza del XX secolo hanno dato il messaggio diametralmente opposto al sogno del controllo
totale: il lavoro di Poincarè in dinamica, che dimostra l’impossibilità
di prevedere con esattezza la stabilità di un sistema formato da più di
due corpi, il teorema di Gödel in matematica, lo sviluppo della fisica dei quanti. Tutti questi capolavori scientifici hanno dimostrato, da
diverse prospettive, l’intrinseca impossibilità del sogno (incubo) del
controllo totale.
Ancora oggi l’ossessione deterministica continua a spuntare dagli
angoli più impensati: per esempio, la cosiddetta «teoria del caos» è
una teoria ferocemente deterministica, in cui la probabilità è confinata alla nostra conoscenza incompleta (figura 9.1). L’incapacità di
prevedere alla perfezione la traiettoria di un sistema deriverebbe solamente dall’impossibilità di conoscere con assoluta precisione le condizioni iniziali.
148
Probabilità e determinismo
9.1. L’attrattore di Lorenz è forse il paradigma più noto di caos deterministico:
piccole fluttuazioni nella rappresentazione numerica di un sistema di equazioni
differenziali trasformano una soluzione unica in un intreccio di differenti orbite
che impediscono una precisa determinazione del sistema.
In ogni caso, il paradigma del caos deterministico dà per scontato
che qualsiasi comportamento trovato in natura sia «prodotto» (attenzione, non «approssimato», «descritto», «evocato», «rappresentato»)
da un’equazione soggiacente.
Il sogno del controllo perfetto è stato alimentato dai successi della fisica, accumulatisi fino alla fine del XIX secolo e all’inizio del XX.
Dall’epoca di Newton fino a tutto l’Ottocento gli scienziati riuscirono a sviluppare equazioni differenziali, che riuscivano a prevedere con
sorprendente accuratezza le dinamiche di vari sistemi fisici. Ciò che
venne sottovalutato è che questa accuratezza era un abbaglio forte149
L’ordine della complessità
mente dipendente dalle scale di misura adottate. La teoria della relatività di Einstein chiarì che le leggi del moto di Newton non erano infinitamente ma accettabilmente accurate all’interno di una certa scala
di definizione. Infatti, quando le scienze fisiche si rivolsero alle scale
microscopiche di osservazione (per esempio leggi dei gas, meccanica
quantistica), dovettero gioco forza risolversi per un approccio di tipo
statistico. L’unico determinismo possibile fu il determinismo della legge dei grandi numeri, in cui le caratteristiche medie di enormi popolazioni di eventi singoli mostravano delle caratteristiche fortemente
invarianti. Ma questo genere di determinismo era di natura completamente diversa dal sogno alchemico di trovare la spiegazione ultima di
tutte le cose al loro livello fondamentale; era al contrario una dichiarazione di umiltà (curiosamente simile al princìpio del filosofo francescano medievale Duns Scoto, che aveva intuito l’inconoscibilità degli elementi singoli e il carattere forzatamente statistico della nostra
conoscenza) sull’impossibilità del raggiungimento del controllo totale sul singolo elemento individuale, per accettare l’inevitabilità di una
conoscenza approssimata a livello di popolazione.
Il carattere statistico della conoscenza scientifica è ancora più evidente nelle scienze biologiche e sociali. Mentre i sistemi fisici, se non
altro, possono essere almeno «isolati» e quindi studiati in condizioni
in cui, in prima approssimazione, possono essere considerati come separati dal loro ambiente, questo è praticamente impossibile per i sistemi biologici e sociali. La confusione tra queste due differenti sfere
spesso è provocata dalla matematica utilizzata per costruire modelli e
fare predizioni di funzionamento.
La matematica opera su oggetti «mentali» (concetti costruiti dall’uomo, astrazioni) ottenendo risultati riproducibili e dimostrabili, mentre
la scienza opera con oggetti che derivano dal mondo esterno. I successi
dell’applicazione della matematica alla scienza derivano dalle frequenti coincidenze tra il mondo della mente e il mondo fisico. Il mondo, insomma, non è «matematico», ma è l’uomo che spesso riesce a costruire una rappresentazione efficace del mondo utilizzando la matematica,
e in questo modo riesce a cogliere dei particolari ripetibili e ricorrenti della realtà. Quindi, un modello matematico di un fenomeno fisico
ben conosciuto (immaginiamo la precisione della predizione delle orbite dei pianeti) di fatto è una sua rappresentazione, però a noi appare
come una necessaria conseguenza dell’esistenza in natura di qualcosa
di simile al formalismo matematico da noi utilizzato.
150
Probabilità e determinismo
Se però le regole rappresentative di un certo insieme di eventi nel
mondo fisico non sono più note a priori (come nel caso della gravità
o di altre leggi fisiche), ma devono essere derivate dall’osservazione
generando quindi delle stime di massima verosimiglianza, allora siamo nel campo della probabilità e della statistica che, al contrario della matematica, è fortemente dipendente dal mondo fisico. La pura
applicazione della logica non ci porta da nessuna parte, e dobbiamo
introdurre l’idea di «variabili casuali», di grandezze cioè che assumono valori che, anche se a livello di popolazione possono essere stimati con un grado di incertezza potenzialmente irrisorio, a livello individuale rimangono assolutamente incontrollabili. Insomma, la statistica
è il modo più naturale con cui costruire modelli scientifici, poiché è
direttamente dipendente dagli oggetti fisici analizzati e non dalle loro
rappresentazioni ideali.
La discontinuità e in qualche modo la reciproca irriducibilità tra
oggetti fisici e mentali è stata ampiamente riconosciuta dalla scienza moderna, che ha progressivamente preso atto del fallimento degli sforzi di costruire dei modelli predittivi esatti dei sistemi reali, al
di fuori di pochissimi casi. Il riconoscimento di questa «patologia» ha
stimolato la ricerca di «terapie» tra cui l’inclusione di «termini di rumore» nelle equazioni utilizzate per modellare i diversi fenomeni.
Ma di nuovo, in questi modelli, il rumore è considerato un «rumore ideale», vincolato ad una specifica forma funzionale. Ma noi sappiamo che il rumore reale può avere diverse forme ed entrare nella costruzione della realtà in modi molto variabili fra di loro. La cosa più
importante è che le dinamiche dei sistemi reali solo molto raramente possono essere considerate stazionarie, e le relazioni tra le porzioni «deterministiche» e quelle «rumorose» (o stocastiche) cambiano
nel tempo.
La scienza cerca incessantemente dei «pattern», cioè delle configurazioni ripetibili nel tempo e nello spazio; a sua volta la mente umana
spesso costruisce dei «pattern» anche dove non esistono: per questo
i modelli scientifici debbono essere costantemente messi alla prova.
Non a caso il problema più grande con il concetto di rumore è la tendenza storica a chiamare rumore tutto ciò che non si adegua ad un
pattern precostituito, implicitamente ascrivendo al termine rumore il
significato di «errore». C’è una sorta di malevolenza verso la natura,
che «rifiuta di collaborare» al dominio imposto dalla mente razionale dell’uomo.
151
L’ordine della complessità
È consolante considerare come questa folle arroganza nata con il
pensiero idealistico rinascimentale – si pensi a Cartesio, che affermava che le particolarità e le differenze sono debolezze della mente e
non caratteristiche del mondo, e lo si confronti con la molto più umile (e moderna e realistica) Adaequatio intellectus et rei come criterio di
scelta di Tommaso d’Aquino – sia stata stravolta dalla scoperta di questi ultimi anni del fenomeno della «risonanza stocastica». Si tratta di
un processo fisico attraverso il quale il rumore amplifica i segnali deboli, rendendo possibile il loro riconoscimento. Questa scoperta promuove un completo rivolgimento nell’atteggiamento degli scienziati
rispetto al mondo «là fuori» (peraltro già presente da vari secoli nelle
menti scientifiche più aperte), e gli scienziati si trovano ora a chiedere la «collaborazione» di tutta quella miriade di particolari e fatti che
sfuggono alla nostra comprensione (rumore), invece di considerarli
dei noiosi e malaugurati accidenti che ostacolano il loro sogno di dominio totale e incontrastato.
A nostro avviso questa è un’attitudine molto più realistica (e in un
certo senso più razionale se togliamo alla parola razionale il suo retrogusto idealistico che la limita molto e ne rovina il sapore) rispetto
all’ossessione deterministica, cieca e sorda di fronte ai continui fallimenti a cui la realtà la sottopone.
Una concezione alternativa rispetto all’incubo deterministico è che
l’universo sia composto da isole di pattern regolari in un mare di rumore o, se preferiamo, un miscuglio di mancanza di determinismo e
rumore qui e là complicato da nessi causali (la scelta fra le due formulazioni dipende dal nostro carattere, un pigro sceglierà la seconda,
uno studente secchione la prima). Con questa concezione del mondo
la probabilità e la statistica diventano gli unici occhiali possibili con
cui la scienza possa guardare al mondo, soprattutto per quello che
concerne il campo dei cosiddetti sistemi complessi1.
Dopo secoli di riduzionismo insomma, gli scienziati, in diversi
campi di interesse, si sono rivolti ad investigare come mai il tutto appare di più della «somma delle sue parti», e soprattutto come mai non
si conformi docilmente alle nostre costruzioni mentali.
Sebbene l’idea di complessità e di emergenza abbia incontrato un
certo favore nelle discipline biologiche (quelle paradossalmente più
arroccate in una visione riduzionista del mondo), va detto che in questo ambito rimangono ancora molti nodi irrisolti. Il problema più evidente deriva dall’esplosione di dati molecolari (profili di espressione
152
Probabilità e determinismo
genica, sequenze di biopolimeri, pattern proteomici...), che ha spinto masse di biologi, seriamente affaticati e sommersi da una valanga di
informazione difficilmente gestibile, alla ricerca affannosa di princìpi
generali che, in maniera analoga alle «leggi» della fisica, consentissero
di rendere gestibile questa valanga di dati. La richiesta è assolutamente legittima e migliaia di ricercatori in tutto il mondo, provenienti dalle più differenti discipline (ingegneria, matematica, fisica, ricerca operativa), propongono soluzioni; quasi tutte queste soluzioni sono però
di tipo puramente strumentale, legato alla gestione automatica «intelligente» di grandi masse di dati, in maniera da fornire «diagrammi
semplificati» che catturino l’essenziale nascosto all’interno della valanga di dati e lo riportino nella forma usuale di nodi (gli elementi del
modello) uniti da archi (le relazioni che li legano). Solo pochi ricercatori2 si pongono però la questione se, passando dal conoscere l’attività di quattro geni alla volta a conoscere quella di quarantamila, il problema più importante sia quello di ritrovare quattro geni importanti
per il nostro scopo (in questo caso averne quarantamila serve solo ad
essere sicuri che lì in mezzo ci saranno di sicuro quelli giusti, ammesso di trovarli evitando in maniera intelligente le trappole dell’overfitting) oppure se l’enorme aumento della dimensionalità non costringa a porsi delle domande ad un diverso livello di definizione, che non
sia più quello del singolo gene ma invece dell’attivazione complessiva di gruppi di geni. Se, cioè, le leggi e i «princìpi ordinatori» non siano semplicemente riducibili a procedure astute di analisi dei dati ma
veri e propri princìpi esplicativi situati su un livello sopramolecolare, insomma qualcosa di più simile allo studio dei fenomeni magnetici (che coinvolge l’organizzazione reciproca di molte molecole) che ad
un programma di un database relazionale.
La questione, oltre ad aver una chiara valenza epistemologica, ha
anche delle conseguenze pratiche molto immediate: qualunque strada
si intraprenda avremmo bisogno prima o poi di costruire un modello
matematico delle nostre osservazioni; il problema qui è dato dal fatto che i modelli matematici che coinvolgono un numero molto grande
di dimensioni, tutte prese in considerazione esplicitamente, non solo
implicano un grande carico computazionale (e fin qui si tratta di problemi risolubili, almeno entro certi limiti), ma tendono a mostrare una
grandissima sensibilità a variazioni anche piccole dei dati. Questo fa
sì che piccoli errori crescano a dismisura3, rendendo particolarmente
instabili questi modelli. La natura di questi errori, e più in generale la
153
L’ordine della complessità
natura del rumore in biologia, dipende dalla possibilità di riconoscere se e quando il rumore può essere considerato come un noioso accidente in linea di princìpio eliminabile (dunque, un vero «errore») oppure una componente essenziale della realtà osservata.
A tutt’oggi questo è un nodo lungi dall’essere risolto, tanto più che
differenti tipi di rumore albergano a differenti scale di osservazione4.
Nel caso scegliessimo la via della statistica, e quindi operassimo una
enorme riduzione del dettaglio concentrandoci su osservabili di «grana grossa» corrispondenti a medie prese su un numero molto grande
di elementi, saremmo ricompensati dalla perdita di dettaglio, dall’impossibilità di scendere nell’intimo del sistema studiato conservando
una grande robustezza dei nostri modelli, che resterebbero praticamente invariati al variare di piccoli dettagli, proprio per il carattere
statistico e quindi popolazionale delle osservazioni. Trattare i fenomeni complessi come «emergenti» semplificherà immensamente il lavoro matematico; infatti, come giustamente fa osservare il premio Nobel
per la fisica Robert Laughlin nel suo libro Un Universo Diverso, già
citato in quest’opera: «l’unico contesto nel quale possiamo prendere spunto da equazioni errate e giungere comunque a risposte corrette è quello di una proprietà decisamente indifferente ai dettagli, vale
a dire emergente».
Accettare fino in fondo questa prospettiva equivale ad abbandonare il sogno del controllo totale e intraprendere una strada completamente diversa da quella di dominio che la scienza ha in molti casi praticato... insomma non si tratta di dettagli di poco conto5.
La ricerca di queste proprietà emergenti, indipendenti dai dettagli, porta con sé lo sviluppo di paradigmi universali che però, a differenza dei paradigmi universali della scienza newtoniana, non pretendono di entrare nell’intimo, nell’essenza delle cose, ma si fermano
programmaticamente al loro comportamento rilevabile al particolare livello di osservazione che è stato scelto. L’universalità della statistica risiede nell’osservazione che la distribuzione degli scarti dall’altezza media degli individui di una popolazione ha la stessa forma (e
quindi può essere descritta con le stesse funzioni di probabilità) degli
scarti dalla media del contenuto di caffeina delle bottiglie di Coca-Cola. A nessuno verrebbe in testa che questa similitudine possa derivare
dalla stessa legge meccanicistica che risiede nell’intimo della bottiglia
e dell’essere umano. Completamente diverso è il tipo di universalità
«essenzialista» perseguito dalle «teorie del Tutto» in fisica, dove l’uni154
Probabilità e determinismo
ficazione tra i diversi aspetti del mondo naturale si cerca guardando
nel profondo della struttura della materia. Gran parte della terminologia della nuova scienza della complessità come distribuzioni di potenza (power laws), reti scale-free o small-world con cui gli scienziati passano indifferentemente dal descrivere il comportamento di una
proteina in soluzione alle liti tra gruppi di amici hanno a che vedere
con l’universalità «di superficie», o «fenomenologica», della statistica,
piuttosto che con quella «profonda» ed «essenzialista» della fisica teorica tradizionale.
L’aver dimostrato che sia una combriccola di amici sia un gruppo di residui aminoacidici limitrofi in una struttura proteica sono descritti da una rete «small-world» non è che ci porti tanto avanti (se ci
fermassimo qui il commento migliore sarebbe «... e allora?»). A questo punto il «modellizzatore» ha bisogno dell’aiuto di chi è effettivamente interessato al contenuto del problema, proporgli la sua descrizione come spunto per la fantasia e provare a vedere se questo modo
di considerare le cose può far nascere qualche ipotesi da provare sperimentalmente. La rappresentazione matematica non è quindi più il
marchio dell’avvenuta «conquista» del particolare fenomeno di natura, al contrario essa riconosce di non essere autosufficiente e chiede di
essere riempita di senso.
In verità, questa riconquistata umiltà della matematica non è una
cosa tanto pacifica. Gran parte degli scienziati sono al contrario convinti, più o meno consciamente, che la matematica riveli qualche misteriosa proprietà universale soggiacente alle osservazioni empiriche.
La derivazione della matematica dal pensiero platonico è la causa
prima di questa convinzione: la caverna di Platone, che abbiamo imparato a conoscere al liceo, è la casa madre di quei misteriosi animali
che chiamiamo «Universali» o «Leggi». Forse però, invece di cercare
la casa madre della matematica nella caverna di Platone, faremmo meglio a cercarla da un’altra parte, e precisamente nel cervello umano.
Da tempo immemorabile si è dato per scontato che la Logica (o
anche più timidamente «una logica») fosse indipendente dal «pensatore» che la metteva in opera: la ragione «corretta» non dipende
dalle peculiarità del cervello umano – al contrario essa la trascende e può essere verificata da qualsiasi altro essere umano che «pensi
correttamente»6.
Solo in tempi piuttosto recenti i neuroscienziati cognitivisti hanno
provato a sfidare questo assunto, anche se in maniera indiretta. Mol155
L’ordine della complessità
ti studi hanno dimostrato «l’insana passione» del cervello umano per
le forme organizzate (patterns) che esso vede anche dove queste non
sussistono. Come ha giustamente fatto notare il fisico David Ruelle, la
matematica deriva dalla realtà fisica filtrata dal cervello, un po’ come
certi sogni per cui una coperta troppo pesante (realtà fisica) si trasforma in qualcuno che ci tiene schiacciati a terra contro la nostra volontà. Insomma, noi facciamo la matematica (e la logica) che facciamo perché il nostro cervello «vede» la matematica nel mondo reale, il
che non è ovviamente un male, anzi ci consente di cavarcela in molte situazioni, restringendo drasticamente il campo delle opzioni possibili e rendendo possibili le decisioni. È importante però sapere che
la matematica non corrisponde né alla realtà né a qualche misterioso
ordine nascosto, ma è semplicemente un modo con cui noi osserviamo il mondo, e quindi è rigidamente dipendente dall’osservatore che
la rende possibile.
In fisica, anche se spesso gli scienziati lo dimenticano o comunque confinano il problema ad un settore molto limitato della meccanica quantistica, il princìpio di indeterminazione di Heisenberg chiarisce molto bene questa mancanza intrinseca di obiettività dell’impresa
scientifica e il ruolo ineliminabile dell’osservatore, per cui la cosa osservata «cambia» a seconda della sua visuale dell’osservatore.
Anche se in termini sicuramente diversi rispetto alla meccanica
quantistica, pure in biologia l’osservatore agisce come un «filtro» nei
confronti della realtà osservata, e parte di questo filtro è mediata dalle caratteristiche intrinseche della nostra attività mentale. Un esempio
è la nostra ostinazione a voler ritrovare un «meccanismo», cioè catene
lineari di conseguenze che si dipanano nel tempo anche quando sappiamo che la presenza di cicli di retroazione (l’effetto che agisce sulla causa come in qualsiasi meccanismo adattativo) o la contemporaneità di una moltitudine di eventi cha accadono in parallelo rendono
poco produttiva la ricerca di sequenze causali lineari. I biologi hanno
di fronte a loro il fatto incontrovertibile che i sistemi biologici si trovano a dover coordinare una grande molteplicità di processi simultanei
«immersi» in un oceano di rumore. Ciononostante gli stessi sistemi
mostrano dei comportamenti molto regolari e ripetibili, ad esempio
le sinapsi dei neuroni hanno un altro grado di randomicità e un parallelismo esasperato (le connessioni tra neuroni vanno aldilà della nostra più sfrenata immaginazione), eppure danno vita a messaggi che
provocano azioni estremamente ordinate e ripetibili come i movimen156
Probabilità e determinismo
ti ritmici del corpo. Insomma, la stocasticità degli elementi costituenti
non sembra essere in contrasto con la regolarità dei fenomeni collettivi. La possibilità di una descrizione deterministica di alcuni aspetti del
comportamento dei sistemi non ha nulla a che vedere con il loro carattere intimo, che può essere selvaggiamente stocastico.
Herbert Simon fece l’osservazione che, quando la mente umana si
trova di fronte grandi masse di dati, essa tende a «ripiegare» su un insieme di informazioni molto più limitato su cui basare le proprie decisioni. Una simile tendenza potrebbe essere alla base della ricerca dei
«princìpi di base» che, da un punto di vista psicologico, risultano molto più consoni al nostro modo di ragionare rispetto alla contemplazione probabilistica della molteplicità del mondo.
Una sfida sicuramente affascinante è provare ad incorporare elementi del pensiero probabilistico all’interno di una linea di spiegazione deterministica. Appurato che sia la regolarità che il «rumore» sono
elementi ineliminabili della realtà, potremmo immaginare una sorta di
«determinismo a tratti» (piece-wise determinism) come scheletro fondamentale su cui costruire i nostri modelli.
Nel primo capitolo avevamo accennato a come il rilassamento delle «condizioni di Lipschitz» per le equazioni differenziali ci consentisse di costruire modelli più realistici di vari fenomeni naturali attraverso la rimozione di alcuni evidenti paradossi e, nello stesso tempo,
consentisse di rendere ragione dell’estremo parallelismo dei fenomeni
biologici (eventi che accadono simultaneamente)7.
L’adozione di un modello di tipo «non-Lipschitz» non ci costringe
ad immaginare un attrattore deterministico, un comportamento cioè
stabile (o ideale) in cui prima o poi il nostro sistema si troverà «intrappolato», ma una storia infinita di punti di svolta in cui la scelta avverrà
in maniera stocastica e largamente indipendente dal cammino passato
fatto per arrivarvi e cammini largamente deterministici per spostarsi
da un punto di svolta al prossimo. Su scala di popolazione (tanti sistemi dinamici considerati in maniera statistica) ciò darà vita alle usuali
distribuzioni statistiche, da cui derivare una conoscenza di popolazione potenzialmente molto precisa. Una dinamica non-Lipschitz o «terminale» può essere utilmente paragonata al funzionamento dei vecchi
flipper analogici in cui si alternavano momenti in cui una piccola scossa ben assestata poteva cambiare bruscamente l’esito del gioco (punti di svolta, singolarità) a tristissime corse daterministiche della pallina
157
L’ordine della complessità
verso la buca con possibilità di intervento nulle da parte del giocatore
(tratti deterministici della dinamica).
Il fatto con più profonde implicazioni filosofiche di questo tipo di
concezione è che le condizioni iniziali in un sistema «non-Lipschitz» o
di «dinamica terminale» sono ad un certo punto dimenticate con una
sorta di «amnistia» della natura. Quando il sistema arriva ad un punto di svolta (singolarità), avrà di fronte una distribuzione di probabilità «vergine», sarà insomma in quel momento libero di scegliere in un
ventaglio di ipotesi. In quel punto le contingenze, le condizioni al contorno e quant’altro avranno delle carte da giocare, ma virtualmente la
strada percorsa per arrivare dalle condizioni iniziali al punto di svolta sarà totalmente irrilevante e il tempo in qualche modo «ricomincerà dalla singolarità».
Lasciamo ad altri le considerazioni se questa sia o no il corrispettivo fisico del libero arbitrio, noi ci limitiamo a far osservare, molto più
prosaicamente, come un sistema di questo tipo che incorpora la stocasticità nell’intimo del suo funzionamento sia molto più resistente
agli errori (le cui conseguenze saranno comunque rimediabili al punto di svolta dove la «memoria» è azzerata) e potenzialmente adattabile a variazioni di condizioni esterne (non dovendo scontare l’inerzia della storia passata se non fino alla prossima singolarità) rispetto
ai modelli deterministici o anche ai modelli che incorporano il rumore come puro disturbo.
Con questa proposta di sintesi tra determinismo (che vale nella traiettoria da una singolarità all’altra) e stocasticità (che marca i punti di
svolta) siamo arrivati alla fine della nostra trattazione, con la speranza
di aver fornito qualche ispirazione utile per affrontare le enormi sfide
che l’umanità si trova davanti su scala planetaria, come il cambiamento climatico e il raggiungimento di una società più equa e felice.
Noi crediamo che la scienza debba velocemente emendarsi da alcuni vizi di fondo che, se l’hanno aiutata a crescere nel passato, sono
ora di grave impaccio per lo sviluppo futuro.
La nostra speranza è che questo libro possa rappresentare un avanzamento infinitesimale (ma diverso da zero) in questa direzione.
158
Probabilità e determinismo
NOTE
1 Per approfondimenti si può consultare: J.P. Zbilut, C.J. Webber, Physiological effects of motion and the effect of noise, in M. Millonas (a cura di), Fluctuations and
Order: The New Synthesis, Springer Verlag, New York 1996, pp. 397-417.
2 Questo tema è brevemente trattato nel nostro lavoro: F. Conti, M.C. Valerio, J.P.
Zbilut, A. Giuliani, Will systems biology offer new holistic paradigms to life sciences?,
in “System and Synthetic Biol.”, 4(1)(2007), pp. 161-165, e approfondito in maniera
molto più chiara ed esauriente in un bellissimo lavoro di Sui Huang: S. Huang, Back
to the biology in systems biology: what can we learn from biomolecular networks, in
“Briefings in Functional Genomics and Bioinformatics”, 2(4)(2003), pp. 279-297.
Entrambi i lavori sono disponibili gratuitamente sul web.
3 Tra l’altro questo è il tallone d’Achille del determinismo, anche se certa stampa
divulgativa degli anni Novanta cercava di renderlo suggestivo parlando di «effetto
farfalla», la famosa farfalla che, battendo le ali a New York, causava un uragano a
Tokio o viceversa.
4 E.F. Keller ci propone delle interessanti osservazioni nel suo A Clash of Two Cultures, in “Nature”, 445(2007), p. 603.
5 Un recentissimo lavoro apparso su “Nature” di maggio 2008 (H. Chang, M. Hemberg, M. Barahona, D. Ingber, S. Huang, Transcriptome-wide noise controls lineage
choice in mammalian progenitor cells, in “Nature”, 453(2008), p. 544) prende esplicitamente posizione per questa nuova prospettiva e dimostra in modo molto elegante
come un problema classico della biologia, il differenziamento dei diversi tipi cellulari
costituenti il sangue, si sviluppino dalla cellula staminale progenitrice attraverso il
«movimento simultaneo» di tutti i loro geni; inoltre la decisione della «strada da intraprendere» è legata a fluttuazioni stocastiche all’interno della colonia iniziale. L’articolo utilizza solo in misura relativamente limitata il gergo tecnico e può essere compreso
anche da non addetti ai lavori, almeno nelle sue linee essenziali.
6 Gli orrori causati da questa visione trascendente della ragione e da quella divinità
sanguinaria detta «dea Ragione» che solo di questi tempi sembra stare lentamente abbandonando l’Europa, sono raccontati in un bel libretto di Marco Marsilio dal titolo:
Razzismo: un’origine illuminista, edito da Vallecchi.
7 Per chi volesse andare a fondo della questione: M. Zak, J.P. Zbilut, R.E. Meyers,
From Instability to Intelligence: Complexity and Predictability in Nonlinear Dynamics,
(Lecture Notes in Physics: New Series m 49), Springer Verlag, Berlin-Heidelberg-New
York 1997. Anche J.P. Zbilut, Unstable Singularities and Randomness, Elsevier, Amsterdam 1984. Il primo è un libro molto tecnico ed esauriente, il secondo, presente
anche in edizione italiana (J.P. Zbilut, Singolarità Instabili e Casualità, ed. it. a cura di
C. Cuomo, Franco Angeli, Milano 2004) tratta degli stessi temi in maniera accessibile
anche ai non specialisti.
159
TUTTI A CASA:
UNA CONCLUSIONE INCONCLUDENTE
Come ogni discussione al caffè, prima o poi si deve tornare a casa o
comunque alle proprie occupazioni. Quando gli amici lasciano il bar e
si salutano, gli autori rimangono nel dubbio di aver trasmesso un messaggio chiaro. In questo atteggiamento è insito un pizzico di superbia,
che consiste nel presumere che da qualche parte ci sia un «messaggio», generato dagli autori, che il lettore può decodificare in maniera
più o meno corretta. Gli ingegneri usano una tecnica statistica molto
efficiente chiamata ROC (Receiver Operating Curve) per assegnare un
punteggio quantitativo al grado di correttezza della ricezione di un segnale; la tecnica si basa essenzialmente sulla distanza tra segnale inviato e ricevuto. Ma il nostro «messaggio», qualsiasi cosa esso sia, non si
rivolge ad un meccanismo ricevente (come nei casi studiati con la metodologia ROC) ma a dei lettori critici con delle loro opinioni personali. Anzi, senza un lettore attivamente coinvolto, il messaggio proprio
non esisterebbe, così che ogni avventore lascerà il bar con una propria
personalissima idea sulle cose che ha ascoltato, e fortunatamente gli
autori non possono inseguirlo per chiederne ragione. Ci scusiamo comunque per le continue ripetizioni degli stessi concetti di cui il libro è
infarcito: gli autori sono abbastanza fissati con due o tre «idee principali», che i loro amici e colleghi ormai conoscono a menadito e riguardo alle quali mostrano un bonario e salutare sarcasmo. Il messaggio
da «portare a casa» sarà quindi differente per le diverse case, anche se
noi vogliamo sperare che il lettore che abbia avuto la pazienza di leggere l’intera opera abbia l’impressione di quanto la scienza possa guadagnare dall’essere considerata una forma di artigianato artistico invece di un arrogante pensiero unico.
161
PER JOE,
UN RICORDO
Mentre la versione italiana del libro era in lavorazione, l’11 gennaio
2009 Joe ci ha lasciato improvvisamente. La scomparsa di Joe ha sconvolto tutti i suoi amici, che avevano imparato ad apprezzare il suo sorriso aperto e il suo entusiasmo contagioso. Per me che lo conoscevo
da quasi venti anni, e che con lui avevo condiviso la nascita delle mie
figlie Flaminia e Irene, la malattia di suo figlio Joey, le gioie, i dolori,
le soddisfazioni, è qualcosa che ancora non riesco a sistemare nel mio
cuore. Quando Joe arrivava qui a Roma per tutti noi era festa grande;
parte importante della festa era andare con lui a rendere omaggio alla
bellezza, sia dell’arte che della natura. Lui mi prendeva bonariamente in giro per questo, ma in realtà era molto contento; facevamo lunghi discorsi sul senso profondo della bellezza: per me era il volto di
Dio, e una delle vie principali per la nostra felicità; lui, molto più saggio di me, forse, sosteneva che la vera fede non dovrebbe aver bisogno
di quadri, statue, architetture e panorami montani e marini... ma l’architettura di Borromini lo entusiasmava veramente, e lo entusiasmava
Roma con il suo accavallarsi di epoche inestricabilmente legate nella
stessa struttura, nello stesso muro.
Avevo avuto notizia di Joe Zbilut all’inizio degli anni Novanta,
dall’articolo che aveva scritto insieme a Chuck Webber, in cui presentava un metodo innovativo di analisi per le serie temporali non lineari
denominato analisi delle ricorrenze (Recurrence Quantification Analysis, RQA). Appena letto l’articolo capii che descriveva esattamente ciò
che cercavo da tanto tempo ma che non ero mai riuscito ad esprimere
163
L’ordine della complessità
in maniera chiara. In quell’epoca ero affascinato da come la considerazione degli spazi metrici, cioè la descrizione dei sistemi in termini di
distanze reciproche fra gli elementi costituenti senza alcun riferimento esplicito ad uno spazio assoluto esterno, permettesse una libertà di
espressione e una robustezza di rappresentazione formidabili, risolvendo in un solo colpo tanti problemi che affliggevano la quantificazione di tanti fenomeni (come ad esempio quelli biologici) che mal si
adattavano allo stile classico della matematica. Avevo anche scritto dei
lavori scientifici su questi argomenti, ma il mio rimaneva un esercizio
elegante senza una vera presa sulla natura profonda di ciò che descrivevo. Manierismo insomma, elegante quanto vogliamo, ma pur sempre manierismo. Ecco che invece Joe, partendo da un punto di vista
completamente differente, da fisico piuttosto che da statistico, attraverso l’uso di una soglia che facesse interpretare come «ricorrenze»
le distanze molto piccole, mi faceva vedere come si potessero rendere
operativi e immediatamente sperimentabili concetti fino allora fumosi
e astratti come la complessità di un sistema, la presenza di non stazionarietà, il suo carattere frattale.
Si apriva un mondo: mandai subito a Joe e Chuck un’applicazione del loro metodo, abbellita da qualche svolazzo statistico, che loro
apprezzarono tantissimo; mi colpì il saluto di Joe alla fine del fax (allora non avevo ancora l’e-mail): «ciao bello!», insolito e accattivante
data la situazione.
Pochi mesi dopo andai a prendere Joe all’aeroporto di Fiumicino;
poche ore dopo stavamo per terra nel soggiorno di casa mia a giocare
con mia figlia Flaminia, che allora aveva meno di un anno.
Da allora Joe è venuto a Roma molte volte, e io qualche volta sono
stato a Chicago; il nostro era un discorso continuo che avveniva tramite posta elettronica, in cui le analisi di differenti insiemi di dati andava
di pari passo con le nostre discussioni filosofiche e di vita. Io sognavo
di costruire una scienza che fosse come le architetture di Borromini:
le vette della complessità, strutture che volassero nel vento, raggiunte con l’uso di materiali poveri come lo stucco e i mattoni. Lui sorrideva e diceva che gli sarebbe bastato che fosse una scienza onesta ed
efficace e mi faceva notare come noi italiani fossimo ossessionati dalla «bella figura» al punto di usare per tutto ciò che fosse positivo la
parola «bello», mentre in America lo stesso concetto si indicava come
«buono» (good). Joe trovava impossibile che un metodo lineare potesse rappresentare bene un sistema non lineare; io pensavo che un si164
Per Joe, un ricordo
stema non fosse né lineare né non lineare (anzi, senza mai confessarlo
forse pensavo che magari neanche esistesse) e che se la rappresentazione era soddisfacente potevo operare come più mi piacesse.
Dopo tanti anni sapevamo a memoria che cosa l’altro pensasse e
dicesse, ma non smettevamo di modificarci a vicenda; lui cominciava ad apprezzare di più il bello e io capivo che il bello senza il buono
aveva vita breve e travagliata. Questo libro è una incompleta, parziale,
zoppicante rappresentazione della nostra amicizia.
165
Dal catalogo
Jaca Book
L’evoluzione dell’universo
R. SCOSSIROLI, I primi passi della genetica, 1987
G. MINELLI, All’origine della biologia moderna, 1987
N.H. HOROVITZ, Utopia e ritorno, 1987
S.L. JAKI, La strada della scienza e le vie verso Dio, 1988, 19942
F. SELLERI, La causalità impossibile, 1988
C. ALLÈGRE, I furori della Terra, 1988
R. COHEN-TANNOUDJI e M. SPIRO, La materia-spazio-tempo, 1988
E. SCHATZMAN, Il messaggio del fotone viaggiatore, 1989
H. ARP, La contesa sulle distanze cosmiche e le quasar, 1989
F. SELLERI (a cura di), Che cos’è la realtà. Dibattito nella fisica contemporanea, 1990
P. KARLI, L’uomo aggressivo, 1990
V. WEISSKOPF, La rivoluzione dei quanti. Una nuova era nella storia
della fisica, 1990
F.T. ARECCHI, J. JACOPINI ARECCHI, I simboli e la realtà. Temi e metodi della scienza, 1990
A. KOESTLER, I sonnambuli. Storia delle concezioni dell’universo,
1982, 19912
L. DE BROGLIE, E. SCHRÖDINGER, W. HEISENBERG, Onde e particelle
in armonia, a cura di S. Boffi, 1991
P. GASCAR, La strada di Pasteur. Storia di una rivoluzione scientifica,
1991
F.L. WHIPLLE, Il mistero delle comete, 1991
H. ARP, Seeing Red. L’universo non si espande. Redshift, cosmologia
e scienza accademica, 2009
F.J. AYALA, L’evoluzione. Lo sguardo della biologia, 2009
J.P. ZBILUT, A. GIULIANI, L’ordine della complessità, 2009
Inoltre
A. PÉREZ DE LABORDA (testi), S. CORSI (illustrazioni), La storia
dell’astronomia e del cosmo, 4 voll. per ragazzi di grande formato, con illustrazioni e fotografie a colori, 2007
1. Gli antichi astronomi, 2007
2. L’astronomia moderna, 2007
3. Dalla Relatività al Big Bang, 2007
4. L’idea di universo oggi, 2007