Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
DI FRONTE E ATTRAVERSO 898 Joseph Peter Zbilut Alessandro Giuliani L’ORDINE DELLA COMPLESSITÀ Prefazione all’edizione italiana di Carlo Modonesi Prefazione all’edizione americana di F. Eugene Yates Titolo originale Simplicity. The Latent Order of Complexity prima edizione americana, Nova Science Publishers, New York 2007 Traduzione dall’inglese Alessandro Giuliani © 2009 Editoriale Jaca Book SpA, Milano per l’edizione italiana, riveduta e aggiornata Prima edizione italiana settembre 2009 In copertina Kazimir Severinovic Malevic, Cerchio Nero, 1920 ca. Olio su tela, Leningrado, Museo Russo Redazione e impaginazione CentroImmagine – Capannori (Lucca) Stampa e confezione Grafiche Flaminia, Foligno (Perugia) agosto 2009 ISBN 978-88-16-40898-2 Per informazioni sulle opere pubblicate e in programma ci si può rivolgere a Editoriale Jaca Book SpA, Servizio Lettori via Frua 11, 20146 Milano – tel. 02/48561520-29 – fax 02/48193361 e-mail: serviziolettori@jacabook.it; internet: www.jacabook.it Alla mia famiglia – per aspera ad astra. J.P.Z. A mio padre, che mi ha insegnato a non prendere le mie idee troppo sul serio, e a mia moglie che continua a ricordarmelo. A.G. INDICE Prefazione all’edizione italiana di Carlo Modonesi 9 Prefazione all’edizione americana di F. Eugen Yates 15 Presentazione 19 Capitolo primo LA SEMPLICITÀ È DIFFICILE 21 Capitolo secondo GLI SCIENZIATI SONO ARTIGIANI, NON PRETI 35 Capitolo terzo I COMPUTER SEMPLIFICANO LA SCIENZA 57 Capitolo quarto SCIENZA E SOCIETÀ 77 Capitolo quinto SCIENZA RIGOROSA? 91 7 L’ordine della complessità Capitolo sesto PROSPETTIVE 107 Capitolo settimo TROPPO ESATTO PER ESSERE VERO (OVERFITTING/SOVRADETERMINAZIONE) 115 Capitolo ottavo STILI SCIENTIFICI: PRIMI ELEMENTI DI UNA CRITICA SCIENTIFICA 131 Capitolo nono PROBABILITÀ E DETERMINISMO 147 Tutti a casa: una conclusione inconcludente 161 Per Joe, un ricordo 163 8 PREFAZIONE ALL’EDIZIONE ITALIANA Semplicità e complessità: la strana coppia Nell’ipotetico lungometraggio dell’avventura umana, vent’anni occuperebbero tutt’al più lo spazio di un fotogramma. Eppure, in un tempo così insignificante possono innescarsi processi radicali e irreversibili che accompagnano il passaggio tra la fine di un’epoca e l’inizio di un’altra. Gli studiosi interessati alle grandi transizioni del tempo profondo definiscono discontinuità queste brusche fiammate della storia dalle cui ceneri si sviluppano nuovi assetti del mondo. Se questi studiosi hanno ragione, allora ciò che è accaduto tra gli anni Sessanta e Settanta del secolo scorso assomiglia molto a una discontinuità. In quegli anni le fondamenta in cemento armato di molte società vennero scosse, sia pur con premesse e contesti differenti, da una sorta di onda sismica che si propagò da Berkeley a Tokyo passando per Roma, Parigi e Berlino. Una moltitudine di paesi tra i più avanzati del pianeta, e tutti di indiscutibile peso sulla scena internazionale, entrò in crisi come se un uragano immateriale avesse travolto le strutture sociali su cui essi si reggevano. La protesta studentesca contro le rigidità che imbalsamavano le università e inchiodavano il sapere a una realtà obsoleta si fuse con un bisogno più generale di rivedere i modelli dell’organizzazione sociale. L’auto-determinazione e la pari dignità umana diventarono valori irrinunciabili e permisero a un’intera generazione di aprire gli occhi sugli spazi angusti dentro i quali erano rimasti imbrigliati l’ingegno e le libertà delle generazioni precedenti. 9 L’ordine della complessità Naturalmente si verificarono molti altri eventi (positivi e negativi) che qui non vengono considerati, perché questa presentazione intende soltanto ripercorrere per sommi capi alcuni dei cambiamenti culturali che oggi ci permettono di leggere libri come questo di Joe Zbilut e Alessandro Giuliani. Tornando all’onda sismica accennata sopra, alla fine, come sappiamo, le cose non andarono esattamente secondo le previsioni dei tanti profeti di allora, e quasi tutti oggi concordano nel ritenere che il cemento armato resse bene la potenza dell’urto. Dopo il periodo caldo molte utopie si sono dissolte lentamente nelle ideologie e con esse si sono estinte, mentre altre hanno ceduto a pulsioni di segno opposto, soprattutto all’omologazione, aprendo la strada a un’autentica involuzione culturale. Quasi senza accorgersene la civiltà occidentale è scivolata in un limbo antropologico indotto da un malinteso senso della modernità, e ha partorito una strana idiosincrasia verso tutto ciò che non si conforma al tal costume o alla tale convenzione. A prescindere dal fatto che si tratti di oggetti o idee, superstizioni o conoscenze, idoli o valori, oggi tutto possiede cicli di vita vorticosi, infinitesimali, strettamente ancorati alle mode del presente. Quelle virtuali fanno perdere il contatto con il mondo reale, mentre quelle materiali invertono la prospettiva, generando ulteriori stati confusionali nella psicologia collettiva. A questo punto è inevitabile l’impatto tra il cosiddetto mondo là fuori e i codici comunicativi che usiamo per socializzarlo, visto che il primo seguita a funzionare con tempi e regole indipendenti dalle mode e dalle rappresentazioni che ne diamo. All’interno di un simile quadro dominato dal finto e dal contingente, nemmeno la scienza ha saputo sottrarsi alla progressiva distorsione dei suoi presupposti culturali. Anche nella sfera scientifica, infatti, hanno avuto buon gioco le mode, la miniaturizzazione dei tempi, la produzione in serie e lo slittamento verso filosofie più appropriate al marketing che allo sviluppo di una conoscenza vera e innovativa. Il dibattito alto che solo fino a un secolo fa scaldava gli animi di scienziati e filosofi si è spento, e si sono spente anche le grandi controversie a noi più vicine sui diversi modi (scientifici) di interpretare il mondo: si pensi solo a quelle scatenate dall’anarchismo metodologico di Paul Feyerabend, o dalle strutture dissipative di Ilya Prigogine, o dagli equilibri punteggiati di Stephen J. Gould e Niles Eldredge. Tutto questo determina sicuramente uno scadimento della cultura scientifica, che ormai cattura l’interesse generale soltanto quan10 Prefazione all’edizione italiana do dalla torre della scienza si lasciano percolare elementi pruriginosi, spettacolari e appetibili per l’informazione da talk-show; il che, però, trasforma automaticamente l’impresa scientifica nella sua caricatura più fuorviante, che purtroppo coincide anche con quella più propagandata. Insomma, a prima vista si direbbe che di quei due decenni non si sia salvato proprio nulla. Sembra che manchi uno scatto morale in grado di affrancare lo spirito del nostro tempo dai luoghi comuni più oscuri. Uno degli effetti meno edificanti è che del periodo richiamato sopra, così gravido di novità positive e certamente anche negative, si rischia di buttare via tutto: come si suol dire, «il bambino insieme con l’acqua sporca». Tuttavia, se solo si volesse andare oltre la superficie delle cose, si scoprirebbe che nel lascito di quel periodo c’erano idee e modi di pensare che stanno mostrando i loro primi frutti, come il libro che state per leggere. Per esempio, non è un caso se proprio a partire dagli anni Sessanta-Settanta si è cominciato a pensare che l’impresa scientifica dovesse essere concepita diversamente. Non si trattava solo di investigare nuovi aspetti della realtà; si trattava soprattutto di cambiare il rapporto tra soggetto e oggetto dell’indagine scientifica, cioè tra osservatore e osservato, rivedendo i codici e i metodi attraverso cui ricostruire scientificamente il mondo naturale. Fino a quel momento, la pratica sperimentale aveva preteso di fornire descrizioni della realtà emendate da qualsiasi elemento di soggettività da parte del ricercatore. Il linguaggio scientifico, con la sua asciuttezza e le sue formalizzazioni, costituiva lo strumento centrale di tale operazione di distacco, fornendo la prova manifesta che tra soggettività umana e oggettività del dato non vi era stata alcuna contaminazione. Ma quanto più le descrizioni degli oggetti di studio venivano mediate da costrutti linguistici molto specializzati, tanto più i settori disciplinari della scienza ortodossa perdevano la capacità di comunicare tra loro; quanto più la frontiera dell’esplorazione si addentrava nella struttura profonda della natura, tanto più il quadro delle conoscenze complessive risultava incongruente e di difficile ricomposizione. In definitiva, mentre la tanto agognata scoperta della legge fondamentale dell’universo si faceva attendere, gli specialisti delle scienze naturali imboccavano strade che non riuscivano più a incontrarsi tra loro, per non parlare del loro completo scollamento dalle strade delle scienze umane. Scomponendo il mondo naturale in unità esplicative separate e autosufficienti, 11 L’ordine della complessità la scienza riduzionista basata sulle monodisciplinarità subordinava le domande alla possibilità di trovare le risposte. Così le risposte che arrivavano erano soltanto quelle che si presentavano su percorsi rigidamente stabiliti dalle teorie. Tutto il resto andava a riempire un’enorme scatola nera, a cui la scienza non avrebbe dovuto prestare troppa attenzione. Con questo programma di lavoro, un corpo unificato di conoscenze in grado di amplificare i nessi tra linguaggi differenti si configurava come una delle tante utopie destinate alla polvere. Ma per fortuna le cose presero un’altra piega. Proprio tra gli anni Sessanta e Settanta un nuovo tipo di razionalismo attecchì nei grandi spazi tra una disciplina e l’altra, in cui si celavano interrogativi che il determinismo ortodosso aveva accuratamente evitato. Si svilupparono stili di pensiero innovativi rispetto a quello positivista che aveva connotato la filosofia della scienza di tutta la prima metà del Novecento. Questo catalizzò l’avvicinamento tra scienziati, matematici, filosofi, storici, sociologi, metodologi della ricerca e studiosi di informazione. Si cominciò a comprendere che il modello di spiegazione mutuato dalle scienze dure (fisicalismo) era destinato a fallire ogni volta che si trovava alle prese con fatti strettamente dipendenti dalle proprietà di scala di sistemi auto-organizzati e dotati di una storia. Gli esseri viventi e la loro evoluzione fornirono il materiale rispetto al quale i tradizionali metodi di indagine delle scienze dure evidenziarono (ed evidenziano) i limiti più gravi. Lavorando su un unico livello di spiegazione il fisicalismo si precludeva la possibilità di fare luce su territori della biologia rimasti da sempre nell’ombra. La prova è che le risposte ad alcuni grandi interrogativi, come quelli che riguardano i rapporti tra mondo organico e inorganico, ecologia ed evoluzione, ontogenesi e filogenesi, forma e funzione, ancora oggi restano sostanzialmente inevase. Occorreva quindi recuperare un approccio innovativo che sapesse riconoscere e collegare le diverse scale di movimento della materia e dell’energia, da cui dipendono i piccoli eventi fisici che avvengono all’interfaccia tra organico e inorganico, e le grandi trasformazioni geo-biologiche della storia planetaria. Era un correttivo essenziale, perché per troppo tempo le scienze della vita avevano imitato la fisica senza di fatto saperne individuare i princìpi fondanti utili (per esempio la termodinamica) per orientarsi nell’impressionante complessità del mondo biologico. Quel tipo di approccio è alla base della proposta culturale di que12 Prefazione all’edizione italiana sto libro e al tempo stesso ne è il filo conduttore. Tra le pagine emerge chiaramente un’impostazione avanzata, ricca, rafforzata dalla convinzione che ogni fatto sottoposto a verifica scientifica deve essere valutato tenendo conto della sua storia e del suo contesto: ciò che Zbilut e Giuliani chiamano condizioni al contorno. L’uso di ragionamenti statistici semplici e puliti incarna lo strumento principale per estrapolare dalla materia grezza, ma estremamente intricata, dei sistemi complessi di tendenze che diventano facilmente comprensibili persino ai profani. Il volume, comunque, richiama alla mente anche elementi che vanno oltre il senso epistemico dei suoi contenuti. In esso si può riconoscere un risvolto etico meno immediato, ma che probabilmente è figlio della stessa discontinuità innescatasi tra gli anni Sessanta e Settanta. Dopo lo spegnimento della fiammata, nonostante le derive culturali ricordate sopra, il mondo non è stato più lo stesso, anche in un’accezione moralmente positiva. Nuovi valori hanno messo radici nella società, molte dittature si sono sgretolate nell’arco di pochi anni, la crescente rilevanza dei diritti civili ha portato a rovesciare stereotipi che sembravano incrollabili, la centralità dell’ambiente nell’esistenza umana è stata riscoperta. E l’elenco potrebbe continuare. Grazie alla consapevolezza di questi nuovi valori, oggi possiamo toccare con mano tutta la portata della globalizzazione in atto, perché riusciamo ad apprezzare i vincoli e le criticità che fondono insieme le componenti del pianeta in un sistema che è molteplice e unitario al tempo stesso: ecologico, antropologico, sociale, tecnologico, ecc. In altre parole, comprendiamo che non è più possibile separare la nostra conoscenza della realtà dalla nostra presenza nella realtà. Le due cose devono andare necessariamente insieme, e questo semplice concetto è lo stesso che può imprimere una svolta profonda non solo al nostro modo di guardare alla scienza ma persino al nostro modo di vivere. Forse siamo davvero allo spartiacque tra due epoche, se è vero, come sembra, che l’idea di una scienza che si disvela direttamente dal mondo naturale come se i risultati emergessero in modo spontaneo (guidati dal solo metodo scientifico) dalle pieghe della realtà è sulla via del tramonto. I ricercatori accorti come i nostri due Autori, che al di là del significato intrinseco del loro mestiere si interessano anche del suo significato contestuale, hanno realizzato che l’impresa scientifica non è al13 L’ordine della complessità tro che uno dei tanti sviluppi della cultura, e come tale è assoggettata agli stessi filtri cognitivi e sociali. Il suggerimento che ci arriva è che dobbiamo imparare a considerare le rappresentazioni del mondo fornite dalla scienza non come fotocopie del mondo, ma come descrizioni parziali al pari di quelle prodotte dagli artisti, per la semplice ragione che in ciascuna di esse è sempre impressa la cifra di chi l’ha compiuta. L’immagine della scienza ne esce dunque sensibilmente rafforzata anche in senso culturale ed etico. Questo libro è di grande aiuto per capire qual è il succo dell’impresa scientifica, e per tale ragione ne andrebbe consigliata la lettura a tutti coloro che nutrono un interesse per questioni di scienza e tecnologia, in particolare agli studenti universitari. Chi lo leggerà forse sobbalzerà incontrando affermazioni che ancora oggi vengono liquidate come eresie intollerabili, del tipo: «la scienza, come qualsiasi attività umana, fa uso dello stesso modello di ragionamenti della vita quotidiana». Invece è proprio grazie a immagini simili che la scienza può tornare a farsi capire e amare dalla società civile: se saremo più consapevoli della sua impossibilità di essere trascendente e assoluta saremo tutti indotti a rispettarla di più. Semplicità e complessità formano una strana coppia, ma in fondo non così strana. La natura è troppo complessa perché la mente umana possa impadronirsi di ogni suo singolo dettaglio e forza debole. Può però coglierne le tendenze e le regolarità, acquisendo anche una buona capacità predittiva, a patto che al tempo stesso eviti di farsi guidare da pregiudizi superati, come quello che la riduce a un contenitore di dispositivi meccanici. Sembra la cosa più astrusa e difficile del mondo ma Zbilut e Giuliani sanno essere persuasivi. Niente paura, è proprio da queste apparenti contraddizioni che scattano i primi passi verso una conoscenza autentica e innovativa. Una scienza dell’uomo e per l’uomo. Carlo Modonesi, Museo di Storia Naturale Università degli Studi di Parma 14 PREFAZIONE ALL’EDIZIONE AMERICANA Nei primi anni del XX secolo, la frase «Come funziona» apparve in vari modi nel titolo di innumerevoli libri, che avevano come scopo quello di svelare al profano il mistero delle innumerevoli forme e funzioni dei «doni» che la scienza e la tecnica offrivano al nostro benessere, al nostro divertimento, alla nostra felicità. Oggi la situazione è profondamente cambiata rispetto ad un secolo fa, al giorno d’oggi anche quegli individui più dotati e volenterosi che erano in grado di mettere le mani nel motore della loro automobile con cognizione di causa e regolare abilmente le puntine, o addirittura sistemare il carburatore, ora sono resi impotenti da una tecnica fatta di iniettori, elettronica digitale, e in generale da essenze umanamente incomprensibili e accessibili esclusivamente al computer di bordo. L’ignoranza del pubblico rispetto al reale funzionamento delle cose cresce in maniera esplosiva man mano che la tecnologia diventa sempre più astratta e la forma si separa nettamente dalla funzione. Non possiamo neanche lontanamente comprendere in maniera dettagliata il funzionamento di ciò che rende possibile la nostra vita nelle metropoli, come i sistemi di purificazione dell’acqua potabile, la rete elettrica, la fornitura e distribuzione di generi alimentari, lo smaltimento dei rifiuti. Ciò che non riusciamo a comprendere ci appare «complesso» almeno fino al momento in cui, attraverso lo studio o la pratica, arriviamo ad una sorta di illuminazione in cui, toccandoci la fronte con la mano (ma come avevo fatto a non pensarci prima?!) la complessità collassa in semplicità e parte della nostra visione del mondo cambia per sempre. 15 L’ordine della complessità In questo libro utile e affascinante gli autori, che hanno raggiunto una certa statura nell’ambito delle scienze teoriche e sperimentali, affrontano il più ambizioso «come funziona» possibile, quello legato ai metodi e ai limiti della scienza. Essi affrontano questo tema con un piglio informale accessibile ad ogni lettore realmente interessato alla faccenda. Sin dall’inizio della scienza moderna abbiamo assistito ad innumerevoli controversie sui temi legati alla metodologia scientifica, dibattiti ancora più accesi sono sorti riguardo alle limitazioni della scienza e dei suoi metodi di indagine. Persone responsabili e di grande cultura scrivono articoli e libri che hanno per tema «La fine della Scienza». In questo scenario, Zbilut e Giuliani guidano con sicurezza il lettore attraverso rovi e intrichi apparentemente inestricabili, emergendone senza un graffio, un risultato ammirevole. Un punto cruciale per comprendere le scienze fisiche riguarda la relazione esistente tra l’evidenza empirica (fatti, dati) e le astrazioni matematiche (modelli, teorie) che si adattano ai dati. In queste scienze un approccio che si è rivelato molto efficace è stato quello di tradurre una teoria in un modello formale (cioè matematico), con vincoli e condizioni al contorno di applicabilità specifiche per ogni diversa situazione, e poi controllare se il modello costruito sulla teoria fosse compatibile con il modello emergente dai dati. Se questa compatibilità era verificata, la teoria poteva sopravvivere per un altro po’ di tempo, in attesa di nuovi saggi su nuovi dati. Questo approccio non ha avuto lo stesso successo nel caso della biologia. La più onnicomprensiva teoria biologica (la sintesi moderna delle teorie di Darwin) guarda al passato come ad una storia, una cronaca di eventi irripetibili, piuttosto che come un sistema dinamico espressione di quelle leggi del moto e del cambiamento così care alla fisica. Freeman Dyson ha recentemente ricordato come le scienze fisiche abbiano dominato l’orizzonte della scienza pratica e della filosofia della scienza fino a circa la metà del XX secolo, mentre da allora le scienze biologiche abbiano sopravanzato la fisica in termini di importanza dal punto di vista di aumento vertiginoso di finanziamenti, capacità di attrazione di talenti e tasso di nuove scoperte. A fronte di queste tendenze e correnti di pensiero, un libro come questo, che si situa su un meta-livello, fornisce un utile orientamento e ci aiuta a non essere abbacinati dalle continue notizie (quasi sempre false) di nuove scoperte che si susseguono sui mezzi di comunicazione. 16 Prefazione all’edizione americana Notevole a mio parere è soprattutto la critica del determinismo nella scienza. Il famoso economista Kenneth Arrow definì il successo della meccanica deterministica newtoniana come un «disastro intellettuale» in quanto essa divenne il paradigma indiscusso del movimento e del cambiamento in ogni campo, provocando enormi danni e fraintendimenti. Zbilut e Giuliani offrono un dettagliato e motivato supporto a questa visione di Arrow, ma con un’attitudine più moderata, e avanzano la proposta di un determinismo-a-tratti che «potrebbe aiutare a riconoscere gli elementi costituenti della natura di molti diversi processi e allo stesso modo aiutare a riconoscere come questi elementi costituenti siano a volte difficili da assemblare». In questo modo gli autori mettono pace tra i due schieramenti contrapposti di «riduzionisti» e «olistici». In scienza capita spesso che tra un’idea e la sua realizzazione si interponga un’ombra – un’ombra che nasconde la semplicità sotto un velo di complessità, questo libro identifica quest’ombra e, come un buon foto-processore, mette in risalto i dettagli fuori dal buio. F. Eugene Yates, Professor of Medical Engineering (emeritus), UCLA Scientific Advisor, The John Douglas French Alzheimer’s Foundation, Los Angeles, CA Los Angeles, California, luglio 2007 17 PRESENTAZIONE Raggiunto un elevato livello di abilità tecnica, la scienza e l’arte tendono a fondersi in estetica, plasticità e forma. I più grandi scienziati sono anche degli artisti. La gran parte delle idee fondamentali della scienza sono intimamente semplici, e possono essere espresse in un linguaggio comprensibile a chiunque. Albert Einstein La scienza occupa un posto molto particolare nell’ambito delle attività umane. Normalmente non prestiamo nessuna attenzione al fatto che una parte notevole della nostra esistenza quotidiana è resa più comoda dalla scienza. Attività quotidiane come la pulizia dei panni, la cucina, la disinfezione, i viaggi sono state rese più semplici e accessibili grazie alla scienza, anche se questo sembra essere così scontato che difficilmente ci soffermiamo a pensarci. In altri casi invece, come quando si parla di temi come le cellule staminali, lo screening genetico, il cambiamento climatico, il discorso diventa immediatamente delicato e le implicazioni della scienza vengono messe in risalto suscitando profonde passioni. Il filosofo, il teologo, il sociologo, lo scienziato hanno delle idee più o meno definite, ma spesso molto appassionate, su come le cose dovrebbero o non dovrebbero andare. Noi vorremmo aggiungere questa nostra monografia al dibattito, ma con un tono completamente diverso. La nostra ambizione, invece di discutere delle implicazioni sociali e morali dei prodotti della scienza, è quella di fornire una vista sulla natura del mestiere della scienza che spesso è molto travisata. Questo non è un lavoro accademico. Questa monografia è stata scritta per lettori con un medio grado di cultura, non necessariamente scienziati o studenti di materie scientifiche, ma chiaramente interessati a comprendere qualcosa di questa porzione del pensiero umano che chiamiamo scienza. Sebbene il libro sia preferibilmente da leggere nella sua interezza, ogni capitolo è una sorta di saggio autonomo e può quindi essere com19 L’ordine della complessità preso anche isolato dagli altri. Le note alla fine di ogni capitolo sono da intendersi più come commenti aggiuntivi che come vere referenze bibliografiche complete. Ci fa piacere ringraziare tutti gli amici e i colleghi che in miriadi di discussioni e di brevi scambi, in maniera consapevole e non, ci hanno aiutato a farci un’idea sui temi discussi qui. Come ultima raccomandazione ci teniamo a sottolineare come il nostro tono non sia un tono «serio» nel senso tradizionale, abbiamo cercato di mantenere un tono allegro e bonariamente irriverente del tipo di quello che ci si può aspettare in una chiacchiera da bar di fronte ad un caffè o ad un bicchiere di prosecco. Questo in parte dipende dal fatto che non siamo capaci di scrivere in modo diverso da quello con il quale parliamo e in parte dalla necessità di liberare la scienza da un’aria un po’ triste e sussiegosa che sta assumendo in vecchiaia. Da questo punto di vista ci siamo molto divertiti a scrivere questo libro e il nostro augurio è che un pochino si divertano anche i nostri lettori. 20 Capitolo primo LA SEMPLICITÀ È DIFFICILE Pluritas non est ponenda sine necessitate. Guglielmo di Ockham La semplicità è l’estrema sofisticazione. Leonardo da Vinci Ciò che ci ha spinto a scrivere Il dibattito sul ruolo e lo stato della scienza è di questi tempi piuttosto affollato. La cosa non è senza motivo perché tutti sentiamo, più o meno confusamente, che attorno alle cose di scienza si gioca una partita fondamentale per l’essere umano. Non si tratta solo del destino del nostro pianeta messo in gioco dai cambiamenti climatici e dal crescente inquinamento (largamente dipendente dallo sviluppo tecnologico), ma anche dal fatto che la scienza ha progressivamente invaso campi molto lontani dalla sua iniziale collocazione, tanto da includere la religione, la filosofia e le convinzioni politiche. Questo ruolo esagerato e insolito della scienza ha provocato delle reazioni ugualmente esagerate e insolite, che vanno da una rigida opposizione ad una egualmente rigida adorazione, un’idolatria. A nostro giudizio tutto ciò è estremamente pericoloso tanto per la scienza quanto per la società: per la scienza il rischio è quello di essere mummificata nel ruolo di «verità assoluta», al punto che rischia di smarrire ogni possibilità di avanzamento (questo significa la morte della scienza); per la società il rischio è quello di essere vincolata ad un pensiero unico, dove esiste una soluzione «ottimale» per ogni problema senza alcuno spazio per la diversità di opinione, il che significherebbe la morte simultanea della democrazia e del progresso sociale1. Per queste ragioni la conoscenza dei princìpi base dell’investigazione scientifica, di quello che effettivamente è l’attività scientifica 21 L’ordine della complessità e non le sue idealizzazioni arbitrarie, diventa di importanza cruciale anche, e forse soprattutto, per chi scienziato non è. D’altra parte gli scienziati professionisti sono spesso talmente preoccupati dagli aspetti minori del loro lavoro, dai dettagli specialistici che occupano gran parte del tempo e dell’attenzione di un ricercatore, che essi non prestano più attenzione al senso del loro lavoro, o addirittura ne ignorano i princìpi di base, e di conseguenza perdono la possibilità di avere proficui contatti al di fuori della loro ristretta cerchia, largamente auto-referenziale. I pochi che si occupano di «divulgazione» (orribile concetto che implica uno sversamento dall’alto verso il volgo di un sapere non criticabile e pacificato) non hanno alcuna voglia di esporre il funzionamento degli strumenti del mestiere ma solo di reclamizzare i prodotti belli e fatti oppure − il che è anche peggio − assumono il ruolo di maestri di pensiero come se fossero i depositari di una superiore saggezza conferita loro dal mestiere che esercitano. La necessità di acquisire degli strumenti sofisticati di indagine spinge gli studenti ad immergersi subitamente nei particolari specialistici delle loro discipline, trascurando così gli aspetti più propriamente culturali del loro lavoro, che sono poi quelli che costituirebbero il terreno comune con cui dialogare con il resto della società. Quando poi questi studenti diventano grandi, la spinta ad affermarsi nel mondo della ricerca, ad avere fondi, preclude loro definitivamente la spinta ad allargare gli orizzonti anche verso le discipline limitrofe. Le lauree universitarie si sono lentamente allontanate dal concetto di «educazione» per andare ad occupare una collocazione analoga a quella delle gilde medievali, la cui funzione era essenzialmente una funzione protezionistica verso l’ingresso indiscriminato di competitori in mestieri predefiniti. Alla base della parola apparentemente positiva di «professionalizzazione» è nascosto questo retrogusto amaro della chiusura in recinti (non a caso si parla di ordini professionali) guardati da arcigni custodi2. Ad essere onesti, comunque, bisogna dire che non è che la «professionalizzazione» sia un fatto solo negativo, essa presenta degli indubbi meriti, e in ogni caso ha avuto un ruolo di sviluppo importantissimo nei decenni passati. Semplicemente, ora, in un’epoca di rifondazione della scienza e di rapida dissoluzione delle barriere disciplinari, è diventata controproducente restringendo in maniera ormai insopportabile le prospettive di sviluppo creativo. La scienza «professionalizzata» riesce difficilmente a distinguersi dalla tecnologia e perde la sua 22 La semplicità è difficile dignità culturale, tanto che i mezzi di comunicazione di massa diventano spesso gli arbitri della significatività scientifica di un risultato. La scienza diventa sempre meno razionale e sempre più fonte di «miracoli». La confusione tra scienza e tecnica, adombrata nella parola tecnologia, racchiude un pericolo grave. Un’utile analogia si trova nella distinzione fra artigiano e artista: entrambi svolgono un ruolo importantissimo grazie alle loro differenti abilità. Questa differenza è la differenza tra chi riesce a presentare fedelmente una determinata prospettiva sul mondo (sia essa un affresco, una musica, una casa o un’equazione) e chi apre una prospettiva nuova e inaspettata accettando il rischio che non sia fedele (efficace, produttiva, utile). Michelangelo e Galileo sono due esempi di artisti rinascimentali, laddove la supposta rivalità fra Mozart e Salieri è la rappresentazione romantica (in un’epoca che esaltava gli artisti a scapito degli artigiani e perciò si condannava all’esplosione della bruttezza nel mondo, ma su questo torneremo in seguito) dell’opposizione fra l’artista e l’artigiano. Il punto importante è che sia l’artista che l’artigiano, sia la scienza che la tecnica, hanno la stessa importanza e dignità, l’uno aiuta l’altro in un rapporto bidirezionale (quella della scienza applicata in cui prima c’è la teoria innovativa e poi l’applicazione è una fola). Enfatizzare il ruolo dell’uno a scapito dell’altro, o annullare le differenze fra i due, mette a rischio l’esistenza di entrambi e, ancora peggio, della possibilità di reale innovazione. Questo è un pericolo fortemente presente nei nostri tempi, in cui la scienza sta rapidamente perdendo di efficacia nell’affrontare i problemi del mondo reale; e la spia più evidente di questa crisi è la paradossale correlazione negativa tra l’apparente aumento della nostra conoscenza biologica e il numero di nuovi farmaci immessi sul mercato. Lo scopo di questo libro, allora, è quello di dare un contributo infinitesimo (ma più grande di zero) allo scopo di una maggiore comprensione di che cosa è veramente il lavoro scientifico, sia esso portato avanti da artigiani o da artisti (chi affrescava una chiesetta di campagna aveva lo stesso armamentario tecnico di Giotto quanto a mescole di colori, trattamento delle superfici ecc.). Per questo la nostra attenzione si concentrerà sugli strumenti che gli scienziati usano nel loro lavoro di tutti i giorni, e da qui speriamo di trarre una giustificazione convincente della necessità di una drastica semplificazione delle metodologie scientifiche, da ottenersi attraverso l’eliminazione di tutti quegli inutili fardelli che la scienza ha accumulato nei suoi ultimi tre secoli di vita. 23 L’ordine della complessità Siamo fermamente convinti che il senso fondamentale del lavoro scientifico possa essere trasmesso al profano senza entrare negli specifici contenuti delle differenti discipline (impresa impossibile) ma concentrandosi invece sui metodi di ragionamento usati dagli scienziati. La diffusione di strumenti di calcolo molto potenti a basso costo ci offre la possibilità pratica di intraprendere questa opera di semplificazione; gli ostacoli semmai sono di ordine differente: essi hanno un’origine mista in cui si mescolano motivazioni di tipo filosofico (cosa è la verità e amenità del genere), storico (da dove è nata la vera scienza), sociologico (chi è uno scienziato accreditato) e sono profondamente radicate nella comunità e nelle istituzioni scientifiche. Non c’è da stupirsi, ogni istituzione diventa molto conservatrice e rigida con l’età, e la scienza non fa eccezione. Cercheremo allora di presentare, con l’aiuto di alcuni casi paradigmatici di scienza semplice3 (nella speranza che il senso dato a questo aggettivo risulti chiaro nel seguito), un metodo efficace per eliminare le incrostazioni che si sono depositate sulla chiglia della vecchia ma sempre valida barca della scienza. Un ultimissimo corollario ai proclami precedenti. Questo libro riporta le nostre particolari e personali opinioni su cosa è la scienza: né una filosofia né tanto meno una religione o una scelta di vita, bensì un affascinante lavoro artigiano che in alcuni rari casi sconfina nell’arte. Fissare le regole del gioco o «la semplicità di Michael Jordan» Chiedete a un matematico che cosa intende per «semplice», probabilmente vi mostrerà una formula molto concisa che − lui assicura − spiegherà un’infinità di cose (o meglio «una classe molto ampia di problemi»). Questo è uno sporco trucco, chiunque abbia frequentato un corso universitario di matematica conosce l’abisso che separa le prime due pagine di qualsiasi libro di testo di matematica dal resto della trattazione: concetti apparentemente molto semplici si trasformano in un formalismo completamente innaturale quasi impossibile da seguire. Possiamo chiamare questo effetto «la maledizione del rigore assoluto»: con l’idea di sviluppare un modo auto-consistente e oggettivo di descrivere le cose andiamo fatalmente a cozzare con il carattere finito della nostra esperienza quotidiana e con il carattere dipendente da contesto dell’intuizione. Qualsiasi formalizzazione che si propone di essere auto-consistente e indipendente da contesto civetta con 24 La semplicità è difficile la stupidità e l’assurdo. C’è una barzelletta molto famosa che aiuta a comprendere questo punto ed è quella dei due carabinieri nella loro automobile con il primo che chiede all’altro: «mi controlli se funziona la lanterna sul tetto?» e l’altro «ora sì, ora no. Ora sì, ora no…»4. Se andiamo appena appena un po’ a fondo nell’esegesi della barzelletta ci accorgiamo che la risposta del secondo carabiniere è completamente appropriata se non teniamo conto della «informazione proveniente dal contesto» e cioè che il funzionamento normale dei dispositivi di segnalazione delle automobili dei carabinieri (e della polizia, dei pompieri, delle ambulanze...) implica l’intermittenza. Ora proviamo a immaginare che razza di fatica dovremmo fare se volessimo eliminare tutte le dipendenze da contesto di una regola per generare un linguaggio auto-consistente e autonomo. Il sogno della semplicità si trasformerebbe immediatamente in un incubo. Questo è il motivo per cui la «ricerca della generalità» non è una strada consigliabile per trovare la semplicità. Ora però un esempio più serio, che deriva da una locuzione onnipresente in fisica e matematica che in italiano suona «... con X tendente a zero» e non fa una grande impressione, ma che in inglese si traduce «... with X vanishingly small». Ora, per chi ha fatto studi di fisica o di matematica questa è una frase usuale, tanto usuale che non fa caso a quel vanishingly, ma un profano dotato di un certo gusto per la lingua trova un po’ magica quella X che svanisce rimpicciolendosi progressivamente ma senza mai scomparire del tutto. Insomma sembrerebbe un tocco di magia nel supposto regno della razionalità assoluta, invece qui abbiamo a che fare con la base profonda del calcolo differenziale. Questo concetto consente di descrivere in modo molto conciso ed efficace una grande varietà di sistemi fisici; ciononostante, se alcune assunzioni implicite non sono accuratamente verificate, da questa idea potente del limite di una grandezza che tende a zero, si scatenano una serie di assurdità simili alla barzelletta dei carabinieri. Immaginiamo, usando il vocabolario della fisica, il caso del moto monodimensionale di una particella decelerata da una forza di frizione (attrito) rispetto a un equilibrio dato. In parole povere stiamo descrivendo il moto di un oggetto che si sta avvicinando a un punto dove si fermerà progressivamente rallentato dall’attrito. In termini matematici questa situazione si esprime con la formula: m(n˘) = F(n) dove m è la massa dell’oggetto e n è la velocità, il puntolino sul termine n rappresenta la sua derivata, cioè la sua velocità di variazione, 25 L’ordine della complessità e quindi l’accelerazione della massa (che in questo caso è negativa visto che l’oggetto si sta fermando). Ora, il modo di lavorare della matematica impone che ci sia una sola soluzione al problema così esposto. Di prammatica si procede così: si comincia con il linearizzare la forza F rispetto all’equilibrio, che poi significa semplicemente che la forza cala proporzionalmente all’avvicinarsi al punto in cui il sistema si ferma, il che è assolutamente ragionevole. Matematicamente questo si esprime come: n = 0: F → –an at n = 0, a = (∂F/∂n)n = 0 > 0 La soluzione di questa equazione, quando l’oggetto si avvicina al punto di quiete è: n = n0 e − a t m → 0 per t → ∞, n0 = n(0) Non è importante andarsi a spulciare le varie caratteristiche di questa equazione; quello che a noi interessa è solo l’espressione t → ∞ che implica né più né meno che la particella non si fermerà mai completamente! Il che è francamente contrario al buon senso e agli esperimenti. La spiegazione usuale che viene data nei corsi di fisica dei primi anni di università di questo strano effetto è che, data l’accuratezza finita della nostra limitata scala di osservazione, la particella «a tutti gli effetti» raggiunge l’equilibrio in un tempo finito e si ferma anche se l’equazione ci dice il contrario. Insomma si insinua (senza mai ammetterlo esplicitamente però, si badi bene) che la realtà vera è quella descritta dall’equazione, ma le nostre limitate forze umane e la povertà della realtà rispetto al mondo delle idee non ci permettono di apprezzarlo. Insomma l’equazione è una barzelletta (e come la barzelletta dei carabinieri assolutamente logica, da cui la comicità) ma questo è meglio non dirlo a voce alta, tanto poi sappiamo come vanno davvero le cose. Questa piccola difficoltà ricorda da vicino il famoso paradosso proposto dal filosofo Zenone di Elea, che egli utilizzava per dimostrare come il movimento fosse solo un’illusione. Come riportato da Aristotele (Fisica VI, 9) la faccenda ruota attorno al fatto che se uno vuole andare dal punto A al punto B, prima deve percorrere metà del percorso, poi metà del rimanente, poi un’ulteriore metà... messa così la storia diventa esprimibile come una somma di termini ½, ¼, 1/8... Insomma, bi26 La semplicità è difficile sognerebbe attraversare un numero infinito di tratti, invero sempre più piccoli ma comunque infiniti, e quindi ci si dovrebbe impiegare un’infinità di tempo. Risulta chiaro a tutti che qui il problema è con il formalismo, che non riesce a gestire i punti «estremi» del fenomeno che rappresenta, il che tuttavia è inammissibile in un’ottica che considera come «vera» la formula matematica e come illusione l’osservazione. Il problema principale della nostra equazione è che pretende di offrire una formulazione newtoniana classica con una sola soluzione deterministica. Senza per ora impegolarci nella questione determinismo/probabilità (lo faremo più avanti), qui ci preme mettere in evidenza i forti limiti dell’idealismo di stampo platonico che ancora inquina le scienze. La formulazione del problema è presentata attraverso un ente a cui diamo il nome di «particella», un’entità amorfa e sconosciuta che ci garantisce la generalizzazione. Ma la vita reale non è sempre congruente con queste generalizzazioni. Prendiamo un esempio facile facile: l’atto di piantare un chiodo con un martello. A ogni colpo il martello segue approssimativamente la stessa traiettoria, ma noi sappiamo che la traiettoria non è sempre la stessa; allo stesso modo, se noi facciamo scivolare una pallina giù da un piano inclinato molte volte, le traiettorie saranno lievemente diverse l’una dall’altra. Anzi, in questo caso, possiamo sbizzarrirci a variare l’angolo di inclinazione così da aumentare o diminuire a piacere la similitudine relativa delle traiettorie. Il punto è che questi oggetti reali (il martello, la pallina), non particelle ideali, arrivano al loro punto di quiete (il chiodo, il fondo del piano) in un tempo finito e lo fanno con differenti soluzioni (traiettorie) e non con una soluzione unica come preteso dal formalismo matematico. Gli approcci classici disprezzano questi piccoli dettagli in quanto le loro soluzioni sono basate su realtà idealizzate e non su oggetti reali. Questo fissarsi su idealizzazioni invece che sulla realtà consente di dimenticare il «contesto», il che, mentre sulle prime sembrerebbe rendere le cose più semplici, alla lunga le complica, perché prima o poi ci si trova di fronte a degli apparenti paradossi che in prima battuta si liquidano con formule magiche vanishingly, ma nei casi seri, fuori dalle aule, provocano complicazioni incredibili, rendendo impotente questo approccio ideale a qualsiasi sistema appena più complesso dei casi di scuola (questo problema è adombrato dall’ossessione quasi maniacale delle scienze di tenere sotto controllo le variabili sperimentali). Di fatto ci sarebbe una soluzione matematica a questo problema: ammettere soluzioni multiple. I lettori con il pallino della matematica 27 L’ordine della complessità daranno a questa trovata l’esoterico titolo di «rilassamento delle condizioni di Lipschitz per l’unicità e l’esistenza». Più semplicemente potremmo dire che rinunciamo ad ottenere una soluzione unica a una equazione differenziale. Comunque, il messaggio importante è che molte assurdità e complicazioni nelle formulazioni scientifiche spesso derivano dall’ansia di trattare con idealizzazioni indipendenti da contesto. I matematici lo sanno bene, tant’è che una considerevole parte del loro lavoro è volto ad analizzare le cosiddette «condizioni al contorno» delle loro formalizzazioni, i minacciosi confini cioè da dove la barbara realtà con il suo disordine, viene a insidiare il mondo assoluto e inesorabile delle idee. È profondamente ingiusto prendere in giro i matematici per queste ansie, tanto più che da recenti studi di neuroscienze sembrerebbe che sia una necessità del funzionamento del nostro cervello scoprire schemi ordinati anche laddove non esistono. Convinti? In ogni caso, a scanso di equivoci, è bene ricordare che la matematica è una benedizione e non un malanno per la scienza, posto che la si usi allo stesso modo in cui un falegname usa un martello, non come un fine in sé ma per piantare chiodi. Le affermazioni scientifiche vivono di una vita finita in un mondo finito e sono nate con stretti vincoli di applicabilità, al di fuori dei quali si trasformano in barzellette più o meno divertenti. Insomma, stiracchiare le affermazioni scientifiche verso le loro conseguenze estreme (portarle all’infinito) le rende sciocche e inutili, invece l’infinito è proprio quel luogo dove la matematica va a cercare le prove dei suoi teoremi e la frequentazione dell’infinito non la rende certo sciocca. La scienza e la matematica sono quindi due cose molto diverse e la semplicità della matematica è sicuramente affascinante, ma non è quello che stavamo cercando. Ora chiedete a un giocatore di pallacanestro che cosa intende per «semplice», egli vi mostrerà i cosiddetti «fondamentali», che sono solamente tre azioni: a) il tiro a canestro; b) avanzare facendo rimbalzare la palla; c) il cosiddetto «terzo tempo», che consiste in due passi compiuti con la palla in mano seguiti da un tiro in corsa. Questo è tutto, questo è veramente semplice e può essere spiegato in dieci minuti a chiunque. Ma cosa rende Michael Jordan sideralmente differente da noi per ciò che riguarda il basket? Due cose: a) l’istinto di scegliere dallo stringato repertorio che abbiamo riportato in precedenza la cosa giusta da fare in ogni possibile situazione di gioco; b) eseguire ognuno dei fondamentali nel modo più efficace pos28 La semplicità è difficile sibile. Questa è la semplicità che stavamo cercando: trovare l’insieme minimo di azioni fondamentali e facili da capire e da eseguire. A questo punto la partita può iniziare e il campione sarà quello che troverà la cosa giusta da fare di fronte a un mondo imprevedibile e in continuo cambiamento. Chiaramente quasi nessuno diventerà bravo come Michael Jordan, ma ognuno dovrebbe essere in grado di apprezzare la differenza fra Michael Jordan e i figli dei nostri amici quando li vediamo su un campo di basket. Questa capacità di apprezzare le differenze fra un campione e un giocatore mediocre nel gioco della scienza è lo scopo di questo libro. Il gioco dei fondamentali scientifici La scienza ha a che fare con la retorica. In tempi moderni ci si è abituati a considerare la retorica una cosa brutta, ma questo non era il caso dell’antica Roma, dove la retorica era correttamente considerata come uno degli strumenti che gli avvocati (o chiunque avesse responsabilità pubbliche) usavano nel loro lavoro. Lo strumento della retorica è di per sé neutrale, né buono né cattivo, diventa cattivo quando voglio convincere un malcapitato a investire i suoi risparmi in un affare che so di sicuro che finirà con una bancarotta. È sicuramente buono quando dovete convincere la vostra figlioletta di tre anni a bere una medicina molto amara che però voi sapete che di certo le farà bene alla salute. La perniciosa illusione di un linguaggio completamente auto-consistente, auto-esplicativo, auto-evidente come il linguaggio naturale della scienza ha portato alcuni filosofi a dire che la retorica non ha nulla a che fare con «una scienza obiettiva», ma questo è, a sua volta, un esempio di pessima retorica. Negare il carattere contestuale delle affermazioni e dei risultati scientifici e la loro natura finita è semplicemente una frode che contraddice tutti gli sviluppi storici della scienza: la storia è piena di pseudo-scienze come la frenologia, di pseudo-entità come il flogisto, la cui assoluta esistenza e veridicità era pomposamente affermata in perfetta buona fede dai più grandi scienziati del tempo. La vera scienza nasce dagli errori. Più in generale qualsiasi cosa che viene dotata di troppi «auto-» nella sua definizione alla fine si risolve in una delusione e dimostra la sua insufficienza come tutti quanti abbiamo scoperto nella nostra adolescenza. 29 L’ordine della complessità Questo significa che è un nostro compito primario quello di dover convincere gli altri della plausibilità e della rilevanza delle nostre conclusioni. Non esiste alcun risultato scientifico che sia convincente «di per se stesso». Dopo aver detto che la retorica (l’arte di convincere il prossimo della plausibilità delle nostre asserzioni) gioca un ruolo preminente nella scienza, passiamo a esaminare quali siano le principali figure retoriche della scienza; qui indichiamo solo i due capostipiti, che possono essere espansi a piacere a diversi livelli di dettaglio. La prima figura possiamo chiamarla «Traduzione». Immaginiamo un epidemiologo che voglia convincerci dell’effetto cancerogeno di una sostanza chimica X. Il suo modo di argomentare sarà più o meno questo; per prima cosa dividerà una certa popolazione di soggetti in due gruppi: il gruppo T formato da individui esposti alla sostanza X e il gruppo P di non esposti. Scordiamoci per un attimo le enormi difficoltà connesse all’accertamento della correttezza di questa classificazione; teniamo comunque a mente che è su queste difficoltà e su eccezioni alla correttezza di queste classificazioni che si nutre gran parte della ricerca epidemiologica e clinica. In ogni caso l’epidemiologo userà alcuni «trucchi del mestiere» per cercare di minimizzare le critiche a questa assegnazione. Gran parte di questi trucchi deriva dal semplice buon senso ed è comprensibile a chiunque; avrà insomma a che vedere con questionari di esposizione, valutazione delle abitudini alimentari, vicinanza o lontananza da fonti di emissione di X e così via: siamo comunque in un orizzonte del discorso strettamente legato alla vita quotidiana. Definiti i gruppi, l’epidemiologo eseguirà un secondo tipo di classificazione sui soggetti dividendoli in due gruppi: «ammalati di tumore» (C) e «sani» (S). A questo punto abbiamo il momento della traduzione: se la classificazione P/T è rispecchiata dalla classificazione C/S, allora ho «tradotto» l’esposizione alla molecola in effetto biologico di sviluppo del tumore e posso affermare «X aumenta la probabilità di sviluppare il cancro». Chiaramente la traduzione non sarà mai perfetta, non tutti gli individui T saranno C (TC) e non tutti gli individui P saranno S (PS), ci saranno esposti sani (TS) e malati non esposti (PC). La significatività statistica della traduzione verrà giudicata dalla misura del grado di allontanamento dal puro assortimento casuale degli individui nelle quattro classi TC, TS, PC, PS. La distribuzione casuale è fatta corrispondere alla simmetria assoluta: l’assortimento degli individui nelle diverse classi composte (quelle formate da due lettere) dipende esclusivamente dall’abbondanza iniziale delle classi singole 30 La semplicità è difficile (quelle a una sola lettera, insomma quanti esposti e quanti malati indipendentemente dalla loro associazione). Questa «legge di simmetria» si traduce semplicemente con l’osservazione che le frequenze attese per puro caso nelle classi composte corrispondono ai prodotti delle frequenze nelle classi semplici corrispondenti. L’informazione scientifica deriva quindi dalla dimostrazione di una «rottura di simmetria», poiché le cose vanno in maniera diversa dal puro assortimento casuale. Quanto l’epidemiologo si deve allontanare dal puro assortimento casuale per essere convincente? Egli può appellarsi a una procedura apparentemente ineccepibile: e cioè riferirsi a distribuzioni di probabilità note e calcolare con che probabilità egli avrebbe osservato il suo risultato nel caso di un assortimento casuale. Questa tecnica gli consentirà di fare un’affermazione del tipo: «il risultato osservato ha solo l’1% di probabilità di essere osservato per opera del caso, quindi la mia affermazione è accettabile». È usanza comune scegliere come limite di accettabilità il 5%, valore che dipende dalla storia della statistica, ossia da una convenzione storica che non ha nulla di necessario. Esso fu originariamente fissato da William Gosset. Alla fine dell’Ottocento, egli era il responsabile del controllo di qualità della birra Guinness a Dublino e doveva risolvere il problema di trovare un criterio ottimale per controllare la qualità della birra, in modo da limitare al massimo le bottiglie di prodotto scadente immesse sul mercato e insieme non interrompere troppo spesso la produzione con falsi allarmi quando i parametri di controllo (concentrazione relativa di malto) apparissero differenti dalla norma. Gosset derivò in maniera empirica una distribuzione della probabilità di fermare la produzione a fronte di una certa concentrazione di malto quando in realtà le cose andavano secondo la norma. Questa distribuzione prese il nome di t di Student (Student era lo pseudonimo di Gosset, che nella pubblicazione preferì non firmare con il suo nome per paura di ritorsioni dalla Guinness) e il livello di probabilità del 5% era semplicemente il livello di errore ammesso (fermare la catena quando non c’era bisogno) che massimizzava l’efficienza del controllo in termini di qualità e di profitto. La scienza sperimentale prese così come era questo costrutto e tutto apparentemente fila per il verso giusto. Qui abbiamo però un altro insidioso punto di attacco del maledetto infinito, che non la smette mai di rendere paradossali le nostre affermazioni scientifiche. È naturale che se l’epidemiologo avesse osservato 10 individui (5 P + 5 T) e avesse osservato una distribuzione del tipo: 31 L’ordine della complessità gruppo P = 3 S, 2 C gruppo T = 2 S, 3 C le sue argomentazioni avrebbero una base ben debole, ed effettivamente il calcolo della significatività statistica gli darebbe torto; la distribuzione non è sufficientemente lontana da quanto ci aspetteremmo assortendo a caso gli individui nelle quattro classi, la differenza fra 2 /5 di malati nel gruppo dei non esposti e 3/5 di malati negli esposti non è significativa. Se lo stesso epidemiologo avesse molti più denari ed eseguisse le sue rilevazioni su un gruppo molto più grande di soggetti, diciamo 2.000, potrebbe ottenere questo risultato: gruppo P = 550 S, 450 C gruppo T = 450 S, 550 C In questo caso lo squilibrio della distribuzione sarebbe nettamente minore che nel caso precedente, ma ciononostante la differenza sarebbe significativa in quanto il campione, molto più numeroso, renderebbe più potente il test (cioè il campione è maggiormente rappresentativo della popolazione globale). Questo meccanismo perverso5, per cui in maniera assolutamente logica si arriva a risultati assurdi, è lo stesso meccanismo che abbiamo visto all’opera nel caso della particella sottoposta ad attrito: portare al limite infinito le misure fa deragliare l’affermazione scientifica che vive nel finito verso l’assurdo logicamente ineccepibile. L’uso della significatività statistica è allora ammissibile all’interno di una dimensione del campione relativamente bassa e comunque la rilevanza del dato, al di là della significatività statistica, deve derivare da considerazioni umane e quindi opinabili (e non da considerazioni automatiche e necessarie) sulla reale entità dello squilibrio osservato. L’asserzione «suffragato da imponente sperimentazione» è quindi di per sé un’asserzione ambigua. Chiaramente abbiamo anche altri problemi di valutazione dell’efficacia della traduzione dovuti a possibili cause concomitanti, come ad esempio una possibile asimmetria del numero di fumatori nei due gruppi P e T che potrebbe spiegare il risultato o differenze d’età, quello che conta per ora è ritenere il punto essenziale di questa prima figura retorica «descrivere un fatto osservato con altre parole» e quindi una probabilità di tumore con l’assunzione di una molecola organica, 32 La semplicità è difficile il punto di fusione di un composto con la sua formula, la pressione di un gas con il suo volume... La seconda figura retorica è quella della «Misura». Questa è una cosa apparentemente banale; dopotutto è qualcosa che facciamo abitualmente, misuriamo l’altezza dei nostri figli, la distanza su una mappa, addirittura riusciamo a fare una previsione di spesa delle nostre prossime vacanze. Ma vale la pena prestarle una certa attenzione. Cosa intendiamo per «metro»? Chiaramente ci riferiamo a qualche forma di misura standard che sappiamo avere delle relazioni anche con un’altra misura che chiamiamo centimetro. Questo genere di relazioni deriva da una sorta di patto sociale stabilitosi nei millenni: l’umanità ha sempre sentito il bisogno di trovare un accordo sulle unità di misura, così da chiarire il senso degli scambi, e alcune misure come il «piede» nei paesi anglosassoni ancora portano traccia di questa origine sociale (difficilmente rintracciabile nella asetticità positivista del metro che è definito in relazione alla lunghezza dell’equatore). Il punto è che nella scienza abbiamo la necessità non solo di trattare le misure per quella che è la loro relazione con un pezzo di materia tangibile (per esempio, un chilo di cipolle), ma di assumere che un chilo di cipolle equivale a un chilo di rape e che quindi, se ho comprato un chilo di cipolle e un chilo di rape, ho nella borsa due chili di verdura. Questo passaggio, utilissimo e fondamentale per conoscere il mondo, mi consente di operare un altro passo e domandarmi se l’errore che ho nel pesare un chilo su una bilancia digitale sia maggiore o minore dell’errore che introduco con una bilancia meccanica. A questo punto il chilo ha solo una valenza operativa, legata all’atto della misura e posso con sicurezza avventurarmi ad associare numeri specifici a diversi «pezzi di mondo», preoccupandomi solo della congruenza del mio sistema di misura. Manipolando questi numeri potrò derivare delle informazioni sugli oggetti a cui questi numeri sono associati. Questa è forse una delle origini della confusione tra complessità e semplicità: i numeri sono delle astrazioni degli attributi percepiti6. La manipolazione di un mondo di astrazioni è estremamente più conveniente della manipolazione degli oggetti a cui questi numeri si riferiscono, ma il mondo astratto non è in tutto e per tutto equiparabile al suo corrispondente fisico. Questa che sembra una banalità ha comunque tenuto occupate generazioni di pensatori, dai filosofi medievali ai fisici teorici contemporanei. Insomma, da questi esempi avrete capito che la semplicità che andiamo cercando è difficile da raggiungere e implica la necessità di sta33 L’ordine della complessità re con gli occhi bene aperti in ogni situazione, per quanto innocua essa possa sembrare. Nei capitoli che seguono passeremo da questi esempi di scuola a pezzi reali di scienza, entrando più nel dettaglio ma seguendo sempre le mille sfaccettature di «traduzione» e «misura». Questo darà alla trattazione un andamento «spiraliforme» che disturberà qualche lettore, a cui chiediamo scusa in anticipo, ma che ci porterà a riconoscere questi due fondamentali del fare scientifico in differenti forme e contesti. NOTE 1 Il libro di Ermanno Bencivenga I passi falsi della Scienza, edito da Garzanti, è una lettura illuminante rispetto a questi punti e un sano antidoto contro le prese di posizione preconcette (in un senso o nell’altro) sul nobile mestiere della scienza. 2 È utile (anche se un po’ scoraggiante) andare a controllare le categorie concorsuali dei posti di professore nelle università italiane (ma lo stesso avviene più o meno negli altri paesi), si troveranno delle amenità come fisica chimica considerata una disciplina diversa da chimica fisica, astruse sottodefinizioni disciplinari e così via. 3 Su questo tema si rimanda al sito internet http://www.dis.uniroma1.it/~farina/ semplice/ dove si delineano i lineamenti principali della nostra proposta. 4 I carabinieri sono in generale delle persone splendide, leali, oneste e anche spiritose. Gran parte delle barzellette su di loro sono state infatti messe in giro dagli stessi ufficiali dell’Arma. 5 La perversione risiede nella confusione tra la nozione di «casuale» e la nozione di «rilevante». Mentre è assolutamente corretto considerare che una piccola asimmetria di distribuzione sia più verosimilmente provocata dal puro effetto del caso in un campione piccolo piuttosto che in un campione grande, è altresì vero che una piccola asimmetria rimane «piccola» anche se probabilmente non è casuale. Il fatto che sia piccola potrebbe renderla a tutti gli effetti irrilevante in quanto non provoca alcuna conseguenza nel mondo reale. Immaginiamo di avere un farmaco che, in maniera statisticamente significativa, è stato dimostrato provocare una diminuzione dell’1% della pressione arteriosa, questa diminuzione non avrebbe alcun effetto sullo stato di salute di un paziente, il farmaco sarebbe completamente inutile. L’esempio non è affatto peregrino: molti farmaci sostanzialmente inutili e a volte dotati di pericolosi effetti collaterali sono stati immessi sul mercato con il meccanismo della «significatività statistica su popolazioni numerose». 6 Lucio Russo, nel suo libro La rivoluzione dimenticata. Il pensiero scientifico greco e la scienza moderna, edito da Feltrinelli, fa l’interessante ipotesi che i famosi Elementi di Euclide siano in realtà interpretabili non come i fondamenti concettuali della geometria bensì come gli equivalenti di righello e compasso, insomma uno strumento di calcolo. Questo implicherebbe che l’ideale non sia sempre stato l’oggetto principe della matematica. Questa cosa ci fa rammentare delle geometrie «non euclidee» del XIX secolo, che invece facevano vanto della loro completa e incorrotta (sic) matrice «ideale». 34 Capitolo secondo GLI SCIENZIATI SONO ARTIGIANI, NON PRETI I poeti affermano che la scienza distrae dalla bellezza delle stelle – semplici globi di gas. Anche io riesco a vedere le stelle in una notte nel deserto e sentire la loro magia. Ma vedo più o meno cose? La vastità dei cieli stimola la mia immaginazione – preso da questo vortice il mio piccolo occhio può contemplare luce vecchia di un milione di anni. Un disegno mirabile ed immenso, di cui io sono parte. Quale il disegno, il significato, il senso? Certamente conoscerne una piccolissima porzione non rovina il mistero. La verità è immensamente più stupefacente di quanto gli artisti abbiano mai immaginato. Ma perché i poeti odierni non ne parlano? Che tipo di persone sono questi poeti che riescono a parlare di Giove solo immaginandolo in forma umana, ma se invece lo debbono descrivere come un’immensa sfera di metano e ammoniaca sono costretti a tacere? Richard Feynman La ricerca di senso è stata forse il tema più importante che ha pervaso l’intera storia dell’umanità. Con ricerca di senso qui intendiamo lo sforzo senza fine di comprendere il «reale» ed il posto occupato dall’uomo nel quadro della realtà. Un corollario di questa ricerca è lo sforzo dell’uomo di controllare questa realtà per i suoi fini. La religione è un elemento centrale di questa ricerca. Tutte le culture, dalla più primitiva alla più sofisticata, hanno dato una forma peculiare a questa continua ricerca. Nella tradizione occidentale, con l’avvento del Rinascimento, assistiamo ad un distacco significativo della ricerca di senso dall’esclusività degli approcci puramente religiosi: un distacco a cui viene tradizionalmente dato il nome convenzionale di «nascita del metodo scientifico», con i suoi tentativi di comprendere in un quadro il più possibile unitario e conseguente l’insieme delle percezioni provenienti dal mondo. Parallelamente al suddetto distacco, si sviluppò anche un apparato filosofico di supporto al movimento scientifico. Ciò provocò l’individuazione e la parziale separazione della nozione di «ragione» dal discorso più ampio indicante il mondo reale, quasi come se le idee avessero una sorta di vita propria rispetto alla materia, mentre la teologia si trovò separata in un mondo a parte. Astenendoci da qual35 L’ordine della complessità siasi giudizio di valore, potremmo affermare che la definizione formale di un mondo delle idee (res cogitans) come di un argomento a parte rispetto al mondo osservabile (res extensa), che è poi la definizione di idealismo, si possa far risalire a Cartesio e a Kant. La traduzione dell’idealismo ai nostri tempi è il riconoscimento della radice del successo della «scienza» nella sua oggettività ed imparzialità, nel suo appartenere al mondo ordinato delle idee e quindi nella sua capacità di mettere ordine nel mondo confuso e disordinato della materia, proprio perché in ultima analisi non vi appartiene. Da ciò nasce il prestigio sociale della scienza per cui, sebbene la grandissima parte delle persone ne abbia una conoscenza praticamente nulla, quasi nessuno le ha negato importanza e valore. L’odierna «crisi di rigetto» nei confronti della scienza, rappresentata da vari movimenti e mode che a diverso titolo contestano risultati e pensiero scientifico, derivano (anche se spesso senza averne consapevolezza) dalla manifesta assurdità della pretesa di «oggettività» della scienza, di cui comunque si avverte il fascino perverso. Non a caso spesso questi movimenti propugnano una loro «verità oggettiva», che simula le teorie onnicomprensive della scienza idealista e quindi partecipa della stessa illusione. Qui noi proveremo a convincere la lettrice ed il lettore che la «rottura» tra la scienza e la teologia in realtà non è mai avvenuta, o meglio non è stata completa, per lo meno nell’immaginario generale, e che questa mancata «rottura» è alla base di tanti fraintendimenti. In moltissime occasioni leggiamo ed ascoltiamo frasi come «le verità scientifiche» o «i miracoli della scienza»; spesso gli scienziati descrivono il loro lavoro come una «ricerca della verità». Gran parte di questo vocabolario è un residuo dei tempi in cui la realtà era interpretata solamente dalla religione e dai suoi rappresentanti ufficiali formanti il clero, ma questo residuo è tutto meno che innocuo; a forza di ripeterlo si potrebbe essere tentati di crederci e la scienza rischierebbe di diventare una pericolosa religione senza amore. La connotazione di mistero e di potenza insita nel guardare alla scienza come «ricerca della verità» non è soltanto falsa e fuorviante, ma altamente dannosa per l’umanità. Negli anni Settanta, Ivan Illich fece la sua breve e sfolgorante comparsa come critico radicale della modernità. I suoi lavori ebbero una larghissima eco, ma da allora sono stati largamente ignorati. Nonostante la contraddittorietà di molte sue posizioni egli fu essenzialmente un critico feroce dell’idealismo contemporaneo incarnato nelle isti36 Gli scienziati sono artigiani, non preti tuzioni moderne, soprattutto scientifiche. Nel suo Nemesi medica egli asserisce che i medici avevano ormai preso il posto del clero come «maestri della buona morte»1. Sebbene molti critici, trent’anni fa, avessero tacciato Illich di esagerazione e catastrofismo, il tempo gli ha dato sicuramente ragione, e moltissimi ormai riconoscono la medicina come il canale in cui la scienza moderna entra più pesantemente nella nostra vita quotidiana con la brutalità di un integralismo fideistico. La medicina è diventata il tempio della fede nella scienze e del «vivere corretto»; basta dare un’occhiata alle edicole o alla televisione per notare l’abbondanza di consigli per vivere bene a lungo propinatici da signori in camice bianco pericolosamente simili a sacerdoti di un culto idolatrico, poco importa se si contraddicano ad intervalli di tempo brevissimi. La medicina dei nostri giorni è ormai diventata uno sforzo collettivo dell’intero establishment scientifico, dalla fisica nucleare che si incarna nei grandi strumenti per la terapia e la diagnosi radio-nucleare fino alla biologia molecolare ed alla chimica degli apparati diagnostici e della farmacologia. È interessante notare come, parallelamente ad una caduta diffusa di interesse nei paesi occidentali verso la cultura scientifica, i mezzi di comunicazione di massa abbiano moltiplicato le informazioni legate a temi biomedici. Il risultato è analogo al comportamento di un fedele nel Medioevo, che si affidava al giudizio della Chiesa per ogni incombenza della vita di tutti i giorni. I «fedeli» dei nostri giorni sono i consumatori dei miracoli medici e dei media che promettono battaglie senza quartiere contro la morte. Le «virtù» della Chiesa medica, allora, saranno i comportamenti «salubri» che tengono lontane le malattie2. Ma se la religione medievale offriva grandi spazi di rivolta e di «riforme dal basso» che hanno mantenuto il messaggio della Chiesa contemporaneo e vivo (si pensi ai grandi movimenti di riforma monastica e a figure come san Francesco, Celestino V, ma anche a loro modo ai grandi movimenti ereticali o i folli di Dio curiosamente presenti contemporaneamente nelle Marche e nel mondo islamico persiano con la spiritualità sufi), la scienza medica è molto più impermeabile a questo tipo di riforme e di partecipazione. Ma tutto ciò è profondamente perverso. Quello dello scienziato dovrebbe essere un mestiere artigianale per cui parlare di ortodossia non dovrebbe avere alcun senso: la base dell’impresa scientifica, infatti, è il suo carattere evolutivo. Insomma, la scienza si contraddice in continuazione, raffina le sue 37 L’ordine della complessità 2.1. Immagine rappresentante «La lingua degli Uccelli» una delle opere più importanti della spiritualità sufi scritta dal poeta persiano al-Attar nel XIII secolo. In essa in qualche misura si «sovvertiva» una concezione troppo legalistica dell’Islam per cercare una spiritualità più diretta. posizioni, e la sua interpretazione del mondo non è mai completa. In qualche modo potremmo affermare che ogni teoria scientifica risulterà, a lungo andare, falsa o quanto meno incompleta. La storia della scienza è piena di teorie che un tempo erano considerate inattaccabili e che poi sono state miseramente abbandonate. Questa fallibilità costituzionale è la forza stessa della scienza, i guai nascono quando i risultati scientifici vengono accettati senza critiche 38 Gli scienziati sono artigiani, non preti e scetticismo, come se fossero dei pronunciamenti definitivi, del tipo «è scientificamente dimostrato che...». Bisogna dire, a onor del vero, che questo genere di affermazioni apodittiche sono più frequenti in chi la scienza crede di interpretarla (da politico, da filosofo, da giornalista...) che in chi la scienza la fa sul serio. In ogni caso, i peggiori guai degli ultimi due secoli – dal colonialismo al razzismo fino alle violenze e ai genocidi di massa – tutti incorporano al loro interno delle teorie «scientifiche». I crimini contro l’umanità giustificati dall’applicazione di teorie che apparivano perfettamente ragionevoli (motivo per cui venivano disgraziatamente definite verità scientifiche) sono innumerevoli. Qui ci basti ricordare il «darwinismo sociale», che forniva una sorta di giustificazione «scientifica» all’espansione coloniale ed al razzismo. Come spesso accade nelle vicende umane, l’orrore confina con il ridicolo (il che forse addolcisce un po’ la pillola). C’è una famosa storiella che circola negli ambienti scientifici riguardante uno statistico che aveva presentato un lavoro scritto a mano (si parla di vent’anni fa circa) al suo superiore, il quale non dimostrò alcun interesse verso i risultati. Lo statistico tornò allora alla carica con uno sfavillante apparato di grafici e di stampe computerizzate ottenendo un grande successo, riproponendo di fatto la stessa informazione di base guarnita con un’iconografia più spettacolare. Ora, una cosa del genere non sarebbe possibile, nessuno più scrive a mano, ma quella storiella mantiene un significato profondo, che ha a che vedere con la famosa frase di Marshall McLuhan per cui «il mezzo è il messaggio»3. Il che, tradotto in altre parole, suona così: «se sta scritto in un libro allora vuol dire che è vero». Nel frattempo il world wide web si prepara a giocare il ruolo del «libro dei libri» per le prossime generazioni. A questo punto dovrebbe risultare chiara l’urgenza di ribadire che per «scienza» si deve intendere semplicemente la «ricerca di quello che può funzionare». L’unica impresa scientifica guidata principalmente dalla teoria è stata la costruzione della bomba atomica (il che non corrisponde esattamente a un’impresa di cui andare troppo fieri), mentre in tutte le altre occasioni la teoria è venuta dopo la dimostrazione pratica. Quando i fratelli Wright, due geniali costruttori di biciclette americani, fecero volare il loro apparecchio sulla spiaggia di Kitty Hawk, le università erano affollate da fisici teorici che avrebbero potuto dimostrare in modo inoppugnabile l’impossibilità del volo a motore. Naturalmente questo non significa che occasionalmente dalla teo39 L’ordine della complessità 2.2. L’apparecchio dei fratelli Wright mostra chiaramente l’ascendenza artigiana di costruttori di biciclette dei geniali Wilbur e Orville. ria non si possano trarre utili spunti per risolvere dei problemi, ma di sicuro, con buona pace di tutto il marchingegno idealista del prestigio della scienza come res cogitans, la scienza è sempre stata un affare per gente piuttosto pragmatica. Il modello tolemaico è un buon esempio di tutto questo; esso era basato sulla teoria errata della Terra come centro dell’Universo, e ciò nonostante ha funzionato egregiamente per secoli. Nessuno fu in grado di mettere in crisi il modello finchè non furono scoperti degli errori (peraltro di entità minima) di predizione4. Sebbene a Newton sia di solito riconosciuto il merito di avere formulato le leggi del moto, di fatto, in accordo con il suo stesso motto in cui asseriva di essersi «... issato sulle spalle di giganti», molti scienziati in Europa avevano già iniziato a suggerire queste leggi derivandole dall’osservazione empirica. Certamente Galileo è fra questi ed una visita al museo della Scienza di Firenze sui Lungarni, dove sono esposte le sue macchine sperimentali, ci fornisce un’idea immediata di quanto 40 Gli scienziati sono artigiani, non preti 2.3. Il piano inclinato di Galileo. Per risolvere il problema della misura accurata del tempo di percorrenza di una sfera che rotolava nella canaletta, Galileo sistemò dei campanelli a distanze variabili che venivano fatti tintinnare dalla sfera in corsa. Il raggiungimento, percepibile all’orecchio, di un intervallo regolare di suoni a distanze variabili dei campanelli corrispondeva all’accelerazione del sistema. Questo è un esempio luminoso di «soluzione artigiana». l’artigianato giocasse, molto di più della matematica, un ruolo di primo piano nella scienza dell’epoca. Newton ebbe comunque la genialità di riportare queste idee in un quadro coerente, e in questo senso l’uso del formalismo matematico fu prezioso. La catastrofe intellettuale fu dovuta agli epigoni settecenteschi del pensiero di Newton, che diedero vita ad una bolsa mitologia delle leggi del moto equiparandole al disvelamento di una verità assoluta. Ciò portò all’equivoco di considerare l’aggettivo «scientifico» sinonimo di «dimostrato come vero»; tale equivoco ancora persiste in molti ambienti intellettuali e scientifici e nella cultura popolare, nonostante molte idee accreditate come «verità scientifiche» – come il flogisto, l’età della Terra descritta dalla termodinamica, la presenza di elettroni nel nucleo, la frenologia, il dogma della biologia molecolare e molte altre – si siano dimostrate con il tempo completamente 41 L’ordine della complessità false5. In altre parole, l’aggettivo «scientifico», lungi dall’essere sinonimo di «vero», è incompatibile con la verità, proprio perché la scienza reale è un continuo raffinamento dei risultati ottenuti ed ha a che vedere con punti di vista programmaticamente parziali e personali6. Sebbene la «rivoluzione scientifica» sia spesso descritta come l’abbandono del primato della metafisica in favore degli osservabili empirici, le cose non stanno proprio così. La scienza ha a che vedere con le misure e quindi con quantità osservabili, quindi un oggetto fisico potrà essere studiato per la sua temperatura, il suo volume, la sua massa, ecc. Questi fattori possono essere ulteriormente manipolati per cercare delle relazioni tra di loro. Se queste relazioni si ripetono in maniera consistente in certe condizioni potranno essere la base per la «predizione» di altri comportamenti misurabili degli stessi oggetti fisici. La ben nota legge dei gas ideali descrive le relazioni fra volume, pressione e temperatura dei gas in certe condizioni ben specifiche: gas ideali di cui i gas reali possono essere delle buone approssimazioni se molto rarefatti lontani dal punto di fusione. La legge derivata empiricamente, però, non è aliena da astrazioni. Si pensi per esempio alla prima legge di Newton, che afferma che la forza equivale al prodotto della massa per l’accelerazione. La massa e l’accelerazione possono essere misurate, ma la forza non è altro che un’astrazione resa operativa da una relazione tra massa e accelerazione, così come un gas ideale non esiste, ma è un’astrazione derivante dall’esistenza di una relazione tra volume, pressione e temperatura. Lo stesso si può dire di concetti come «lavoro» ed «energia» in uso nella scienza derivanti da operazioni su osservabili fisici effettivi. Gli psicologi hanno tentato di rendere scientifico lo studio della mente attraverso definizioni operative di vari concetti, a partire da comportamenti, dando vita a pseudo-entità che ad un certo punto acquisivano vita propria senza che il legame con la realtà fosse più ricostruibile (a differenza del lavoro e dell’energia, le ricette per aggiustare gli osservabili per dar vita alla relazione desiderata in psicologia sono praticamente impossibili da riprodurre). Molti scienziati hanno notato il fatto curioso che questi «concetti» scientifici resi operativi dalla matematica hanno una fortissima relazione con la filosofia platonica delle idee. Il famoso fisico David Ruelle7 ed il matematico David Mumford8 hanno rimarcato questa parentela e hanno speculato sulla relazione esistente tra la mente umana ed il mondo circostante. Le nostre percezioni hanno a che vedere con le nostre categorie mentali, che noi poi rendiamo operative (e quindi at42 Gli scienziati sono artigiani, non preti tive fuori di noi su delle misure provenienti dal mondo esterno) in vari modi. Sempre più studi sperimentali ci suggeriscono che la mente umana tende ad utilizzare forme ed astrazioni per immagazzinare in maniera efficiente le percezioni. Fintanto che tale immagazzinamento avviene in maniera efficiente le nostre astrazioni sono utili, ma quando queste non riescono più a rendere ragione di particolari percezioni, allora cerchiamo di cambiarle e raffinarle. È interessante notare come Pascal, fiero oppositore di Cartesio, avesse posto l’attenzione, nei suoi Pensieri, nella prima metà del Seicento, al carattere materiale di «impulsi nervosi» delle categorie, rifiutando nettamente l’esistenza di un mondo autonomo delle idee. La scienza però, come ogni attività umana, ha ben radicata nella sua natura la «ricerca di un senso», che è una forma di «cammino verso la verità». Non possiamo allora esimerci dal cercare di definire quale sia il senso della scienza, il suo specifico cammino verso la verità che, se non risiede nei suoi contenuti, che abbiamo visto essere fallibili per definizione, oltre che strettamente dipendenti nella forma da come il nostro cervello immagazzina i dati della percezione, deve nondimeno essere da qualche parte, pena la totale mancanza di significato e di interesse dell’attività scientifica. Dobbiamo insomma cercare dove si nascondono i «valori duraturi» dell’attività scientifica, che ci faranno comprendere il ruolo giocato dalla scienza nella promozione della dignità umana. La «verità» nascosta nella scienza è, secondo noi, lo stesso tipo di verità nascosta nel lavoro degli artisti e degli artigiani. Una bellissima raccolta di racconti dello scrittore americano Raymond Carver è intitolata Di cosa parliamo quando parliamo d’amore. In questo titolo meraviglioso è racchiusa la definizione di tutto ciò a cui diamo il nome di «arte»: l’arte è qualsiasi cosa che parli di «qualcos’altro» rispetto al suo significato apparente. Questo è il motivo per cui la vera arte ha una durata molto maggiore rispetto alle sue motivazioni immediate: quando ammiriamo le pitture di Caravaggio ne deriviamo ancora delle profonde sensazioni e risonanze con la nostra esperienza personale senza essere degli esperti critici d’arte. La vista della Conversione di Matteo nella cappella Contarini di San Luigi dei Francesi a Roma parla al nostro cuore anche se ignoriamo totalmente il problema della Grazia nella Riforma cattolica, che poi è il tema principale del dipinto (ed in un certo senso di tutta l’opera di Caravaggio). Nel quadro riportato in figura, Gesù opera 43 L’ordine della complessità 2.4. La Conversione di Matteo, Caravaggio, San Luigi dei Francesi, Roma. una chiamata personale a Matteo che sembra domandare, toccandosi il petto «è me che vuoi?» (rimarcando così il contributo personale dell’individuo nell’opera della salvezza in opposizione alla teologia protestante), la Grazia è simbolizzata dalla luce che squarcia la scena, proveniente dal lato dove è posto Gesù, non è una luce terrena, infatti proviene ortogonalmente rispetto alla finestra. La Grazia è personale: alcuni presenti, come il giovanotto ad una estremità del tavolo che continua imperterrito a contare il denaro, non la percepiscono... potremmo discutere a lungo di questo quadro, che è pieno di simbolismi e rimandi alla cultura del tempo, ma anche se ignorassimo tutti questi particolari ugualmente potremmo comprendere nell’immediato (e così effettivamente hanno fatto generazioni di fedeli analfabeti) il significato fondamentale della scena. 44 Gli scienziati sono artigiani, non preti Il riferimento a «qualcos’altro» rispetto all’uso primario ed autoevidente di uno specifico oggetto è comune a qualsiasi prodotto artigianale. Quando guardiamo una vecchia barca a vela di legno oppure l’architettura di un antico aratro, anche se questi oggetti garantiscono prestazioni (rispetto al loro uso primario) inferiori alla maggior parte dei loro corrispondenti moderni, ciononostante ne apprezziamo il senso e la logica intrinseca. Il senso deriva dalla particolare relazione struttura/funzione incarnata nel disegno e nella realizzazione del pezzo, dalla cooperazione di tutte le parti per uno scopo definito, alle piccole singolarità che rendono unico ogni pezzo artigiano e ci parlano di infinite «altre cose» rispetto all’uso primario dell’oggetto. Questi oggetti ci parlano del lavoro umano e dell’ingegno, della fantasia, della passione e degli sforzi dell’uomo che li ha costruiti ed usati. La produzione di massa, eliminando le singolarità e costringendo l’oggetto verso un «singolo punto di ottimo» genera una drastica riduzione del senso attraverso una massiccia de-complessificazione dell’oggetto. Questa de-complessificazione non corrisponde alla semplificazione nella direzione che proponiamo in questo libro, ma al suo esatto opposto. Mentre la semplificazione deriva dal riconoscimento della molteplicità delle richieste ambientali (ai fisici piace chiamarle «condizioni al contorno») e al conseguente bisogno di non fare troppe assunzioni ingiustificate, la de-complessificazione deriva dalla pretesa di poter estrarre una singola caratteristica «essenziale» dei sistemi studiati da sostituire alla «cosa reale», e come tale ottimizzata semplicemente scartando tutte le cose considerate «al contorno». Questa strategia de-complessificante è riuscita ad essere economicamente vincente per circa centocinquanta anni, ma ora si dimostra, in ambiti tra loro diversissimi, assolutamente anti-economica, proprio per l’emergere di vincoli inizialmente considerati minori e non facenti parti a buon diritto del «quadro energetico da minimizzare». In questo modo, le case costruite senza criteri estetici, considerati anti-economici e «inutili cascami» (e quindi fuori dai criteri di ottimo), sono risultate energeticamente fallimentari per il condizionamento termico, e al tempo stesso hanno generato quartieri invivibili, dove la violenza e l’emarginazione hanno provocato altissimi costi sociali ed umani. Considerazioni analoghe si possono fare sull’uso delle risorse non rinnovabili, l’acqua potabile, la copertura forestale e tutti i problemi che da più 45 L’ordine della complessità 2.5. Trulli in Val d’Itria. parti spingono ad un profondo rovesciamento del cosiddetto pensiero moderno. Il legame fra la Rivoluzione industriale e la «nascita della bruttezza» è stato indagato da molti autori9, e in Italia risulta particolarmente percepibile se appena volgiamo la mente alla bellezza dell’architettura popolare italiana fino al XIX secolo (si pensi ai trulli pugliesi, alle case della Costiera Amalfitana e della Riviera Ligure, ai masi delle Dolomiti o ai casali laziali) e la confrontiamo con gli orrori delle periferie moderne. I costruttori contemporanei sono di solito molto più colti – in un senso propriamente moderno e idealista «di letture colte», non di cultura materiale – di quelli antichi ma, purtroppo per tutti noi, essi condividono un singolo «ottimo» di massa riguardo al loro lavoro, che va da Shangai a Siracusa e che elimina completamente la bellezza ed il senso del loro lavoro, distruggendo il paesaggio e l’ambiente. I loro predecessori, invece, erano estremamente attenti alle «condizioni al contorno» proposte dall’ambiente circostante, grazie al carattere 46 Gli scienziati sono artigiani, non preti locale, di cultura materiale ed artigiana, delle loro abilità. Non a caso le abitazioni tradizionali sono energeticamente molto più efficienti di quelle moderne, oltre ad abbellire l’ambiente invece di mortificarlo. La scienza è stata fino a non molto tempo fa il luogo in cui accanto ai proclami idealisti, tutto sommato più ascoltati dai filosofi che dai veri scienziati, è prosperata una cultura artigiana molto raffinata: le specifiche abilità e i «trucchi del mestiere» con cui ogni singolo scienziato risolve i suoi problemi, integrati con lo stile di ragionamento, l’applicazione della metodologia, le linee logiche con cui spiega i suoi risultati sono nel complesso delle «firme» che garantiscono l’unicità del prodotto artigiano e fanno parte di culture locali tradizionali, tramandate da maestro ad allievo nella pratica quotidiana e spesso non traducibili e formalizzabili in modo preciso e definitivo. Ciò fa sì che, analogamente all’aratro e alla barca a vela, noi possiamo continuare ad imparare da pezzi di scienza il cui contenuto e motivazione primaria sono ormai ampiamente sorpassati da nuove acquisizioni e teorie. Un esempio illuminante è il coefficiente di correlazione di Pearson, che fu immaginato per provare, tra la fine del XIX e l’inizio del XX secolo, alcune teorie eugenetiche demenziali. Ebbene, nonostante quelle teorie siano ormai morte e sepolte, il coefficiente di Pearson è una grande fonte di ispirazione per il nostro lavoro quotidiano di statistica, e il coefficiente stesso è la metrica più usata per l’analisi dei dati nel campo, in rapidissima espansione, della biologia computazionale e della cosiddetta biologia dei sistemi (Systems Biology). Il valore aggiunto che mantiene giovane ed attuale il coefficiente di Pearson, mentre le teorie che lo avevano ispirato sono ormai morte, è il fatto che esso ci parla di «qualcos’altro», incorporando l’irriducibile sforzo artigiano per raggiungere l’obiettivo, che produce valore indipendentemente dallo scopo prefissato. Tutto questo non vale più per la scienza di massa, dove miriadi di scienziati-gnomi lavorano ad un minuscolo particolare di un grande quadro di cui non capiscono il senso generale. Essi semplicemente applicano dei metodi standard già definiti dalla comunità scientifica come «i più adatti allo scopo» (i medici organizzano delle grandi riunioni dette consensus conferences, in cui la comunità decide i metodi più adatti per ogni singolo aspetto della professione, mentre le altre comunità scientifiche stanno seguendo la stessa strada che porta alle periferie urbane abbandonando la sapienza artigianale del trullo). Gli gnomi si contentano di aggiungere il loro piccolo mattone alla 47 L’ordine della complessità torre di Babele, la cui architettura generale è decisa altrove, ma le torri di Babele hanno una pericolosa propensione al crollo. Questa è stata la storia del progetto Genoma umano, vale a dire del progetto per il sequenziamento completo del DNA dell’uomo. La «grande idea» alla base del progetto è che, nascosto nella sequenza del DNA, risiede il piano ultimo da cui derivare tutte le informazioni rilevanti riguardo agli organismi fino ad ora studiati da altre discipline come la zoologia, la botanica, la fisiologia, il cui corpo di conoscenze può, almeno in linea di principio, essere ridotto al piano inscritto nel DNA. Conformemente alla stessa logica, ogni eventuale parte irriducibile può essere considerata un accidente trascurabile, una contingenza che si sovrappone alla realtà ideale della molecola del DNA. Come si può notare si tratta di un paradigma di stampo nettamente alchemico, in cui il DNA è la quintessenza, la pietra filosofale, l’equazione definitiva da cui far discendere tutte le manifestazioni del vivente. Il cosiddetto «dogma» principale della biologia molecolare, «un gene - una proteina», con l’aggiunta del corollario «una proteina - un carattere fenotipico», è il passo iniziale per il successo del progetto. Un’armata di scienziati operai fu assunta per l’impresa e il completamento della sequenza, ma alla fine tutte le premesse iniziali furono sconvolte. I risultati, infatti, lasciavano intravedere uno scenario del tutto inatteso: il numero delle proteine che sopravanzava di molto quello dei geni, modifiche post-traslazionali delle proteine che ne facevano cambiare struttura, funzione e relativo fenotipo, eredità alternative alla sequenza del DNA ottenute attraverso differenti pattern di metilazione degli istoni, una gran quantità di DNA ritenuto senza evidente funzione («DNA spazzatura»), insomma un mondo selvaggio e senza regole si rivelava al posto della rigida economia di piano DNA-RNA-proteine che forniva l’ossatura teorica del progetto. La de-complessificazione era fallita ed aveva rivelato un mondo ancora vergine da generalizzazioni. La torre di Babele era crollata al suolo, distruggendo i sogni (o forse gli incubi) del controllo totale del vivente attraverso l’ingegneria genetica che avevano motivato l’avventura «genoma umano». Questa è stata nel complesso una grande lezione di umiltà, anche se chiaramente c’è chi ancora persegue il sogno attraverso forme più sofisticate di controllo. Nel complesso, infatti, la comunità scientifica sembra essere arrivata alla conclusione che ogni sforzo arbitrario di riduzione della complessità del vivente ad un unico «sacro Graal» seguendo lo stile delle «teorie del tutto» di stampo fisico sia destinato al fallimento. 48 Gli scienziati sono artigiani, non preti Quando un grande edificio, o addirittura un’intera città, collassa, in giro rimangono tantissime macerie di svariate dimensioni, dai singoli mattoni fino a interi muri più o meno solidi. Qualcosa del genere accadde a Roma dopo le guerre gotiche alla fine del VI secolo, quando una città di un milione di abitanti collassò in un piccolo paese abitato da poco più di duemila persone. Gli archeologi hanno ricostruito a grandi linee cosa accadde: le persone adattarono le strutture costruite sulla grande scala urbana (grandi templi, teatri, moli) alla scala del paese (piccole case, chiese) attraverso un uso nuovo dei pezzi vecchi. Questo ri-ciclaggio implicava uno spirito completamente differente e uno sforzo per trovare nuove funzioni ad elementi pre-formati, un classico compito artigiano. Le macerie del progetto genoma sono ora nel web sotto forma di sequenze proteiche, dati di espressione genetica differenziale (microarray), mappe metaboliche, ecc. Questo è un territorio perfetto per scienziati artigiani che vogliano trovare un nuovo uso per questo materiale: per far ciò essi non necessitano di molto denaro o di sofisticate apparecchiature ma solo di fantasia, abilità statistica e spirito creativo, gli ingredienti della scienza semplice10. La «scalabilità» delle grandi costruzioni, cioè il loro possibile adattamento a dimensioni più ridotte, così come la scalabilità dei progetti scientifici, ci spinge ad un’ulteriore considerazione. Esiste la tendenza a definire «complesse» cose che sono semplicemente «grandi». Per esempio, il DNA, sebbene contenga un’enorme quantità di «materiale genetico», è di fatto costituito da due tipi di coppie di basi; di conseguenza la sua complessità deriva dalla sua mole. Lo stesso si può dire di un palazzo che è costituito da mattoni semplici e così via: come si può intuire, la complessità è un derivato della percezione e della necessità umane di avere un quadro completo per «tenere sotto controllo» l’oggetto studiato. Il premio Nobel e pioniere dell’Intelligenza artificiale Herbert A. Simon, fece alcune interessanti osservazioni a proposito. Egli osservava come il processo decisionale umano fosse strettamente dipendente dalle condizioni al contorno. Contrariamente alla credenza comune che le persone cerchino di raccogliere tutte le informazioni rilevanti a disposizione prima di prendere una decisione, il processo cognitivo avviene in modo molto più pragmatico (ed efficiente): raccogliere tutti i fatti e poi decidere è un processo praticamente impossibile per la mente umana, ed in ogni caso ritarderebbe talmente la decisione da essere controproducente. La mente umana semplicemente si ac49 L’ordine della complessità contenta di una soluzione anche non ottimale basandosi sulle informazioni più facilmente raggiungibili in una versione miniaturizzata (la «scalabilità», appunto) del problema iniziale. In altre parole, noi formuliamo, più o meno consciamente, un modello su scala ridotta del problema, assumendo automaticamente che è troppo «grande» (e quindi complesso, ma questa identificazione deriva dal fatto che noi ci poniamo di fronte alla cosa come ad un problema per noi, cioè dal punto di vista del solutore); il modello in scala è quindi accettato come una copia fedele del problema iniziale e risolto. Chiaramente l’idea di fondo è che se avessimo sufficiente tempo e risorse potremmo attaccare direttamente il problema nelle sue dimensioni reali. L’implicazione per la forma del legame che lega la semplicità alla complessità, che ha ispirato il titolo del nostro lavoro, e che non è che una cosa è complessa in sé, è che ce n’è troppa. La complessità sembra insomma essere un surrogato per processi, idee, strutture, società che, essendo grandi ed estese, sono di conseguenza costruite con molti piccoli pezzi interconnessi. Insomma, la questione cruciale è il passaggio di scala, ciò che veramente marca i nostri tempi è che ci siamo tornati ad interessare delle interconnessioni come elemento cruciale per comprendere (controllare, spiegare, costruire a seconda dei casi) i fenomeni, laddove la scienza riduzionista coltivava il sogno segreto che, arrivati al mattone fondamentale, l’intera costruzione sarebbe andata a posto da sola. Se osserviamo il cervello è immediato comprendere come, da un punto di vista strutturale, esso sia un oggetto estremamente semplice: il cervello è fatto da neuroni, sebbene di tipo diverso, il cui comportamento conosciamo piuttosto bene. Il difficile nasce dal fatto che di queste cellule ce ne sono presenti milioni e milioni, connesse in vari ed inestricabili modi. Come se non bastasse i neuroni si inviano costantemente segnali tra loro, e spesso simultaneamente. Anche il processo di segnalazione, posto che si conosca il linguaggio, è qualcosa di semplice. Immaginiamo due onde sinusoidali che vengano trasmesse simultaneamente. Dalla figura risulta chiaro che l’onda è composta da più di un segnale e, con un po’ di pazienza, ci si potrebbe immaginare di che segnali si tratti. Sfortunatamente i casi reali non sono così diretti e puliti perché, come ogni scienziato sa, i segnali sono di solito accompagnati dal «rumore». Non è facile definire cosa sia il rumore per sé, se non 50 Gli scienziati sono artigiani, non preti 2.6. Convoluzione di due onde sinusoidali. rifacendosi a definizioni piuttosto astruse e tecniche e sempre limitative, come «un segnale in cui tutte le frequenze siano presenti con la stessa intensità» (rumore bianco, quello del televisore non sintonizzato, che «fa la neve» come si diceva un tempo) o con una certa ben nota distribuzione di frequenze (rumore rosso, rumore rosa, ecc.). Per quanto tautologica la migliore definizione di «rumore» è «tutto ciò che non è legato al segnale come contenuto informativo ma che è ugualmente presente», anche se il risultato ricorda un po’ la definizione dei buchi del groviera, che sono indissolubilmente legati al formaggio (se non li avesse non sarebbe «groviera») ma di per sé non si mangiano. Nel caso dei due neuroni che si scambiano segnali, rumore sono gli echi da altre aree, cellule che «scaricano» autonomamente nelle vicinanze, disturbi elettrici sulla membrana, errori di misura, e così via. Il punto è che il rumore complica di molto le cose, come si vede dalla figura seguente, in cui abbiamo aggiunto un po’ di rumore «random». Come si vede, il segnale diventa più difficile da interpretare. Chiaramente abbiamo dei sistemi matematici (analisi di Fourier, Singular Value Decomposition, ecc.) per aiutarci a decifrare i segnali, ma anche così i segnali presenti contemporaneamente in una traccia elettroen51 L’ordine della complessità 2.7. Il segnale originale è «sporcato» dal rumore. cefalografica (EEG) sono tali e tanti, oltre che rumorosi, che il problema iniziale dei due neuroni che si scambiavano onde di segnalazione non è più recuperabile nella sua semplicità. Naturalmente i due neuroni sono sempre lì, solo che nel frattempo il loro discorso si è allargato ad una grande folla vociante di cui non distinguiamo che il brusio indistinto. E proprio perché è una questione di scala, una grande città come Roma può essere ricostruita dai suoi pezzi più piccoli e le proteine dagli aminoacidi. Ma la questione è che Roma non è stata ricostruita identica, e due proteine con la stessa composizione amino-acidica ma con differente sequenza hanno due funzioni completamente diverse. La conoscenza delle interconnessioni è allora il punto cruciale di tutto il ragionamento. Possiamo allora senz’altro affermare che esiste una semplicità latente alla complessità delle «cose grandi», e che questa complessità ha a che vedere con le condizioni di funzionamento del nostro cervello, che percepisce l’interezza dei fenomeni e ne cerca versioni scalabili e controllabili, più che nella costituzione delle cose in sé (da qui la sostanziale delusione nel conoscere tutti i pezzi e la struttura del singolo pezzo senza chiarirne le interconnessioni). Ma le interconnessioni, a differenza dei pezzi fondamentali, non sono necessarie, cambiano a 52 Gli scienziati sono artigiani, non preti seconda delle contingenze e sono strettamente dipendenti dalle condizioni al contorno molto più che dalle leggi fondamentali della natura. Esse necessitano dello spirito artigiano, di intuizione molto più che di rigore10. NOTE 1 Ivan Illich, Medical Nemesis, Random House, New York 1976 (tr. it. Nemesi Medica, Boroli Editore, Milano 2005). Nel libro l’autore critica severamente le basi scientifiche della medicina che egli giudica fortemente deficitarie. In qualche misura la corrente odierna verso la cosiddetta EBM (Evidence Based Medicine) può essere fatta risalire alle sue critiche. Gli fu diagnosticato un tumore nel 1980 ma egli, coerentemente con le sue posizioni, rifiutò ogni tipo di terapia e morì nel 2002. 2 Illich suggeriva che un risultato del consumismo medico sarebbe stato un aumento paradossale dell’uso dell’apparato medico sia in termini di diagnosi che di cura. Le sue predizioni si sono avverate in pieno. Per quel che riguarda l’aspetto di culto della salute è affascinante l’articolo di F.T. Fitzgerald, The Tyranny of Medicine, in “New England Journal of Medicine”, 331(1994), pp. 196-198, riguardo alla sottile modifica della definizione di «salute», per cui la «norma» della salute si trasforma in «ideale» di salute. Così la malattie e gli accidenti diventano colpe. Dice la dott.ssa Fitzgerald: «Noi consideriamo alcune forme di abuso di sé come meritevoli di riprovazione, e molti di noi hanno visto dei colleghi rifiutare le cure per alcune persone «dipendenti» (obesi, fumatori, bevitori, eroinomani, malati di HIV) con il pretesto che queste persone «se la erano voluta» poiché non si erano comportate come noi medici avevamo consigliato loro di comportarsi. In questo modo noi possiamo incolpare i pazienti per le loro malattie e rifiutare loro compassione e cure... La necessità economica di risparmiare sul costo della salute per la società sta creando una associazione tra viziomalattie e sanità pubblica». Parafrasando Illich «... in questo modo noi stabiliremo una sorta di tirannia medica in cui i malati saranno coloro che si sono comportati male (con alcuni comportamenti tollerati o addirittura apprezzati ed altri condannati)... classificare tutti i guai dell’umanità come problemi medici è l’antitesi della vera salute, in quanto limita la possibilità degli esseri umani di imparare ad affrontare il dolore, la malattia e la morte come parti integranti della vita. La salute non consiste nella libertà dall’inevitabilità della morte, della malattia, dell’infelicità ma piuttosto la capacità di affrontare tutte queste cose in modo efficace. Se le cose stanno così, più la medicina e la società dirigeranno il comportamento individuale, più la salute dell’uomo declinerà». 3 Marshall McLuhan, Quentin Fiore, The Medium is the Message: An Inventory of Effects, ed. by Jerome Agel, 1a ed., Random House, New York 1967 (tr. it. La cultura come business: il mezzo è il messaggio, Armando, Roma 1998). 4 Howard Margolis documenta in maniera brillante il dibattito attorno alla questione Tolomeo/Copernico nel suo libro It Started with Copernicus, McGraw Hill, New York 2002. L’intervento più illuminante e genialmente provocatorio sul tema 53 L’ordine della complessità si deve però al grande e compianto fisico teorico italiano Giuliano Preparata che nel suo godibilissimo articolo dal titolo Se Simplicio avesse avuto un Cray («Il Nuovo Saggiatore», 10(1994), n. 1, p. 59) ci dimostra che con la capacità di calcolo odierna l’ipotesi eliocentrica forse non si sarebbe mai affermata in quanto le piccole discrepanze dalle osservazioni del modello tolemaico sarebbero state risolte da un trattamento computazionale «aggressivo» come quello appunto reso possibile da un computer potente come un Cray. 5 Ermanno Bencivenga, I passi falsi della scienza, Garzanti Editore, Milano 2003. La lettura di questo libro è vivamente consigliata! 6 Bruno De Finetti è stato uno dei massimi scienziati del secolo scorso, grande teorico del calcolo delle probabilità ed insieme persona eminentemente pragmatica, come il ruolo rivestito a lungo di Direttore dell’Ufficio Statistico delle Assicurazioni Generali di Trieste richiedeva. 7 David Ruelle, Mathematical Platonism Reconsidered, in “Nieuw Archief voor Wiskunde”, 5(2000), pp. 30-33. 8 David Mumford, The Dawning of the Age of Stochasticity, in V. Arnold, V. Atiyah, P. Lax, B. Mazur (a cura di), Mathematics: Frontiers and Perspectives, AMS, New York 2000. 9 Forse il saggio più chiaro e profetico sull’argomento si deve ad un grande artista, Wassily Kandinsky e risale al 1910: Lo Spirituale nell’Arte, Bompiani, Milano 1999. Kandinsky identifica chiaramente i rischi impliciti in una considerazione eminentemente materialistica dell’arte senza alcun legame con scopi educativi e sociali. La teoria ottocentesca dell’«Arte per l’Arte», dice Kandinsky, è stata la pietra tombale dell’arte che poteva realmente essere apprezzata dal popolo anche incolto. Gli architetti di avanguardia del XVII secolo (es. Francesco Borromini) proponevano idee che poi percolavano nell’architettura di tutti i giorni attraverso l’opera di anonimi mastri carpentieri e scalpellini, influenzando l’aspetto delle case dei poveri, che erano così a contatto diretto con l’arte «colta». Le (peraltro bellissime) opere di O’Gehary e Calatrava sono ora delle cattedrali nel deserto di periferie squallide e anonime. Il saggio più completo, e che entra nel merito di una teoria storico-filosofica della nascita della bruttezza e della contemporanea crisi del ruolo sociale dell’arte nel mondo moderno, è il meraviglioso La perdita del centro di Hans Sedlmayr, edito da Borla. È un libro scritto nel 1948, ma, letto adesso, se ne riesce ad apprezzare la dimensione profetica. 10 Il primo pensiero di Pascal (B. Pascal [1670], Pensées, Gallimard, Paris 1977, tr. it. Fratelli Fabbri Editore, Milano 1997) sintetizza la proposta del nostro libro riguardo alla necessità di complementare il rigore con l’intuizione e quindi l’apprezzamento delle condizioni al contorno: «Ciò che dunque impedisce che determinati spiriti intuitivi siano matematici, è che sono del tutto incapaci a volgersi verso i princìpi della matematica; ma ciò che rende non intuitivi taluni spiriti matematici è che essi non vedono ciò che sta davanti a loro e che, essendo abituati ai princìpi puri e tangibili della matematica, e non a ragionare, che dopo aver ben visti e maneggiati questi princìpi si perdono entro le cose dell’intuizione, dove i princìpi non si lasciano trattare allo stesso modo. Infatti esse si vedono a mala pena, si sentono piuttosto che vedersi; ed è molto difficile farle sentire a chi non le sente da sé; sono cose talmente tenui e tanto numerose, che occorre una sensibilità molto delicata e precisa per sentirle e per giudicare giustamente e proprio secondo tale sensibilità, senza poterle, per la 54 Gli scienziati sono artigiani, non preti maggior parte dei casi, dimostrare con ordine, come in matematica, perché non se ne possiedono allo stesso modo i princìpi; e volerlo fare sarebbe un’impresa senza fine. Bisogna cogliere la cosa tutta d’un colpo, in un solo sguardo, e non per un progredire del ragionamento, almeno fino ad un certo punto. E così è raro che gli spiriti matematici siano intuitivi, e gli spiriti intuitivi matematici, a causa del fatto che i matematici vogliono trattare matematicamente queste cose dell’intuizione, e si rendono ridicoli, volendo cominciare con le definizioni ed in seguito con i princìpi, metodo fuor di luogo in questo tipo di ragionamenti. Non che lo spirito non agisca così, ma lo fa in modo tacito, naturale e senz’arte, perché l’espressione di esse eccede le capacità umane, e solo pochi ne possiedono la sensibilità. E gli spiriti d’intuizione, al contrario, essendo così abituati a giudicare a colpo d’occhio, sono tanto meravigliati quando si trovano di fronte a proposizioni di cui non comprendono nulla, e alla cui comprensione si arriva solo attraverso definizioni tanto sterili, che essi non sono affatto abituati a esaminare così minutamente, da allontanarsene e disgustarsene. Ma gli spiriti falsi non sono mai né intuitivi né matematici. I matematici, che sono soltanto tali, hanno dunque una mente retta, purché si spieghino loro bene tutte le cose con definizioni e princìpi; altrimenti sono falsi e insopportabili, perché non sanno ragionare rettamente che su princìpi ben chiariti. E gli spiriti intuitivi che sono soltanto tali non possono avere la pazienza di scendere fino ai primi princìpi delle cose speculative e d’immaginazione, che non hanno mai incontrato nel mondo, e che sono del tutto fuori dell’uso comune. 55 Capitolo terzo I COMPUTER SEMPLIFICANO LA SCIENZA La scienza è tutto ciò che capiamo abbastanza per spiegarlo ad un computer. Tutto il resto è arte. Donald Knuth La scienza è basata sul fatto che gli esperti ignorino molte cose. Richard Feynman Negli ultimi venticinque anni abbiamo assistito ad una rivoluzione nell’insegnamento della matematica. Gradualmente la penna e la carta hanno lasciato il posto ai computer nell’insegnamento di materie come la geometria e il calcolo differenziale. In maniera quasi impercettibile, il riconoscimento dell’utilità dei computer nell’insegnamento ha portato a una sorta di «riformulazione» del mondo continuo del calcolo differenziale in termini di matematica discreta (o di calcolo numerico, come si diceva fino a qualche tempo fa nei corsi di ingegneria). La noia mortale, tradizionalmente legata ai calcoli e alla difficile arte della semplificazione, è stata alleviata dal computer, mentre il «tempo liberato» dello studente è stato (almeno in teoria) reso disponibile per l’apprendimento dei concetti e delle teorie alla base del calcolo stesso. Gli educatori ancora dibattono se questo cambiamento sia stato positivo per la preparazione generale degli studenti, ma in ogni caso la situazione appare ormai senza ritorno. Insomma, il computer è lo strumento ideale per compiti tediosi e ripetitivi da eseguire in maniera esatta e in questo non scopriamo niente di nuovo. Gli storici del calcolo ci spiegano che nei secoli ci sono stati innumerevoli tentativi di meccanizzare il calcolo, tra cui i logaritmi e il regolo calcolatore sono forse i più noti. La liberazione dalla necessità di portare avanti tediosi calcoli con carta e matita porta con sé la liberazione dalla necessità di apprendere le formule del calcolo. È sufficiente comprendere il «senso generale» dei procedimenti (che spesso sono descrivibili a parole o con me57 L’ordine della complessità tafore) per utilizzare con profitto le potenzialità della matematica in campo scientifico. Ciò fa sì che, attraverso una discussione con uno «specialista», si possa ottenere in qualsiasi campo di interesse una descrizione semplificata di un problema scientifico passibile di essere affrontato con un software, dopodiché è sufficiente accendere il computer e iniziare a lavorarci. Questo modo di lavorare è sempre più diffuso nei circoli scientifici: il lavoro interdisciplinare si traduce quasi sempre nell’interazione fra uno (o più) specialisti di una certa area e uno (o più) specialisti di computazione. L’espressione «Scienza computazionale», che fino a qualche decennio fa sarebbe stata assolutamente oscura, è ormai declinata in decine di modi (Computational Biology, Computational Chemistry, Computational Neuroscience...) contribuendo ad operare un proficuo scambio tra campi tradizionalmente separati. Essere uno «scienziato computazionale» (come gli autori di questo libro) significa essere uno strano ibrido che prolifera nella nicchia ecologica creata dalla disponibilità di un’enorme potenza di calcolo ad un costo praticamente nullo. Da quanto detto sopra deriva che la qualifica di «scienziato computazionale» non deriva necessariamente da matematica, fisica o statistica (le scienze cosiddette «hard»), poiché la possibilità di saltare più o meno a piè pari la «formulistica» consente anche a scienziati con un retroterra matematico decisamente minore (biologi, chimici, geologi) di apprendere l’arte della computazione. Anzi, spesso questi ultimi hanno il vantaggio di una maggiore sensibilità verso i problemi proposti dagli specialisti. Lo specialista, insomma, può essere considerato il cliente dello scienziato computazionale in un ruolo molto simile a quello che si creava tra l’artista e il «mecenate» nell’arte del Rinascimento, o tra il regista e il produttore nella Hollywood prima della guerra (dove il «producer», così come il mecenate e lo specialista, aveva un ruolo cruciale nel processo creativo). In ogni caso, l’ultimo giudice del lavoro dello scienziato computazionale è proprio lui, lo scienziato esperto in un determinato campo, che dovrà convincersi della congruità della rappresentazione quantitativa ai suoi problemi realizzata dal primo: se sarà soddisfatto avrà l’impressione di aver contribuito all’avanzamento della scienza, altrimenti non se ne farà niente e le due parti rimarranno con uno sgradevole senso di incomunicabilità. Il giudizio dello specialista è uniformabile al criterio di valutazione di un affresco o di un poema epico: se gli oggetti matematici (così 58 I computer semplificano la scienza come la pittura o le rime) riescono a tradurre in modo immediato le aspettative e i concetti che il mecenate (lo specialista) aveva nel suo animo, egli apprezzerà il lavoro dello scienziato computazionale, altrimenti egli rimarrà freddo e deluso. Nell’esempio successivo vedremo un caso particolare di questa procedura in cui, in maniera apparentemente bizzarra ma coerente con quanto detto in precedenza, uno «sponsor» «matematicamente raffinato» (esperto di fisica teorica) ha gradito una soluzione «computazionale» ad un problema caratterizzata da uno stile derivato da scienze meno matematizzate come la biologia. In altre parole si è offerta una soluzione bottom-up (generalizzazione da un insieme di esempi, nello stile delle scienze soft come la biologia) ad un problema tradizionalmente affrontato in termini top-down (applicazione di princìpi fondamentali ad un caso particolare). Negli ultimi venti anni abbiamo assistito ad un grande dibattito sulla definizione del concetto di complessità. Il dibattito era stato stimolato all’inizio degli anni Ottanta, dallo sviluppo del progetto di ricerca sul cosiddetto «caos deterministico», un costrutto teorico basato sull’osservazione di comportamenti apparentemente imprevedibili e bizzarri da sistemi assolutamente deterministici come equazioni differenziali molto semplici. Un legame diretto fra questi costrutti matematici (e la loro appendice geometrica dei cosiddetti frattali) e il mondo reale era stato suggerito dall’analisi di serie temporali relative a diversi ambiti sperimentali e osservazionali, che andavano dal battito cardiaco all’andamento dei mercati finanziari. La vasta letteratura sull’argomento, fiorita tra la metà degli anni Ottanta e la metà degli anni Novanta del secolo scorso, rappresentò in qualche modo l’ultimo disperato tentativo di un pensiero strettamente deterministico di riconquistare l’egemonia della frontiera teorica delle scienze: la possibilità di definire il comportamento impredicibile e selvaggio dei sistemi complessi con un pugno di equazioni. Il tentativo fallì quando ci si accorse che le condizioni di applicabilità dei metodi di riconoscimento del caos erano completamente inapplicabili a qualsiasi raccolta di dati proveniente dal mondo reale e non dalle simulazioni numeriche. Nonostante l’inevitabile rapido declino della «Teoria del caos», alcuni dei problemi messi sul tappeto e svariate tecniche numeriche sviluppate nel perseguimento del progetto erano ancora vitali e interessanti. Come quasi sempre accade nella scienza, le metodiche e 59 L’ordine della complessità le domande iniziali sopravvivono alla morte delle teorie che le hanno apparentemente supportate. La stessa cosa avviene nell’arte, dove la motivazione profonda e gli aspetti formali e tecnici delle opere sopravvivono ai proclami teorici e alle visioni del mondo che le supportavano. A nostro avviso si tratta del fatto che gli esseri umani che si occupano di arte e di scienza sono molto più ricchi e sfaccettati delle teorie che propugnano, ogni pezzo di scienza porta dentro di sé un carico di «conoscenza non esplicitata» che supera di molto, come negli iceberg, la parte emersa, e che garantisce la persistenza del sapere e il suo sviluppo. Uno degli scopi di questo libro è offrire la nostra idea su dove sia situata questa parte nascosta e persistente, spingendo a distogliere lo sguardo dalle fallibili e labili teorie tanto amate dai filosofi della scienza, per puntarlo sulle metodiche di lavoro artigiano, che sono molto più prese in considerazione da gran parte di coloro che si occupano in prima persona del mestiere della scienza (nelle riunioni di lavoro degli scienziati non si fa quasi mai menzione della teoria X o della teoria Y; si parla invece quasi sempre di metodologie sperimentali e problemi tecnici: insomma, quando si parla di lavoro tra ricercatori, l’atmosfera è molto più simile a quella di «Pimp-my-ride»1 che all’Accademia platonica, il che rende il mestiere di scienziato, se preso per il verso giusto, immensamente divertente). Tornando a noi, la commissione era legata alla scoperta di un metodo affidabile per misurare la complessità relativa di serie numeriche (di solito serie temporali, ma non necessariamente, anche sequenze di biopolimeri o comunque vettori ordinati di numeri) indipendentemente da qualsiasi teoria. L’importanza di questo problema derivava da osservazioni eminentemente pragmatiche, che avevano a che vedere con la maggiore e minore predicibilità dei fenomeni, con l’evidente ma non facilmente e univocamente quantificabile cambiamento di «aspetto generale» delle serie temporali più diverse (dagli elettroencefalogrammi alle registrazioni sismiche) in corrispondenza (e a volte anche in leggero anticipo) di eventi catastrofici come crisi epilettiche e terremoti. L’idea «implicita» era che ci fosse qualcosa di comune a questi cambiamenti, che potesse essere utilmente formalizzato in un indice di «complessità» (declinata come ricchezza di particolari, difficoltà di riproduzione e così via) in maniera non dissimile a quello che era successo nei secoli precedenti con la media (cioè un indice di locazione utile per avere un’idea generale della grandezza di un fenome60 I computer semplificano la scienza 3.1. Uno dei capolavori di «Pimp-my-Ride»: l’automobile del surfista. no) o con la deviazione standard (cioè un indice di dispersione, utile per farsi un’idea sulla variabilità di ciò che si sta osservando). A grandi linee possiamo dividere gli approcci alla definizione quantitativa di complessità in due grandi famiglie: la definizione matematica e la definizione fisica. La definizione matematica ha a che vedere con il paradigma della complessità algoritmica: l’idea è quella del programmatore di computer, l’oggetto di riferimento è il software. La complessità di un fenomeno (ad esempio una serie temporale) è pari alla lunghezza in termini di linee di programma, di istruzioni, dell’algoritmo più stringato che riesce a riprodurre esattamente la serie in questione. Questa idea generale ha ispirato non solo degli algoritmi di misura della complessità di serie di dati, ma è alla base di software molto diffusi come i cosiddetti «zipper» (o «zippatori» nella vulgata informatica italiana) che, ricercando ridondanze e ripetizioni nei file a loro sottoposti, forniscono una misura della loro complessità (inversamente proporzionale al rapporto di compressione). La visione fisica ha come modello non il software ma la costruzione di un sistema di equazioni (o comunque di un modello matemati61 L’ordine della complessità co) che preveda l’evoluzione dell’andamento temporale del fenomeno studiato. Il numero di dimensioni dello spazio delle fasi del sistema è allora la sua complessità, questo è un altro modo per dire «la complessità di un sistema è pari al numero di variabili che devo conoscere per controllarne il comportamento». Anche la via della fisica ha prodotto importanti strumenti per descrivere le serie temporali e, cosa ancora più rilevante, ha rivitalizzato tecniche statistiche come l’analisi in componenti principali e vari metodi spettrali, conferendo loro un senso molto più ampio. Molta dell’odierna ricerca sul clima è debitrice di questi sviluppi. Come si vede la via della matematica e la via della fisica convergono verso la definizione di complessità come il «numero di regole (matematica) o di equazioni (fisica) necessarie a riprodurre un certo fenomeno». Il che equivale ad affermare, in termini forse più rozzi ma certamente più efficaci, che la complessità è il grado di impredicibilità di un sistema2. Sia le ricette matematiche che quelle fisiche usano un approccio idealistico tipico delle scienze dure: un concetto può (e deve) essere definito indipendentemente dagli oggetti veri e propri a cui è applicato. In questo modo possiamo descrivere agevolmente che cos’è la velocità, e cioè la derivata (il tasso di cambiamento) dello spazio rispetto al tempo, anche senza riferirci a un particolare oggetto in moto. Questo genere di ragionamento è molto potente in tantissime occasioni e consente definizioni molto generali e rigorose. Allo stesso tempo, però, questo modo di porre le cose non funziona nelle scienze biomediche: immaginiamo di voler dare una definizione rigorosa di «linfocita» evitando il riferimento ai globuli bianchi del sangue! Le entità biologiche possono essere definite solo con un approccio bottom-up, cercando di scovare delle similitudini rilevanti (correlazioni) tra entità individuali effettivamente osservate. Da Linneo in avanti, la biologia lavora costruendo delle categorie operativamente utili dall’osservazione di similitudini e differenze, ed è solo così che noi definiamo organi, tessuti, specie di piante e animali. Lo stesso approccio si sta ora allargando a sequenze di DNA e di proteine, a reti metaboliche e a profili di espressione genica. L’impressione di estrema pedanteria e conservativismo che spesso i fisici riscontrano nei medici e nei biologi deriva proprio dalla necessità di questi ultimi di «costruire» faticosamente i propri «oggetti di studio», il materiale primario della loro scienza, compito che invece è molto più im62 I computer semplificano la scienza 3.2. Un modello a scatola nera, l’unica possibilità di studio è quella di associare certi ingressi a determinate uscite, senza poter vedere «all’interno» del dispositivo. mediato per i fisici, che si devono preoccupare esclusivamente della coerenza formale delle loro definizioni. Questa faticosa vita delle definizioni in biomedicina è alla base di attività come le cosiddette conferenze «consensus» (consensus conference) in cui i medici si accordano sulla definizione e sulla stessa esistenza di specifiche malattie, fino ad arrivare ai casi estremi e un po’ paradossali delle definizioni utilizzate in psichiatria e psicoanalisi, dove è proprio sulla base di diverse idee di classificazione e definizioni che si definiscono le cosiddette «scuole». Tornando alla complessità, il tentativo che qui vogliamo discutere è quello di trovare una via di mezzo fra i due mondi delle definizioni top-down e bottom-up, e per far questo chiederemo aiuto agli ingegneri e ai fisiologi. I fisiologi analizzano i sistemi biologici usando descrizioni molto ridotte, esattamente come un ingegnere utilizza una descrizione ridotta di un amplificatore3. Un ingegnere quasi mai è interessato a quello che c’è dentro l’amplificatore e che effettivamente produce il guadagno in potenza. Di solito l’ingegnere studia le proprietà del guadagno in potenza, il suo carattere lineare, la sua dipendenza dalla frequenza del segnale, e così via. Una descrizione completa della struttura dell’amplificatore è l’ultima cosa di cui ha bisogno, molto più utile sarà una descrizione efficiente delle relazioni ingresso/uscita del dispositivo. Lo scopo è una comprensione «semplice» del sistema. Chiaramente la struttura interna dell’amplificatore è importante qualora l’ingegnere abbia intenzione di migliorare le prestazioni dell’amplificatore, ma certo non è essenziale quando lo scopo sia quello di usare l’amplificatore in modo efficiente o connetterlo con altre apparecchiature per costruire un sistema integrato. Un ingegnere che voglia capire se un’ignota «scatola nera» sia o meno un amplificatore è come un biologo che si trova davanti ad un componente sconosciuto di un sistema vivente (per esempio un enzima, una regolazione genica): entrambi hanno bisogno di 63 L’ordine della complessità un minimo di conoscenza strutturale. L’ingegnere non potrà andare molto avanti se almeno non conosce dove poter collegare lo strumento ignoto alla rete elettrica, quali siano le entrate del segnale, quali le uscite, ma è chiaro che l’intero diagramma del circuito è ridondante. I fisiologi hanno affrontato con successo lo studio di molti «strumenti biologici» con questo tipo di approccio: il rene filtra il sangue (entrata) e produce urina (uscita), i polmoni trasportano l’ossigeno dall’aria al sangue, i muscoli si contraggono, i canali del sodio producono potenziali d’azione e così via. Ogni definizione in fisiologia – si tratti di organi, tessuti, cellule, organelli cellulari, proteine – è associata con un modello di strumento, di apparecchiatura con un ingresso e un’uscita esattamente come in ingegneria ogni descrizione di uno strumento è associata con un modello di massima che ne descrive la funzione e le relazioni ingresso/uscita. Gli approcci matematici e fisici di tipo top-down (prima i concetti!) alla definizione di complessità hanno generato un insieme di «misure di complessità» che, almeno in linea di princìpio, possono essere applicate ad oggetti reali, in particolare a serie temporali generate sperimentalmente e costituite da vettori corrispondenti all’evoluzione temporale (spaziale) dei fenomeni più vari, come il battito cardiaco, i tracciati elettroencefalografici, le osservazioni meteo, le sequenze di DNA e proteine. Il problema era che, appena si provava ad applicare i metodi proposti ai sistemi reali, invariabilmente si violava una o più delle premesse teoriche su cui le misure erano fondate: le serie erano troppo corte, non stazionarie, non numeriche, ecc. In pratica nessuno dei metodi proposti poteva essere applicato rigorosamente ai dati, di conseguenza occorreva un po’ di mestiere artigiano per aggiustare la situazione. Quando affrontammo questo problema4, decidemmo di percorrere una via completamente opposta a quella seguita sino ad allora da fisici e matematici: invece di cercare una definizione di complessità che fosse insieme rigorosa e applicabile ai sistemi reali, accettammo come inevitabili i limiti intrinseci a tutti i metodi proposti fino allora ma allo stesso tempo assumemmo che tutti questi metodi imperfetti catturassero una porzione più o meno grande, un aspetto particolare, del concetto di complessità. Ogni metodo, insomma, aveva dentro di sé un pezzo della «vera» definizione di complessità, non tutta la verità naturalmente ma una porzione diversa da zero, per quanto piccola. 64 I computer semplificano la scienza La seconda assunzione fu di immaginare che i vari metodi si allontanassero dalla «perfezione» in direzioni diverse, cioè che essi facessero errori di tipo diverso nella definizione del grado di complessità di una serie numerica, ma al tempo stesso si avvicinassero alla realtà in maniera convergente. Ciò corrisponde più o meno a dire che mentre si può sbagliare in molti modi, si è nel giusto in una maniera sola. Questo è un nodo fondamentale che ha a che vedere con il difficile e contrastato rapporto tra scienza e verità. Ogni volta che si parla di «verità» finisce che si producono fiumi di inchiostro che raccontano la lunghissima «storia filosofica del concetto di verità». Gli scienziati, dal canto loro, non hanno molta pazienza per le dispute ontologiche e ben fondate ragioni per comportarsi così. Il concetto abbastanza intuitivo e apparentemente grossolano del fatto che le «soluzioni giuste» di un problema sono in ogni caso molte di meno delle soluzioni sbagliate (spesso la soluzione giusta è una sola) si traduce nella semplice constatazione che la parte comune ai diversi metodi di misura della complessità ha a che vedere con il loro lato «veritiero», mentre la parte variabile con le loro singolarità e quindi con i loro errori. Insomma, la porzione consensuale dei metodi è l’immagine del loro comune riferirsi al concetto di complessità. Chiaramente questo approccio presuppone che «imperfetto» non sia semplice sinonimo di «sbagliato»: l’imperfezione vive in uno spazio continuo in cui si possono avere diversi livelli (e qualità) di imperfezione, laddove – invece – in una tabella logica di verità non esistono gradazioni, e quindi un’asserzione o è vera o è falsa. Ma se l’imperfezione è un «continuum», allora da un’accorta mistura dei metodi esistenti potremo distillare la misura ottimale di complessità che, in accordo con quanto detto sopra, corrisponderà alla parte correlata dell’informazione portata dai diversi metodi o, in termini statistici, alla loro prima componente principale. Il raggiungimento di questo ottimo, come con qualsiasi strumento di misura, corrisponderà al raggiungimento di un ordinamento corretto di un insieme opportunamente scelto di serie numeriche, dalla più ordinata (e quindi prevedibile) alla più disordinata (e quindi imprevedibile). Perché la correlazione fra metodi prenda forma occorre innanzitutto disporre di una popolazione ben scelta di serie temporali su cui applicare le differenti tecniche di misura della complessità. Questa popolazione, definita anche di prova (training set), deve essere formata da serie analoghe a quelle incontrate nella pratica speri65 L’ordine della complessità mentale: non troppo corte e non troppo lunghe, e soprattutto con un largo spettro di grado di regolarità che va da sequenze assolutamente deterministiche (per esempio sinusoidi) a sequenze completamente stocastiche (per esempio eventi di decadimenti singoli di sostanze radioattive). Un altro criterio importante per la costruzione dell’insieme di prova è l’inserimento di alcune «serie matematiche» ottenute dall’applicazione di regole decise a priori in cui siamo noi a controllare in maniera fine il grado di regolarità immesso. Queste serie artificiali sono preziose per controllare la rilevanza dei nostri risultati in quanto, analogamente all’uso di concentrazioni standard per la taratura di uno strumento di analisi chimica quantitativa, ci consentono di valutare la concordanza della misura ottenuta con una «complessità nota». I segnali standard da noi inclusi nella popolazione di serie «naturali» sono stati di due tipi: 1. Gruppo RAN (i): Questi segnali derivano da una serie originale completamente randomica costituita da 1.000 valori numerici (RAN (0)). Questi valori sono stati successivamente ordinati secondo segmenti di diversa lunghezza in cui i valori andavano dal più piccolo al più grande, per cui RAN (1) deriva da RAN (0) attraverso l’ordinamento dei primi 10 valori di RAN (0) dal più piccolo al più grande, poi dei secondi 10 e così via. RAN (2) era costituita dall’ordinamento dei primi 20 valori, poi dei secondi 20, analogamente RAN (3) era costituita da «isole di ordine lineare» lunghe 50, RAN (5) da isole lunghe 200. In questo modo il grado di ordinamento della serie dipendeva strettamente dalla lunghezza del «segmento ordinante» (patch). 2. Gruppo SNR (i): Se nel caso precedente una quantità progressivamente maggiore di regolarità (segmenti ordinati più lunghi) veniva aggiunta ad una «serie madre» inizialmente irregolare, in questa seconda famiglia di serie matematiche si è proceduto inserendo progressivamente un rumore in un segnale inizialmente regolare. Le serie della famiglia SNR (dall’acronimo Signal-to-Noise-Ratio, rapporto segnale-rumore utilizzato in elettronica) parte dalla serie madre SNR (0) costituita da un segnale assolutamente regolare (onda quadra) costituita dalla giustapposizione di un segmento A di cinquanta valori tutti uguali a 10 e di un segmento B di altri 50 valori uguali a 0. Questa alternanza di segmenti A e B viene continuata fino ad arrivare a 1.000 valori. A questa serie assolutamente regolare viene aggiunto, elemento per elemento, il risultato di un’estrazione casuale da una distribuzione 66 I computer semplificano la scienza 3.3. Le prime tre serie della figura corrispondono a tre elementi della famiglia RAN (i) a livelli crescenti di ordine (e quindi decrescenti di complessità). Il secondo gruppo di tre serie si riferisce invece alla famiglia SNR a tre livelli crescenti di rumore aggiunto (complessità crescente). gaussiana avente media 0 e deviazione standard crescente, partendo da un rapporto segnale/rumore di 12 (SNR(1)) fino a 1 (SNR(12)). A valori crescenti di rumore la serie perde progressivamente il suo aspetto di onda quadra e diviene molto irregolare e praticamente indistinguibile da una serie randomica. La scelta delle regole di costruzione di queste serie artificiali è dettata esclusivamente dalla necessità di avere a disposizione un saggio immediato che ci permette di scoprire se il nostro sistema «misura bene»; infatti, solo un metodo in grado di mettere in fila nel giusto ordine in termini di complessità crescente le serie secondo l’entità relativa della loro parte imprevedibile (sia essa la quantità di rumore immesso come nel gruppo SNR o la diminuzione della lunghezza delle isole ordinate nel gruppo RAN) è un buon misuratore di complessità. La figura 3.3 riporta alcuni esempi tratti dalle famiglie RAN (i tre pannelli superiori della figura) e SNR (tre pannelli inferiori). 67 L’ordine della complessità Una buona misura di complessità dovrà quindi ordinare gli elementi delle famiglie RAN e SNR lungo il loro parametro d’ordine, rispettivamente la lunghezza del patch ordinato per la famiglia RAN e il rapporto segnale-rumore per la famiglia SNR. Se l’analisi di una popolazione di serie naturali attraverso la separazione della «porzione correlata» e quindi della parte comune di informazione, condivisa dagli indici di complessità, sarà in grado di ottenere «l’ordinamento corretto» delle serie simulate, avremo ottenuto la nostra misura di complessità in maniera bottom-up direttamente dai dati, senza alcun inserimento di elementi «di teoria» dall’esterno che non siano quelli implicitamente contenuti negli indici di complessità. L’insieme di prova viene quindi ad essere costituito da 200 serie temporali di origine e carattere molto eterogeneo, per esempio l’andamento nel tempo dei fondi pensionistici americani, i decadimenti radioattivi, la larghezza degli anelli di accrescimento degli alberi, le registrazioni di piovosità, le sequenze di DNA e di proteine, e così via. Tutte queste serie sono state descritte dal valore di complessità loro assegnato da 13 differenti indici di complessità derivanti dall’applicazione di diversi paradigmi teorici sul significato del termine «complessità» ottenendo quindi una matrice di dati M con 200 unità statistiche (righe della matrice, sequenze numeriche) e 13 variabili (punteggi di complessità, colonne). La matrice M è stata analizzata con la tecnica più diffusa di analisi multidimensionale (sviluppata nel 1873 dal matematico italiano Eugenio Beltrami e resa operativa nelle scienze sperimentali da Karl Pearson nel 1901, e da allora applicata nei campi più disparati dalla psicologia alla fisica teorica), vale a dire l’analisi in componenti principali (PCA, acronimo di Principal Component Analysis). Senza andare a fondo nella spiegazione del metodo, qui è sufficiente notare come il suo scopo sia quello di estrarre da una serie di misure (variabili) la loro porzione di informazione correlata, così da generare uno (o più) punteggi sintetici che riassumono la porzione correlata di informazione inizialmente dispersa sulle variabili originali. Questa correlazione viene estratta a partire dal grado di correlazione delle misure osservato su un insieme di unità statistiche (le nostre serie). La prima componente principale è allora la direzione nello spazio multidimensionale (nel nostro caso a 13 dimensioni corrispondenti alle variabili originali) in cui l’accordo fra le misure è massimo (ovvero è massima la probabilità che il punteggio relativo di complessità di una 68 I computer semplificano la scienza 3.4. La parte comune dell’informazione dispersa sulle due variabili X ed Y è la diagonale lungo la quale si ordinano i valori delle unità statistiche (osservazioni), essa corrisponde alla direzione di massimo allungamento dalla nuvola di punti e corrisponde alla prima componente principale del sistema descritto dalle due dimensioni X ed Y. Passare da una descrizione a due dimensioni (ogni osservazione è definita dalle sue coordinate X ed Y) ad una descrizione monodimensionale (ogni osservazione è descritta dalla sua posizione lungo la prima componente principale) permette di salvare la ‘parte comune’ dell’informazione portata da X e da Y scartando le loro singolarità. La nostra scommessa è stata quella di affermare che la complessità fosse la parte comune (componente principale) dell’informazione portata dai 13 descrittori teorici. Ogni descrittore teorico ‘vede’ un aspetto particolare delle serie temporali, quello su cui sono tutti d’accordo è la ‘complessità’. serie secondo il metodo i-esimo sia in accordo con il punteggio secondo il metodo j-esimo, k-esimo, n-esimo...). La figura 3.4 offre una rappresentazione grafica di cosa si intende per porzione comune di informazione in uno spazio bidimensionale descritto da due variabili x e y: l’informazione comune (prima componente principale) è la linea diagonale che attraversa il piano, laddove l’informazione singolare è la dispersione dei punti (unità statistiche) attorno alla linea. L’estrazione di un analogo della «linea di comunanza» rappresentata in figura in uno spazio a tredici dimensioni è eseguito con estre69 L’ordine della complessità 3.5. L’ordinamento corretto delle serie temporali di prova da parte della prima componente principale è raggiunto con ottima approssimazione. ma facilità da un semplice computer da tavolo con software commerciale. In termini algebrici la prima componente principale è espressa come una combinazione originale delle 13 variabili originali come: PC1 = a*T1 + b*T2 + c*T3 + ...m*T13 Essendo a, b, ...m coefficienti numerici (scalari) e i valori da T1 a T13 i punteggi di complessità. Il punteggio di PC1 può in questo modo essere facilmente misurato per tutte le serie analizzate. Questo punteggio ha effettivamente ricostruito in maniera molto efficiente l’ordine corretto di complessità delle serie standard, come ripreso in figura 3.5, dove è riportata la concordanza del valore di PC1 con il parametro d’ordine delle famiglie RAN e SNR (rispettivamente il log della lunghezza del patch e il rapporto segnale rumore). La concordanza è effettivamente quasi assoluta raggiungendo un valore di r (coefficiente di correlazione di Pearson) vicino al valore massimo ottenibile (r = 1). In questo modo la complessità passa dall’essere un concetto vago ad un costrutto operativo senza l’utilizzo di alcuna assunzione teorica. Al contrario la complessità rimane definita utilizzando uno stile tipico delle scienze soft come la biologia, cercando un criterio di classificazione dal basso invece che una definizione teoricamente rigorosa dall’alto. 70 I computer semplificano la scienza In qualche misura questo approccio può risultare piuttosto insoddisfacente per le scienze cosiddette «hard». La fisica è abituata a ragionare sulla base di esempi teorici trattabili matematicamente in maniera rigorosa ed esauriente. In questo modo si può parlare di oggetti «privi di massa» o di «piani senza attrito» senza preoccuparsi dell’esistenza di tali costrutti. Anche passando all’esperimento si può sempre immaginare di rendere minime (vanishingly small) le inevitabili deviazioni dal modello ideale e quindi ragionare come se queste deviazioni proprio non esistessero. Le cose stanno in modo molto diverso nelle scienze biologiche e comportamentali: la natura stessa delle osservazioni in queste scienze le rende affette da un rumore intrinseco e ineliminabile. Un luogo comune abbastanza diffuso è infatti l’affermazione che queste scienze difettino della «precisione» delle scienze fisiche, ma le cose stanno in maniera molto diversa. Come abbiamo detto in precedenza, le scienze fisiche si confrontano con il mondo da una prospettiva di tipo idealistico e i fenomeni sono strettamente «controllati» sia in termini di descrizione che di successiva spiegazione. Le scienze biologiche e comportamentali non si possono permettere questo lusso, e non perché non dispongano di osservabili assolutamente ripetibili e deterministici: se batto le mani posso essere sicuro al 100% che il coniglio sul prato fuggirà via anche se la sua fuga deriva dal comportamento integrato di meccanismi a me per larga parte ignoti. Allo stesso modo le diagnosi cliniche raggiungono livelli di accuratezza sicuramente confrontabili con quello degli esperimenti di fisica. Il fatto è che questo livello di accuratezza e ripetibilità deriva dal comportamento collettivo di sistemi che microscopicamente sono invece altamente stocastici e impredicibili. Insomma, se volessimo ricostruire il motivo della fuga del coniglio dallo studio delle sue proteine non andremmo avanti di un passo. I fenomeni biologici e in generale tutti i fenomeni complessi mostrano il tipo di regolarità emergente dalla meccanica statistica dove il comportamento stocastico degli atomi ingenera la regolarità dell’insieme costituito da miliardi di atomi. Le scienze comportamentali, inoltre, sono ulteriormente complicate dal fenomeno dell’«autocoscienza», poiché i ruoli dell’osservatore e dell’osservato si mescolano in maniera imprevedibile. A questo punto le «imperfezioni» dalla regola generale non possono essere considerate come noiosi accidenti che si sovrappongono ad 71 L’ordine della complessità 3.6. Nel pannello A si riporta la simulazione nella grande scala di variabilità tra –35 e +35, nel pannello B si riporta un ingrandimento della figura A) tra –5 e +5. un ordine «reale» soggiacente, ma semplicemente corrispondono al diverso livello di «casualità» tipico della scala di osservazione utilizzata per un particolare fenomeno e quindi di quanto ci allontaniamo (o avviciniamo) al piano della integrazione collettiva degli atomismi coinvolti. L’universo può quindi essere visto come un quadro con diversi livelli relativi di apparente determinismo e rumore a seconda della scala di osservazione, come descritto in figura 3.6. A seconda del nostro livello di dettaglio la randomicità può essere vista come «rumore» o 72 I computer semplificano la scienza come il risultato dell’esistenza di scelte multiple da parte del sistema osservato, e quindi come il segnale da studiare. Un semplice esempio numerico ci potrà aiutare ad apprezzare questa «dipendenza di scala». Immaginiamo di fare un esperimento simulato: costruiamo un grafico che abbia nell’asse delle ascisse (l’asse orizzontale o delle X) dei valori che vanno da –35 a +35; in corrispondenza di ogni valore della X calcoliamo una Y (valore delle ordinate, asse verticale) secondo la formula: Y = X + N(0,7), con N(0,7) indicante l’estrazione da una distribuzione casuale gaussiana a media 0 e deviazione standard 7. La figura 3.6 riporta i risultati della simulazione. La formula ci dice che il valore di Y è uguale a quello della X sommato ad un «rumore casuale» (che possiamo immaginare come un errore di misura o qualsiasi altro evento di disturbo ma anche le conseguenze dell’intervento di cause minori e ignote) descritto dal termine N(0,7) che rappresenta un’estrazione casuale (come prendere una pallina da un’urna) da una distribuzione di numeri con media 0 e deviazione standard 7 (deviazione standard 7 vuol dire che due estrazioni prese a caso in media differiranno di un valore pari a 7). Il pannello A) ci dice quello che effettivamente ci aspettavamo (la risposta è giusta) e cioè che la Y e la X sono correlate: a valori grandi della X (a destra nel grafico) corrispondono valori elevati della Y (in alto) e viceversa per valori piccoli. Il legame tra X e Y non è deterministico (lo sarebbe stato se mi fossi limitato a pretendere Y = X) per cui i punti non si dispongono esattamente su una linea diagonale nel grafico, ma mostrano una certa variabilità attorno a questa linea dovuta al termine stocastico (estrazioni casuali) N(0,7). Comunque la correlazione è molto forte (r = 0,82, il massimo sarebbe r = 1) e quindi, se X e Y fossero stati i risultati di un esperimento, saremmo autorizzati a dire che la Y dipende dalla X (con una certa approssimazione). Passiamo ora al pannello B), che non è altro che un ingrandimento del pannello A), focalizzandoci (stringendo la lente) in una zona più piccola del grafico (tra –5 e +5) che è comunque l’area più popolata (l’80% delle osservazioni cade in questo intervallo). Qui le cose cambiano bruscamente, il legame fra le due variabili crolla da 0,82 a 0,27, questo legame non è più significativo; se la X e la Y fossero state due misure sperimentali avremmo detto (a torto ma in maniera matematicamente ineccepibile) che la Y non dipende dalla X. Questo vuol dire semplicemente che la distanza corretta da cui 73 L’ordine della complessità guardare il fenomeno era quella del pannello A), mentre nel pannello B) ci siamo avvicinati troppo e non riusciamo più a scorgere il legame esistente fra le due misure, che è «sepolto» dal rumore casuale. Da un punto di vista conoscitivo il risultato della simulazione ci dice che qualsiasi costrutto situato ad una scala di variabilità «grande» (–35; +35) descriverebbe il comportamento delle due variabili X e Y come «comprensibile e spiegato dal modello», laddove una descrizione il cui spettro di variabilità si situasse sulla piccola scala (–5; +5) darebbe un risultato «negativo» di assenza di leggi. I dati sono gli stessi, le conclusioni opposte, entrambe corrette, entrambe parziali, entrambe legate alla particolare prospettiva scelta. Questa inestricabile miscela di rumore e segnale che chiamiamo variabilità e che racchiude il senso ultimo dello studio dei sistemi complessi richiede un ragionamento di tipo statistico piuttosto che strettamente matematico; e quando siamo dalle parti della statistica (numerosi elementi coinvolti) la carta e la penna divengono quasi subito inservibili e il calcolo deve essere eseguito dai computer. In qualche modo potremmo pensare che la matematica si sia evoluta proprio perché non si avevano a disposizione dei computer; insomma, la matematica sarebbe un linguaggio di programmazione in assenza di strumenti di calcolo automatici. La matematica, insomma, non è la realtà, ma un linguaggio relazionale. Anche i concetti della fisica come quelli di «forza», «massa», «energia» sono astrazioni, non realtà sensibili. Questi concetti descrivono delle relazioni che noi non comprendiamo nel profondo, ciononostante essi ci consentono di prevedere dei comportamenti osservati in natura, quindi «funzionano». Tutto ciò offre la non trascurabile possibilità di sviluppare un linguaggio efficiente, che in ultima analisi non è altro che un costrutto legato al funzionamento della nostra mente. Il fisico David Ruelle ha approfondito questo punto. La nostra mente non viene attratta dalle sottigliezze ma semplicemente da schemi globali, e dunque ragionerebbe sulle astrazioni. L’esempio classico è la nostra capacità di rammentare le configurazioni generali dei volti e non i singoli dettagli: un artista ha bisogno di riferirsi ad una fotografia o ad un modello in carne e ossa per dipingere un ritratto. In buona sostanza, le «imperfezioni» sarebbero i dettagli, e solo dall’organizzazione di questi dettagli può emergere un quadro completo. Ma allora, dove i dettagli sono innumerevoli e compresenti, non è proprio 74 I computer semplificano la scienza possibile fare a meno del computer che, in maniera opposta rispetto alla nostra mente, con i dettagli si trova benissimo. NOTE 1 Nel programma televisivo americano «Pimp-my-ride» (in onda anche in Italia su un affiatatissimo gruppo di esperti meccanici trasforma automobili pronte per lo sfascia-carrozze in prodigi luccicanti, magari un po’ cafoni, ma assolutamente unici e dotati di una loro misteriosa bellezza. Come degli angeli tecnologici, il team di «Pimp-my-ride» sceglie di beneficare il padrone di uno scassone offrendo questa vera rinascita della sua automobile in via assolutamente gratuita. È uno dei due o tre programmi preferiti da entrambi gli autori. 2 Per una discussione approfondita sull’argomento vedi J.P. Zbilut, A. Giuliani, Algorithmic complexity, in Encyclopedia of Nonlinear Science, Fitzroy Dearborn, 2004. 3 Siamo debitori a Bob Eisenberg dell’Università Rush di Chicago. Per questo esempio, vedi comunque E.F. Keller, A clash of two cultures, in “Nature”, 445(2007), p. 603; oppure B.J. Enquist, S.C. Stark, Follow Thompson’s map to turn biology from a science into a Science, in “Nature”, 446(2007), p. 611. 4 A. Giuliani, M. Colafranceschi, C.L. Webber JR, J.P. Zbilut, A complexity score derived from principal components analysis of nonlinear order measures, in “Physica A”, 301(2001), pp. 567-588. Questo è il lavoro originale descritto in questo capitolo. MTV) 75 Capitolo quarto SCIENZA E SOCIETÀ Non esiste scienza che sia immune dall’infezione della politica e dalla corruzione del potere. Jacob Bronowski Una delle frasi più inquietanti riguardo alla scienza è l’affermazione di Francis Bacon per cui scientia est potentia (la scienza è potenza, o la conoscenza è potenza). Questa frase è interessante non solo per quello che afferma ma anche per come la versione latina è arrivata fino a noi. Originariamente Bacone, nelle sue Sacrae Meditationes, aveva scritto: nam et ipsa scientia potestas est (la conoscenza è un potere in se stessa). La cosa curiosa è che la parola latina potestas venga scambiata con l’altra parola potentia. Potestas è un termine legale che indica il diritto e l’autorità su una cosa, laddove potentia era usato nella filosofia medievale allo stesso modo di come noi usiamo il termine «potenzialità» (di una persona o di una cosa), cioè la capacità di eseguire un’azione, un potere nel senso stretto del termine «io posso (perché nessuno me lo può impedire e ne sono capace) fare questo o quello». Questo scambio suggerisce una sorta di salto nel pensiero filosofico, avvenuto attorno al XVI secolo: da una parte evoca il pensiero alchemico, dall’altra sottolinea la connessione strettissima nata proprio in quegli anni tra sviluppo scientifico, tecnologia e guerra come conquista del potere su uomini e cose. È importante sottolineare come l’alchimia, che nella società medievale era sostanzialmente considerata un’attività eticamente neutra, nel Rinascimento cominci ad acquisire una reputazione sinistra, probabilmente connessa agli eccessi legati alle pratiche magiche degli adepti. Nei secoli successivi questa reputazione sinistra è rimasta in qualche modo adesa alla scienza «newtoniana» (Newton, non a caso, era un 77 L’ordine della complessità grande alchimista) e alle sue supposte o reali brame di «controllo del mondo». Forse questa nefasta connessione non avrebbe potuto essere evitata. Il potere personale tende inevitabilmente a trasformarsi in potere politico e a sua volta l’osservazione tende a divenire manipolazione, e non sempre per scopi benefici. Sebbene la propaganda «positivista» ci restituisca un’immagine della scienza come un’attività disinteressata e sostanzialmente «oggettiva», non bisogna dimenticare che la scienza moderna nasce in un periodo in cui il pensiero religioso ancora prescriveva quale dovesse essere la «visione corretta» della realtà. Quasi sicuramente Newton avrà passato molto più tempo sulla Bibbia che su argomenti che noi consideriamo più «tradizionalmente scientifici», come la fisica. I suoi seguaci lo dipingono come una persona profondamente convinta di avere una missione sovrannaturale (lo stesso fatto che fosse nato il giorno di Natale lo spingeva a considerarsi, e nei secoli questa posizione fu addirittura appoggiata da molti scienziati e filosofi, una sorta di «nuovo Messia»). Ciò che a noi sfugge è proprio come Newton considerasse le cose che studiava: egli descriveva il fenomeno della «gravità», che a noi appare una normale regolarità dell’Universo facilmente verificabile nella nostra vita quotidiana, come un concetto magico alchemico. Non c’è niente di «fisico» (nel senso di materiale) nel modo in cui Newton descrive la gravità. Ciò che egli fa è semplicemente descrivere in maniera matematica una proprietà che guida le relazioni fra i corpi. Mentre un alchimista del tempo non aveva alcuna difficoltà ad accettare l’idea di un’azione a distanza implicita nel concetto di gravità, ancora oggi si verificano dispute accesissime sulla natura della forza gravitazionale e i gravitoni, una sorta di correlato materiale di un concetto tutto sommato magico come la gravità, non sono ancora stati individuati in maniera inoppugnabile, nonostante grandi e reiterati sforzi di ricerca. A questo punto si capisce come mai, ancora ai nostri giorni, la scienza, la religione e l’occulto siano così intrecciati, e da dove vengano molte interminabili discussioni e quanto debole sia il tentativo positivista di elevare il sapere scientifico su un piedistallo di oggettivo e inevitabile «progresso». Gli orrori dei programmi di eugenetica, portati avanti per il bene della società da illustri e rispettati scienziati fino a pochi decenni addietro (e purtroppo sempre risorgenti sotto mentite spoglie, nonostante gli orrori della Shoà e di altri genocidi del secolo scorso) sono figli della scienza «razionale». Il colonialismo e il 78 Scienza e società razzismo hanno avuto giustificazioni scientifiche dal cosiddetto darwinismo sociale, così come la smania di prevalere delle varie nazioni alla base delle guerre più sanguinose che la storia ricordi. La memoria di queste esperienze chiaramente influenza il dibattito recente sull’etica della scienza. Il legame tra la conoscenza e la guerra era presente probabilmente fin dall’inizio della storia umana, ma lo sviluppo delle armi da fuoco provocò una transizione improvvisa in questo rapporto. Per la prima volta nella storia dell’uomo una persona debole, vigliacca e maligna poteva prevalere su un valoroso, giusto e generoso cavaliere. I tempi moderni iniziano con questa transizione, dopo questa acquisizione un intero sistema di valori con una storia ricca e gloriosa crolla fragorosamente. Molti filosofi e artisti tra il XV e il XVI secolo (i decenni in cui si affermarono le armi da fuoco) percepirono la rilevanza di questa transizione. Nel IX canto di quell’opera stupefacente che è l’Orlando furioso, ecco come Ludovico Ariosto descrive i primi archibugi1: Che si puo’ dir che tuona e che balen Né men che soglia il fulmine ove passa Ciò che tocca arde, abbatte, apre e fracassa. (IX, 29, 6-8) Questa sorta di «fulmine terrestre» ha una potenza che appare immediatamente come soprannaturale: Chi vide mai dal ciel cadere il foco, che con si orrendo suon Giove disserra, e penetrare ove un richiuso loco carbon con zolfo e con salnitro serra; ch’a pena arriva, a pena tocca un poco, che par ch’avampi il ciel, non che la terra; spezza le mura, e i gravi marmi svelle, e fa i sassi volar sin alle stelle. (IX, 78, 1-8) L’arma da fuoco è identificata come opera diabolica proprio nel senso di sovversione dell’ordine sacro del mondo, ed ecco allora che Orlando, dopo essere sfuggito alla potenza dell’arma utilizzata dal perfido re Cimosco, la getta per sempre nell’inferno da dove proviene: 79 L’ordine della complessità O maladetto, o abominoso ordigno, che fabricato nel tartareo fondo fosti per mano di Belzebù maligno che ruinar per te disegnò il mondo, all’inferno, onde uscisti, ti rasigno. Così dicendo lo gittò in profondo. (IX, 91, 1-6) L’impresa di Orlando fu portata a termine con successo per più di due secoli dalla classe dirigente giapponese, che ebbe una chiara percezione dell’effetto di stravolgimento dell’ordine sociale da parte delle armi da fuoco: agli inizi del Seicento, il Giappone vietò l’uso delle armi da fuoco sul territorio nazionale, così che la guerra potesse rimanere un affare ristretto ad una élite di guerrieri coraggiosi e uniti da un codice d’onore, i samurai. Per mantenere questo stato di cose il Giappone si chiuse completamente ai rapporti con gli Occidentali, che avevano accesso solo all’area ristretta del porto di Nagasaki. Purtroppo il Giappone fu costretto ad abbandonare questa politica a metà del XIX secolo quando le cannoniere del generale Perry (le famose «navi nere») si affacciarono nella baia di Nagasaki e l’imperatore Meij, preoccupato dalle mire colonialistiche dei paesi occidentali e dalle conseguenze per l’indipendenza nazionale, decise di introdurre bruscamente il Giappone nell’era moderna e quindi di accettare la tecnologia delle armi da fuoco. Le guerre, dopo l’introduzione delle armi da fuoco, smettono di essere una questione di élite per diventare qualcosa di molto più sanguinoso in cui tutti i cittadini sono coinvolti. La nozione di riduzionismo è implicita nell’uso delle armi da fuoco: chi ha in mano una pistola non si deve preoccupare più di tanto delle «condizioni al contorno» come la forma fisica e spirituale del momento, l’arte del duello, la motivazione profonda dello scontro; nel caso delle armi da fuoco la sola cosa importante è colpire il bersaglio. Una situazione inizialmente sfaccettata e molteplice collassa verso il suo centro, tutte le cose accessorie (ma potenzialmente cruciali) semplicemente svaniscono (vanishingly small, ancora questo termine magico, l’abracadabra del riduzionismo che fa scomparire tutti i particolari che disturbano il nitore della teoria) e diventano irrilevanti. Questo è esattamente il compimento del sogno alchemico dell’«essenza»! Ed è corrispondente all’attrazione esercitata sugli scienziati dai «princìpi primi», dalle «leggi immutabili della natura», da cui 80 Scienza e società derivare tutte le altre caratteristiche (accessorie) del mondo per il mezzo della pura ragione. L’idea di fondo è che sia solo la nostra ignoranza che non ci permette di portare a termine definitivamente il compito ambizioso della teoria definitiva e ultima e che, almeno in linea di princìpio, si possa sviluppare una teoria del tutto che riduca il mondo ad un’equazione che renda completamente inutile un’ulteriore scienza fatta dall’uomo con creatività e intuito: tutto potrebbe a questo punto essere messo nelle «mani» di un computer, che farebbe discendere automaticamente tutte le conseguenze di tale teoria fin nei minimi dettagli, esattamente come accade nei racconti di Isaac Asimov. Ovviamente, molti pensatori in tutte le epoche (da Blaise Pascal a Bruno De Finetti)2 hanno riconosciuto le intrinseche aporie e i corti circuiti logici di questo modo di pensare. Un eloquente articolo di Robert Laughlin e David Pines è l’ultima – e noi speriamo definitiva, ma la sete di potere dell’uomo è purtroppo inestinguibile – brillante messa in ridicolo dei sogni di dominio delle teorie del tutto, ma questo paradigma onnicomprensivo è così inestricabilmente legato alla scienza moderna che il linguaggio degli scienziati trasuda immagini guerresche. Così noi identificheremo «un bersaglio molecolare» per un certo farmaco o un virus, a sua volta una medicina molto efficace è detta «pallottola magica» (magic bullet), mentre chiaramente una teoria «trionfa» oppure «viene demolita da nuove osservazioni», e paradigmi «vincenti» sostituiscono paradigmi «perdenti». Questo stridore di armi ha ottenuto dei grandiosi successi nell’era moderna: ad esempio ha permesso di sviluppare farmaci efficienti nel caso di malattie acute (dove effettivamente un bersaglio molecolare singolo poteva essere individuato) e, per la stessa ragione, ha consentito di individuare delle cause eziologiche particolarmente rilevanti e importanti come batteri, virus e (pochi a dire la verità) agenti ambientali come le radiazioni ionizzanti, il fumo di sigaretta, l’amianto. Nei casi in cui non esista un «singolo nemico» da isolare, identificare e colpire, la «scienza da guerra» è molto meno efficiente: lo vediamo nel caso delle malattie croniche e degenerative, dove non esiste un «bersaglio privilegiato» ma una miriade di co-fattori e con-cause, ciascuna singolarmente abbastanza irrilevante e dispensabile, che si coordinano in maniera largamente ignota per provocare l’effetto macroscopico. Le stesse difficoltà le incontriamo quando dobbiamo valutare l’effetto di scelte «localmente razionali» su sistemi complessi e 81 L’ordine della complessità inter-dipendenti come i sistemi ecologici, oppure quando dobbiamo immaginare di mettere un argine all’epidemia di malattie nervose e psichiatriche che sta dilagando nei paesi ricchi. La persistenza di paradigmi «guerreschi» più o meno impliciti nel pensiero scientifico, a nostro avviso, sta diventando un forte limite allo sviluppo di impostazioni realmente nuove ed efficaci per capire nuove classi di problemi e quindi operare nel mondo reale. Quando si descrivono «problemi multi-fattoriali» si parla con il linguaggio della probabilità. Per fare ciò dobbiamo rivoltare da cima a fondo l’intera impostazione «storica» della fisica. In questa storia si è iniziato con il postulare l’esistenza di «leggi» agenti a livello macroscopico (ma aventi una base nel tessuto profondo della materia) che sono in realtà delle distribuzioni probabilistiche «molto strette», mentre le stesse distribuzioni, guardate a livello «microscopico», sono molto più incerte e «diffuse». Se consideriamo bene questa situazione dovremmo concludere che il luogo dove cercare «i determinanti» di un qualsiasi evento non è certo il «livello fondamentale». Il grande matematico e statistico italiano Bruno De Finetti, negli anni Trenta, diede una brillante spiegazione di tutto ciò semplicemente considerando come la scienza non si occupi della realtà in quanto tale, ma di «rappresentazioni» del reale né più né meno dell’arte2. Il problema di dove «abitano le leggi fondamentali della natura» è quindi un falso problema perché di leggi non ne esistono proprio, o quantomeno non ne esistono di indipendenti dalle nostre rappresentazioni (misure), e la chiarezza maggiore e minore ha a che vedere semplicemente con il particolare spazio di probabilità in cui ci muoviamo e dalla scala delle nostre osservazioni come dimostrato nel capitolo precedente. Chiaramente questo non implica che non esistano realtà e verità, a nostro parere esistono entrambe, ma la scienza ha con loro un rapporto filtrato dalla soggettività dello scienziato. Insomma, le radici del pensiero scientifico, da cui esso trae la sua unità, sono da cercarsi nel concetto di valutazioni di probabilità degli eventi, che non possono essere più considerate come un surrogato delle «vere leggi che saranno scoperte in futuro», ma come il luogo dove vive la conoscenza scientifica del mondo. Se le cose stanno così, le condizioni al contorno, come nei duelli con la spada, diventano la cosa più importante da considerare. La scienza ritorna al suo ramo artistico abbandonando la via alchemica: la probabilità di un evento è determinata dalle condizioni al contorno e dal giudizio soggettivo del82 Scienza e società lo scienziato, il quale «valuta criticamente» (in queste due ultime parole sono racchiuse le basi etiche della scienza, che non può più essere considerata come una conseguenza necessaria a partire da certe premesse) le evidenze in suo possesso, per andare avanti in un processo infinito di aggiustamento e spostamento di prospettiva. Questa attività implica un’interazione continua tra osservatore e osservato3, ed è quindi personale e irripetibile e, come tale, artistica, che è poi un altro modo per dire che è umana e individuale. Possiamo scorgere il carattere individuale dell’attività scientifica (il termine «individuale» non deve essere inteso come opposto a «collettivo», in quanto la maggioranza dei lavori scientifici di oggi è frutto di collaborazioni fra diversi ricercatori; il risultato finale è esattamente il prodotto di tale interazione, il che non riduce ma anzi esalta i contributi personali, come nella costruzione delle cattedrali romaniche) nel piano degli esperimenti, nella scelta del materiale, dei metodi di analisi, nel carattere delle misure, nello stile argomentativo e apprezzare (o anche disapprovare) l’intero lavoro, in maniera non dissimile da come apprezziamo il lavoro di un falegname o di un sarto. Passando al «mondo naturale», è interessante notare come il primato delle condizioni al contorno diventi schiacciante allo stesso livello in cui inizia «il mondo dei sistemi complessi»: lo studio della struttura e della funzione delle proteine4. Consideriamo uno dei temi più importanti della ricerca odierna, il cosiddetto problema del protein folding. Anche se ormai il DNA pervade l’immaginario collettivo e il linguaggio comune, al punto che affermazioni del tipo «è nel suo DNA» hanno sostituito immagini ben più realistiche (come documentato dal fallimento di tutti i tentativi di ricondurre i caratteri complessi dell’uomo e di molti altri organismi a specifiche sequenze nucleotidiche) e suggestive (si pensi alle tradizionali espressioni «è nelle sue corde» oppure «nel suo arco ha molte frecce»), si trascura che di fatto il DNA «si limita» a conservare una parte fondamentale dell’informazione genetica nel passaggio da una generazione a quella successiva e a dirigere, con l’aiuto irrinunciabile della macchina enzimatica, la sintesi delle proteine, che sono poi gli oggetti chimico-fisici che svolgono «il lavoro biologico reale». Il carattere di questo lavoro è largamente dipendente da come le proteine si ripiegano nello spazio (il termine folding si riferisce esattamente a tale processo) acquisendo non solo una forma tridimensionale specifica ma anche un intero spettro di possibilità 83 L’ordine della complessità 4.1. Il processo di folding è quello che fa assumere ad una sequenza lineare di aminoacidi la caratteristica forma tridimensionale che costituisce la proteina fisiologicamente attiva. dinamiche, cioè di movimenti organizzati dei loro atomi, da cui in ultima analisi dipende il loro ruolo fisiologico. Subito dopo la biosintesi le proteine si presentano come stringhe lineari di aminoacidi legati fra loro da un legame covalente. La stringa corrispondente ad una particolare proteina può essere considerata come una «parola» costruita combinando 20 possibili lettere (gli aminoacidi) a partire dalla sequenza di nucleotidi corrispondente al suo gene di riferimento, attraverso il cosiddetto «codice genetico», vale a dire un insieme di regole che associano a triplette di nucleotidi ogni singolo aminoacido. Poiché queste stringhe sono generate in un solvente (di solito acquoso), esse assumono una forma (si ripiegano) nello spazio del solvente, cercando di minimizzare l’energia di solvatazione, cioè cercando di arrivare ad una configurazione il più stabile possibile. In linea di princìpio noi conosciamo molto bene tutti gli «ingredienti energetici importanti» che, a livello microscopico, guidano il processo di ripiegamento da cui la proteina scaturirà con la sua configurazione «nativa», che è alla base del suo funzionamento di «piccola ed efficiente macchina chimica». Sappiamo che l’agente energetico più importante che guida il processo di folding è la relativa propensità dei singoli residui aminoacidici verso i solventi oleosi od acquosi (in pratica, la loro idrofobicità relativa). Ciò fa sì che le porzioni «idrofobiche» della molecola proteica tendano ad allontanarsi dal contatto col solvente acquoso laddove le zone «idrofiliche» si espongono al 84 Scienza e società solvente. Altri fattori importanti che entrano in gioco nel determinare il particolare ripiegamento della proteina sono la tendenza a formare legami idrogeno, l’ingombro sterico, la carica elettrica. Il fatto è che, anche se conosciamo tutte le forze fisiche in gioco, non riusciamo a prevedere la forma che una specifica sequenza di aminoacidi, una particolare proteina, assume alla fine del processo. Quello del folding è un processo stocastico che ammette differenti soluzioni a seconda delle condizioni al contorno (pH, temperatura, forza ionica, concentrazione della proteina e di altre molecole, ecc.). La principale ragione di questa molteplicità di opzioni è dovuta alle differenze energetiche esistenti tra le diverse opzioni possibili: differenze talmente risibili da essere praticamente insignificanti in quanto dello stesso ordine di grandezza dell’agitazione termica del mezzo. Questa non è solo una limitazione alle nostre possibilità di conoscenza, ma anche un fatto assolutamente essenziale per il lavoro biochimico svolto dalla proteina che, per svolgere il suo lavoro, deve continuamente cambiare di forma e adattarsi al microambiente chimico-fisico in cui si trova. Una proteina immobile, cristallizzata nella sua forma di minima energia da alte barriere di potenziale, è sostanzialmente una proteina inattiva. Di fatto questo è il marchio di fabbrica di ciò che definiamo «complesso»: un sistema che ha molteplici stati di equilibrio che rappresentano altrettante risposte all’ambiente in cui si trova immerso e i cui comportamenti non possono essere predetti dai suoi costituenti fondamentali. Insomma, la complessità non nasce da uno scenario deduttivo e deterministico, ma da un paradigma combinatorio. Ad ogni passaggio del processo di folding, la scelta adottata (dipendente dal contesto) porta verso questa o quella «forma quasi-stabile». Qui possiamo vedere come la «complessità» sia, tutto sommato, piuttosto «semplice»: le scelte a disposizione sono spesso facilmente identificabili, ma la loro concatenazione diventa velocemente «complessa». È la stessa complessità che soggiace ai classici modelli probabilistici come quello della distribuzione binomiale, dove concatenazioni di semplici scelte binarie generano sequenze di eventi di straordinaria complessità. Se però potessimo seguire il «percorso» della proteina durante il folding su una mappa che, analogamente a una carta stradale, indica tutte le strade disponibili, pur rimanendo impredicibile il risultato preciso (figura 4.2, pannello superiore), la particolare destinazione 85 L’ordine della complessità 4.2. Nel pannello superiore si descrive una sorta di «storia evolutiva» di un sistema a scelte multiple in cui ogni biforcazione (scelta) porta ad una storia differente. Il pannello inferiore riporta le singole traiettorie ad uno spazio di probabilità rappresentato da una specie di «ombrello» nello spazio delle fasi. di arrivo, potremmo comunque avere a disposizione il ventaglio delle opzioni disponibili in termini probabilistici (pannello inferiore di figura 4.2). La mappa insomma, pur non consentendo di prevedere il singolo accadimento, ci consentirebbe di comprendere dove e come la proteina può spostarsi nel suo spazio conformazionale. In qualche modo la complessità svanirebbe, in quanto ogni movimento troverebbe il suo corrispettivo nella mappa. Questo è un fenomeno generale che trova molti riscontri nel quotidiano. Pensiamo ad esempio all’abilità di una persona media nel comprendere come l’elettricità entra e si muove nella sua casa, e quindi nel 86 Scienza e società cercare un eventuale guasto. Di solito la persona in questione si arrende di fronte alla complessità del problema e telefona ad un elettricista. All’elettricista ciò che appariva complicato al padrone di casa sembra piuttosto semplice, in quanto possiede una mappa dell’impianto elettrico e qualche cognizione di base per interpretarla. Questa storiella ha a che vedere con le osservazioni degli antropologi sull’aumento di «complessità» delle società moderne rispetto al passato: si tratta della nota divisione del lavoro che ha generato una società dipendente dall’esistenza di «esperti» che mantengono in vita l’intero sistema attraverso le loro porzioni di competenza, sempre più limitate e specialistiche. La caduta dell’Impero romano provocò una catastrofe tecnologica di lunga durata, in cui strumenti sostanzialmente semplici (ma complessi per i non esperti) come i sistemi fognari sparirono dall’Europa per centinaia d’anni. Tornando alle proteine, e in un certo senso alla «vera» (non apparente) complessità, il problema serio è che le mappe non solo non si conoscono, ma spesso cambiano in corsa, il che ci limita forzatamente ad una conoscenza probabilistica molto grossolana dei sistemi analizzati. Ma possiamo spingerci oltre in questa nostra contemplazione della disarmante semplicità della complessità. Consideriamo il fatto che due atomi di idrogeno, quando si legano con un atomo di ossigeno, generano una nuova sostanza (l’acqua), che ha proprietà che non hanno nulla a che fare con i due gas dalla cui unione l’acqua dipende. Spesso si sente dire che i sistemi complessi mostrano delle proprietà «emergenti». L’acqua sembra proprio un caso di «emergenza», anche se dal punto di vista costitutivo è senza dubbio semplice, visto che la formula H2O racchiude completamente la sua costituzione atomica. Tutta la chimica d’altra parte, a partire dalla tavola periodica degli elementi, è un’affascinante cavalcata tra emergenze di comportamenti complessi e assolutamente non derivabili dalla combinazione di elementi semplici, che costituiscono la base composizionale delle molecole. Insomma, qui abbiamo un campionario praticamente infinito di proprietà emergenti che non si possono dedurre dagli elementi di partenza. Dovrebbe allora risultare chiaro allora che ad attenderci c’è un lavoro praticamente infinito per poter costruire una metodologia e un pensiero «olistici», che cerchino di conoscere gli «oggetti» della realtà senza necessariamente ridurli a pezzi o identificarli con il loro supposto «nucleo essenziale». 87 L’ordine della complessità Abbiamo bisogno di uno stile di pensiero che ci consenta di non dimenticare la vista d’insieme di ciò che stiamo studiando anche quando per necessità ci muoviamo al livello delle sue parti costituenti. A ben vedere, si tratta del problema della composizione in pittura, che artisti di varie epoche hanno risolto seguendo differenti strade. Nel capitolo precedente abbiamo descritto un’applicazione del metodo delle componenti principali, che è uno dei metodi di analisi che più si avvicina all’approccio artistico che propugnamo. Oltre al metodo delle componenti principali, comunque, abbiamo molti altri utili strumenti di analisi, il punto è che tutti questi metodi necessitano di una conoscenza «di prima mano» del sistema studiato. Questa esigenza è molto avvertita in questi tempi, in cui la nascita e lo sviluppo di termini come network paradigms o systems biology riflettono la forte esigenza di «prospettive d’insieme», mentre la produzione di conoscenza di prima mano viene sempre più perseguita attraverso la costruzione di «gruppi multidisciplinari». A nostro modo di vedere questa non è una buona strada per costruire una «scienza nuova» e libera dal paradigma guerresco/alchemico che ne sta fortemente minando le capacità di progresso. La parola stessa «gruppo multidisciplinare» implica che ogni unità del gruppo sia (almeno) una persona identificata dalla sua specifica disciplina che, in quanto tale, la qualifica a far parte del gruppo e ad apportare la sua visione peculiare separata dagli altri. In questo modo si pensa di poter ottenere l’integrazione dalla semplice coalescenza di discipline differenti. Nella nostra esperienza questa strategia non ha mai dato buoni frutti. Per funzionare davvero e dar vita ad una reale integrazione, ogni membro del gruppo deve dimenticarsi di gran parte del suo bagaglio culturale specifico e mantenere solo quella porzione di conoscenza operativa immediatamente utilizzabile (e condivisibile) dagli altri membri. In molti anni di lavoro abbiamo potuto osservare come ciò sia possibile solo se il gruppo è tenuto insieme da veri e profondi legami di amicizia. Questo ci riporta ai tempi dei duelli all’arma bianca e ai fortissimi legami che univano piccoli gruppi di combattenti5. La via proposta implica che si debba ritornare a scienziati poliedrici non legati a specifiche discipline, insomma «scienziati dei sistemi» nel vero senso della parola. Un luogo comune è che la crescita esponenziale del contenuto dei diversi campi scientifici abbia reso impossibile la formazione di «scienziati generalisti», ma questa convinzione non coincide per nulla con la nostra esperienza professionale, che ci 88 Scienza e società ha fatto invece vedere quanto più utile ed efficace sia che ogni singolo ricercatore attraversi differenti campi di indagine. La cosa importante è che nel gruppo di amici-ricercatori vi sia qualcuno in grado di mettere gli altri a parte degli elementi fondamentali del problema trattato, dopodiché l’elaborazione può procedere in modo autonomo condividendo strumenti di analisi e esperienze pregresse. Al contrario è proprio in momenti di crisi di paradigma come quelli odierni che l’iper-specializzazione si trasforma facilmente in un binario morto, esattamente come viene descritto nel racconto di R. Macauley pubblicato sulla “Kenyon Review” nel 1956, intitolato The Chevigny Man. Il racconto è la storia di un accademico che aveva costruito interamente la sua carriera sull’opera di un famoso autore, per arrivare a scoprire che questi aveva detto solo grandi banalità. La moda perniciosa di oggi prevede che gli scienziati si trasformino in «esperti di chiara fama» e limitino al massimo il proprio settore di attività, proprio come certi saprofiti che si scelgono una nicchia ecologica iperspecializzata. Tale consuetudine perversa viene alimentata dalle istituzioni che finanziano la ricerca, che non vedono di buon occhio lo scienziato generalista. Ma a lungo andare tutto questo potrebbe rivelarsi pericolosissimo sia per la scienza sia per le stesse istituzioni. NOTE 1 L’Orlando furioso di Ludovico Ariosto (1516) è, insieme alla Divina Commedia e (ma solo in parte) ai Promessi sposi, l’unico esempio di letteratura italiana che sia stato apprezzato dall’élite e dal popolo allo stesso modo. Anche se si tratta di un’opera essenzialmente scritta per un pubblico elitario, la travolgente bellezza dei versi, la continua ispirazione, l’ambientazione favolosa e una ispirazione potentissima ne hanno allargato la diffusione fino a farla diventare base di teatro popolare (si pensi all’Opera dei pupi in Sicilia) con un travolgente e quasi unico processo di inculturazione spontanea. Una versione pdf dell’opera si trova sul sito: http://www.letteraturaitaliana. net/pdf/Volume_4/t325.pdf. 2 Bruno De Finetti ha sviluppato la concezione moderna di probabilità soggettiva. Per un inquadramento generale del suo pensiero si rimanda al bellissimo libro del 1938 di B. De Finetti, L’invenzione della Verità, riedito nel 2007 dall’editore Raffaello Cortina e da cui è tratto il seguente, illuminante, brano: «... Per tal modo la posizione della scienza del calcolo delle probabilità appare del tutto rovesciata in confronto alle concezioni anteriori: esso non è più un surrogato da usare, quando ancora le leggi certe non sono note, ma la radice vera di ogni teoria scientifica, anche nel caso limite in cui per semplicità la si esprime mediante ‘leggi’ precise, sottintendendo, 89 L’ordine della complessità data la grande probabilità, la distinzione a rigore necessaria tra grande probabilità e certezza assoluta. L’unità del metodo scientifico non può che avvantaggiarsi da una tale evoluzione, mentre i temuti inconvenienti sono solo apparenti. Si teme forse uno scetticismo o un disinteresse per la Scienza? Ma perché si ritiene che si possa appassionarsi di più per conoscere delle verità preesistenti e immutabili che per quelle che vivono nel nostro sforzo creativo senza fine? Non si appassiona l’artista inseguendo i fantasmi cui sente il bisogno di dar vita? O si teme che ogni pazzo sia autorizzato a buttar giù teorie strampalate? No, vi sono tante difficoltà da conciliare per costruire una teoria scientifica utile, che un tale pericolo si può escludere; rimane solo il vantaggio di non ostacolare le innovazioni quando sono realmente possibili». Robert Laughlin ha scritto insieme a David Pines un articolo molto chiaro e accessibile ai non specialisti sul tema, l’articolo è scaricabile gratuitamente dalla rete all’indirizzo dei ‘Proceedings’ dell’Accademia americana delle Scienze: www.pnas.org (R. Laughlin, D. Pines (2000) The Theory of Everything. Proc. Natl. Acad. Sci. USA (97): 28-32). 3 Il libro di Ignazio Licata, La logica aperta della mente, edito nel 2008 da Codice Editore, riporta degli interessanti approfondimenti su questo tema. 4 L’articolo di Hans Frauenfelder e Peter Wolynes, due grandi pionieri del campo del protein folding dall’evocativo titolo: Biomolecules: where the physics of complexity and simplicity meet, apparso su “Physics Today” del febbraio 1994 (Frauenfelder and Wolynes, in “Physics Today”, 47(2)(1994), pp. 58-64) è una lettura affascinante anche per il non specialista. 5 Il famosissimo film di Akira Kurosawa I sette samurai (1954), oltre ad essere il padre nobile di tutta la filmografia western e di azione dell’ultimo mezzo secolo è il miglior trattato che si possa consigliare sulla complementarietà tra individualità differenti e la creazione dei vincoli necessari a compiere l’opera scientifica (e il combattimento per un ideale). Il film veicola inoltre lo stesso afflato verso la riappropriazione (lì dell’arte della guerra, qui della possibilità di apprezzare il lavoro della scienza) di saperi elitari da parte dei non esperti, che è alla base di questo libro. 90 Capitolo quinto SCIENZA RIGOROSA? Sebbene possa sembrare paradossale, tutta la scienza esatta è dominata dall’idea di approssimazione. Bertrand Russell Uno degli attributi più frequentemente associati alla scienza è «rigorosa». Non a caso, per spiegare che un pezzo di scienza è considerato mediocre si dice che «non è rigoroso»; viceversa la più alta onorificenza che si possa assegnare ad un procedimento scientifico (sia esso un teorema, un piano sperimentale, le conseguenze che si ricavano da un’osservazione) è che è «molto rigoroso». Rigor è una parola latina a cui si possono associare vari significati: durezza, resistenza, punizione, freddo estremo, severità, inflessibilità, disciplina. Insomma la parola evoca qualcosa (o qualcuno) che deve essere tenuto fermo dall’azione di una temperatura molto bassa o per l’effetto di una punizione, di un vincolo. Nel caso più estremo parliamo di rigor mortis, della rigidità che i cadaveri acquisiscono qualche tempo dopo il decesso. L’accezione di «disciplina» merita un supplemento di riflessione. Disciplina deriva dal latino discere (apprendere), si viene quindi a creare il corto circuito per cui l’apprendimento implica un vincolo da imporre al comportamento erratico, un freno alle tendenze naturali. La fisica, la chimica, la matematica, la biologia sono discipline, perciò devono essere rigorose, e quindi imporre dei vincoli al naturale modo di pensare. Perché abbiamo bisogno di congelare qualcosa per conoscerlo? All’inizio della scienza moderna, un esperimento non era considerato uno strumento da cui derivare dei suggerimenti per delineare una spiegazione plausibile di un pezzo di mondo – un esperimento era una dimostrazione della verosimiglianza di un’idea precostituita. Se io 91 L’ordine della complessità sono convinto che l’attrazione gravitazionale ha lo stesso effetto su un corpo leggero e su uno pesante, allora debbo impegnarmi a fondo per organizzare una strategia sperimentale adatta a verificare questa assunzione. Prima di dover ammettere di essermi sbagliato, cercherò di «aggiustare» tutte le condizioni sperimentali in molti modi differenti, di modo da imporre una «disciplina» alle condizioni ambientali tale da soddisfare i miei desideri. Questo atteggiamento mentale è evidente nel lavoro di Galileo e nella sua separazione di «affezioni quantitative» e «qualitative», essendo le prime quelle «ideali e ordinate» e le seconde noiose contingenze che mascherano l’ordine soggiacente alla natura. Il bravo scienziato è allora quello abile ad individuare le idee semplici e «scritte in linguaggio matematico» alla base della natura, senza farsi ingannare dai comportamenti erratici e imprevedibili che le mascherano. In maniera più esplicita e brutale, Francis Bacon affermava che la Natura doveva essere torturata per farle «confessare la verità». Nonostante la rivoluzione scientifica si affermasse con il dichiarato ripudio dell’approccio alla realtà tipico della filosofia medievale, manteneva intatta la tradizionale dicotomia tra l’essenza di una cosa e i suoi caratteri accidentali, cioè, i suoi attributi contingenti. L’implicazione è che la realtà (come appare) in qualche modo oscura ciò che la cosa realmente è. Chiaramente qui vediamo le tracce del mito platonico della caverna. La cosa curiosa è che questo modo di ragionare prefigura ciò che sembrano suggerire i moderni studi di neurofisiologia, e cioè che il cervello umano tende a memorizzare i concetti e le percezioni generali piuttosto che i dettagli. Insomma è come se preferissimo vedere delle forme (pattern) che ci appaiono più semplici da categorizzare e ricordare piuttosto che mettere da parte una gran mole di dettagli. Chiaramente questo non ha nulla a che vedere con il mondo «là fuori», ma è semplicemente una caratteristica del nostro modo di ragionare, che con ogni probabilità ci ha fornito importanti vantaggi in termini di sopravvivenza. Questa strategia è in ogni caso molto efficace in presenza di princìpi chiari ed evidenti, il cui effetto è preponderante su quello esercitato da altri possibili fattori (come nel caso della forza di gravità), ma diventa assolutamente deleteria quando la comunità scientifica si imbatte in un’idea poco produttiva ma attraente. Ci sono moltissimi esempi di questi vicoli ciechi nella storia della scienza: la ricerca in92 Scienza rigorosa? fruttuosa dell’etere, cioè di un fluido che avrebbe dovuto riempire lo spazio così da permettere alle onde di viaggiare o la «frenologia», cioè l’idea che si possa comprendere il carattere e le tendenze di una persona misurando alcune caratteristiche morfologiche della testa di una persona (alcune versioni aggiornate di frenologia sono ancora presenti nella comunità scientifica sotto nomi apparentemente astrusi). Insomma, noi esseri umani siamo portati a considerare più «vero» il modello ideale di una cosa che la cosa stessa con la sua ingombrante materialità: è il «modello scientifico», espresso in linguaggio matematico, che viene considerato «la cosa reale», e non ciò che i nostri sensi ci permettono di osservare. E a ben vedere perché mai non dovrebbe essere così? Uno dei primi temi scientifici, presente sin dalla preistoria, è quel corpo di conoscenze che noi ora chiamiamo «astronomia». Molte culture, da Stonehenge agli Incas, dimostrarono un grande interesse per il movimento del sole, della luna, degli astri e impiegarono grandi risorse per la costruzione di osservatori. La necessità di prevedere il corso delle stagioni forniva l’aspetto applicativo all’impresa scientifica. Lo sviluppo della moderna astronomia (con il corollario del suo possente supporto matematico) garantì una precisione prima inimmaginabile; il papa Gregorio XIII nel 1582 fondò un osservatorio (al Collegio romano, l’antica Università dei Gesuiti nel centro di Roma), con lo scopo di riformare il calendario. Questo implicava il graduale riconoscimento della fallibilità del senso comune, a tutto vantaggio della precisione di osservazioni rigorose e della matematica a loro connesse. Questa era comunque una storia vecchia: il graduale slittamento dei significati di verità e realtà lontano dal senso comune era già attivo nel Medioevo, nel grande periodo della Scolastica. Sebbene Tommaso d’Aquino sia normalmente considerato come il campione della filosofia scolastica, a nostro avviso il pensiero della scuola francescana inglese con Ruggero Bacone, Guglielmo di Ockham, Giovanni Duns Scoto ebbe un effetto molto più duraturo e radicale sullo sviluppo della filosofia naturale (il vecchio nome della scienza). È a questi filosofi francescani che si deve il primo inizio del pensiero scientifico moderno, anche se in verità si trattava di questioni molto sottili (non a caso Duns Scoto aveva il soprannome di «dottor Sottile») in cui difficilmente riconosceremo delle preposizioni che noi chiameremmo «scienza» nell’accezione moderna del termine. Ciononostante alcuni motivi di base del fare scienza come la ricerca della soluzione 93 L’ordine della complessità «più semplice», il carattere eminentemente statistico della conoscenza scientifica vista la fondamentale inconoscibilità delle essenze individuali, addirittura la disposizione dei dati in tabelle a doppia entrata che gli statistici chiamano matrici di dati, i nostri tempi faciloni «fogli Excel», ma il cui nome originario era tabulae veritatis, derivano da questo ambiente filosofico e spirituale. Tommaso d’Aquino, grazie anche alla sua formazione di avvocato, inserì nell’armamentario filosofico un’altra caratteristica che poi ritroveremo nel moderno dibattito scientifico, vale a dire l’attenzione smisurata verso il significato precipuo dei termini: un altro aspetto del «rigore scientifico». Mentre le sententiae (le definizioni) venivano dibattute fino allo spasimo (rigorosamente), le osservazioni venivano praticamente neglette, e comunque considerate ostacoli che mascheravano la «vera realtà». Il primato assegnato alla teologia e alla filosofia (scientia nel linguaggio medievale) veniva trasferito senza colpo ferire alla scienza così come la conosciamo noi. Ovviamente, se qualcosa potesse essere non solo espresso in termini «rigorosi», cioè mettendo da parte tutti i comportamenti inaspettati ed erratici di cui è fatto il mondo reale, ma anche attraverso una sofisticata ed efficace tortura (metodologia sperimentale) che lo fa apparire come tale ai nostri sensi (vedere per credere!), noi saremmo tutti felicissimi di affidarci completamente a quanto affermato. Vi è insomma un’alleanza talmente forte tra teoria (i termini rigorosi monosemici opposti alla naturale polisemia del linguaggio quotidiano) e metodologia sperimentale (accettare solo le osservazioni ottenute in condizioni altamente vincolanti in un laboratorio rigidamente controllato) da negare il diritto di fregiarsi del termine di «realtà» alle esperienze fenomeniche che il mondo ci propone in modo immediato1. Tuttavia, per la stessa ragione per cui ammiriamo le top model ma poi ci innamoriamo delle donne vere, se vogliamo costruire un vero aeroplano che stia in cielo senza precipitare preferiamo studiare le traiettorie di modelli semplificati ma ancora largamente empirici nelle gallerie del vento che usare le elegantissime equazioni di NavierStokes delle turbolenze dell’idrodinamica; o meglio, possiamo usarle dopo, solo per aggiungere fascino alle nostre asserzioni. D’altronde se le equazioni di Navier-Stokes ci consentissero di progettare aeroplani funzionanti non avremmo alcun bisogno di gallerie del vento. Che cosa è reale? Che cosa è apparente? E perché la realtà ha li94 Scienza rigorosa? 5.1. Schema di galleria del vento dove vengono provati prototipi di automobili e aerei per osservare le turbolenze generate dall’inserimento di questi corpi in un flusso d’aria. tigato con le sensazioni? C’è la vecchia barzelletta del fisico che è in grado di predire il vincitore di una corsa di cavalli «nel caso di cavalli sferici», che è un esempio molto famoso di quanto lontano nel mondo del ridicolo ci possa trasportare il pensiero rigoroso. Per essere scientifico debbo «congelare» «disciplinare» gli insofferenti cavalli nell’interessantissimo e rigorosamente trattabile «caso sferico». Questa è una barzelletta solo perché tutti sanno che non esistono cavalli sferici; le equazioni di Navier-Stokes, invece, sono un pezzo rispettabilissimo di scienza, anche se (come i cavalli sferici) nessuna barca a vela e nessun aeroplano le rispetta, il che è un segreto per pochi eletti e quindi una barzelletta su queste equazioni non farebbe ridere nessuno. Quanti cavalli sferici dovremmo produrre per onorare il rigore? Quanto oltre ci possiamo spingere nel torturare la Natura?2 Esistono dei problemi aperti, soprattutto nelle scienze biomediche, che sono molto più riottosi, rispetto a quelli normalmente incontrati in fisica, a seguire la disciplina che tentiamo di imporre loro. Nelle scienze della vita abbiamo tutta una serie di idee preconcette derivanti da plausibilissime spiegazioni di fatti osservati sperimentalmente, per cui il mitico «esperimento cruciale» è stato cercato da legioni di scienziati e in molti casi è sembrato che effettivamente si fosse arrivati al dunque, provocando la nascita di nuovi campi di ricerca, cattedre universitarie, laboratori, progetti finanziati, movi95 L’ordine della complessità 5.2. Il fenomeno della LTP come osservato nel cervello di ratto con un elettrodo posto nell’area dell’ippocampo. menti filosofici, per poi arrivare ad una triste e malinconica «morte silenziosa». Un caso paradigmatico è la triste storia della «Long Term Potentiation» (LTP), uno dei temi caldi delle neuroscienze della fine del secolo scorso. In poche parole, gli scienziati avevano scoperto che le risposte di neuroni isolati a stimoli ripetuti mostravano le caratteristiche del cosiddetto apprendimento hebbiano (dal nome del fisiologo americano Donald Hebb, che alla fine degli anni Quaranta aveva immaginato un paradigma di apprendimento basato sul progressivo «adattamento» dei neuroni a configurazioni ricorrenti, per cui alcune «vie neuronali» più battute venivano progressivamente facilitate). Questi neuroni modificavano la loro risposta in seguito alla somministrazione ripetuta dello stesso stimolo (habituation) con un potenziamento della loro risposta man mano che lo stesso stimolo veniva ripresentato. In altri termini, i neuroni «apprendevano», e questo apprendimento era per la prima volta apprezzabile direttamente a livello molecolare con misure elettriche o con l’attivazione di un ricettore specifico (NMDA [N-methyl-d-aspartate] receptor). Questo fenomeno di apprendimento permetteva di tradurre eventi elettrici alla membrana post-sinaptica (potenziali d’azione) in segnali chimici (attivazione del ricettore dell’aspartato), che a loro volta erano ipotizzati es96 Scienza rigorosa? 5.3. Il «Morris water maze»: l’animale è posto in una grande vasca piena d’acqua resa opaca, da dove può uscire solo aiutandosi con una piattaforma a lui invisibile posta sotto il pelo dell’acqua. L’animale dopo un po’ di prove impara ad orientarsi anche facendo tesoro di riferimenti visivi posti nella stanza. sere alla base di un aumento duraturo della «forza sinaptica» (legame fra due neuroni contigui) che, nel paradigma hebbiano, costituisce l’essenza della memoria. L’eccitazione per questa scoperta fu tale (la base molecolare della memoria!) che in pochissimo tempo arrivò la conferma sperimentale del legame diretto tra LTP e memoria, osservata a livello dell’organismo intero in termini di abilità ad orientarsi di ratti immessi in un labirinto acquatico («Morris water maze»), in questo modo chiudendo il cerchio dal microscopico al macroscopico ed esaudendo un vecchio sogno della comunità scientifica: liberare l’intelligenza dalle fumosità delle discipline «umanistiche» e offrirle un solido e obiettivo correlato strutturale. L’LTP divenne in breve «la cosa vera», mentre tutte le restanti manifestazioni fenomeniche dell’intelligenza, dal labirinto acquatico alla Cappella Sistina, si trasformarono in contingenze occasionali. Dopo molti anni di risultati contrastanti, la nascita di un giornale scientifico dedicato, difficoltà a riprodurre il fenomeno, ragionamenti sempre più contorti per riconciliare tutte le esperienze in un quadro unitario, i riflettori malinconicamente si spensero sopra l’LTP, che tri97 L’ordine della complessità stemente abbandonò le scene più prestigiose della scienza per riapparire soltanto su pubblicazioni provinciali e nascoste. Ora ancora qualcuno si ricorda di «lei» (un po’ come quelle vecchie attrici che ancora ricevono qualche biglietto dai loro antichi ammiratori) quando occorre commentare qualche risultato un po’ bislacco, ma il ruolo della star è occupato da altri temi. L’atteggiamento di considerare le idee più affidabili delle evidenze sensoriali non è poi così pazzoide come sembra, al contrario è assolutamente razionale ed efficacissimo: noi saremmo semplicemente sopraffatti dalla quantità di informazione che ci proviene dai sensi se dovessimo prenderne in considerazione ogni singolo elemento. Se vogliamo confrontarci con successo col mondo là fuori abbiamo assoluto bisogno di generalizzazioni che riducano drasticamente il carico di informazioni in ingresso da elaborare1. Così il giocatore di baseball fa (anche se in maniera inconscia) un modello della traiettoria della palla che deve afferrare e, a tutti gli effetti, quel modello per lui sostituisce la realtà. Se una folata improvvisa di vento altera la traiettoria della palla, questo è considerato un «errore»; chiaramente il giocatore non è che da quel momento in poi cambia drasticamente il modello standard di traiettoria, e fa benissimo a non cambiarlo. Ciò che differenzia il giocatore di baseball dallo scienziato e che lo rende molto più ragionevole è che egli è conscio dell’esistenza del vento. Il giocatore non pretende di eliminare il vento dalla terra e nemmeno dalla sua visione del mondo, semplicemente accetta con umiltà il difetto del suo modello di traiettoria e, in mancanza di meglio, continua ad usarlo. Gli scienziati, invece, in molti casi hanno tentato di definire come «apparente» (e conseguentemente non reale, illusorio, inesistente) tutto ciò che non potevano mettere a forza nei loro modelli, che pretendevano di essere perfetti e onnicomprensivi, e questo è veramente un modo di comportarsi da matti. Ciononostante, anche se un po’ folle, questo modo di pensare, quando si trattava di definire i princìpi primi del mondo fisico con ardite semplificazioni, è stato molto positivo per lo sviluppo della scienza. Molto del folklore dello «scienziato pazzo» di cartoni animati e film deriva proprio da questa discrasia tra «schemi vincenti nella scienza» e «schemi vincenti nella vita di tutti i giorni». Ora però che i confini della scienza si sono spostati verso l’analisi dei sistemi complessi (cioè verso la vita di tutti i giorni, che è piena di sistemi complessi come giardini, vie trafficate, cani invadenti, malattie e praticamente priva di punti materiali, gas perfetti e sistemi inerzia98 Scienza rigorosa? 5.4. Helycobacter pylori. li conservativi) in cui le condizioni al contorno e gli innumerevoli accidenti e contingenze del reale sono la parte più importante del gioco, le cose sono molto cambiate. A questo punto un sospetto si sta probabilmente affacciando nella mente del lettore, il sospetto che stia leggendo un libro blasfemo, un libro che sostiene che il rigore sia una cosa da sottoporre a critica. Il lettore ha sicuramente ragione: il rigore non è necessariamente una bella cosa e, nella vecchia accezione della supremazia del modello ideale rispetto all’osservato sta diventando un princìpio molto pericoloso per lo sviluppo della conoscenza, specialmente di questi tempi in cui la frontiera dell’ignoto è dalle parti dei cosiddetti sistemi complessi: un campo in cui di leggi e princìpi primi ne abbiamo ben pochi. Un esempio interessante di ciò è il premio Nobel per la medicina assegnato nel 2005 a Barry Marshall. Nei primi anni Ottanta Marshall e Warren avevano identificato nell’Helicobacter pylori un agente infettivo potenzialmente molto importante per l’eziologia dell’ulcera dello stomaco. Le teorie prevalenti sull’eziologia dell’ulcera all’epoca vedevano nello stress e in altri fattori psicosomatici le cause scatenanti della malattia. L’idea che l’ulcera avesse un’origine infettiva era assolutamente contraria al dogma prevalente. Questo fece sì che ai due scienziati fosse precluso ogni accesso alla letteratura scientifica, addirittura non era loro permesso esporre le loro idee ai congressi specialistici, tanto la forza delle idee precostituite era preponderante rispetto alle evidenze sperimentali. Solo dopo più di dieci anni, grazie all’accumulo di 99 L’ordine della complessità evidenze sempre più chiare e a un mutato clima culturale sulle cause generali delle malattie, con una risorgenza di interesse verso le «cause organiciste» rispetto a quelle psicosomatiche, i due scienziati ebbero riconosciuto il valore della loro scoperta. Questo ci insegna come il rigore spesso non sia obiettivo e come a farne le spese possano essere stati dei malati di ulcera a cui per molto tempo è stato negato un semplice antibiotico che poteva eradicare in poco tempo la causa dei loro dolori. Ciononostante la tecnologia va avanti: usiamo farmaci i cui meccanismi d’azione sono «just-so-stories» («storie-proprio-così», dal godibilissimo libro per l’infanzia di Rudyard Kipling, che dimostra a posteriori ogni accadimento) inventate dai farmacologi per dare una patina di scienza alla sgradevole empiria, guidiamo automobili ottimizzate in maniera empirica e così via. Probabilmente l’unica volta che la teoria ha preceduto l’applicazione pratica è stato nel caso della bomba atomica, il che non costituisce certamente un precedente di cui andare fieri. Il guaio, però, è che questo modo di andare avanti sta cominciando a mostrare evidenti segni di cedimento: i farmaci innovativi introdotti sul mercato sono sempre di meno, la nostra capacità di prevedere le conseguenze delle nostre scelte di pianificazione sembra molto ridotta e abbiamo una scarsissima conoscenza dei sistemi ecologici reali. Abbiamo bisogno di una completa rifondazione del nostro modo di considerare il reale e questo nuovo modo dovrà addolcire il rigore per accogliere princìpi più «soffici». Chiaramente non possiamo pretendere di avere un occhio infinitamente aperto sul mondo per non trascurare niente, facendo quindi a meno delle generalizzazioni e affrancandoci da odiose «discipline». Neanche è auspicabile uno sciocco relativismo da molluschi per cui «tutto-va-bene» (questa purtroppo sembra essere l’alternativa emergente con un proliferare di false sapienze e scienze supposte alternative che, guarda caso, hanno sempre «una parola per tutto» quindi ereditando il lato arrogante della scienza supposta ufficiale) che metta sullo stesso piano tutte le sorgenti di informazione rinunciando ad ogni spirito critico per un’apparente democrazia diretta della conoscenza. Forse la parola magica da scegliere al posto del vecchio rigore è «prospettiva». Anche qui abbiamo una suggestiva origine latina: la parola prospettiva deriva da perspicere, che è un verbo composto formato dal prefisso per (attraverso) e da spiciere (guardare, il cui corrisponden100 Scienza rigorosa? te nome verbale è spectum). Insomma, il significato è «guardare attraverso», ma mantiene anche il senso di qualcosa che non risulta visibile ad un solo osservatore ma può essere mostrato a tutti, e questa è la ragione per cui parole come spettatore e spettacolo condividono la stessa radice. Se qualcuno è considerato perspicace vuol dire che, visto che ha il senso della prospettiva, lo riteniamo acuto e con una visione chiara del mondo. L’arte e la pratica della prospettiva sono state formalizzate dai maestri del XV secolo come Brunelleschi, Masaccio, Piero della Francesca. Il punto cruciale era proprio quello di scegliere un punto privilegiato per osservare il mondo e poi accomodare la scena in funzione di questo punto privilegiato che, nella sua accezione più letterale, era proprio un foro in una scatola, da cui si «guardava attraverso» ottenendo l’illusione della tridimensionalità. Più realistica era l’illusione (ma sempre di illusione si trattava), migliore la prospettiva. Questo atteggiamento rimanda quindi ad una visione deliberatamente parziale del mondo, una semplificazione, ma una semplificazione efficiente che garantisca una illusione di realtà e che con la realtà si confronti, non una dogmatica riduzione del reale ad una essenza. Offrire delle regole chiarificatrici della particolare prospettiva utilizzata, e quindi chiarire bene le metodologie e le visuali scelte, diventa quindi il marchio di fabbrica di un buon pezzo di scienza. L’enfasi passa dunque dal rigore nel contenuto al rigore nella metodologia, la vista scientifica diviene acuta e quindi efficace nel comprendere il mondo in virtù della sua abilità nello scovare le illusioni più suggestive del tutto, che non si può per definizione conoscere in quanto tale. La molteplicità degli angoli visuali, per cui diversi scienziati forniscono viste differenti ma tutte in grado di ricostruire qualcosa che non si era espressamente «messo dentro da prima» è il segno della buona scienza. Il rigore in quanto tale non è più una virtù; il rigore nello scegliere e rendere esplicito l’angolo visuale diventa una virtù nella misura in cui permette ad un artigiano di usare criticamente i risultati ottenuti da un altro prima di lui. Lo scienziato, insomma, deve fornire un’adeguata spiegazione della prospettiva utilizzata. La prospettiva nel Rinascimento aveva come principale applicazione la trasposizione di una scena a tre dimensioni in un’immagine bidimensionale attraverso l’applicazione della geometria euclidea. Filippo Brunelleschi aveva ideato un particolare apparato con cui l’architetto era in grado di «guardare attraverso» (perspicere) un buco fatto sulla superficie esterna di una scatola avente uno specchio al suo interno in 101 L’ordine della complessità cui è rimandata l’esatta prospettiva bidimensionale dell’oggetto e così riportare ciò che osserva nel suo disegno. Analoghi ed ancora più sofisticati strumenti erano utilizzati da Caravaggio per ottenere nei suoi quadri un effetto «più vero del vero», questa verità «esacerbata» per cui il pittore riusciva a «bloccare» un racconto in una scena singola solo passando attraverso l’artificio, la scelta consapevole di uno specifico punto di vista attraverso il gioco di specchi, ancora ci riempie di stupore. È istruttivo considerare come Caravaggio di tre secoli precedente, sia molto più attuale della fasulla «neutralità» dell’osservatore, che invece tanto entusiasmò i più ingenui pittori positivisti dell’impressionismo francese. Questo atteggiamento consapevole dell’artigiano rinascimentale corrisponde in scienza alla scelta di una particolare misura (il buco nella scatola, il particolare punto di vista, la sistemazione degli specchi) attraverso cui lo scienziato guarda al mondo. Ogni punto di vista è deliberatamente limitato e locale (come il buco), ogni misura è una mappa che fa «collassare» differenti stati del mondo verso lo stesso valore: differenti individui hanno la stessa altezza, differenti molecole hanno lo stesso peso molecolare... Adottare la corretta prospettiva, quindi, non vuol dire «salvare il maggior numero di particolari» ma scegliere il punto di vista che garantisce la visione più suggestiva (nel vero senso della parola, che suggerisce di più, che evoca una maggior ricchezza di contenuti senza mostrarli esplicitamente) del pezzo di mondo rappresentato. Esattamente come l’arte, dove l’arte precipua dello scienziato consiste nel suggerire allo spettatore la ricchezza di implicazioni che si dispiegano dal punto di vista privilegiato che si è scelto. Allora se egli è capace di predire il punto di fusione di una molecola da un indice topologico basato esclusivamente sulla formula di struttura della molecola stessa, senza bisogno di avere la sostanza in mano e senza bisogno di metterla in un calorimetro (le cose che ordinariamente bisogna fare per stabilire il punto di fusione), ciò significa che l’indice topologico (il buco attraverso cui egli guarda alle sostanze chimiche) garantisce una buona prospettiva sul processo chimico-fisico di fusione dei solidi in liquidi. Ciò non implica in nessun modo che l’indice topologico sia la causa della fusione, o che noi possiamo tranquillamente dimenticarci di tutto ciò che non sia la formula strutturale del composto chimico per spiegare tutti gli aspetti del processo di fusione. Una buona prospettiva può nascere dalla combinazione di molte 102 Scienza rigorosa? diverse misure (come nel caso da noi descritto in un precedente capitolo della generazione di una misura «consensuale» di complessità), ma la metafora rimane comunque valida, posto che il punto di vista sia comunque unico e ben esplicitato. La misura di complessità di una serie numerica è la porzione correlata di tutti i diversi indici. Insomma, nel passare dal paradigma del rigore a quello della prospettiva quello che noi proponiamo è abbandonare la teoria per la metodologia e la realtà ideale per una rappresentazione suggestiva. Può tutto ciò essere considerato un buon affare? Fare questa domanda significa tornare indietro nel tempo alle dispute dei filosofi medievali: e precisamente all’esistenza di qualcosa di «realmente reale» (la filosofia prima o poi dà vita a questi orrori linguistici e sicuramente la cosa non è accidentale, ma se volessimo indagare questo curioso effetto si andrebbe veramente troppo in là) opposto a ciò che è reale solo in apparenza. Forse è più comodo (anche se un po’ codardo, ammettiamolo) cavarsela con una scoperta delle neuroscienze di qualche anno fa, quella per cui la rappresentazione mentale del mondo (nel senso tradizionale della filosofia medievale) è largamente imperfetta e deficitaria. Il cervello sembra ritenere solo i tratti fondamentali delle scene che gli vengono presentate. Il pericolo quindi è duplice: da un lato si rischia che le rappresentazioni che esso crea siano false (nessuna corrispondenza con il reale come nel caso di alcune illusioni ottiche presentate in molti libri di testo), mentre dall’altro che le rappresentazioni tralascino, per i loro limiti, qualche aspetto importante. Questo è particolarmente evidente nei processi giudiziari per fatti criminosi, dove spesso accade che i testimoni oculari compiano in buona fede dei clamorosi errori di valutazione. Per molto tempo si è sostenuto che l’identificazione visiva del colpevole fosse la prova più forte di evidenza, ma le recenti evidenze basate sul riconoscimento del DNA, unite ai risultati della psicologia sperimentale, hanno fatto vacillare questa apparentemente incrollabile affermazione. Un esempio ancora più cogente, in quanto interamente basato sull’arte della prospettiva, ci è fornito dall’arte di Julian Beever, i cui selciati dipinti in Europa hanno un’appassionata cerchia di ammiratori. Nella figura si osservano dei passanti che evitano il «buco» anche se sanno che è solo apparente. La percezione provoca loro una componente emozionale abbastanza vivida da suggerire alla loro «mente 103 L’ordine della complessità 5.5. Il film Rashomon, del grande maestro Akira Kurosawa narra di un fatto di sangue come percepito da diverse persone a vario titolo coinvolte. Gli autori ne consigliano la visione a chi volesse approfondire il tema delle molte verità, piuttosto che imbarcarsi in testi filosofici e libri di pedanti. razionale» di evitare l’ostacolo probabilmente secondo il vecchio adagio precauzionale del «non si sa mai». Una massima latina recita Nemo dat quod non habit (nessuno può offrire ciò che non ha); allo stesso modo, se il nostro macchinario mentale e percettivo, a causa dei suoi limiti, non ci può offrire «l’intero reale», perché assumere che esista qualcosa che sia «realmente reale»? La realtà in ultima analisi consiste nella consapevolezza dei nostri limiti. L’avventura della conoscenza è una continua opera di affinamento delle nostre percezioni, di errori e di verifiche: per moltissimo tempo l’umanità pensava che la Terra fosse il centro dell’Universo, è solo grazie a misure più accurate e alle loro relative discrepanze dal modello di riferimento che abbiamo capito che le cose stavano in maniera differente. I telescopi hanno acuito il nostro occhio verso il macrocosmo, i microscopi verso il microcosmo, allora il «realmente reale» cessa di essere una inutile astrazione ontologica per diventare un 104 Scienza rigorosa? 5.6. Un’opera di Julian Beever. processo altamente pragmatico che ci permette di estendere le nostre prospettive e di osservare cose mai viste. In altre parole abbiamo bisogno del «realmente reale» per andare avanti nella conoscenza e, allo stesso modo, l’ampliamento delle nostre prospettive è una prova della sua esistenza e insieme della impossibilità del suo definitivo possesso. Questo è ciò che salva la scienza dal relativismo assoluto delle sue posizioni e quindi dalla morte termica (tutte le ipotesi sono equivalenti e quindi non ha scopo continuare l’impresa). La posizione dell’esistenzialismo assoluto racchiuso nella posizione «se io non so che una cosa esiste essa effettivamente non esiste per me» è smentita da numerosi casi reali. Il Medioevo ignorava l’esistenza di batteri e virus come causa di malattie. Ciò corrispondeva al fatto che l’intero mondo degli agenti infettivi non esisteva per l’uomo medioevale; ciononostante, anche se interpretato come effetto di punizioni divine o malefici, questo mondo aveva delle pesanti conseguenze per le persone di allora in termini di morte e dolore. Forse il lavoro principale della scienza è proprio quello di saggiare costantemente il mondo, alla ricerca di cose che non sembrano esistere ma che invece esistono e hanno pesanti conseguenze sulla con105 L’ordine della complessità dizione umana come i virus e i batteri; la tecnica e la scienza ci hanno portato a credere all’esistenza di organismi piccolissimi e di enormi galassie. Tommaso d’Aquino aveva assolutamente ragione ad affermare hominem unius libri timeo (Ho paura di chi si basa su un solo libro). Infatti, sappiamo bene come un’unica prospettiva possa dare delle false impressioni sullo stato delle cose. Osservare le cose da prospettive differenti può rivelare aspetti inattesi e nascosti di ciò che pensiamo di conoscere benissimo. Forse il rigore può generare una buona prospettiva, sicuramente non tutte le prospettive. NOTE 1 Il bellissimo libro del nostro amico Ignazio Licata, La logica aperta della mente, Codice Editore, Torino 2008. 2 Un altro grande amico è Tito Arecchi, che nel 2007 ha scritto per i tipi della Di Renzo Editore un libro affascinante dove questo dissidio tra il reale come ci viene proposto ai nostri occhi e il «reale scientifico» è vissuto attraverso la storia intellettuale dell’autore, fisico teorico e ingegnere. T. Arecchi, Coerenza, Complessità, Creatività, Di Renzo Editore, Roma 2007. 3 Un capolavoro nascosto è il volume di Giovanni Ferraro edito da Jaca Book nel 2001 dal titolo Il libro dei luoghi. Apparentemente non ha molto a che fare con i temi trattati in questo capitolo, ma solo apparentemente; infatti, uno dei temi portanti del libro è legato al rincorrersi delle rappresentazioni letterarie dei luoghi e i luoghi stessi e di come i rimandi continui tra rappresentazione ed oggetto forniscano la base della nostra conoscenza. 106 Capitolo sesto PROSPETTIVE Il miglior modello di un gatto è un altro gatto o, ancora meglio, lo stesso. Norbert Wiener Nel capitolo precedente avevamo proposto la metafora della prospettiva per giudicare i meriti di un’impresa scientifica. Ora si tratta di trasformare una metafora sibillina, e quindi sostanzialmente inutile, in un princìpio operativo. Per farlo descriveremo un lavoro scientifico in cui l’arte della prospettiva in scienza è indagata con grande acume e messa in pratica in maniera molto chiara. Il caso è riportato in un lavoro del 20051, il campo di indagine è la chimica farmaceutica e il problema oggetto di studio la predizione, basata sulle caratteristiche chimico-fisiche e strutturali di una serie di molecole organiche, delle loro abilità relative a legarsi ad alcuni ricettori biologici (un ricettore è una molecola proteica solitamente situata sulla membrana cellulare a cui i farmaci si legano per poi iniziare una catena di eventi che porta alla risposta biologica del sistema). Possiamo individuare due termini della questione: da una parte i composti organici, cioè un insieme di piccole molecole rispetto alle quali possiamo derivare una larga messe di informazioni, a partire dalla loro formula di struttura, attraverso l’applicazione dei princìpi della chimica-fisica organica; dall’altro lato abbiamo un polimero biologico complesso (il ricettore), una proteina, di cui conosciamo in maniera molto accurata struttura tridimensionale cristallografica e sequenza aminoacidica. Il compito di predire quali molecole organiche si riveleranno i ligandi più efficienti viene iterato per undici diversi ricettori e per un numero variabile di composti, secondo la tavola seguente: 107 L’ordine della complessità Attività farmacologica Numero di composti saggiati Antagonisti del ricettore 5HT3 Agonisti del ricettore 5HT1A Inibitori del ricettore 5HT Antagonisti del ricettore D2 Inibitori della Renina Antagonisti del ricettore AT1 Inibitori della Trombina Inibitori della sostanza P Inibitori della protease di HIV Inibitori della ciclo-ossigenasi Inibitori della protein-chinasi C 752 827 359 395 1.130 943 803 1.246 750 636 452 Per ognuna delle attività farmacologiche riportate in tabella, i ricercatori avevano a disposizione una sorta di «molecola di riferimento», cioè un farmaco che già aveva mostrato l’attività in questione, questo farmaco poteva essere usato come modello per esplorare i differenti insiemi di dati, alla ricerca delle molecole «più simili» secondo differenti criteri di similitudine (le diverse prospettive appunto). Le prospettive provate per la loro efficienza di previsione sono state nove, ognuna basata su un diverso concetto di che cosa si dovesse intendere per «similarità» tra due molecole e quindi di quale fosse l’informazione rilevante da utilizzare per costruire un ligando efficiente e per modellare l’interazione farmaco/ricettore. I nove metodi si possono ordinare in una scala che va da una grossolanità inaudita ad una sfrenata sofisticazione. Il metodo più grossolano è la semplice conta degli atomi, detta anche atom counts, per cui la probabilità di una molecola di essere attiva dipende solo da quanto il suo numero (e tipo) di atomi costituenti sia simile al numero (e tipo) di atomi presenti nella molecola di riferimento. Secondo questo semplice criterio, una molecola con lo stesso numero di atomi di carbonio, azoto, ossigeno dello stampo ha probabilità 1 di essere attiva. All’estremo di sofisticazione massima, e quindi di entità delle conoscenze prese in considerazione, troviamo il metodo DOCKSIM. Questo metodo prende in considerazione non solo la formula strutturale delle molecole, che allinea fra di loro tenendo conto delle diverse configurazioni possibili, ma anche la struttura cristallografica del ricettore, per cui la similarità fra una molecola e il riferimento non è calcolata di per sé ma sempre prendendo in considerazione la struttura tridimensionale del ricettore con cui la molecola è supposta interagire (l’interazione di due molecole si chiama «docking», da qui il nome del metodo). 108 Prospettive 6.1. In alto, nella figura, viene riportata la molecola di riferimento nota per presentare l’attività farmacologica desiderata (antagonista del ricettore 5HT3), nelle colonna di sinistra e di destra le molecole previste «attive» dai metodi m1 e m6 rispettivamente sulla base delle similarità con la molecola di riferimento (template). C’è poi un competitore molto speciale in questa gara per giudicare il «miglior metodo predittivo»: si tratta di un «estrattore casuale» (Random Selection), cioè di un software che semplicemente pesca a caso le molecole da considerare dei ligandi efficaci del ricettore in questione. Questo è un partecipante assolutamente stolto, programmaticamente privo di ogni traccia di ragionamento su qualsiasi criterio di similitudine con il farmaco di riferimento o con l’interazione ligando/ricettore. Ma è proprio questa stoltezza programmatica alla 109 L’ordine della complessità base dell’importanza vitale della pesca casuale per valutare l’intera competizione, in quanto permette di giudicare l’abilità predittiva di ogni metodo, fornendo una «linea di base» che non può che essere una pesca casuale, corrispondente alla totale assenza di informazioni, al fatto che per puro effetto del caso ci si possa imbattere in una molecola che presenta l’attività desiderata. Per ogni partecipante alla gara il punteggio finale corrisponde alla sua frequenza media di successi, in altre parole alla percentuale di molecole predette «attive» che in effetti si legano al ricettore quando provate in maniera sperimentale. La media si intende calcolata sull’intero insieme di 11 differenti attività. La figura 6.2 riporta i risultati della competizione. Il metodo più sofisticato (DOCKSIM) è inaspettatamente il peggiore! Esso è infatti il più vicino allo stolto estrattore casuale che, come atteso, arriva buon ultimo. Il fatto che la totale mancanza di informazione (random selection) porti comunque ad una percentuale di successi minore di qualsiasi altro metodo ci dice che tutte le diverse prospettive ci raccontano qualcosa della realtà: hanno insomma dentro di loro delle reminescenze del fenomeno in esame. Il metodo migliore (più realistico) si dimostra MOLPRINT 2D, che ottiene una percentuale di successi attorno al 75%. Il fatto che la gara abbia coinvolto migliaia di composti ci spinge a prenderne molto sul serio i risultati; diamo quindi un’occhiata più da vicino al vincitore. Si tratta di un metodo piuttosto semplice di «digitalizzazione» (cioè trasformazione in un vettore numerico) dell’usuale formula di struttura bidimensionale delle molecole organiche (il modo in cui sono descritte nei libri di chimica del liceo e nella figura 6.1). La digitalizzazione consiste essenzialmente nell’associare ad ogni formula di struttura un vettore binario (1/0) a seconda della presenza/assenza di particolari gruppi chimici o di specifici legami, la similarità tra due molecole risulterà quindi essere la proporzione di caratteristiche comuni ad entrambe le molecole. Questo sembra a prima vista un concorrente piuttosto debole, qualsiasi studente di chimica ha imparato che la formula di struttura è niente altro che un’astrazione, le molecole vivono in uno spazio tridimensionale e non nelle due dimensioni del foglio. Prendere in considerazione l’effettiva tridimensionalità della struttura non può che migliorare le prestazioni. Verissimo, ma DOCKSIM, che non solo prende in considerazione la struttura 3D delle molecole ma addirittura considera anche la strut110 Prospettive 6.2. In ascissa i nomi dei metodi, in ordinata la loro percentuale media di successo. tura tridimensionale del ricettore, funziona appena meglio della pesca casuale e addirittura peggio dell’ignorantissima conta degli atomi! Non solo, ma tutti i quattro primi arrivati (MOLPRINT 2D, Feature Trees, ISIS MOLKEYS e Daylight Fingerprints) sono tutti basati sulla formula di struttura 2D. Il quinto (Sybil) complica la semplice formula 2D con delle considerazioni (teoricamente assolutamente corrette) di chimica-fisica; d’altro canto, nella zona bassa della classifica, i due metodi FLEX# sono entrambi 3D come DOCKSIM, solo un po’ meno sofisticati. Insomma la lezione è molto chiara: il modo migliore per fare delle previsioni efficaci sull’attività delle molecole, la migliore prospettiva sulla loro attività farmacologica è costituita dalla formula di struttura bidimensionale; cercare di prendere in considerazione il fatto che si tratti in realtà di oggetti tridimensionali peggiora solo le cose, e tanto più le peggiora quanti più particolari cerchiamo di inserire nel quadro. Il caso si presenta come incredibilmente interessante: che cosa rende la formula di struttura (come espressa da MOLPRINT 2D) una prospettiva così efficace? Perché è meglio non esagerare con la sofisticazione? Che cosa distingue la realtà da quello che gli scienziati considerano «realistico»? Uno degli ingredienti alla base dell’interesse di questo caso è il suo 111 L’ordine della complessità porsi all’interfaccia tra scienze cosiddette hard e scienze considerate soft. La chimica quantistica è un campo di studi molto sofisticato in cui la matematica gioca un ruolo essenziale (hard science) e in cui si riesce a derivare un’informazione ricchissima su una singola molecola, lo stesso si può dire per la strutturistica chimica e in generale per le descrizioni chimico-fisiche delle piccole molecole organiche. Le cose stanno in maniera molto diversa per quel che riguarda il versante delle interazioni delle stesse molecole con le strutture biologiche (proteine, acidi nucleici, membrane...), che è esattamente dove inizia la complessità o, più precisamente, dove le condizioni al contorno hanno molta più importanza delle leggi (soft science). Mentre quindi possiamo spingere la descrizione di una specifica molecola organica ad un livello di dettaglio molto elevato (predittori sofisticati come DOCKSIM), non possiamo fare altrettanto per quel che riguarda la loro effettiva interazione con le macromolecole biologiche, dove entrano in gioco fattori a noi largamente sconosciuti nei dettagli. Se noi semplicemente pensiamo di allargare la prospettiva dalla piccola molecola organica in quanto tale alla sua interazione con il ricettore, con una semplice approssimazione dal piccolo al grande, non facciamo altro che insozzare la nostra rappresentazione con miriadi di errori di approssimazione, che finiranno per oscurare l’informazione rilevante che era inizialmente presente nella descrizione più semplice. Mentre crediamo di diventare via via più realistici aggiungendo nuovi dettagli che noi consideriamo «reali» e potenzialmente importanti, non ci accorgiamo che in realtà ciò che stiamo facendo è confondere progressivamente il nostro dipinto. Noi siamo così tronfi e superbi da dare per scontato che ciò che è più «avanzato» debba funzionare meglio, in qualsiasi occasione, di ciò che è più semplice e antico. È chiaro che le molecole vivono in uno spazio a tre dimensioni, ma siamo sicuri che queste dimensioni siano le stesse che rappresentiamo con i nostri metodi? Una statua (oggetto tridimensionale) può essere meno realistica di un quadro (bidimensionale) così come una fotografia in bianco e nero rispetto ad una fotografia a colori. Che cosa rende MOLPRINT 2D così efficiente come metodo di predizione? Una buona prospettiva. Osserviamo con attenzione una formula di struttura come quella riportata in figura 6.3: questa è l’informazione su cui si basa il metodo vincente MOLPRINT 2D. Ci accorgiamo immediatamente come si tratti di molto di più di una rappresentazione bidimensionale di qual112 Prospettive 6.3. Una formula chimica «stampo» per una classe di composti organici. cosa. La formula comprende informazione simbolica come i nomi degli etero-atomi, cioè gli atomi diversi dal carbonio e dagli idrogeni legati ai carboni (in questo caso gli eteroatomi sono ossigeno e azoto, O e N), o la generalizzazione a possibili sostituenti che si indicano con una lettera generica (R e R′) intendendo dire: qui legate ci possono essere altre entità chimiche ma noi consideriamo solo questo scheletro di base. La formula ha all’interno informazione topologica, le linee corrispondono a legami chimici, che indicano che gli atomi ai poli della linea sono «legati» fra loro; il fatto di avere una o due linee (legami semplici o doppi) rimanda ad ulteriori informazioni su molte altre caratteristiche della molecola come la sua flessibilità, stabilità ecc., che trascendono la semplice rappresentazione bidimensionale. A ben vedere, le formule di struttura si iscrivono nel solco di una gloriosa e lunghissima tradizione di comunicazione, che va dai geroglifici delle tombe egizie, passando per gli affreschi delle Chiese medievali fino ai moderni fumetti. L’efficienza di questo genere di comunicazione che mescola simboli (frasi, segni di riconoscimento convenzionali, rimandi) e immagini è enorme, in quanto consente di integrare informazioni eterogenee fra loro mantenendo un quadro coerente. Considerare una formula di struttura come una semplice rappresentazione bidimensionale che ovviamente è superata da una rappresentazione 3D è, nel migliore dei casi, riduzionismo ingenuo, ciononostante i chimici farmaceutici hanno dibattuto a lungo (e ancora dibattono) sulla «paradossale» (sic) superiorità dei descrittori molecolari bidimensionali rispetto a quelli tridimensionali. Il grande biofisico Arthur Winfree passò una buona parte della sua carriera scientifica a cercare di estendere il suo modello bidimensionale della diffusione dell’attività elettrica del cuore ad un modello tridimensionale, che avrebbe dovuto essere più realistico. Alla fine dovet113 L’ordine della complessità te tristemente ammettere che la cosa era semplicemente impossibile e che, se avesse voluto ottenere un buon modello tridimensionale della conduzione elettrica del cuore, la strada migliore non avrebbe potuto essere la generalizzazione di un buon modello 2D ma qualcosa di completamente diverso. Avrebbe insomma dovuto ricominciare da capo, né più né meno di come una bella statua non si ottiene dall’aggiungere una dimensione ulteriore a un bel quadro. La domanda che sorge spontanea è allora «come facciamo a sapere quando un certo modello ha raggiunto il suo grado ottimale di funzionamento e dobbiamo fermarci per non rovinarlo?». Questo è l’argomento di una patologia molto diffusa nella scienza «sofisticata», si chiama overfitting (sovradeterminazione) e sarà l’argomento del prossimo capitolo. Per ora accontentiamoci di questo bell’esempio di «scienza semplice»2, con cui abbiamo iniziato a comprendere la differenza tra una buona e una cattiva prospettiva, portiamoci anche a casa un po’ di diffidenza verso una visione ingenua del progresso per cui i metodi più sofisticati debbano essere necessariamente i più potenti. NOTE 1 A. Bender, R.C. Glen, J Chem Infr Model, 45, 2005, pp. 1369-1375. Il sito web «Scienza Semplice» cerca di sensibilizzare su questi argomenti mettendo in luce le trappole legate allo scientismo e alla considerazione della scienza come un processo lineare in continuo progresso. Vengono inoltre riportati alcuni esempi (tra cui quello descritto qui) di scienza semplice in azione: http://www.dis.uniroma1. it/~farina/semplice/. 2 114 Capitolo settimo TROPPO ESATTO PER ESSERE VERO (OVERFITTING/SOVRADETERMINAZIONE) La massima più importante per chi si occupa di analisi di dati, e che purtroppo molti statistici sembrano aver dimenticato, è questa: molto meglio una risposta approssimata alla domanda giusta, che spesso è piuttosto vaga, che una risposta esatta alla domanda sbagliata, che può essere resa infinitamente precisa. John Tukey Ogni pezzo di scienza può essere considerato come un problema di traduzione: in fin dei conti, quando facciamo scienza la nostra attività iniziale consiste nell’osservare diversi esempi di un certo fenomeno ed esprimere gli aspetti che a noi sembrano più interessanti delle nostre osservazioni attraverso i valori di una o più variabili Y. Se noi siamo in grado di prevedere con ragionevole accuratezza i valori della(e) Y in una determinata circostanza facendo uso di altre variabili (dette X), e quindi costruire una regola che traduca una certa configurazione delle(a) X nella corrispondente configurazione Y, allora quello che abbiamo in mano è un pezzo di scienza fatto e finito. Chiaramente questo è un quadro ultra-semplificato della situazione, perché la cosa vada aldilà del puro gioco statistico; inoltre, sia le X (variabili indipendenti nel gergo statistico) che le Y (variabili dipendenti) dovranno avere un significato accessibile, e la mia osservazione si dovrà collegare ad altre osservazioni simili eseguite da altri ricercatori, attraverso le quali arrivare a provare o a confutare una certa ipotesi. Comunque questo avviene dopo, e può avvenire se, e solo se, ho in mano una qualche forma di regola di traduzione dal campo X al campo Y, sia essa una funzione matematica del tipo Y = 76*X + 12 o una semplice asserzione del tipo «chi ha la caratteristica x incorre con più frequenza degli altri nella conseguenza Y». Chiaramente le X e le Y devono appartenere a due domini separati e generare da osservazioni indipendenti sulla stessa unità statistica soggetto dello studio; se la Y è una semplice trasformazione matematica a priori della X (ad esempio il ri115 L’ordine della complessità sultato di un elaborato calcolo), alla fine avrò fatto della matematica, magari dell’ottima algebra, cioè una raffinata e spesso utilissima tautologia, ma non potrò dire di avere fatto scienza. In pratica, avrò semplicemente descritto la stessa cosa con altre parole ma non avrò messo in comunicazione due mondi. La tabella successiva riporta alcuni esempi di scienza secondo i termini utilizzati in questo capitolo: Tabella 1 X Y Regola di Traduzione Pressione Volume Funzione matematica (iperbole) Sequenza proteica Struttura proteica Ancora ignota in generale, in alcuni casi specifici esprimibile come grado di analogia tra sequenze Sintomi Malattia Non esistono regole generali, ragionamento probabilistico largamente inconsapevole anche se motivabile caso per caso Numero di elettroni dell’orbitale esterno Stechiometria delle reazioni chimiche Regole deterministiche basate sull’aritmetica Se osserviamo con attenzione gli esempi riportati in tabella, ci rendiamo facilmente conto che manca una colonna importantissima: la colonna che ci dice in quali casi la regola di traduzione X/Y riportata si può applicare con efficacia. Potremmo definire questa colonna «nel caso in cui...» oppure, qualora ci volessimo considerare degli scienziati seri o degli ancor più seri epistemologi «condizioni al contorno». Allora il primo esempio indicato in tabella vale solo nel caso in cui abbiamo a che fare con un gas ideale, e (visto che i gas ideali non esistono), con accettabile approssimazione nei gas molto diluiti e lontani dal punto di fusione. Il secondo esempio vale solo nel caso in cui si abbiano a disposizione una o più proteine di riferimento di cui sia nota la struttura tridimensionale, e la cui omologia di sequenza con le proteine a struttura sconosciuta sia uguale o maggiore al 40%. Il terzo esempio si applica solo nel caso in cui una certa entità patologica abbia una diagnosi differenziale nota. Infine, l’ultima riga della tabella ci porta nel caso in cui la reazione studiata avvenga in un ambiente standard di reazione con una caratterizzazione completa delle specie atomiche presenti. In tutte queste situazioni, i vincoli da soddisfare per l’applicazione corretta delle regole coinvolgono degli attori differenti da X e Y. 116 Troppo esatto per essere vero (Overfitting/Sovradeterminazione) Nel primo caso la relazione iperbolica tra pressione e volume descritta dalla legge di Boyle è mediata dall’azione combinata della densità relativa e della temperatura del gas; una densità troppo elevata infrange la regola di traduzione in quanto le molecole iniziano ad interagire fra di loro, la stessa cosa accade con una temperatura troppo bassa. Nel secondo esempio abbiamo un caso estremo di dipendenza dalle condizioni al contorno: la possibilità di associare ad una proteina avente una certa sequenza di aminoacidi la sua struttura tridimensionale dipende dalla conoscenza effettiva della struttura di altre proteine simili! Ragionamenti di questo genere si possono fare per gli altri due esempi e per ogni altro risultato scientifico. Ciò che ci appare una stringente e inesorabile legge di natura ha in realtà un’esistenza molto precaria, essendo valida solo grazie ad una seria di condizioni «incidentali» che decidono della sua applicabilità. Ciò che rende uno scienziato stimato nel suo ambiente è proprio la sua abilità nel definire ed esprimere chiaramente le condizioni di esistenza delle regolarità rilevate, così permettendo ai suoi colleghi di verificare le sue proposizioni. Quando uno scienziato riesce a portare a termine questo compito nasce una nuova teoria o, nel linguaggio postmoderno un po’ meno filosofico, e più democratico e dimesso, «un nuovo modello». Lo sforzo di definizione delle condizioni di applicazione dei modelli occupa la maggior parte della letteratura scientifica, che è piena di discussioni senza fine sul come e sul quando si possa applicare un costrutto piuttosto che un altro. Vale la pena allora di andare a vedere come le condizioni al contorno tendano insidiose trappole ai modelli degli scienziati. Come in altre parti di questa trattazione, ci serviremo di un modello ultra-semplificato: un’equazione lineare attraverso cui predire i valori di una variabile Y a partire dai valori di un’altra variabile X. Per aggiungere un tocco di realismo alla nostra simulazione, immaginiamo che X sia una caratteristica chimico-fisica di una molecola organica e Y la sua attività biologica. In analogia con il capitolo precedente, Y sarà la forza di legame delle molecole ad un ricettore, mentre X corrisponderà al logaritmo del coefficiente di ripartizione ottanolo/acqua (LogP), che è la misura più usata in chimica farmaceutica per valutare l’idrofobicità di una molecola: in altre parole la propensione del composto a essere solubile nei solventi oleosi (alto LogP) piuttosto che in quelli acquosi. Questa proprietà è molto importante in chimica farmaceutica per una somma di ragioni che vanno dalla possibilità del composto di essere 117 L’ordine della complessità 7.1. Nella figura i punti corrispondono a differenti composti la cui descrizione chimico/fisica consiste nella loro idrofobicità (LogP), cioè nella loro propensione ad essere sciolti in solventi oleosi (idrofobici) piuttosto che nell’acqua. Questa descrizione fornisce la coordinata x (ascissa). In ordinata (y) gli stessi composti sono rappresentati in termini della loro attività biologica osservata attraverso un saggio sperimentale. La presenza di una relazione tra la posizione in x e quella in y indica la possibilità di costruire un modello predittivo dell’attività biologica a partire dalle caratteristiche chimico-fisiche delle molecole. assorbito fino alla sua capacità di legare una proteina, e quindi anche un ricettore, che di solito è a sua volta una molecola proteica. Immaginiamo di fare il nostro esperimento di relazione struttura/ attività (in senso lato anche LogP è una proprietà strutturale, in quanto dipendente dalla formula di struttura della molecola) su un insieme di ammine organiche, cioè su composti del carbonio che hanno come tratto distintivo la presenza di un gruppo funzionale amminico con formula –NH2. Alla fine degli esperimenti avremo una figura come la 7.1. Possiamo essere abbastanza soddisfatti del lavoro svolto: il legame tra LogP e l’attività biologica è decisamente significativo (coefficiente r di Pearson = 0,88), compatibile con la normale indeterminazione degli esperimenti biologici. Saremmo quindi autorizzati ad afferma118 Troppo esatto per essere vero (Overfitting/Sovradeterminazione) re: «nel caso delle ammine organiche l’attività biologica è direttamente proporzionale alla loro idrofobicità». Questa è un’affermazione puramente descrittiva, potremmo però andare oltre e affermare che «l’attività biologica delle ammine aromatiche si può calcolare dalla loro idrofobicità secondo l’equazione: attività = 0,703 + 2,732(logP)», e avremmo in qualche modo scoperto una nostra piccola, umile, «legge di natura» (che i fisici con un certo sussiego chiamerebbero fenomenologica, intendendo qualcosa di un po’ raffazzonato in attesa della «legge vera»). Per essere presi sul serio dovremmo però dimostrare che il nostro modello riesce a prevedere l’attività di altre ammine aromatiche oltre a quelle che abbiamo usato per fare i nostri calcoli. Chiaramente non ci sogneremmo mai di pensare che la nostra equazione funzioni per qualsiasi molecola organica, e questo perché già sappiamo che l’attività biologica di una molecola deriva da una miriade di fattori largamente ignoti di cui l’idrofobicità è solo uno, magari importante, ma certo non unico. Limitandoci però alle ammine organiche potremmo immaginare che gli altri fattori siano più o meno identici fra le diverse molecole della serie, il che ci permette di considerare l’idrofobicità come l’unico determinante dell’attività effettivamente in gioco. In altre parole è solo ritagliandosi delle ben definite condizioni al contorno (le ammine aromatiche sono un ben piccolo sottoinsieme delle sostanze chimiche) che possiamo definire un modello efficace, poiché le condizioni al contorno non solo limitano la validità, ma rendono possibile la costruzione di modelli. Questa non è una semplice sottigliezza filosofica, come nel libro di Raymond Carver che abbiamo citato in precedenza: con il nostro modello noi stiamo «parlando di qualcos’altro», cioè parliamo di attività biologica discutendo di idrofobicità ma sappiamo che questa non è la verità. L’attività biologica non può essere ridotta all’idrofobicità, questa è un’illusione ottica dovuta all’aver scelto una particolare e ristret119 L’ordine della complessità 7.2. Questa figura riporta gli stessi dati della precedente con aggiunta una specificazione ulteriore del carattere delle molecole che sono suddivise nei due gruppi di ammine «cicliche» e «aromatiche». ta prospettiva (le ammine organiche), che ci permette di dimenticare per un po’ tutti i fattori ignoti che determinano l’attività biologica di una molecola organica. Un po’ come quando diciamo al nostro amore «cara, almeno per questa sera scordiamoci di tutti i nostri affanni e pensiamo solo a noi due». Tornando al nostro modello a cui vogliamo affidare un po’ della nostra reputazione scientifica allora immaginiamo di ottenere un po’ di dati sperimentali su delle altre ammine organiche e che alcune molecole siano predette molto bene e altre molto male. La prima cosa che ci viene in testa è che forse «ammine organiche» è un campo troppo generico; proviamo allora a evidenziare nel nostro campo iniziale quali sono le ammine aromatiche e quelle solo cicliche: ora le cose appaiono come in figura 7.2. Forse è il tempo di essere un po’ più concreti: A sinistra appare un’ammina aromatica dove i doppi legami «risuonando» tra diverse posizioni rendono conto della caratteristica di aromaticità (con tutte le conseguenze chimico-fisiche del caso), a de120 Troppo esatto per essere vero (Overfitting/Sovradeterminazione) 7.3. Qui la figura non riporta più lo stesso modello delle due precedenti, in questo caso abbiamo costruito due diverse funzioni empiriche per spiegare la relazione tra struttura ed attività nei due gruppi di molecole. stra un’ammina «solo» ciclica. Apparentemente non sono molto diverse, eppure... Ecco cosa succede (figura 7.3) se, partendo dai nuovi dati costruisco due modelli separati per le ammine cicliche e per quelle aromatiche. Le relazioni che legano l’attività biologica all’idrofobicità per le due classi di sostanze hanno segno opposto. Nella prima analisi il fatto di aver «pescato» dei rappresentanti delle due classi in un intervallo di sovrapposizione di attività ci aveva dato la falsa impressione di un modello valido per entrambe le classi di ammine aromatiche. La sostanziale eterogeneità dei modelli di relazione struttura/attività per le ammine cicliche e le ammine aromatiche era alla base delle nostre previsioni sbagliate. Le due classi di ammine esercitano la loro attività con due diversi meccanismi (a noi ignoti) che generano i due differenti modelli, ora 121 L’ordine della complessità 7.4. Un modello non lineare sembra spiegare meglio la relazione struttura-attività rispetto al modello lineare. però, con una definizione migliore del campo di validità dei nostri modelli, possiamo avere previsioni più accurate. Vale la pena notare come, adesso che abbiamo aggiustato il tiro, l’adeguamento (fit) dei modelli ai dati è molto migliore rispetto al modello indiviso per le ammine organiche (correlazione di Pearson pari a 0,92 e 0,98 per le due classi di ammine, una precisione sbalorditiva): questa è una conseguenza fornita dalla possibilità di lavorare con un materiale più omogeneo in cui la nostra «prospettiva semplificatrice», la nostra «illusione di riportare l’attività ad un semplice parametro chimico-fisico» è molto più realistica ed efficace (anche se sempre di illusione si tratta), perché è proprio basandosi su questo tipo di modelli che si prendono utilissime decisioni sulla tossicità o sull’attività farmacologica delle molecole organiche. Qualcuno comunque potrebbe pensare di prendere in considerazione una delle due classi e notare che l’adattamento ai dati sarebbe ancora migliore con un modello non lineare che prenda esplicitamente in considerazione il fatto che la Y tende a raggiungere un plateau per alti valori della X. Il nostro esageratamente puntiglioso scienziato otterrebbe un modello come quello di figura 7.4. Ora l’adattamento è perfetto. Se nel caso lineare un coefficiente 122 Troppo esatto per essere vero (Overfitting/Sovradeterminazione) di correlazione pari a 0,98 lasciava scoperto un 7% circa di varianza non spiegata dal legame fra l’attività e l’idrofobicità (la varianza spiegata è pari al quadrato del coefficiente di correlazione), con il nuovo modello riusciamo a spiegare tutto, l’incertezza è praticamente nulla consentendoci una ricostruzione quasi perfetta dell’attività biologica a partire dall’idrofobicità. Ciononostante quando questo modello non-lineare è provato con altre molecole, mostra una capacità predittiva molto peggiore del semplice e più approssimato modello lineare. Questa è una tipica patologia dei modelli che gli statistici chiamano overfitting (sovradeterminazione). Per arrivare a spiegare tutto di una certa configurazione di dati, il modello considera «informazione rilevante» anche ciò che deriva dalle sempre presenti fluttuazioni sperimentali, che sono tipiche del particolare insieme utilizzato per costruire il modello e quindi non generalizzabili ad altre osservazioni. In altre parole, oltre un certo dettaglio si inizia a descrivere il «rumore» e non più le regolarità statistiche (segnale) dell’insieme studiato. Questo fatto provoca una rapida degenerazione della capacità predittiva dei modelli stessi quando diventano troppo «esatti». Questo fenomeno contraddice l’idea intuitiva che un modello più accurato sia anche il migliore. Un modello, per definizione, è una rappresentazione parziale e approssimata di alcuni aspetti rilevanti di un fenomeno, non la sua descrizione completa. La ricerca del massimo di spiegazione possibile implica che tutto ciò che osserviamo è importante per la costruzione del modello, che non esistano particolari accessori e insignificanti, come abbiamo visto nel nostro esempio quest’ansia di controllo totale porta necessariamente a inquinare il modello con elementi spuri che ne minano la generalizzabilità. Capire quando fermarsi, nella costruzione di un modello, è una delle abilità più importanti dello scienziato che implica, a parte una certa sensibilità statistica, una conoscenza non banale del caso studiato. Il caso discusso nell’esempio è estremamente semplice, il che rende assai agevole il controllo statistico dei risultati e quindi la decisione sulle modifiche da apportare all’analisi per massimizzarne l’efficienza di predizione. Diverso è il discorso dei modelli che vengono usati in biologia computazionale che hanno a che vedere con migliaia di variabili e con basi di dati sterminate. In queste condizioni il problema dell’overfitting è esacerbato dall’alta dimensionalità del problema, che permette una tale flessibilità da far sì che praticamente ogni possibile risultato sperimentale si possa in qualche modo «adattare» allo 123 L’ordine della complessità schema interpretativo. Una massa enorme di interazioni fra proteine, sequenze di biopolimeri, vie metaboliche, accumulate grazie alle ricerche di migliaia di ricercatori in tutto il mondo dentro i data base «post-genomici» rende molto difficile discernere la pura tautologia da un reale avanzamento della conoscenza. Insomma, abbiamo a disposizione una conoscenza sufficientemente ricca per spiegare tutto, e quindi niente. Questa paradossale situazione è molto pericolosa per l’avanzamento della scienza ed è molto ben descritta in un lavoro apparso recentemente sui “Proceedings” dell’Accademia delle scienze statunitense1. Gli autori introducono il termine di «microparadigmi» (microparadigms) per identificare quelle idee che, indipendentemente dalla loro validità, pervadono progressivamente la comunità scientifica per il semplice fatto che i risultati sperimentali su cui si basano diventano impossibili da verificare, in quanto ormai «istituzionalizzati» all’interno di enormi basi di dati che automaticamente costituiscono delle «basi di fatti» dati per veri e quindi le fondamenta su cui basare nuovi modelli. Questa è la maledizione prodotta dalla degenerazione di quello che originariamente (ossia quando era basato su un numero di variabili che si potevano contare sulle dita di una mano) era uno schema di ragionamento assolutamente produttivo: lo schema bayesiano. Questo nome deriva dal reverendo e statistico inglese Thomas Bayes (1702-1761), che propose una definizione di probabilità che comprendeva anche le aspettative precedenti all’esperimento. In altre parole, il peso che una determinata osservazione acquisisce viene a dipendere non solo dall’osservazione in sé, ma anche dalla conoscenza pregressa secondo la formula: P(A^B) = P(A/B)/P(B) (*) Nella (*) P(A^B) indica il verificarsi dell’evento A insieme all’evento B, P(A/B) è la probabilità del verificarsi di A se B è già noto essere avvenuto, e P(B) è la probabilità a priori di B. Senza entrare nel dettaglio della formula possiamo immaginare come la probabilità di pioggia (A) sia modificata dal sapere che la giornata è molto nuvolosa (B) rispetto al non sapere nulla di cosa avviene fuori dalla finestra. I due eventi A (pioggia) e B (nuvolosità) sono infatti collegati tra di loro e scambiano informazione tra di loro. Di fatto il reverendo Bayes, in maniera semplice e geniale, non fa altro che formalizzare il normale buon senso che utilizziamo quotidianamente quando siamo di fronte a scelte sul 124 Troppo esatto per essere vero (Overfitting/Sovradeterminazione) 7.5. In figura è riportata la descrizione di un’importante processo della fisiologia cellulare: l’apoptosi o morte cellulare programmata. Le «scatole» corrispondono a proteine, DNA o piccoli metaboliti coinvolti nel processo, le frecce ad interazioni fra le molecole alle loro estremità. percorso da preferire per minimizzare il rischio di traffico o quale località preferire per le ferie. La scienza, come qualsiasi attività umana, fa uso dello stesso modello di ragionamenti della vita quotidiana. Nel caso degli esperimenti di espressione genica differenziale (i cosiddetti microarray, in cui l’attività di decine di migliaia di geni viene simultaneamente misurata su campioni biologici), un risultato significativo «corroborato» da altri risultati significativi in geni «equiparabili in quanto a funzione» vale più di un risultato significativo in un gene «isolato». Ovviamente, a differenza del semplice caso pioggia/nuvole, l’enorme molteplicità classificatoria raggiungibile da significati ricchi e sfaccettati come quelli biologici è molto rischiosa in termini di sovra-determinazione. Immaginiamo di avere a disposizione un software (effettivamente ne esistono molti, scaricabili gratuitamente sulla rete, che funzionano più o meno così) che cerchi, all’interno degli alberi di classifica125 L’ordine della complessità zione multipla di geni in cui ogni singolo gene è associato a tutte le vie metaboliche e di regolazione a cui partecipa nella cellula, la combinazione di vie metaboliche (pathways) note che risulta maggiormente in accordo con la lista di geni riconosciuti come statisticamente significativi in un esperimento di microarray. Un pathway è la rappresentazione di un processo biologico con l’usuale grafica a «scatole-e-linee», dove le scatole indicano i geni e le linee dei «legami di relazione» tra i geni. Questi legami di relazione sono frasi codificate del tipo «il gene A attiva il gene B» o «il gene B interviene sul prodotto del gene A» e così via. In figura 7.5 viene riportato un pathway di questo tipo come lo possiamo trovare su una base di dati sul web (in questo caso si tratta di KEGG (Kyoto Enciclopedia of Genes and Genomes, una delle più note, è consultabile al sitohttp://www.genome.ad.jp/kegg/). Il processo schematizzato nella figura 7.5 è l’apoptosi, la morte cellulare programmata, un meccanismo mediante il quale le cellule di un organismo superiore decidono di «suicidarsi» quando l’accumulo di danni a differenti strutture molecolari impedirebbe un funzionamento adeguato della cellula stessa. Esistono migliaia di questi schemi, riferiti a diversi fenomeni fisiologici che costituiscono l’informazione a priori con cui andiamo ad analizzare in maniera bayesiana i dati degli esperimenti di microarray. A questo punto il problema di «quale classificazione scegliere» è a sua volta un problema risolubile in maniera algoritmica: si esplorano le basi di dati che raccolgono i diversi pathway, cercando le combinazioni di questi pathway che si accordano meglio con i geni effettivamente riconosciuti come modificati in termini di espressione. L’enorme numero di combinazioni (e per di più tutte plausibili derivando dall’informazione scientifica accumulata negli anni) fa sì che praticamente ogni analisi di questo tipo fornisca una risposta «ragionevole in termini biologici», il che rischia di rendere l’esperimento di microarray una noiosa ripetizione del già noto, una stucchevole esercitazione in cui ci si bea di ritrovare «in bella forma» quello che già si sospettava esserci: siamo tutti contenti, si pubblica un articolo e via così nel più puro manierismo senza aumentare di nulla la nostra conoscenza sul mondo anzi, al contrario, rendendo un pochino più difficile scalzare quanto già si credeva noto con nuove idee e paradigmi. Come spesso avviene, qualcosa di molto soddisfacente su piccola scala, diventa una specie di incubo quando si trasporta ad una sca126 Troppo esatto per essere vero (Overfitting/Sovradeterminazione) la molto diversa. Si confronti a questo proposito una gita al mare che, per strade solitarie in mezzo alla campagna, ci porta a scoprire una spiaggia contornata di pini con pochi bagnanti, con una gita che richiede ore di fila incolonnati in auto sotto il sole per arrivare in una sorta di inferno di carni sudate e cemento. L’approccio bayesiano in presenza di una base di conoscenze a priori troppo vasta e flessibile può essere equiparato ad una grande torre che ammette ad ogni piano un piccolo grado di instabilità (l’incertezza delle singole informazioni della base di dati): quando i piani diventano troppi, la torre diventa globalmente instabile ed è praticamente impossibile tornare indietro e scoprire il singolo «elemento scorretto da riparare». Quando semplicità e chiarezza (princìpi estetici, rasoio di Ockham) non sono più considerate le guide principali del fare scientifico, questi crolli di torri di Babele sono all’ordine del giorno. È notevole considerare come la scienza moderna sia nata nel XVII secolo grazie ad un collasso «alla-Babele» del tipo di quello che stiamo descrivendo. Il grande astronomo Johannes Kepler era impegnato nel problema della descrizione dell’orbita di Marte. A quel tempo gli astronomi avevano a disposizione una metodica di calcolo molto potente per descrivere le orbite dei corpi celesti, anche molto complesse: il metodo degli epicicli (7.6). Ogni orbita è approssimata dalla somma pesata di un numero a piacere (il processo termina quando l’orbita osservata è perfettamente riprodotta) di orbite circolari che si sovrappongono a diversi livelli di dettaglio (epicicli). Questo metodo consentiva agli astronomi del tempo di ottenere delle rappresentazioni molto accurate delle traiettorie dei corpi celesti mantenendo l’assunto aristotelico della circolarità delle orbite. Ora noi sappiamo perché il metodo degli epicicli funzionasse così bene in tutte le circostanze: gli epicicli non sono altro che una differente versione dello spettro di Fourier di una traiettoria (un modo per descrivere segnali anche molto complessi come somma pesata di segnali sinusoidi regolari), ed esiste un teorema che dimostra come ogni segnale, comunque complesso, possa essere espresso come la convoluzione di onde sinusoidali. Ma proprio perché il metodo funziona in ogni caso, la sua applicabilità alla descrizione di una traiettoria non aggiunge nulla a ciò che già si sapeva, si tratta semplicemente di dire la stessa cosa che si è osservata con altre parole, si tratta di una tautologia, insomma, si tratta di matematica e non di scienza. 127 L’ordine della complessità 7.6. Il calcolo degli epicicli eseguito da Keplero per la descrizione dell’orbita di Marte. Kepler ebbe lo scatto d’ingegno che gli consentì di liberarsi dalla sterile perfezione del calcolo degli epicicli e insieme dare un grande contributo alla nascita della scienza moderna: egli prese la decisione di considerare delle orbite ellittiche invece che circolari. Questa scelta consentì a Kepler di semplificarsi di gran lunga la vita grazie a calcoli molto meno complicati, con il risultato che la qualità delle predizioni non migliorò rispetto a prima, ma neanche peggiorò visibilmente. La mossa di Kepler aveva insomma delle motivazioni puramente estetiche ma allo stesso tempo, poiché il suo modello semplificato non era automaticamente applicabile, per puro effetto della matematica, a qualsiasi traiettoria, egli entrava direttamente nel merito del sistema studiato apportando un contributo effettivo di conoscenza. Prima o poi (meglio prima) anche noi dovremo rischiare e abbandonare i nostri modi di pensare, i nostri paradigmi esplicativi, e li do128 Troppo esatto per essere vero (Overfitting/Sovradeterminazione) vremo abbandonare perché sono troppo potenti e quindi immodificabili. Il gruppo di Rzhetsky ci ha mostrato in maniera chiara come una sorta di «cascata informativa» tenda a rovesciarsi su ogni nuova potenziale scoperta. Quando esploriamo nuovi territori abbiamo l’insopprimibile tendenza a orientarci secondo mappe già note, orientandoci lungo le prospettive derivanti dai lavori precedenti. C’è l’idea che se riusciamo a riconoscere «il già visto» o quantomeno qualcosa che lo ricordi, nel nuovo territorio di osservazioni, possiamo utilmente utilizzare la nostra esperienza per controllare il nuovo spazio. Questa della ricerca di analogie è una molla potentissima dell’animo umano e nella stragrande maggioranza dei casi porta a strategie di successo. Ma nella scienza odierna potremmo essere arrivati ad uno di quei momenti (rari ma cruciali, come abbiamo visto nel caso di Kepler) in cui questo modo di procedere risulta dannoso. NOTE I temi trattati in questo capitolo sono in parte presentati in La science a-t-elle un avenir?, un articolo pubblicato dalla rivista “Alliage” diretta dal fisico e filosofo francese Levy-Leblond al numero 61 nel dicembre 2007, a firma «Gruppo Scienza Semplice», di cui fanno parte gli autori di questo libro e altri amici e colleghi che condividono la loro impostazione, tra cui Carlo Modonesi, autore della presentazione all’edizione italiana. L’articolo allarga la prospettiva del problema della sovradeterminazione alle sue conseguenze etiche e ha avuto una storia molto travagliata attraverso differenti editori, che dimostra una certa scomodità ed eterodossia delle tesi sostenute. 1 A. Rzhetsky et al., Microparadigms: chains of collective reasoning in publications about molecular interactions, in «Proc. Natl. Acad. Sci. USA», 103 (2), 2006, pp. 49404945. 129 Capitolo ottavo STILI SCIENTIFICI: PRIMI ELEMENTI DI UNA CRITICA SCIENTIFICA La scienza si costruisce con i fatti, né più né meno di come una casa si costruisce con le pietre; ma un cumulo di fatti non costituisce la scienza così come un cumulo di pietre non è una casa. Henri Poincaré Di molte attività umane (anche complesse e difficili da padroneggiare) esistono esperti e «conoscitori» che, pur non in grado di eseguire personalmente tali attività, riescono ad apprezzare le differenti gradazioni e livelli di eccellenza di tali attività. Questi esperti giocano un ruolo vitale, anche se controverso e non esente da critiche, nel collegare il campo specifico al resto della società. Questo è il caso degli esperti di arti figurative e di letteratura, dei critici cinematografici e teatrali, dei giornalisti sportivi, degli esperti di gastronomia, dei valutatori delle attività economiche come consulenti e agenzie di «rating». La mancanza di questo genere di esperti nella scienza è un fatto notevole ed è alla base di alcune patologie della comunità scientifica che stanno divenendo sempre più evidenti. La proposta di ciò che potrebbe servire come base per la nascita di una «critica di scienza» da parte di persone non direttamente coinvolte nell’attività scientifica vera e propria è uno degli scopi primari di quest’opera e si collega strettamente a ciò che nel primo capitolo chiamavamo «la semplicità alla Michael Jordan». Una tale critica potrebbe essere utile sotto molti aspetti: ad esempio potrebbe aiutare per una migliore allocazione delle risorse nella ricerca, ma anche a promuovere la nascita di idee realmente innovative attraverso la fertilizzazione reciproca di diversi campi di indagine. Nei capitoli precedenti abbiamo implicitamente accennato ai lineamenti di ciò che potrebbe costituire una sorta di giudizio estetico delle scienze attraverso la disamina di alcuni elementi di stile del 131 L’ordine della complessità fare scientifico sottolineando le scelte esteticamente gradevoli (e quindi efficaci) ma anche le cadute di tono. Ora cercheremo di essere più espliciti traendo vantaggio dalla nostra esperienza di «nomadi scientifici» con alle spalle soggiorni più o meno lunghi in diversi territori dell’impresa scientifica, dalla matematica applicata fino alla chimica e alla psicologia. Chiaramente, come qualsiasi onesta critica d’arte, non abbiamo alcuna intenzione di essere né obiettivi né generali. Ogni critica onesta è per definizione partigiana e parziale prendendo le mosse da una specifica visione del mondo e quindi dell’arte. Insomma, possiamo (e dobbiamo) essere fieri del carattere personale delle nostre posizioni estetiche, con lo scopo anche di stimolare il dibattito e – perché no? – spingere altri «esperti» a dissentire dalle nostre posizioni e ad assumere diverse linee interpretative. Come indicato dallo stesso titolo del libro, la nostra linea di pensiero si può sintetizzare come «semplicità senza semplificazioni», intendendo con tale espressione la ricerca di uno stile di condotta il più possibile chiaro ed essenziale, scegliendo i modelli che consentono di ridurre il più possibile il ricorso alla matematica. Nel contempo dovremmo avere chiaro in mente che lo studio dei sistemi complessi, il luogo dove sembra si sia spostato l’intero accampamento della scienza, non è certo il posto ideale dove trovare leggi definitive e generali, per cui questa riduzione all’essenziale si dovrà sempre intendere come economia descrittiva e mai come pretesa di stilare improbabili «teorie del tutto». Per la nostra proposta di critica estetica delle scienze ci concentreremo sugli aspetti procedurali piuttosto che sul contenuto dei diversi pezzi di scienza. Questo è a nostro parere un punto importantissimo: ogni critica scientifica dovrebbe essere il più possibile indipendente dal contenuto e concentrata sul modo con cui lo scienziato presenta le sue tesi. Questo chiaramente non vuol dire che la scienza sia un affare principalmente procedurale e che con un buon mestiere si possa spacciare di tutto; al contrario siamo fermamente convinti che il contenuto specifico di ogni piccolo elemento di scienza sia la cosa più importante, ma proprio per questo motivo, la possibilità che il valore intrinseco di questo contenuto sia valutabile e quindi contribuisca al bene comune sia in termini spirituali che materiali dipende strettamente dalla sua appetibilità, dai suoi valori estetici. Gli argomenti di cui negli anni la scienza si è occupata, così come l’arte, sono stati per larga parte det132 Stili scientifici: primi elementi di una critica scientifica tati da interessi esterni alla scienza e legati a varie committenze sociali. Di conseguenza lo scienziato, così come l’artista, si trova a soddisfare le esigenze del committente attraverso la sua maestria. Sarà dei canoni di questa maestria che qui discuteremo in maniera non dissimile da come un’agenzia di valutazione economica considererà lo stato di salute di un’azienda dalla sua disponibilità di cassa, dall’allocazione delle risorse, dalla presenza sul mercato, senza considerare cosa effettivamente questa azienda produca ma valutando in che misura la sua organizzazione generale è consona all’obiettivo dichiarato. Questa impostazione procedurale è spesso assente o presente solo in minima parte nel classico processo di peer review (revisione tra pari), il tipo di valutazione utilizzato nella comunità scientifica, dove i giudici di un «pezzo» di scienza presentato sotto forma di articolo scientifico sono persone che non solo fanno lo stesso mestiere dell’autore, ma si occupano spesso proprio degli stessi argomenti. Si pensi a cosa accadrebbe se i film fossero visti e giudicati solo da altri attori e registi, o se le canzoni fossero ascoltate solo dai cantanti; tra l’altro, non da attori, registi e cantanti indipendenti, ma da attori che magari avrebbero voluto far parte del cast, registi che avrebbero voluto girare proprio quel film, cantanti con medesima impostazione e stile artistico. Un tale sistema di valutazione diventerebbe sempre più auto-referenziale e rischierebbe di impaludarsi in argomenti (canoni, stili) considerati «meritevoli» dalla ristretta comunità di valutatori, o magari da alcuni leader di questa comunità più influenti degli altri. Il giudizio di questi addetti ai lavori produrrebbe sempre gli stessi risultati, magari fino a quando l’adesione a una nuova moda da parte di un leader non imponesse una nuova legge a cui conformarsi per valutare ed esprimere il giudizio. Questo è esattamente quanto sta accadendo alla scienza contemporanea, un fenomeno che gli epistemologi chiamano «Effetto proteo», con degli effetti devastanti sull’efficacia della ricerca1. Ecco quindi perché di «critica indipendente» della scienza forse è il caso di iniziare a discutere. Esiste un apparente paradosso economico nella ricerca scientifica: quando uno degli autori di questo libro (A.G.) pubblicò il suo primo lavoro scientifico in una rivista peer reviewed corse subito a comunicare la bella notizia al padre, che a sua volta gli disse «ottimo! Quanto ti hanno pagato per questo articolo?». Il figlio rimase di sasso e spiegò pazientemente al padre che i giornali scientifici non pagano per gli ar133 L’ordine della complessità ticoli, anzi, al contrario spesso sono gli autori che debbono pagare una certa quota per ogni pagina pubblicata. Al che il padre concluse «bè, ma questo vuol dire che i vostri articoli non sono poi così importanti, chiunque può veder pubblicate le sue idee se paga». Il padre di A.G. non era uno scienziato ma un avvocato, e il suo modo di ragionare era assolutamente legittimo in tutto il mondo reale, con l’unica eccezione della scienza (N.B.: l’unica stupefacente e gloriosa eccezione a questo strano atteggiamento del mondo scientifico che abbiamo incontrato nella nostra carriera è stata la volta che siamo riusciti a pubblicare un articolo sulle prestigiose “Chemical Reviews” che ci pagarono un onorario complessivo di circa ottocento dollari da spartirsi tra i sei autori. In questo modo al nostro articolo veniva espressamente attribuito un valore economico al pari di altri autori che scrivono su argomenti non scientifici). Nonostante questa singolare attitudine, la scienza è parte del mondo capitalistico, ma allora se gli articoli scientifici non meritano di essere pagati dalle riviste che li ospitano e anzi agli autori si richiede un contributo per la pubblicazione, questo significa una cosa sola: gli articoli scientifici sono, da un punto di vista strettamente economico, delle inserzioni pubblicitarie. Infatti questo è ciò che onestamente alcuni giornali come i “Proceedings of National Academy of Science (PNAS)” dichiarano per ogni articolo pubblicato (... this must be considered an advertisement...). Ma se le cose stanno così, che cosa pubblicizzano gli articoli scientifici? Bè, se escludiamo gli articoli riguardanti risultati di nuove terapie o di nuovi dispositivi che vengono utilizzati dalle ditte che hanno commissionato gli studi per propagandare i propri prodotti le cui qualità vengono descritte negli articoli stessi, la risposta è: gli oggetti della pubblicità sono gli autori stessi dell’articolo che, riuscendo a pubblicare e quindi a superare il filtro della peer review, dimostrano ai loro colleghi di avere un’elevata reputazione scientifica e così aumentano le loro possibilità di accedere ai fondi per la ricerca. Allo stesso tempo il loro ego viene sicuramente soddisfatto e blandito... ma questa non è proprio l’idea che i non addetti ai lavori hanno degli scienziati! Ciò che impariamo a scuola è che ogni pezzo di scienza è magari un piccolo ma importante passo verso l’inesorabile avanzamento della conoscenza, e quindi il raggiungimento di una vita migliore per tutti. Questa mitologia di stampo ottocentesco è ancora così pervasiva che, nel 2006, quando un famoso scienziato venne accusato di molestie 134 Stili scientifici: primi elementi di una critica scientifica sessuali ai danni della figlioletta di dieci anni di un suo collega – un crimine unanimamente considerato efferato e che non trova («giustamente» aggiungeremo noi) alcuna comprensione nell’opinione pubblica – per il solo fatto che a commetterlo fosse stato uno scienziato famoso, impegnato in quello che veniva considerato un progetto utile alla salute, si formò un vasto movimento per il suo perdono, suggerendo che egli potesse scontare la sua pena continuando il suo lavoro per il bene di tutta l’umanità2. Anche noi siamo fermamente convinti che le scoperte della scienza, di cui gli articoli scientifici sono la forma di presentazione e, di fatto, l’unico riscontro materiale nell’immediato, contribuiscano sul lungo periodo al generale avanzamento della conoscenza, che, se ben utilizzato dalla società, si traduce in indubbi miglioramenti del vivere. Ma intanto ciò non provoca ipso facto una santificazione dello scienziato, che è un peccatore come qualsiasi altro essere umano, e come ogni altro essere umano ha la possibilità di fare un immenso bene ai suoi simili. Passando ai risultati scientifici, delle loro conseguenze sul «bene dell’umanità» o anche semplicemente «sull’avanzamento delle conoscenze», si può giudicare solo in termini molto generali ed ipotetici. Valutare nell’immediato la rilevanza del singolo articolo scientifico, poi, è di fatto impossibile, anche perché il beneficio effettivo non dipenderà tanto dalla validità della scienza lì racchiusa quanto dall’uso che se ne farà: e questo chiaramente è al di fuori della portata di ogni possibile speculazione. Chiunque si immagini di valutare l’impatto della scienza sulla società nel momento in cui la scienza stessa viene generata di solito si presta solo ad un’iniziativa più o meno velata di marketing. Differente è il caso della tecnica che può (e aggiungeremo noi, «deve») essere sottoposta ad un vaglio critico sulla sua rilevanza sociale nel momento in cui si affaccia sulla scena del mondo. Qui però stiamo parlando di scienza, del confine fra il noto e l’ignoto, di ancora dubbia e peregrina applicazione, stiamo parlando di speculazione sul possibile, convinti, da inguaribili ottimisti, che l’odierno abbaglio della «tecnoscienza» – cioè di una sostanziale indistinguibilità degli aspetti conoscitivi e industriali – sia una patologia passeggera. La nostra proposta è allora molto più modesta ma sicuramente più fattibile, rispetto a quella positivista del «bene dell’umanità», e si basa sull’analogia tra arte e scienza che abbiamo cercato di mettere in luce in tutto questo libro, la proposta suona più o meno così: «un pezzo di 135 L’ordine della complessità scienza rilevante è un pezzo di scienza bello, indipendentemente dalle sue future applicazioni. Se un pezzo di scienza soddisfa il senso estetico del lettore (ascoltatore, utilizzatore) riuscendo a stimolare il suo senso critico ed evocando nella sua mente sentieri nuovi e prospettive inusitate, allora questo è un bel pezzo di scienza». Chiaramente non pensiamo esistano ricette infallibili per raggiungere l’ideale di bellezza descritto sopra, tenteremo però di dare qualche indicazione che, a nostro parere, può essere utile per discriminare i capolavori da pezzi decisamente meno importanti... insomma un inizio per cominciare ad affinare il gusto. Per fare ciò ci riferiremo a tre tipologie principali di pezzi scientifici. – Lo studio descrittivo. Questo genere di lavori è l’analogo dei grandi cicli di affreschi, che decorano le cupole e le mura delle Chiese o i soffitti dei palazzi antichi. Esattamente come nei grandi affreschi dove accadono un sacco di cose contemporaneamente e l’occhio è catturato da molteplici particolari, anche in questi studi ci si presentano una moltitudine di stimoli ed elementi di conoscenza. Gli studi di espressione genetica differenziale (i cosiddetti microarray), di proteomica, di metabolomica, sono i più comuni rappresentanti ai nostri giorni di questa particolare forma di scienza. In questi lavori siamo di fronte a migliaia di differenti variabili (geni, proteine, metaboliti, interazioni fra macromolecole) che ruotano attorno ad un tema di base del tipo «la discriminazione di pazienti che soffrono di una certa malattia dalle persone sane» o «la caratterizzazione di un dato tipo cellulare». Questo tema può essere trattato in due maniere: a) il modo «barocco», in analogia con i grandiosi affreschi delle Chiese e dei palazzi del Seicento come il bellissimo Trionfo dei Barberini di Pietro da Cortona nel palazzo Barberini a Roma (figura 8.1); b) il modo «medievale» che ha una delle sue massime espressioni negli affreschi di Giotto della basilica di san Francesco ad Assisi (figura 8.2). Nel primo modo il tema specifico è una pura occasione contingente per rappresentare una sovrabbondanza di spunti e sensazioni, la vita nelle sue innumerevoli manifestazioni, che avvengono simultaneamente; nel secondo modo lo svolgimento è invece molto più legato al tema, che si sviluppa in una sequenza di scene legate da un ordine temporale ben scandito. Entrambi i modi sono validi se riescono a rendere la sostanziale 136 Stili scientifici: primi elementi di una critica scientifica 8.1. Il Trionfo dei Barberini, Roma, Palazzo Barberini, Pietro da Cortona. 137 L’ordine della complessità 8.2. Vita di Francesco, Giotto, Basilica di san Francesco, Assisi. unitarietà della rappresentazione: il convergere delle molteplici e simultanee sfaccettature del mondo in un unico «vortice», negli affreschi barocchi, la coerenza di una storia in quelli medievali. Trasportando questi modi al caso dei microarray, un bel lavoro barocco sarà un lavoro che, prendendo spunto da un certo insieme di dati, ci mostrerà le strutture di correlazione che uniscono le decine di migliaia di geni in un unico «vortice» che in questo caso saranno le poche (quattro o cinque) componenti principali che rendono conto dell’attività dell’intero insieme di geni. Un bel lavoro in stile «medie138 Stili scientifici: primi elementi di una critica scientifica vale» sarà un lavoro in cui la discriminazione fra sani e malati si ripresenterà a più riprese, per diversi gruppi di geni, con la stessa forma ripetuta a differenti livelli di definizione e quindi collegando e portando ad unità meccanismi apparentemente diversi. Il rischio più grave degli studi descrittivi è senza dubbio quello della sovradeterminazione (overfitting). Avendo a disposizione migliaia di variabili si può discriminare qualsiasi cosa per puro effetto del caso gli autori quindi, per non cadere in una patologia del genere «cicli/epicicli», dovranno usare la massima attenzione per ridurre la dimensionalità del sistema indipendentemente dal compito della discriminazione, che sarà differito a quando il sistema sarà risolto nelle sue poche componenti principali (stile barocco) oppure che dovrà essere dimostrato sempre uguale a se stesso con scelte molteplici e distinte di punti di vista corrispondenti a diverse pesche di geni, scelte con una logica indipendente dalla massimizzazione della discriminazione (geni dell’immunità, geni del metabolismo, ecc.), ma che dovranno non di meno fornire la stessa struttura di discriminazione delle singole unità statistiche, così come le differenti storie raccontate negli affreschi di Giotto ci rimandano una caratterizzazione unitaria di san Francesco. In ogni caso è importante che la soluzione sia internamente consistente, si regga da sola insomma, senza ricorrere troppo spesso a dati di letteratura che giustifichino un certo risultato in virtù del fatto che il gene X è stato dimostrato dal ricercatore Y essere importante in un caso simile al nostro. Oggi, con l’enorme massa di letteratura scientifica che ingombra lo spazio della rete, si può dimostrare qualsiasi cosa con analogie di questo tipo. – Lo studio di simulazione. Questo è, almeno in potenza, il genere di lavoro scientifico più «libero e onesto» di tutti. In linea di princìpio lo scienziato può preparare lo scenario in cui provare la sua ipotesi in una maniera completamente libera da ogni distorsione o inconsistenza, visto che i dati non provengono dalla sperimentazione ma sono generati per via numerica; accidenti come la sovradeterminazione possono essere eliminati a priori dalla scena. Un esempio tipico di questo tipo di lavori si ha nelle simulazioni di sistemi reticolari, molto in voga nel campo della cosiddetta «Systems Biology»3. Tipicamente lo scienziato pone una questione molto generale del tipo «esistono differenti reti di regolazione che generano dei comportamenti indistinguibili fra di loro e quindi risultano equivalenti per l’organismo?». A questo punto egli appronta un software in cui assegna in maniera arbitraria 139 L’ordine della complessità 8.3. Wassily Kandinsky, composizione n. 17. dei nomi biologici alle variabili numeriche e ai parametri liberi della simulazione; dopodiché dichiarerà uno schema di lavoro del tipo: «chiamiamo A, B, ...Z un insieme di geni, le cui relazioni reciproche possono essere di attivazione o di repressione e sono descritte dalla matrice D(i); costruiamo n diverse matrici D(i) che si fanno interagire tramite un algoritmo genetico, la cui funzione di ottimo è massimizzare la resa della proteina P1 che risulta dai prodotti dei geni...». Lo schema così descritto sarà implementato in un programma, calcolato dal computer e, quando il calcolo avrà raggiunto una soluzione stabile, questa soluzione sarà descritta dallo scienziato come la conseguenza necessaria scaturita dalla particolare miscela degli ingredienti utilizzati. Se la soluzione ottenuta ricorda nella forma un fatto di natura noto, la miscela iniziale di ingredienti risulta essere una spiegazione possibile del fatto di natura stesso. L’analogo artistico di questo stile è la pittura astratta di Kandinsky (figura 8.3). Wassily Kandinsky aveva una spiccata sensibilità teorica, i lettori dei suoi trattati4 possono risalire al senso specifico di tutti gli elementi della composizione in maniera non dissimile dalle descrizioni dei parametri degli studi di simulazione. In ogni caso però, l’effetto complessivo della composizione viene giudicato dall’osservatore che, se libero da pregiudizi e da mal riposta soggezione verso la critica («se 140 Stili scientifici: primi elementi di una critica scientifica l’ha fatto un pittore famoso mi deve piacere per forza») può valutare se effettivamente la miscela proposta ha stimolato il suo animo oppure lo ha lasciato freddo. Il rischio sia dell’arte astratta che della simulazione numerica è insomma quello della completa irrilevanza, il punto delicato di questo stile è la connessione che lo scienziato stabilisce tra il suo costrutto e la realtà che vuole simulare, che, nel caso dell’artista, corrisponde alla connessione tra segno grafico o pittorico e sentimento che pretende di evocare. Nel caso della scienza questa connessione si basa su un assunto forte e semplice del tipo «il metabolismo cellulare può essere immaginato come una rete di distribuzione di elettricità». Questa è senza dubbio un’idea suggestiva, che può fornirci5 spunti interessanti su argomenti biologici come la predizione di quali siano, negli organismi unicellulari, gli enzimi la cui mancanza impedisce la crescita. Bisogna però sapere fin dove sia lecito spingersi con la metafora, per cui nonostante l’arguzia della metafora «rete elettrica-rete metabolica» difficilmente potremmo trovare qualcosa come l’analogo della legge di Ohm nel metabolismo. Questi pezzi di scienza, esattamente come nel caso della pittura astratta rispetto a quella naturalistica, sono quindi molto più difficili da valutare, in quanto presuppongono una conoscenza non superficiale sia della realtà che si desidera evocare (metabolismo) che del modello ispiratore (rete elettrica). Per questa ragione dovremmo esigere dallo scienziato una chiara ed esauriente descrizione delle corrispondenze tra modello ispiratore e realtà simulata per tracciare chiaramente i limiti di esportabilità delle conclusioni. – Il nuovo paradigma di misura. Questo tipo di lavoro scientifico diviene immediatamente di moda appena la tecnologia produce un nuovo strumento di misura. Questo è stato il caso del microscopio a forza atomica in biologia strutturale, della risonanza magnetica funzionale nelle neuroscienze, della Polymerase Chain Reaction (PCR) in biologia molecolare e di tanti altri campi di indagine aperti dallo sviluppo di nuove metodiche di indagine o dall’applicazione in un nuovo ambito di uno strumento messo a punto per un diverso campo di indagine. I problemi di questo stile scientifico sono essenzialmente dei problemi di traduzione analoghi a quelli che si incontrano nelle traduzioni di testi poetici da una lingua in un’altra. A differenza che in altri tipi di traduzione qui è essenziale che chi traduce una poesia sia 141 L’ordine della complessità a sua volta un poeta altrimenti il rischio è quello di rovinare completamente dei capolavori; questa è stata l’esperienza di uno degli autori alle prese con due traduzioni italiane delle poesie di John Donne – la prima che ha permesso al lettore di apprezzare un grandissimo genio, la seconda francamente imbarazzante. La peculiarità della traduzione poetica deriva dal fatto che il senso dell’opera non deriva solo dal significato delle frasi ma dalle risonanze che evoca nel lettore la frase in quanto tale e quindi dalle suggestioni di prospettive differenti evocate dalla giustapposizione delle parole, dalla scelta dei termini, dalla metrica del verso. Si tratta di piste solo accennate nel testo, che si sprigionano compiutamente solo attraverso la lettura (questo è il motivo per cui la poesia può essere letta e riletta infinite volte scoprendo ogni volta qualcosa di nuovo a differenza della prosa) e che mutano da lettore a lettore. Rendere gli stessi effetti in un’altra lingua impone che il poeta-traduttore abbia sentito lui stesso queste risonanze e che le riproponga al lettore con uno strumento linguistico differente, che riscriva insomma un’altra poesia ispirata dalla lettura della prima. Lo stesso accade quando nell’applicazione di uno strumento di misura si cerchi di tradurre un determinato osservabile fisico in un’entità concettuale che l’osservabile fisico è supposto rappresentare. Nei casi di routine questa traduzione è obbligata e si trova già pronta, per cui, quando misuriamo la febbre con un termometro a mercurio, la traduzione dalla legge di dilatazione termica dei metalli (l’osservabile fisico alla base del funzionamento degli usuali termometri che si comprano in farmacia) alla presenza di un’alterazione febbrile è data da una venerabile esperienza di misurazioni pregresse e si situa al superamento dei 37 gradi centigradi, il che chiaramente non provoca difficoltà di sorta e non ci consente di immaginare di fare scienza ogni volta che ci mettiamo il termometro sotto l’ascella. Differente è il caso della risonanza magnetica funzionale dove ci avventuriamo in una traduzione «senza rete» tra la concentrazione relativa di emoglobina ossidata in una certa area del cervello (la grandezza fisica effettivamente osservata) e il fatto che in quell’area del cervello stia avvenendo l’elaborazione di una certa informazione (entità concettuale inferita). Il rischio è che l’ipotesi semplificante alla base della traduzione (variazione di emoglobina ossidata – metabolismo più attivo – maggiore attività neuronale – processo mentale in corso) non tenga conto delle miriadi di significati alternativi, risonanze, effetti spuri che, in analogia con la poesia, si sovrappongono alla semplice trasposizione del si142 Stili scientifici: primi elementi di una critica scientifica gnificato immediato. Potremmo pensare che la stessa misura possa derivare da artefatti di movimento, balzi pressori, alterazioni del microcircolo, particolari anatomici, e via di questo passo. Insomma, il rischio di questo genere di studi è di fare dei parallelismi ingiustificati tra piani diversi di rappresentazione. Gli antidoti con cui possiamo cercare di minimizzare questo rischio sono legati ad un uso intensivo e in parte maniacale della statistica, e in ogni caso tentare di mantenere il profilo più basso possibile considerando le nostre misure come «segni indiretti» della grandezza di interesse e non come una sua misura quantitativa, almeno fino a quando un legame necessario e duraturo tra la misura e la grandezza di interesse non si venga a stabilire (i chimici potranno ad esempio pensare alla legge di Lambert e Beer per la spettroscopia). È importante rimarcare come il nostro scopo non sia quello di dimostrare come l’arte e la scienza siano la stessa cosa. Al contrario esortiamo il lettore a diffidare di chi troppo spesso invoca il carattere «artistico» di certe attività scientifiche: si tratta spesso molto più semplicemente di settori della scienza non ancora ben compresi, in cui la soggettività dello scienziato non ha ancora trovato il modo di esprimersi attraverso un canone di regole condiviso. Dove l’arte e la scienza sono effettivamente ancora indifferenziate si trova un territorio che le precede entrambe ed è il territorio dell’«immaginazione». Einstein amava ripetere che «l’immaginazione è più importante della conoscenza», intendendo dire che, mentre l’immaginazione implica un’espansione della nostra visuale, la conoscenza impone dei vincoli che restringono la stessa visuale. L’immaginazione artistica e l’immaginazione scientifica sono probabilmente la stessa cosa, o quanto meno operano la stessa azione di generazione di mondi possibili. La resa tecnica delle conseguenze di questa immaginazione è poi nei due casi vincolata al soddisfacimento di canoni e regole che ne consentono la traduzione in uno specifico pezzo artistico o scientifico. Queste regole sono differenti per l’arte e la scienza ma, operando sullo stesso materiale (immaginazione) e con lo stesso scopo (la produzione di un pezzo singolo riconoscibile) hanno sicuramente delle similitudini che in questo capitolo abbiamo tentato di illustrare. La costruzione di un gusto condiviso da parte di «critici scientifici» può essere di aiuto allo sviluppo scientifico; quanto più il numero di questi critici è alto, tanto più grande è insomma il pubblico di intenditori. Viceversa, la creazione di una cerchia elitaria di pochi critici, 143 L’ordine della complessità che decidono cosa possa chiamarsi «buona scienza» e cosa no, sarebbe qualcosa di assolutamente deleterio e non dissimile dall’odierno sistema di peer review, anzi forse ancora più insopportabile e di limitati orizzonti. Abbiamo avuto prova di ciò nell’arte figurativa e nella musica «colta»: entrambe in epoca contemporanea hanno assistito all’esaurirsi progressivo del loro ruolo sociale per rinchiudersi in un circolo auto-referenziale. Ci auguriamo quindi che il gusto per la contemplazione di un bel pezzo di scienza possa diffondersi al di fuori delle minuscole cerchie di addetti ai lavori, per garantire all’attività scientifica il respiro che solo il confronto continuo con l’esterno assicura. NOTE 1 Nel bellissimo articolo del 2005 dal titolo Early extreme contradictory estimates may appear in published research: The Proteus phenomenon in molecular genetics research and randomized trials, in “Journal of Clinical Epidemiology”, 58(6), pp. 543-549, gli autori Ioannidis e Trikalinos mostrano delle impressionanti statistiche sul progressivo decadimento di risultati che, inizialmente considerati sbalorditivi, con il tempo e il conseguente accumularsi di lavori scientifici sull’argomento di ricercatori attirati dalla «moda del momento» si ritrovano ad essere in realtà degli «abbagli» e ad essere drasticamente ridimensionati. La metafora di Proteo è strettamente legata a quel procedimento inconsapevole per cui adattiamo ogni immagine esterna ai nostri desideri e pre-concetti (si veda a proposito N. Yee, J.N. Bailenson, The Proteus Effect: Self transformations in virtual reality, in “Human Communication Research”, 33(2007)) Un altro articolo molto interessante su questa patologia della scienza contemporanea, anche se necessita di un certo grado di sofisticazione statistica per essere apprezzato, è J.P. Ioannidis, Why Most published research findings are false, in “Plos Medicine” 2(8)(2005), p. 124. 2 Chi fosse interessato a questa triste vicenda può consultare http://www.the-scientist.com/news/display/23996/. 3 La biologia dei sistemi o «Systems Biology» segna la presa di coscienza della crisi del progetto di ricerca della biologia molecolare. Per capire qualcosa dell’immenso mare di dati prodotti dalla ricerca molecolare si avverte la necessità di costruire degli schemi di «funzionamento generale» che permettano di prevedere le proprietà emergenti collettive (sistemiche appunto) delle intricate reti di regolazione che i biologi hanno accumulato negli ultimi venti-trenta anni. Per tentare di fare ciò ci si riferisce alla tradizione dell’ingegneria dei sistemi, l’articolo inaugurale di questo filone di ricerca può forse essere considerato H. Kitano, Systems Biology: A Brief Overview, in “Science”, 295(2002), pp. 1662-1664. 4 Abbiamo già citato il fondamentale Lo Spirituale nell’Arte di Wassily Kandinsky (Editore SE), un altro libro interessantissimo è, sempre di Kandinsky, Punto, Linea, Superficie, edito da Adelphi. In entrambi questi trattati, in modo più generale nel 144 Stili scientifici: primi elementi di una critica scientifica primo, più specifico nel secondo, si cerca di stabilire una connessione tra colori o segni grafici ed emozioni. Circa ottanta anni dopo le teorizzazioni di Kandinsky, la neurologia e la psicologia sembrano confermare le intuizioni del pittore russo. 5 Le conseguenze di questa analogia sono discusse in: M.C. Palumbo, A. Colosimo, A. Giuliani, L. Farina, Functional Essentiality from Topology features in metabolic networks: a case study in yeast, in “FEBS Letters”, 579(2005), pp. 4642-4646 e anche in M.C. Palumbo, A. Colosimo, A. Giuliani, L. Farina, Essentiality is an emergent property of metabolic network wiring, in “FEBS Letters”, 581(13)(2007), pp. 2485-2489. 145 Capitolo nono PROBABILITÀ E DETERMINISMO Dio non gioca a dadi con l’universo – Albert Einstein. Albert, piantala di dire a Dio cosa deve e non deve fare. Niels Bohr Non solo Dio gioca a dadi con l’universo, ma qualche volta tira i dadi dove non riusciamo a vederli. Stephen Hawking Uno dei temi di fondo dei capitoli precedenti è stato il riconoscimento dei molteplici fallimenti a cui vanno incontro i modelli scientifici deterministici quando si scontrano con la realtà dei fatti. In questi casi preferiamo allora ripiegare su dei modelli probabilistici, nei quali le proprietà studiate hanno un valore esclusivamente statistico, valido su base di popolazione, ma che non permettono di determinare esattamente il comportamento della singola unità. Questo accade praticamente sempre nelle scienze biologiche e sociali. Sebbene il determinismo sia nato con la filosofia greca, i suoi inizi moderni su basi quantitative si possono far risalire alla famosissima (e disgraziatissima) frase di Laplace: «noi dobbiamo considerare lo stato attuale dell’universo come l’effetto dei suoi stati precedenti e la causa dello stato a seguire. Un’intelligenza che conoscesse tutte le forze che agiscono in natura ad un determinato istante, così come le posizioni istantanee di tutti gli enti costituenti l’universo, potrebbe raccogliere in una singola formula i movimenti dei corpi più grandi così come quelli degli atomi più leggeri, solo che fosse provvista di un intelletto sufficientemente robusto da sottoporre ad analisi tutti questi dati: a questa intelligenza niente del futuro sarebbe incerto, il futuro così come il passato sarebbero presenti allo stesso momento di fronte ai suoi occhi. La perfezione che la mente umana è stata capace di raggiungere nelle previsioni astronomiche non è che una pallidissima eco di una tale intelligenza» (Laplace 1820). 147 L’ordine della complessità Il princìpio sotteso alla frase è quello dell’esistenza di una forza divina onnisciente: la mente umana non potrà mai raggiungere neanche lontanamente tale livello di perfezione. In questo ambito Laplace (tra l’altro cultore di calcolo delle probabilità) vuole affermare l’impossibilità di una predizione esatta dei fenomeni naturali. Ciononostante, come spesso accade, per motivi strettamente ideologici funzionali all’idolatria scientifica (nell’epoca di Laplace iniziano i tempi bui del positivismo trionfante), una frase che suggerirebbe l’impossibilità di perseguire il sogno del «controllo totale» è stata invocata per sottolineare la possibilità implicita (anche se sul lungo periodo) di ottenere una tale forma di conoscenza definitiva. Da allora in poi ogni «progresso scientifico» fu più o meno apertamente considerato come un passo verso la direzione di tale «controllo totale». Il fascino pervasivo di questo sogno di potenza che gli antichi Greci chiamavano uvbri" (hubris, che significa violenza derivante da una esagerata stima delle proprie possibilità), unito con l’implicazione sviluppata in maniera magistrale dalla tragedia classica che questo sentimento sia foriero di terribili catastrofi, ha contaminato praticamente tutti i campi della scienza. Proprio come in una tragedia di Sofocle, gli orrori prodotti dalla uvbri" scientifica e tecnologica sono di fronte a noi: il colonialismo, il razzismo, l’eugenetica, le catastrofi ecologiche, lo scempio del paesaggio, il cambiamento climatico globale, fino alla tristezza pervasiva dei cittadini europei contemporanei. La forza di questo sogno è stata così grande da far dimenticare a molti scienziati che le acquisizioni più importanti della scienza del XX secolo hanno dato il messaggio diametralmente opposto al sogno del controllo totale: il lavoro di Poincarè in dinamica, che dimostra l’impossibilità di prevedere con esattezza la stabilità di un sistema formato da più di due corpi, il teorema di Gödel in matematica, lo sviluppo della fisica dei quanti. Tutti questi capolavori scientifici hanno dimostrato, da diverse prospettive, l’intrinseca impossibilità del sogno (incubo) del controllo totale. Ancora oggi l’ossessione deterministica continua a spuntare dagli angoli più impensati: per esempio, la cosiddetta «teoria del caos» è una teoria ferocemente deterministica, in cui la probabilità è confinata alla nostra conoscenza incompleta (figura 9.1). L’incapacità di prevedere alla perfezione la traiettoria di un sistema deriverebbe solamente dall’impossibilità di conoscere con assoluta precisione le condizioni iniziali. 148 Probabilità e determinismo 9.1. L’attrattore di Lorenz è forse il paradigma più noto di caos deterministico: piccole fluttuazioni nella rappresentazione numerica di un sistema di equazioni differenziali trasformano una soluzione unica in un intreccio di differenti orbite che impediscono una precisa determinazione del sistema. In ogni caso, il paradigma del caos deterministico dà per scontato che qualsiasi comportamento trovato in natura sia «prodotto» (attenzione, non «approssimato», «descritto», «evocato», «rappresentato») da un’equazione soggiacente. Il sogno del controllo perfetto è stato alimentato dai successi della fisica, accumulatisi fino alla fine del XIX secolo e all’inizio del XX. Dall’epoca di Newton fino a tutto l’Ottocento gli scienziati riuscirono a sviluppare equazioni differenziali, che riuscivano a prevedere con sorprendente accuratezza le dinamiche di vari sistemi fisici. Ciò che venne sottovalutato è che questa accuratezza era un abbaglio forte149 L’ordine della complessità mente dipendente dalle scale di misura adottate. La teoria della relatività di Einstein chiarì che le leggi del moto di Newton non erano infinitamente ma accettabilmente accurate all’interno di una certa scala di definizione. Infatti, quando le scienze fisiche si rivolsero alle scale microscopiche di osservazione (per esempio leggi dei gas, meccanica quantistica), dovettero gioco forza risolversi per un approccio di tipo statistico. L’unico determinismo possibile fu il determinismo della legge dei grandi numeri, in cui le caratteristiche medie di enormi popolazioni di eventi singoli mostravano delle caratteristiche fortemente invarianti. Ma questo genere di determinismo era di natura completamente diversa dal sogno alchemico di trovare la spiegazione ultima di tutte le cose al loro livello fondamentale; era al contrario una dichiarazione di umiltà (curiosamente simile al princìpio del filosofo francescano medievale Duns Scoto, che aveva intuito l’inconoscibilità degli elementi singoli e il carattere forzatamente statistico della nostra conoscenza) sull’impossibilità del raggiungimento del controllo totale sul singolo elemento individuale, per accettare l’inevitabilità di una conoscenza approssimata a livello di popolazione. Il carattere statistico della conoscenza scientifica è ancora più evidente nelle scienze biologiche e sociali. Mentre i sistemi fisici, se non altro, possono essere almeno «isolati» e quindi studiati in condizioni in cui, in prima approssimazione, possono essere considerati come separati dal loro ambiente, questo è praticamente impossibile per i sistemi biologici e sociali. La confusione tra queste due differenti sfere spesso è provocata dalla matematica utilizzata per costruire modelli e fare predizioni di funzionamento. La matematica opera su oggetti «mentali» (concetti costruiti dall’uomo, astrazioni) ottenendo risultati riproducibili e dimostrabili, mentre la scienza opera con oggetti che derivano dal mondo esterno. I successi dell’applicazione della matematica alla scienza derivano dalle frequenti coincidenze tra il mondo della mente e il mondo fisico. Il mondo, insomma, non è «matematico», ma è l’uomo che spesso riesce a costruire una rappresentazione efficace del mondo utilizzando la matematica, e in questo modo riesce a cogliere dei particolari ripetibili e ricorrenti della realtà. Quindi, un modello matematico di un fenomeno fisico ben conosciuto (immaginiamo la precisione della predizione delle orbite dei pianeti) di fatto è una sua rappresentazione, però a noi appare come una necessaria conseguenza dell’esistenza in natura di qualcosa di simile al formalismo matematico da noi utilizzato. 150 Probabilità e determinismo Se però le regole rappresentative di un certo insieme di eventi nel mondo fisico non sono più note a priori (come nel caso della gravità o di altre leggi fisiche), ma devono essere derivate dall’osservazione generando quindi delle stime di massima verosimiglianza, allora siamo nel campo della probabilità e della statistica che, al contrario della matematica, è fortemente dipendente dal mondo fisico. La pura applicazione della logica non ci porta da nessuna parte, e dobbiamo introdurre l’idea di «variabili casuali», di grandezze cioè che assumono valori che, anche se a livello di popolazione possono essere stimati con un grado di incertezza potenzialmente irrisorio, a livello individuale rimangono assolutamente incontrollabili. Insomma, la statistica è il modo più naturale con cui costruire modelli scientifici, poiché è direttamente dipendente dagli oggetti fisici analizzati e non dalle loro rappresentazioni ideali. La discontinuità e in qualche modo la reciproca irriducibilità tra oggetti fisici e mentali è stata ampiamente riconosciuta dalla scienza moderna, che ha progressivamente preso atto del fallimento degli sforzi di costruire dei modelli predittivi esatti dei sistemi reali, al di fuori di pochissimi casi. Il riconoscimento di questa «patologia» ha stimolato la ricerca di «terapie» tra cui l’inclusione di «termini di rumore» nelle equazioni utilizzate per modellare i diversi fenomeni. Ma di nuovo, in questi modelli, il rumore è considerato un «rumore ideale», vincolato ad una specifica forma funzionale. Ma noi sappiamo che il rumore reale può avere diverse forme ed entrare nella costruzione della realtà in modi molto variabili fra di loro. La cosa più importante è che le dinamiche dei sistemi reali solo molto raramente possono essere considerate stazionarie, e le relazioni tra le porzioni «deterministiche» e quelle «rumorose» (o stocastiche) cambiano nel tempo. La scienza cerca incessantemente dei «pattern», cioè delle configurazioni ripetibili nel tempo e nello spazio; a sua volta la mente umana spesso costruisce dei «pattern» anche dove non esistono: per questo i modelli scientifici debbono essere costantemente messi alla prova. Non a caso il problema più grande con il concetto di rumore è la tendenza storica a chiamare rumore tutto ciò che non si adegua ad un pattern precostituito, implicitamente ascrivendo al termine rumore il significato di «errore». C’è una sorta di malevolenza verso la natura, che «rifiuta di collaborare» al dominio imposto dalla mente razionale dell’uomo. 151 L’ordine della complessità È consolante considerare come questa folle arroganza nata con il pensiero idealistico rinascimentale – si pensi a Cartesio, che affermava che le particolarità e le differenze sono debolezze della mente e non caratteristiche del mondo, e lo si confronti con la molto più umile (e moderna e realistica) Adaequatio intellectus et rei come criterio di scelta di Tommaso d’Aquino – sia stata stravolta dalla scoperta di questi ultimi anni del fenomeno della «risonanza stocastica». Si tratta di un processo fisico attraverso il quale il rumore amplifica i segnali deboli, rendendo possibile il loro riconoscimento. Questa scoperta promuove un completo rivolgimento nell’atteggiamento degli scienziati rispetto al mondo «là fuori» (peraltro già presente da vari secoli nelle menti scientifiche più aperte), e gli scienziati si trovano ora a chiedere la «collaborazione» di tutta quella miriade di particolari e fatti che sfuggono alla nostra comprensione (rumore), invece di considerarli dei noiosi e malaugurati accidenti che ostacolano il loro sogno di dominio totale e incontrastato. A nostro avviso questa è un’attitudine molto più realistica (e in un certo senso più razionale se togliamo alla parola razionale il suo retrogusto idealistico che la limita molto e ne rovina il sapore) rispetto all’ossessione deterministica, cieca e sorda di fronte ai continui fallimenti a cui la realtà la sottopone. Una concezione alternativa rispetto all’incubo deterministico è che l’universo sia composto da isole di pattern regolari in un mare di rumore o, se preferiamo, un miscuglio di mancanza di determinismo e rumore qui e là complicato da nessi causali (la scelta fra le due formulazioni dipende dal nostro carattere, un pigro sceglierà la seconda, uno studente secchione la prima). Con questa concezione del mondo la probabilità e la statistica diventano gli unici occhiali possibili con cui la scienza possa guardare al mondo, soprattutto per quello che concerne il campo dei cosiddetti sistemi complessi1. Dopo secoli di riduzionismo insomma, gli scienziati, in diversi campi di interesse, si sono rivolti ad investigare come mai il tutto appare di più della «somma delle sue parti», e soprattutto come mai non si conformi docilmente alle nostre costruzioni mentali. Sebbene l’idea di complessità e di emergenza abbia incontrato un certo favore nelle discipline biologiche (quelle paradossalmente più arroccate in una visione riduzionista del mondo), va detto che in questo ambito rimangono ancora molti nodi irrisolti. Il problema più evidente deriva dall’esplosione di dati molecolari (profili di espressione 152 Probabilità e determinismo genica, sequenze di biopolimeri, pattern proteomici...), che ha spinto masse di biologi, seriamente affaticati e sommersi da una valanga di informazione difficilmente gestibile, alla ricerca affannosa di princìpi generali che, in maniera analoga alle «leggi» della fisica, consentissero di rendere gestibile questa valanga di dati. La richiesta è assolutamente legittima e migliaia di ricercatori in tutto il mondo, provenienti dalle più differenti discipline (ingegneria, matematica, fisica, ricerca operativa), propongono soluzioni; quasi tutte queste soluzioni sono però di tipo puramente strumentale, legato alla gestione automatica «intelligente» di grandi masse di dati, in maniera da fornire «diagrammi semplificati» che catturino l’essenziale nascosto all’interno della valanga di dati e lo riportino nella forma usuale di nodi (gli elementi del modello) uniti da archi (le relazioni che li legano). Solo pochi ricercatori2 si pongono però la questione se, passando dal conoscere l’attività di quattro geni alla volta a conoscere quella di quarantamila, il problema più importante sia quello di ritrovare quattro geni importanti per il nostro scopo (in questo caso averne quarantamila serve solo ad essere sicuri che lì in mezzo ci saranno di sicuro quelli giusti, ammesso di trovarli evitando in maniera intelligente le trappole dell’overfitting) oppure se l’enorme aumento della dimensionalità non costringa a porsi delle domande ad un diverso livello di definizione, che non sia più quello del singolo gene ma invece dell’attivazione complessiva di gruppi di geni. Se, cioè, le leggi e i «princìpi ordinatori» non siano semplicemente riducibili a procedure astute di analisi dei dati ma veri e propri princìpi esplicativi situati su un livello sopramolecolare, insomma qualcosa di più simile allo studio dei fenomeni magnetici (che coinvolge l’organizzazione reciproca di molte molecole) che ad un programma di un database relazionale. La questione, oltre ad aver una chiara valenza epistemologica, ha anche delle conseguenze pratiche molto immediate: qualunque strada si intraprenda avremmo bisogno prima o poi di costruire un modello matematico delle nostre osservazioni; il problema qui è dato dal fatto che i modelli matematici che coinvolgono un numero molto grande di dimensioni, tutte prese in considerazione esplicitamente, non solo implicano un grande carico computazionale (e fin qui si tratta di problemi risolubili, almeno entro certi limiti), ma tendono a mostrare una grandissima sensibilità a variazioni anche piccole dei dati. Questo fa sì che piccoli errori crescano a dismisura3, rendendo particolarmente instabili questi modelli. La natura di questi errori, e più in generale la 153 L’ordine della complessità natura del rumore in biologia, dipende dalla possibilità di riconoscere se e quando il rumore può essere considerato come un noioso accidente in linea di princìpio eliminabile (dunque, un vero «errore») oppure una componente essenziale della realtà osservata. A tutt’oggi questo è un nodo lungi dall’essere risolto, tanto più che differenti tipi di rumore albergano a differenti scale di osservazione4. Nel caso scegliessimo la via della statistica, e quindi operassimo una enorme riduzione del dettaglio concentrandoci su osservabili di «grana grossa» corrispondenti a medie prese su un numero molto grande di elementi, saremmo ricompensati dalla perdita di dettaglio, dall’impossibilità di scendere nell’intimo del sistema studiato conservando una grande robustezza dei nostri modelli, che resterebbero praticamente invariati al variare di piccoli dettagli, proprio per il carattere statistico e quindi popolazionale delle osservazioni. Trattare i fenomeni complessi come «emergenti» semplificherà immensamente il lavoro matematico; infatti, come giustamente fa osservare il premio Nobel per la fisica Robert Laughlin nel suo libro Un Universo Diverso, già citato in quest’opera: «l’unico contesto nel quale possiamo prendere spunto da equazioni errate e giungere comunque a risposte corrette è quello di una proprietà decisamente indifferente ai dettagli, vale a dire emergente». Accettare fino in fondo questa prospettiva equivale ad abbandonare il sogno del controllo totale e intraprendere una strada completamente diversa da quella di dominio che la scienza ha in molti casi praticato... insomma non si tratta di dettagli di poco conto5. La ricerca di queste proprietà emergenti, indipendenti dai dettagli, porta con sé lo sviluppo di paradigmi universali che però, a differenza dei paradigmi universali della scienza newtoniana, non pretendono di entrare nell’intimo, nell’essenza delle cose, ma si fermano programmaticamente al loro comportamento rilevabile al particolare livello di osservazione che è stato scelto. L’universalità della statistica risiede nell’osservazione che la distribuzione degli scarti dall’altezza media degli individui di una popolazione ha la stessa forma (e quindi può essere descritta con le stesse funzioni di probabilità) degli scarti dalla media del contenuto di caffeina delle bottiglie di Coca-Cola. A nessuno verrebbe in testa che questa similitudine possa derivare dalla stessa legge meccanicistica che risiede nell’intimo della bottiglia e dell’essere umano. Completamente diverso è il tipo di universalità «essenzialista» perseguito dalle «teorie del Tutto» in fisica, dove l’uni154 Probabilità e determinismo ficazione tra i diversi aspetti del mondo naturale si cerca guardando nel profondo della struttura della materia. Gran parte della terminologia della nuova scienza della complessità come distribuzioni di potenza (power laws), reti scale-free o small-world con cui gli scienziati passano indifferentemente dal descrivere il comportamento di una proteina in soluzione alle liti tra gruppi di amici hanno a che vedere con l’universalità «di superficie», o «fenomenologica», della statistica, piuttosto che con quella «profonda» ed «essenzialista» della fisica teorica tradizionale. L’aver dimostrato che sia una combriccola di amici sia un gruppo di residui aminoacidici limitrofi in una struttura proteica sono descritti da una rete «small-world» non è che ci porti tanto avanti (se ci fermassimo qui il commento migliore sarebbe «... e allora?»). A questo punto il «modellizzatore» ha bisogno dell’aiuto di chi è effettivamente interessato al contenuto del problema, proporgli la sua descrizione come spunto per la fantasia e provare a vedere se questo modo di considerare le cose può far nascere qualche ipotesi da provare sperimentalmente. La rappresentazione matematica non è quindi più il marchio dell’avvenuta «conquista» del particolare fenomeno di natura, al contrario essa riconosce di non essere autosufficiente e chiede di essere riempita di senso. In verità, questa riconquistata umiltà della matematica non è una cosa tanto pacifica. Gran parte degli scienziati sono al contrario convinti, più o meno consciamente, che la matematica riveli qualche misteriosa proprietà universale soggiacente alle osservazioni empiriche. La derivazione della matematica dal pensiero platonico è la causa prima di questa convinzione: la caverna di Platone, che abbiamo imparato a conoscere al liceo, è la casa madre di quei misteriosi animali che chiamiamo «Universali» o «Leggi». Forse però, invece di cercare la casa madre della matematica nella caverna di Platone, faremmo meglio a cercarla da un’altra parte, e precisamente nel cervello umano. Da tempo immemorabile si è dato per scontato che la Logica (o anche più timidamente «una logica») fosse indipendente dal «pensatore» che la metteva in opera: la ragione «corretta» non dipende dalle peculiarità del cervello umano – al contrario essa la trascende e può essere verificata da qualsiasi altro essere umano che «pensi correttamente»6. Solo in tempi piuttosto recenti i neuroscienziati cognitivisti hanno provato a sfidare questo assunto, anche se in maniera indiretta. Mol155 L’ordine della complessità ti studi hanno dimostrato «l’insana passione» del cervello umano per le forme organizzate (patterns) che esso vede anche dove queste non sussistono. Come ha giustamente fatto notare il fisico David Ruelle, la matematica deriva dalla realtà fisica filtrata dal cervello, un po’ come certi sogni per cui una coperta troppo pesante (realtà fisica) si trasforma in qualcuno che ci tiene schiacciati a terra contro la nostra volontà. Insomma, noi facciamo la matematica (e la logica) che facciamo perché il nostro cervello «vede» la matematica nel mondo reale, il che non è ovviamente un male, anzi ci consente di cavarcela in molte situazioni, restringendo drasticamente il campo delle opzioni possibili e rendendo possibili le decisioni. È importante però sapere che la matematica non corrisponde né alla realtà né a qualche misterioso ordine nascosto, ma è semplicemente un modo con cui noi osserviamo il mondo, e quindi è rigidamente dipendente dall’osservatore che la rende possibile. In fisica, anche se spesso gli scienziati lo dimenticano o comunque confinano il problema ad un settore molto limitato della meccanica quantistica, il princìpio di indeterminazione di Heisenberg chiarisce molto bene questa mancanza intrinseca di obiettività dell’impresa scientifica e il ruolo ineliminabile dell’osservatore, per cui la cosa osservata «cambia» a seconda della sua visuale dell’osservatore. Anche se in termini sicuramente diversi rispetto alla meccanica quantistica, pure in biologia l’osservatore agisce come un «filtro» nei confronti della realtà osservata, e parte di questo filtro è mediata dalle caratteristiche intrinseche della nostra attività mentale. Un esempio è la nostra ostinazione a voler ritrovare un «meccanismo», cioè catene lineari di conseguenze che si dipanano nel tempo anche quando sappiamo che la presenza di cicli di retroazione (l’effetto che agisce sulla causa come in qualsiasi meccanismo adattativo) o la contemporaneità di una moltitudine di eventi cha accadono in parallelo rendono poco produttiva la ricerca di sequenze causali lineari. I biologi hanno di fronte a loro il fatto incontrovertibile che i sistemi biologici si trovano a dover coordinare una grande molteplicità di processi simultanei «immersi» in un oceano di rumore. Ciononostante gli stessi sistemi mostrano dei comportamenti molto regolari e ripetibili, ad esempio le sinapsi dei neuroni hanno un altro grado di randomicità e un parallelismo esasperato (le connessioni tra neuroni vanno aldilà della nostra più sfrenata immaginazione), eppure danno vita a messaggi che provocano azioni estremamente ordinate e ripetibili come i movimen156 Probabilità e determinismo ti ritmici del corpo. Insomma, la stocasticità degli elementi costituenti non sembra essere in contrasto con la regolarità dei fenomeni collettivi. La possibilità di una descrizione deterministica di alcuni aspetti del comportamento dei sistemi non ha nulla a che vedere con il loro carattere intimo, che può essere selvaggiamente stocastico. Herbert Simon fece l’osservazione che, quando la mente umana si trova di fronte grandi masse di dati, essa tende a «ripiegare» su un insieme di informazioni molto più limitato su cui basare le proprie decisioni. Una simile tendenza potrebbe essere alla base della ricerca dei «princìpi di base» che, da un punto di vista psicologico, risultano molto più consoni al nostro modo di ragionare rispetto alla contemplazione probabilistica della molteplicità del mondo. Una sfida sicuramente affascinante è provare ad incorporare elementi del pensiero probabilistico all’interno di una linea di spiegazione deterministica. Appurato che sia la regolarità che il «rumore» sono elementi ineliminabili della realtà, potremmo immaginare una sorta di «determinismo a tratti» (piece-wise determinism) come scheletro fondamentale su cui costruire i nostri modelli. Nel primo capitolo avevamo accennato a come il rilassamento delle «condizioni di Lipschitz» per le equazioni differenziali ci consentisse di costruire modelli più realistici di vari fenomeni naturali attraverso la rimozione di alcuni evidenti paradossi e, nello stesso tempo, consentisse di rendere ragione dell’estremo parallelismo dei fenomeni biologici (eventi che accadono simultaneamente)7. L’adozione di un modello di tipo «non-Lipschitz» non ci costringe ad immaginare un attrattore deterministico, un comportamento cioè stabile (o ideale) in cui prima o poi il nostro sistema si troverà «intrappolato», ma una storia infinita di punti di svolta in cui la scelta avverrà in maniera stocastica e largamente indipendente dal cammino passato fatto per arrivarvi e cammini largamente deterministici per spostarsi da un punto di svolta al prossimo. Su scala di popolazione (tanti sistemi dinamici considerati in maniera statistica) ciò darà vita alle usuali distribuzioni statistiche, da cui derivare una conoscenza di popolazione potenzialmente molto precisa. Una dinamica non-Lipschitz o «terminale» può essere utilmente paragonata al funzionamento dei vecchi flipper analogici in cui si alternavano momenti in cui una piccola scossa ben assestata poteva cambiare bruscamente l’esito del gioco (punti di svolta, singolarità) a tristissime corse daterministiche della pallina 157 L’ordine della complessità verso la buca con possibilità di intervento nulle da parte del giocatore (tratti deterministici della dinamica). Il fatto con più profonde implicazioni filosofiche di questo tipo di concezione è che le condizioni iniziali in un sistema «non-Lipschitz» o di «dinamica terminale» sono ad un certo punto dimenticate con una sorta di «amnistia» della natura. Quando il sistema arriva ad un punto di svolta (singolarità), avrà di fronte una distribuzione di probabilità «vergine», sarà insomma in quel momento libero di scegliere in un ventaglio di ipotesi. In quel punto le contingenze, le condizioni al contorno e quant’altro avranno delle carte da giocare, ma virtualmente la strada percorsa per arrivare dalle condizioni iniziali al punto di svolta sarà totalmente irrilevante e il tempo in qualche modo «ricomincerà dalla singolarità». Lasciamo ad altri le considerazioni se questa sia o no il corrispettivo fisico del libero arbitrio, noi ci limitiamo a far osservare, molto più prosaicamente, come un sistema di questo tipo che incorpora la stocasticità nell’intimo del suo funzionamento sia molto più resistente agli errori (le cui conseguenze saranno comunque rimediabili al punto di svolta dove la «memoria» è azzerata) e potenzialmente adattabile a variazioni di condizioni esterne (non dovendo scontare l’inerzia della storia passata se non fino alla prossima singolarità) rispetto ai modelli deterministici o anche ai modelli che incorporano il rumore come puro disturbo. Con questa proposta di sintesi tra determinismo (che vale nella traiettoria da una singolarità all’altra) e stocasticità (che marca i punti di svolta) siamo arrivati alla fine della nostra trattazione, con la speranza di aver fornito qualche ispirazione utile per affrontare le enormi sfide che l’umanità si trova davanti su scala planetaria, come il cambiamento climatico e il raggiungimento di una società più equa e felice. Noi crediamo che la scienza debba velocemente emendarsi da alcuni vizi di fondo che, se l’hanno aiutata a crescere nel passato, sono ora di grave impaccio per lo sviluppo futuro. La nostra speranza è che questo libro possa rappresentare un avanzamento infinitesimale (ma diverso da zero) in questa direzione. 158 Probabilità e determinismo NOTE 1 Per approfondimenti si può consultare: J.P. Zbilut, C.J. Webber, Physiological effects of motion and the effect of noise, in M. Millonas (a cura di), Fluctuations and Order: The New Synthesis, Springer Verlag, New York 1996, pp. 397-417. 2 Questo tema è brevemente trattato nel nostro lavoro: F. Conti, M.C. Valerio, J.P. Zbilut, A. Giuliani, Will systems biology offer new holistic paradigms to life sciences?, in “System and Synthetic Biol.”, 4(1)(2007), pp. 161-165, e approfondito in maniera molto più chiara ed esauriente in un bellissimo lavoro di Sui Huang: S. Huang, Back to the biology in systems biology: what can we learn from biomolecular networks, in “Briefings in Functional Genomics and Bioinformatics”, 2(4)(2003), pp. 279-297. Entrambi i lavori sono disponibili gratuitamente sul web. 3 Tra l’altro questo è il tallone d’Achille del determinismo, anche se certa stampa divulgativa degli anni Novanta cercava di renderlo suggestivo parlando di «effetto farfalla», la famosa farfalla che, battendo le ali a New York, causava un uragano a Tokio o viceversa. 4 E.F. Keller ci propone delle interessanti osservazioni nel suo A Clash of Two Cultures, in “Nature”, 445(2007), p. 603. 5 Un recentissimo lavoro apparso su “Nature” di maggio 2008 (H. Chang, M. Hemberg, M. Barahona, D. Ingber, S. Huang, Transcriptome-wide noise controls lineage choice in mammalian progenitor cells, in “Nature”, 453(2008), p. 544) prende esplicitamente posizione per questa nuova prospettiva e dimostra in modo molto elegante come un problema classico della biologia, il differenziamento dei diversi tipi cellulari costituenti il sangue, si sviluppino dalla cellula staminale progenitrice attraverso il «movimento simultaneo» di tutti i loro geni; inoltre la decisione della «strada da intraprendere» è legata a fluttuazioni stocastiche all’interno della colonia iniziale. L’articolo utilizza solo in misura relativamente limitata il gergo tecnico e può essere compreso anche da non addetti ai lavori, almeno nelle sue linee essenziali. 6 Gli orrori causati da questa visione trascendente della ragione e da quella divinità sanguinaria detta «dea Ragione» che solo di questi tempi sembra stare lentamente abbandonando l’Europa, sono raccontati in un bel libretto di Marco Marsilio dal titolo: Razzismo: un’origine illuminista, edito da Vallecchi. 7 Per chi volesse andare a fondo della questione: M. Zak, J.P. Zbilut, R.E. Meyers, From Instability to Intelligence: Complexity and Predictability in Nonlinear Dynamics, (Lecture Notes in Physics: New Series m 49), Springer Verlag, Berlin-Heidelberg-New York 1997. Anche J.P. Zbilut, Unstable Singularities and Randomness, Elsevier, Amsterdam 1984. Il primo è un libro molto tecnico ed esauriente, il secondo, presente anche in edizione italiana (J.P. Zbilut, Singolarità Instabili e Casualità, ed. it. a cura di C. Cuomo, Franco Angeli, Milano 2004) tratta degli stessi temi in maniera accessibile anche ai non specialisti. 159 TUTTI A CASA: UNA CONCLUSIONE INCONCLUDENTE Come ogni discussione al caffè, prima o poi si deve tornare a casa o comunque alle proprie occupazioni. Quando gli amici lasciano il bar e si salutano, gli autori rimangono nel dubbio di aver trasmesso un messaggio chiaro. In questo atteggiamento è insito un pizzico di superbia, che consiste nel presumere che da qualche parte ci sia un «messaggio», generato dagli autori, che il lettore può decodificare in maniera più o meno corretta. Gli ingegneri usano una tecnica statistica molto efficiente chiamata ROC (Receiver Operating Curve) per assegnare un punteggio quantitativo al grado di correttezza della ricezione di un segnale; la tecnica si basa essenzialmente sulla distanza tra segnale inviato e ricevuto. Ma il nostro «messaggio», qualsiasi cosa esso sia, non si rivolge ad un meccanismo ricevente (come nei casi studiati con la metodologia ROC) ma a dei lettori critici con delle loro opinioni personali. Anzi, senza un lettore attivamente coinvolto, il messaggio proprio non esisterebbe, così che ogni avventore lascerà il bar con una propria personalissima idea sulle cose che ha ascoltato, e fortunatamente gli autori non possono inseguirlo per chiederne ragione. Ci scusiamo comunque per le continue ripetizioni degli stessi concetti di cui il libro è infarcito: gli autori sono abbastanza fissati con due o tre «idee principali», che i loro amici e colleghi ormai conoscono a menadito e riguardo alle quali mostrano un bonario e salutare sarcasmo. Il messaggio da «portare a casa» sarà quindi differente per le diverse case, anche se noi vogliamo sperare che il lettore che abbia avuto la pazienza di leggere l’intera opera abbia l’impressione di quanto la scienza possa guadagnare dall’essere considerata una forma di artigianato artistico invece di un arrogante pensiero unico. 161 PER JOE, UN RICORDO Mentre la versione italiana del libro era in lavorazione, l’11 gennaio 2009 Joe ci ha lasciato improvvisamente. La scomparsa di Joe ha sconvolto tutti i suoi amici, che avevano imparato ad apprezzare il suo sorriso aperto e il suo entusiasmo contagioso. Per me che lo conoscevo da quasi venti anni, e che con lui avevo condiviso la nascita delle mie figlie Flaminia e Irene, la malattia di suo figlio Joey, le gioie, i dolori, le soddisfazioni, è qualcosa che ancora non riesco a sistemare nel mio cuore. Quando Joe arrivava qui a Roma per tutti noi era festa grande; parte importante della festa era andare con lui a rendere omaggio alla bellezza, sia dell’arte che della natura. Lui mi prendeva bonariamente in giro per questo, ma in realtà era molto contento; facevamo lunghi discorsi sul senso profondo della bellezza: per me era il volto di Dio, e una delle vie principali per la nostra felicità; lui, molto più saggio di me, forse, sosteneva che la vera fede non dovrebbe aver bisogno di quadri, statue, architetture e panorami montani e marini... ma l’architettura di Borromini lo entusiasmava veramente, e lo entusiasmava Roma con il suo accavallarsi di epoche inestricabilmente legate nella stessa struttura, nello stesso muro. Avevo avuto notizia di Joe Zbilut all’inizio degli anni Novanta, dall’articolo che aveva scritto insieme a Chuck Webber, in cui presentava un metodo innovativo di analisi per le serie temporali non lineari denominato analisi delle ricorrenze (Recurrence Quantification Analysis, RQA). Appena letto l’articolo capii che descriveva esattamente ciò che cercavo da tanto tempo ma che non ero mai riuscito ad esprimere 163 L’ordine della complessità in maniera chiara. In quell’epoca ero affascinato da come la considerazione degli spazi metrici, cioè la descrizione dei sistemi in termini di distanze reciproche fra gli elementi costituenti senza alcun riferimento esplicito ad uno spazio assoluto esterno, permettesse una libertà di espressione e una robustezza di rappresentazione formidabili, risolvendo in un solo colpo tanti problemi che affliggevano la quantificazione di tanti fenomeni (come ad esempio quelli biologici) che mal si adattavano allo stile classico della matematica. Avevo anche scritto dei lavori scientifici su questi argomenti, ma il mio rimaneva un esercizio elegante senza una vera presa sulla natura profonda di ciò che descrivevo. Manierismo insomma, elegante quanto vogliamo, ma pur sempre manierismo. Ecco che invece Joe, partendo da un punto di vista completamente differente, da fisico piuttosto che da statistico, attraverso l’uso di una soglia che facesse interpretare come «ricorrenze» le distanze molto piccole, mi faceva vedere come si potessero rendere operativi e immediatamente sperimentabili concetti fino allora fumosi e astratti come la complessità di un sistema, la presenza di non stazionarietà, il suo carattere frattale. Si apriva un mondo: mandai subito a Joe e Chuck un’applicazione del loro metodo, abbellita da qualche svolazzo statistico, che loro apprezzarono tantissimo; mi colpì il saluto di Joe alla fine del fax (allora non avevo ancora l’e-mail): «ciao bello!», insolito e accattivante data la situazione. Pochi mesi dopo andai a prendere Joe all’aeroporto di Fiumicino; poche ore dopo stavamo per terra nel soggiorno di casa mia a giocare con mia figlia Flaminia, che allora aveva meno di un anno. Da allora Joe è venuto a Roma molte volte, e io qualche volta sono stato a Chicago; il nostro era un discorso continuo che avveniva tramite posta elettronica, in cui le analisi di differenti insiemi di dati andava di pari passo con le nostre discussioni filosofiche e di vita. Io sognavo di costruire una scienza che fosse come le architetture di Borromini: le vette della complessità, strutture che volassero nel vento, raggiunte con l’uso di materiali poveri come lo stucco e i mattoni. Lui sorrideva e diceva che gli sarebbe bastato che fosse una scienza onesta ed efficace e mi faceva notare come noi italiani fossimo ossessionati dalla «bella figura» al punto di usare per tutto ciò che fosse positivo la parola «bello», mentre in America lo stesso concetto si indicava come «buono» (good). Joe trovava impossibile che un metodo lineare potesse rappresentare bene un sistema non lineare; io pensavo che un si164 Per Joe, un ricordo stema non fosse né lineare né non lineare (anzi, senza mai confessarlo forse pensavo che magari neanche esistesse) e che se la rappresentazione era soddisfacente potevo operare come più mi piacesse. Dopo tanti anni sapevamo a memoria che cosa l’altro pensasse e dicesse, ma non smettevamo di modificarci a vicenda; lui cominciava ad apprezzare di più il bello e io capivo che il bello senza il buono aveva vita breve e travagliata. Questo libro è una incompleta, parziale, zoppicante rappresentazione della nostra amicizia. 165 Dal catalogo Jaca Book L’evoluzione dell’universo R. SCOSSIROLI, I primi passi della genetica, 1987 G. MINELLI, All’origine della biologia moderna, 1987 N.H. HOROVITZ, Utopia e ritorno, 1987 S.L. JAKI, La strada della scienza e le vie verso Dio, 1988, 19942 F. SELLERI, La causalità impossibile, 1988 C. ALLÈGRE, I furori della Terra, 1988 R. COHEN-TANNOUDJI e M. SPIRO, La materia-spazio-tempo, 1988 E. SCHATZMAN, Il messaggio del fotone viaggiatore, 1989 H. ARP, La contesa sulle distanze cosmiche e le quasar, 1989 F. SELLERI (a cura di), Che cos’è la realtà. Dibattito nella fisica contemporanea, 1990 P. KARLI, L’uomo aggressivo, 1990 V. WEISSKOPF, La rivoluzione dei quanti. Una nuova era nella storia della fisica, 1990 F.T. ARECCHI, J. JACOPINI ARECCHI, I simboli e la realtà. Temi e metodi della scienza, 1990 A. KOESTLER, I sonnambuli. Storia delle concezioni dell’universo, 1982, 19912 L. DE BROGLIE, E. SCHRÖDINGER, W. HEISENBERG, Onde e particelle in armonia, a cura di S. Boffi, 1991 P. GASCAR, La strada di Pasteur. Storia di una rivoluzione scientifica, 1991 F.L. WHIPLLE, Il mistero delle comete, 1991 H. ARP, Seeing Red. L’universo non si espande. Redshift, cosmologia e scienza accademica, 2009 F.J. AYALA, L’evoluzione. Lo sguardo della biologia, 2009 J.P. ZBILUT, A. GIULIANI, L’ordine della complessità, 2009 Inoltre A. PÉREZ DE LABORDA (testi), S. CORSI (illustrazioni), La storia dell’astronomia e del cosmo, 4 voll. per ragazzi di grande formato, con illustrazioni e fotografie a colori, 2007 1. Gli antichi astronomi, 2007 2. L’astronomia moderna, 2007 3. Dalla Relatività al Big Bang, 2007 4. L’idea di universo oggi, 2007