Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
Scrivere il presente Collana della Fondazione Achille Grandi per il Bene Comune La collana, promossa dalla Fondazione Achille Grandi per il Bene Comune, nasce dalla volontà di intervenire nel dibattito, in modo semplice ed efficace, su alcuni dei temi più importanti della vita pubblica del nostro Paese. Ci rendiamo conto che oggi c’è bisogno di approfondire, di comprendere accuratamente, di cercare nuove strade. Ci rendiamo conto che nel continuo susseguirsi di notizie, di eventi che compaiono e scompaiono dalla scena nel corso di una giornata, il rischio di perdere la rotta è altissimo. È necessario fermarsi per un attimo. E capire. Senza dare nulla per scontato. Alessandro Giuliani Scienza: istruzioni per l’uso Rubbettino © 2010 - Rubbettino Editore 88049 Soveria Mannelli - Viale Rosario Rubbettino, 10 tel (0968) 6664201 www.rubbettino.it Progetto Grafico: Ettore Festa, HaunagDesign Prefazione esiste una brutta filosofia. Nelle sue versioni più popolari ed edificanti si presenta come maestra di vita, dispensa ammonimenti dozzinali da raffazzonati libracci e penose rubriche di posta, invita con sguardo lungimirante alla considerazione di eterni valori; da qualche tempo presume, addirittura, di curare, o almeno «consigliare», anime perse. Quando si fa più altezzosa e lugubre, dichiara la necessità apodittica delle proprie conclusioni, erige invalicabili colonne d’Ercole, invoca a suo fondamento le leggi stesse del pensiero e della ragione. Ed esiste una bella filosofia. Una critica costante dello status quo realizzata mediante l’inesausta invenzione di scenari alternativi, la loro articolazione in infiniti dettagli, la loro difesa da ostinate obiezioni, finché a qualcuno magari non capiti di porsi la domanda più sovversiva: un semplice «perché no?». Perché non potremmo avere una società basata sull’amicizia, un’educazione che sia scoperta e non indottrinamento, un lavoro che sia libertà e non schiavitù? E, se potessimo averli, forse non li vorremmo? v Esiste una brutta scienza. Annuncia che tutti i problemi sono stati risolti, che delle soluzioni sono depositari gli esperti, che di loro dobbiamo fidarci ciecamente perché conoscono la verità e noi tanto non la capiremmo. Ci informa che viviamo nel migliore dei mondi possibili, come è provato dal fatto che viaggiamo nello spazio, telefoniamo senza sosta e passiamo un quarto della nostra esistenza davanti a uno schermo. Ci bombarda di proclami trionfali: è stata osservata la particella tale, che ancora mancava all’appello; si è trovato il gene della felicità; abbiamo finalmente compreso perché gli uomini sono infedeli. Ed esiste una bella scienza. Consapevole dei propri limiti, rispettosa della comunità eppure audace nel proporre congetture, nell’abbattere barriere fra una disciplina e l’altra, nel creare discipline mai prima contemplate. Una scienza giocosa, gaia e seria come solo può esserlo un gioco; una scienza che è un viaggio, un’avventura, una scommessa. E che talvolta cambia radicalmente il mondo, come fece il goffo sognatore Alan Turing disegnando la struttura del computer moderno, ma lo fa sempre per caso, come è sempre per caso che un bambino, giocando in cortile, scoprirà un tesoro, qualunque cosa sia un tesoro, anche una conchiglia dalla forma strana. Filosofia e scienza sono state compagne di strada per tutto il corso della nostra civiltà. Talvolta si sono date la mano per un allegro girotondo e, quando la musica si è vi per un attimo interrotta, la realtà che ci circondava era cambiata: avevamo imparato a vederla con gli occhi di Aristotele, di Galileo, di Einstein. Talvolta, invece, si sono scrutate sospettose e hanno rinforzato le reciproche angosce e i comuni meccanismi di difesa, imponendo al pubblico la mostruosità dello scientismo: una filosofia che si ammanta di autorevolezza posticcia abbracciando la scienza, una scienza che avanza le sue ipotesi con il sussiego di chi le abbia dimostrate a priori. Sandro Giuliani è uno scienziato che rifiuta e combatte lo scientismo, e in questo libro compie l’operazione intensamente politica di svelarne il naso lungo e i piedi d’argilla. Lo fa con competenza e chiarezza ma anche con gusto e con grazia, perché chi lo legge possa riappropriarsi di un percorso cognitivo che è anche suo, che non va abbandonato nelle mani dei tetri officianti di un rito esoterico ma va, invece, affrontato e discusso insieme, non solo perché giocando ci si può scottare, ed è bene che tutti lo sappiano, ma anche perché al gioco, quando ne abbiano appreso le regole, tutti sono in grado di partecipare e dare un contributo. Da filosofo, cioè (non dimentichiamolo), da disperato amante di un’irraggiungibile saggezza, non posso che ammirare il suo sforzo e tendergli, appunto, la mano. ermanno bencivenga vii Scienza: istruzioni per l’uso Vale la pena di impegnarsi sul serio (una breve introduzione) «mio papà fa lo scienziato, ma è buono». Come sarebbe a dire «ma è buono», Irene? Perché, gli scienziati secondo te di solito sarebbero cattivi? Mia figlia aveva dieci anni quando scriveva questa frase nel classico tema sulla famiglia che le maestre assegnano ai bambini delle elementari. Qualche anno fa parlavo con Flaminia, la mia figlia maggiore, di eventi inspiegabili «[…]va bene papà, ma in realtà non esiste nulla di inspiegabile, la scienza ormai spiega tutto». Se di tutte le sciocchezze pseudoscientifiche di pomposi divulgatori (che in questi anni sembrano andare per la maggiore), che ci raccontano che la scienza ha ormai eliminato ogni possibilità di credere in Dio o di immaginare che ci sia qualcosa di misterioso e ineffabile nella natura umana, potrei anche dimenticarmi con un moto di stizza, alle mie figlie, però, devo una risposta. E forse questa risposta interesserà anche molte altre persone (almeno così mi assicurano gli amici Cristian e Angela di benecomune.net). Allora, credo valga la pena di impegnarsi sul serio e tentare di offrire, in queste pagine, un’i3 dea del senso dell’indagine scientifica e del perché, nell’ambito delle scienze naturali, si stia giocando una partita importantissima per tutti noi. Non si tratta di contrastare i macroscopici sfondoni scientifici dettati dal livore di alcuni polemisti contro la religione cristiana; questo è già stato fatto da tantissimi scienziati e filosofi e, per chi fosse interessato, la rete è piena di interventi su questi argomenti. La semplice constatazione del fatto che la stragrande maggioranza degli scienziati di tutti i tempi sia credente è per me più che sufficiente a chiudere il discorso1. Qui si tratta di qualcosa di più sottile e, quindi, di molto più insidioso. Il sottile veleno che circola è quello che ci porta a vedere il mondo come una «frontiera chiusa», dove tutto è ormai stato spiegato (o se ancora non lo è stato, è solo questione di tempo), dove i principi fondamentali sono stati ormai stabiliti per sempre e, in definitiva, di grandi sorprese ce ne possiamo aspettare poche. Il Nobel per la fisica Robert Laughlin, nel suo libro A Different Universe: Reinventing Physics from the Bottom Down (edito in Italia da Codice Editore), critica aspramente le manie ricorrenti di dichiarare chiusa la frontie1. A chi fosse interessato ad approfondire l’argomento affascinante dei rapporti tra scienza e fede consiglio l’interessantissimo sito del DISF (Documentazione Interdisciplinare di Scienza e Fede: http://www.disf.org/default.asp). 4 ra della scienza e, paragonando la frontiera della scienza alla natura incontaminata che accoglieva i primi pionieri nella cosiddetta «frontiera americana», ci avverte che «Nella natura selvaggia ci sono sorgenti che la gente non frequenta e acque rinfrescanti di cui nessuno sa nulla. Per trovarle basta abbandonare le regioni conosciute, studiare il nuovo territorio, avere l’onestà di riconoscere i propri errori e confidare nella Provvidenza». E il professor Laughlin è ben in diritto di farci questa raccomandazione, visto che le sue scoperte hanno completamente rivoluzionato il nostro modo di considerare la natura, dimostrando il carattere emergente (e, quindi, statistico) delle costanti universali della fisica e riconsegnandoci una visione del mondo completamente diversa da quella che ci eravamo, nella nostra vanagloria, convinti di aver ben compreso: un intero continente inesplorato. D’altronde, gli astrofisici ci assicurano che solo il 7-8% della materia dell’universo è fatto di protoni ed elettroni (la materia così come la conosciamo), e il resto? Il crollo del paradigma principale della biologia molecolare un gene/un enzima è di questi anni e di questi anni è la necessità di un completo ripensamento di ciò che intendiamo per farmacologia. Insomma, proprio mentre la scienza si trova a dover ripartire da capo affacciandosi a un infinito territorio da esplorare con idee e strumenti nuovi, l’antico veleno positivista della definitiva comprensione dei fondamenti si ritrova in circolo come «senso comune». 5 L’origine di questo veleno è da situarsi in uno specifico lasso di tempo e di spazio: l’Europa della seconda metà dell’Ottocento. Quello era un tempo in cui il pensiero tecnico e scientifico sembrava aprire orizzonti illimitati al progresso dell’uomo. La natura pareva piegarsi al dominio tecnologico: si scavavano gallerie lunghe chilometri superando enormi catene montuose, i treni collegavano le città, le industrie cambiavano il volto della campagna e le grandi potenze occidentali conquistavano imperi coloniali di dimensioni planetarie. L’universo della tecnologia era molto diverso dall’universo reale: quello tecnologico era una sorta di universo deterministico in cui le leggi meccaniche erano le uniche dominatrici della scena e regolavano tutto, per cui l’artificiale veniva immediatamente estrapolato dalla natura con la conseguenza che anche l’uomo, tutto sommato, potesse diventare una macchina! Questo provocò una specie di abbaglio anche nelle menti più acute: fa quasi tenerezza leggere oggi i romanzi di Verne in cui i protagonisti hanno sempre una spiegazione meccanicistica per qualsiasi cosa, anche per quelle più strabilianti, come nel caso del famoso Viaggio al centro della Terra dove, nonostante l’ambientazione quanto meno insolita, il protagonista, a ogni piè sospinto, ci fornisce una pacata spiegazione pseudorazionale per ogni cosa, riportando tutto nell’alveo del già noto e, comunque, inscrivibile in un quadro di riferimento stabile. Questa atmosfera soffocante per 6 gli spiriti veramente innovativi (si legga a proposito il bellissimo libro di Pavel Florenskij Ai miei figli in cui lo scrittore, uno dei massimi geni scientifici e filosofici di tutti i tempi, descrive esattamente il disagio derivante dalle spiegazioni positiviste della natura) era tanto diffusa da far sì che il giovane Max Planck (uno di quelli che di lì a poco avrebbe distrutto la costruzione positivista/continuista della scienza ottocentesca, dando vita alla meccanica quantistica) ricevesse da un suo amico il consiglio di lasciar perdere la fisica, in quanto «[...]non c’era più nulla da scoprire». L’anno 1900 sancì, in campo scientifico, la definitiva distruzione dello scientismo ottocentesco. Il matematico Henri Poincarè dimostrò l’impossibilità di estendere la meccanica newtoniana al problema dei tre corpi: in altre parole, la legge di gravitazione universale consente di prevedere il comportamento di due corpi che interagiscono (il sole e la terra, ad esempio), ma, quando i corpi diventano tre, non abbiamo nessuna possibilità di prevedere il loro comportamento a lungo termine e, quindi, la stabilità delle orbite. Max Planck dimostrò il carattere quantistico dell’energia e la fondamentale illusorietà dell’universo gradualistico ottocentesco: l’energia non può, insomma, assumere «tutti i valori possibili», ma si presenta in «pacchetti» non ulteriormente divisibili, detti «quanti». Qualche anno dopo Werner Heisenberg stabilì dei limiti fisici fondamentali alla conoscibilità del mondo e 7 Kurt Gödel fece lo stesso con la matematica: entrambi dimostrarono che le scienze non si potevano «reggere da sole», ma esigevano dei fondamenti esterni al loro orizzonte. Lo scientismo, però, allontanato dalla scienza di base, si ritrovava vivo e vitale nella società in quanto quasi perfetto instrumentum regni, religione senza amore a uso di ogni potere politico, sia dittatoriale che democratico. Attenzione, sto parlando di scientismo, non di scienza. È proprio la confusione di questi due termini che genera il dubbio di Irene sulla sostanziale malvagità degli scienziati e l’affermazione di Flaminia sulla completa conoscenza scientifica del mondo. Non solo la scienza appare ai non addetti ai lavori (cioè, praticamente, a tutti) nella sua oscena caricatura scientista, ma qualsiasi altro tipo di conoscenza deve assumere delle sembianze scientiste se vuole essere accettato, ed è proprio qui che si nasconde l’imbroglio. Imbroglio che ha insanguinato la storia del Novecento, quando sia il nazismo in Germania che il comunismo in Unione Sovietica fondarono il proprio potere e la propria strategia di consenso su teorie pseudoscientifiche, in cui le modalità e l’aspetto esteriore era mutuato dal modello delle scienze «dure» (garanzia di successo e di efficacia, dimostrata dallo sviluppo delle macchine). Anche i paesi democratici non erano da meno: gli orrori del comportamentismo e della psichiatria «scientifica» negli Stati Uniti hanno degli strascichi di ferocia farmacologica che persistono ancora 8 e nei paesi scandinavi i programmi eugenetici erano in auge ancora in pieni anni Settanta. Perché campi come l’economia, la psicologia, la sociologia, ma anche la biologia evoluzionistica, il cui spettro d’esperienze non permette lo stesso tipo di approccio, hanno scimmiottato in questi cento anni i modi da «scienza esatta» della fisica ottocentesca? Semplicemente per evocarne il carisma e far balenare una potenza esplicativa in realtà assente, una sorta di pensiero magico, non dissimile dall’uso che in certe culture tribali i guerrieri fanno di zanne e unghie di animali feroci nelle loro ornamentazioni. Accade, allora, che le persone percepiscono nell’aria la mostruosità di chi vuole negare l’evidenza di un mondo pieno di bellezza e di sorprese, relegando il mistero al magico e all’occulto (scienziati cattivi) e che il mondo appaia piatto e imbrigliato (scienza onnicomprensiva) e che non si faccia distinzione tra il grado di credibilità di chi espone i principi della termodinamica e di chi mi assicura che la mia normale malinconia è una malattia da curare e non un moto dell’anima. Riaprire le frontiere del mondo, rimettere al giusto posto la scienza come esploratrice dell’ignoto e, quindi, normalmente aperta al mistero (altrimenti avrebbe avuto ragione l’amico di Max Planck); allargare i confini della ragione, ma anche salvarci dalle bufale che quotidianamente ci assaltano sui media; far capire quanto bello e appassionante sia il vero mestiere della scienza. Sono questi gli ambiziosi obiet9 tivi di questo piccolo libro. Cercherò di raggiungerli attraverso dei brevi saggi legati a diversi aspetti della scienza e della tecnologia che sono entrati nella nostra cronaca recente, intervallati da elementi di raccordo in cui si tenterà di fornire degli spunti di riferimento generale. Speriamo di farcela! Quest’opera deve moltissimo ai consigli di Angela Schito della Fondazione Achille Grandi, che ha di molto migliorato il mio uso approssimativo della punteggiatura e mi ha benevolmente costretto a un’attenzione continua verso la leggibilità da parte dei non addetti ai lavori. La prefazione di Ermanno Bencivenga, ordinario di Filosofia all’Università della California a Irvine, è stata una rivelazione che mi ha aperto nuovi mondi e di cui gli sono profondamente grato. Le mie figlie Flaminia ed Irene hanno da molto tempo superato le posizioni sulla scienza che descrivo nel libro (anche se la loro scarsa simpatia per la matematica non fa loro contemplare, almeno per ora, l’intrapresa di studi scientifici) e di questo mi fa piacere rendere edotti i lettori. 10 1. Fondamenti 1. Introduzione la cronaca ci distoglie dalla contemplazione. Correre dietro alle singole sfaccettature che ci si presentano come scienza, per individuarne le manchevolezze e svelarne il contenuto ideologico (e, quindi, oppressivo), non solo è una fatica improba ma, proprio per l’esigenza di superare il discorso ritenuto ideologico e manchevole sul piano della retorica, rischia di cadere negli stessi difetti che si vorrebbero emendare. Bisogna, quindi, cercare di esplorare le fondamenta di quell’enorme edificio che ospita le scienze naturali (la specifica «naturali» è oltremodo importante: l’estensione indebita del termine «scienza» ad attività come la sociologia, l’economia, la politica è foriera di grandi fraintendimenti), per tentare un discorso che non sia pro o contro qualcosa, ma che riesca a far immaginare il senso profondo dell’attività scientifica e, dunque, a fornire al lettore degli strumenti per orientarsi nella proliferazione selvaggia di «notizie scientifiche». 11 Perciò, un libro come questo non può che partire dai fondamenti dell’indagine scientifica, da quelle regole del gioco che sottendono a tutte le possibili partite e che sole ci permettono di discriminare un intervento scorretto da una bella azione di gioco. Per dare uno sguardo alle fondamenta, dobbiamo scendere in cantina dove non solo è buio, ma si aprono strade e cunicoli che rendono difficile discernere la struttura dei muri maestri e, soprattutto, collegare la struttura profonda con quello che appare in superficie. La complessità del compito è evidente anche solo considerando che, al di là di chiacchiere vane, fornire dei buoni fondamenti in un certo campo del sapere dovrebbe essere il ruolo dei corsi universitari (che di solito durano anni); per questo, pretendere di fornire delle solide basi in un capitolo di un libro è quanto meno velleitario. Cercherò, allora, di sfruttare quella forza potente cui diamo il nome di «suggestione», rinunciando a un impossibile trasferimento di conoscenze (sarebbe come pretendere di imparare a suonare il pianoforte in una sola lezione); tenterò una breve visita guidata alle basi della scienza, condividendo delle considerazioni che ho raccolto nello svolgimento del mio mestiere. La mia attività, da circa venticinque anni, ha a che vedere con l’applicazione della metodologia statistica e matematica alle scienze biologiche (più qualche incursione nella chimica e nella fisica): il che equivale a prendere come guida un 12 ladro di appartamenti piuttosto che l’ingegnere che ha costruito la casa. La conoscenza sarà di sicuro meno approfondita ma, all’occorrenza, riuscirete a usare utilmente i cunicoli per sfuggire alla tracotanza dello scientismo. Torcia alla mano, iniziamo a scendere le scale, facendo attenzione ai gradini che sono sdrucciolevoli; in tempi di tecno-scienza i sotterranei sono molto poco frequentati e la muffa cresce ovunque. Solo cento anni fa qui avreste trovato un gran numero di persone spiritose e interessanti, alcune addirittura ci abitavano in pianta stabile; ora solo in pochi scendono qui giù e la maggior parte sono dei semplici ladruncoli, proprio come la vostra guida. Come nel gioco del calcio lo stesso insieme finito di regole è alla base di un numero infinito di possibili partite, così la presenza di limiti molto stretti su ciò che possiamo chiamare scienza, non impedisce che le scoperte scientifiche siano potenzialmente infinite. È come se avessimo una definizione di scienza dal punto di vista strumentale (nel senso proprio degli attrezzi del mestiere) e una definizione di scienza dal punto di vista produttivo (i manufatti che posso costruire con quegli strumenti) e, chiaramente, non esiste alcuna contraddizione tra un numero limitato di strumenti e un’estensione infinita dei manufatti. Il limite, ma anche la forza, della conoscenza scientifica è il suo carattere statistico, che vuol dire più o me13 no che le idee che ci facciamo del mondo vengono distillate a partire da molte e contrastanti impressioni, cercando di carpirne delle regolarità nascoste. Così come cerchiamo di aggiustare la nostra visuale su un quadro per vederlo meglio (avvicinarsi troppo corrisponderebbe ad annegare in un mare di puntini senza senso, allontanarsi troppo non ci farebbe distinguere le figure), il luogo della scienza è quello che massimizza il «determinismo non banale»: un modo pomposo per indicare il punto dal quale posso osservare il numero maggiore di particolari che si raccordano tra di loro. Attenzione, non il maggior numero di particolari e basta: un errore frequente di questi tempi è pensare che più «singoli pezzi» di conoscenza ho a disposizione meglio è. Non è assolutamente così: i pezzi sono utili se riesco a collegarli con altri pezzi, se con essi riesco a far «emergere» (verbo molto importante, come scopriremo) qualcosa di diverso dalla semplice sommatoria degli elementi singoli. Così come le singole pennellate del quadro non danno l’idea dell’insieme dell’opera d’arte, il massimo dettaglio possibile risulta indecifrabile e questo ci permette di comprendere come la scienza non sia nemica del libero arbitrio. La stessa statistica, che si basa su una conoscenza scientifica «a grana grossa», è compatibile con una miriade di differenti soluzioni al dettaglio individuale; è per questo che il filosofo francescano Duns Scoto, nel XIII secolo, anticipava le scoperte della fisica moderna, dicen14 do che l’individuo è inconoscibile per sé e che noi, al massimo, possiamo solo approcciare le categorie. Questi temi saranno sviluppati nei saggi di questa sezione di «fondamenti». Le singole sezioni derivano da diverse fonti originali e sono, quindi, dei «pezzi autonomi». Questo aiuterà il lettore a orientarsi meglio nella lettura, decidendo magari di approfondire alcune parti e altre un po’ meno. A proposito, però, prima di iniziare il giro in cantina, una premessa è necessaria. Il mestiere della scienza, quella vera che porta a qualche effettivo avanzamento della conoscenza del mondo, è una sorta di estensione di quella strana pulsione che ci portava da bambini a passare ore di fronte a un formicaio in attività, osservando l’affaccendarsi degli insetti e godendo nel profondo nel riconoscerne l’attività organizzata; oppure a considerare come il sasso gettato in una pozza riverberasse in un’onda sinuosa e dolce che invadeva l’intero specchio d’acqua. La piccola minoranza che rimane affezionata a queste esperienze, serbandole nel segreto del cuore, senza farsi imbrogliare da una maturazione successiva che le vorrebbe relegare nell’ambito dell’irrilevanza, formerà la pattuglia degli scienziati della natura. Per poter coltivare anche da adulti il piacere (se avessimo un po’ più di tempo per approfondire, la chiamerei «gioia mistica», ma, a chi si fosse incuriosito, suggerisco di correre a procurarsi il meraviglioso Ai miei figli di quel ge15 nio totale del Novecento che è stato padre Pavel Florenskij) assaporato da bambini e renderlo un’attività rispettabile nel mondo, ci si iscrive a una facoltà scientifica. Chiaramente questo è un corridoio stretto e faticoso da percorrere; lo sforzo è necessario, ma questo lo comprenderemo fino in fondo solo alla fine del corridoio. La cosa importante è che dobbiamo custodire sempre nel cuore quella sensazione di gioia profonda che provavamo nell’osservare le onde concentriche allargarsi a tutta la pozza e poi rimbalzare indietro verso il centro, creando inaspettate interazioni con i fronti d’onda ritardati. Ricordarsi che stiamo sempre parlando di quello stagno, quando dobbiamo risolvere un problema di dinamica oscillatoria che a prima vista ci appare solo come un arido insieme di simboli, è ciò che distingue un vero scienziato da chi, invece, dal corridoio non riesce a uscire e si dimentica il senso della sua attività. Lo scientismo proviene da chi è rimasto troppo tempo nel corridoio dimenticandosi perché vi è entrato, confondendo, così, il corridoio con il mondo. Ora a voi verrà proposto un analogo miniaturizzato del corridoio. La preghiera è di non scordarvi mai perché vi siamo entrati e di tenere a mente che, quando ne usciremo, potremo assaporare per sempre quella particolare gioia di comunione con il creato che solo l’osservazione della natura può offrire. Farò del mio meglio per ricordarvi sempre il senso dei necessari tecnicismi. Spero di riuscirci con tre piccoli saggi. 16 Il primo saggio affronta il tema delle scale di grandezza e del concetto di probabilità; il secondo entrerà più nel pratico, descrivendo un’investigazione scientifica simulata. Il terzo saggio prenderà di petto un tema importantissimo della scienza dei nostri giorni: la cosiddetta «sfida della complessità» e lo farà abbandonando in parte il tono «didascalico» dei primi due per descrivere concretamente un pezzo di scienza avanzata. In questo senso, il terzo pezzo sarà, forse, il più ostico, ma è anche il più importante in quanto ci mette in contatto con quella che è la grande speranza dei nostri tempi: riconquistare l’attività scientifica alla sua funzione precipua di contemplazione del mondo, abbandonandone le smanie di controllo a tutti i costi. Avanti, allora! 2. Caso, probabilità, statistica Una delle affermazioni che ogni tanto ricorrono nelle sedi più varie, dai discorsi con gli amici fino agli articoli di giornale. ma anche in ponderosi libri di filosofia, suona più o meno così: «I cristiani non accettano l’idea di caso», sottintendendo che chi accetta un Padre Creatore – «di tutte le cose visibili e invisibili», come recita il Credo – abbia delle difficoltà a usare come principio esplicativo la casualità. 17 Intanto, vorrei ricordare come il fondatore del calcolo delle probabilità, e, quindi, del modo in cui ci poniamo in modo razionale di fronte a ciò che è inatteso e insicuro, è il più grande pensatore cristiano dell’era moderna, e cioè Blaise Pascal, di cui non mi stancherò mai di consigliare la lettura dei Pensieri (è un libro che non si finisce mai di scoprire, tenetevene una copia sempre a portata di mano). Chiaramente questo già ci fa capire che la frase iniziale sui cristiani è quanto meno da riformulare. Il punto importante da comprendere è che la scienza si occupa, come tutte le attività umane, di ciò che noi sappiamo delle cose e non delle cose in sé. Questo è un punto importantissimo e ha a che vedere anche con quel «visibili e invisibili» del Credo. Duecento anni fa non si sapeva nulla dei batteri e del loro ruolo nello sviluppo delle malattie; erano, cioè, invisibili, e chiunque avesse detto che la polmonite era causata da un «piccolo organismo invisibile» avrebbe magari avuto ragione, ma non avrebbe fatto un discorso scientifico. La nostra capacità di «vedere» si è molto sviluppata nei secoli, sia verso la direzione (per usare la terminologia di Pascal) «del grande infinito» (telescopi ottici, radiotelescopi, ecc.) che verso quella del «piccolo infinito» (microscopi elettronici, microscopi a forza atomica, ecc.), per cui cose prima invisibili e, quindi, considerate inesistenti si sono, poi, rese visibili. La nostra vista è comunque ancora paurosamente limitata sia nello spazio che nel tempo: non pos18 siamo «vedere» i movimenti di una singola molecola proteica nel solvente, apprezzare dinamiche lentissime di maturazione stellare e non abbiamo la minima idea di come appare un campo elettrostatico a una singola cellula, anche se ne vediamo gli effetti. Insomma, gran parte delle cose di natura o non le percepiamo per niente o, quando le percepiamo, lo facciamo in maniera indiretta, allo stesso modo di come percepiamo il vento dallo stormire delle fronde: il vento è qualcosa di diverso dalle fronde che si muovono, ma noi possiamo solo «vederlo» così. Tutto il nostro universo percepibile è, quindi, qualcosa che noi avvertiamo per echi, rimandi, segni indiretti. Ciò fa sì che tutto sia affetto da incertezza, e tutte le nostre affermazioni siano probabilistiche: la probabilità non è altro che una misura, anch’essa approssimata, della nostra ignoranza. Considerare il carattere probabilistico delle nostre asserzioni e riconoscere, quindi, che, per quel che riguarda l’orizzonte scientifico, solo ciò che possiamo chiamare caso sia alla base di gran parte delle nostre osservazioni, non è affatto una forma di ateismo, ma è semplicemente l’umile e doverosa ammissione di ignoranza di chi si sente inadeguato a comprendere totalmente il mondo. Ma non comprendere totalmente il mondo non significa non comprenderlo affatto né, tantomeno, non cercare di capirne sempre di più. Per fare ciò, ci serviamo della statistica, partendo dall’idea che, osservando molte volte de19 gli accadimenti simili, dovremmo prima o poi scorgerne delle regolarità e delle ricorrenze. L’osservazione alla base di qualsiasi metodo statistico è che in un fenomeno collettivo coinvolgente un numero elevato di elementi, ciascuno, però, singolarmente non prevedibile, gli andamenti generali della popolazione presa in esame riveleranno, invece, delle regolarità molto evidenti (ricordiamoci del formicaio). Questo, chiaramente, implica uno scollamento tra il comportamento della popolazione e quello del singolo elemento che la compone. A prima vista ciò può sembrarci paradossale, ma, in realtà, segue da un ragionamento che usiamo nella vita di tutti i giorni. Immaginiamo di osservare le dinamiche del traffico su un’arteria stradale che conduce a una grande città, ad esempio la a24 che porta a Roma ogni giorno migliaia e migliaia di macchine dall’estesa periferia orientale e dai paesi del Lazio e dell’Abruzzo. Possiamo essere sicuri, in modo quasi deterministico, che, in un giorno feriale, la mattina tra le otto e mezza e le nove, le corsie della a24 in ingresso a Roma, dal raccordo anulare verso il centro, saranno afflitte da un traffico intensissimo e sicuramente molto superiore a quello osservabile alle tre del mattino. Questa sicurezza, suffragata dalle osservazioni, viene spiegata da considerazioni legate alla presenza di molti luoghi di lavoro nelle zone centrali di Roma (ministeri, scuole, uffici vari, negozi) rispetto alla periferia e alla 20 provincia. Sicuramente a nessuno verrà in testa di cercare di spiegare il flusso con le motivazioni personali e contingenti dei singoli automobilisti. Se il signor Trezzini di Vicovaro quella mattina si è svegliato con una forte influenza e decide di non andare a Roma al lavoro (e quindi si esclude dal flusso, dal fenomeno collettivo), sarà sostituito sulla terribile a24 dalla signora Di Domenico che deve scendere da Tivoli a Roma perché il giorno prima è stata avvertita dal Policlinico Umberto I che si è liberato un posto per l’intervento programmato da mesi. Queste contingenze sono assolutamente irrilevanti per ciò che riguarda la consistenza e la natura del flusso e, quindi, non costituiscono un livello interessante per il suo studio; le periodicità del traffico rimarranno esattamente le stesse, vanificando il nostro rincorrere le singole motivazioni. In scienza diciamo che la struttura del traffico è «robusta» alle variazioni dei dettagli microscopici, è una «proprietà emergente» del sistema che rimane identica a sé stessa, nonostante la miriade di possibili configurazioni microscopiche (le motivazioni dei singoli automobilisti) che la compongono. L’esempio dell’autostrada ci consente di comprendere come mai il nostro libero arbitrio, la nostra unicità di persone, sia salva nonostante qualsiasi scoperta scientifica. Quante volte ci siamo soffermati con la nostra fidanzata in quei meravigliosi e oziosi discorsi fra innamorati in cui si considera che evento meraviglioso e unico sia essersi incontrati e 21 innamorati. A livello microscopico, ogni singolo incontro ha probabilità pari praticamente a zero. Basterebbe che solo un singolo anello di una lunghissima catena di eventi – che va dal fatto che un mio antenato, forse di origine picena (la mia famiglia viene dalle Marche), tremila anni fa abbia incontrato proprio quella etrusca carinissima, fino alla decisione presa pochi mesi prima di prendere l’autobus invece dell’automobile – saltasse. Lo stesso vale per l’altro partner con un’eguale combinazione praticamente irripetibile di eventi contingenti. Cosa significa tutto questo? Semplicemente che la scienza non ha nulla da dire sui casi singoli in quanto, per definizione, sono irripetibili in tutti i loro particolari. Attenti, allora, a chi pontifica sui geni che determinano il nostro carattere, o gli ormoni che ci spingono a compiere delle azioni; ricordatevi che, nei casi migliori, si tratta sempre di conoscenza valida su base di popolazione. E allora? Allora basta sfuocare un po’ la lente e passare a qualche cosa di più vago, a una categoria collettiva per cui si possono fare delle statistiche e, in maniera molto meno romantica, chiedersi: «con che probabilità un ragazzo e una ragazza entrambi abitanti a Roma, che poi si sposeranno, si sono incontrati in un giorno di marzo del 1988?». In questo modo il problema è trattabile dal punto di vista scientifico e con un po’ di domande a un campione abbastanza grande di coppie sposate possiamo pensare di arrivare a una soluzione anche molto precisa. 22 Bruna e Alessandro in questo procedimento hanno dissolto l’unicità della loro storia. Tutto quello che si riferiva esattamente a loro rifuggiva da ogni discorso quantitativo, e la domanda, riformulata in termini collettivi, ora ammette una risposta. Ogni affermazione scientifica seria ha senso a un livello di popolazione che, a seconda dei casi, sarà costituita da atomi, molecole, cellule, organismi, ma la regolarità non può che nascere a un livello più macroscopico rispetto a quello di partenza. La scienza, quindi, può solo raccontarci di categorie, mai di casi singoli, o meglio i casi singoli debbono essere osservati da una certa distanza, ed è solo da questa distanza che assumono un andamento regolare e riproducibile. Possiamo sapere a priori a quale distanza porci per osservare un fenomeno e scoprirne le regolarità? La risposta è sì e per capirlo dovremmo immaginare un esperimento simulato. Costruiamo un grafico che abbia nell’asse delle ascisse (l’asse orizzontale o delle X) dei valori che vanno da –35 a +35, in corrispondenza di ogni valore della X calcoliamo una Y (valore delle ordinate, asse verticale) secondo la formula: Y = X + N(0,7) (eq. 1). Otterremo una figura come quella qui di seguito: La formula (1) ci dice che il valore di Y è uguale a quello della X sommato a un «rumore casuale» (che possiamo immaginare come un errore di misura o qualsiasi altro evento di disturbo) descritto dal termine N(0,7), 23 Fig. 1: Il pannello superiore (a) indica la simulazione effettuata a «grande scala», il pannello inferiore (b) quella relativa alla «piccola scala». I singoli punti nei grafici sono i risultati di differenti applicazioni dell’eq. 1, gli assi sono rispettivamente la x (asse orizzontale o ascissa) e la y (asse verticale o ordinata). Il legame esistente fra la x e la y è molto chiaro nel pannello a (r = 0.82), mentre è praticamente invisibile in b (r = 0.27). 24 che rappresenta un’estrazione casuale (come prendere una pallina da un’urna) da una distribuzione di numeri con media 0 e deviazione standard 7 (deviazione standard 7 vuol dire che due estrazioni prese a caso in media differiranno di un valore pari a 7). Il pannello A ci dice quello che effettivamente ci aspettavamo, e cioè che la Y e la X sono correlate, cosicché a valori grandi della X (a destra nel grafico) corrispondono valori elevati della Y (in alto) e viceversa per i valori piccoli. Il legame tra X e Y non è deterministico e necessario (lo sarebbe stato se mi fossi limitato a pretendere Y = X), per cui i punti non si dispongono esattamente su una linea diagonale nel grafico, ma mostrano una certa variabilità attorno a questa linea dovuta al termine casuale1 [estrazioni casuali, corrispondenti a N (0,7)]. Comunque, la relazione tra X e Y è molto forte e la forza del loro legame è il valore espresso da r = 0.82: se questo valore fosse il risultato di un esperimento saremmo autorizzati a dire che Y dipende dalla X (con una certa approssimazione). Passiamo ora al pannello B che non è altro che un ingrandimento del pannello A), focalizzandoci in una zona più piccola del grafico (tra –5 e +5), che è, comun1. La lettera r rappresenta l’indice detto «coefficiente di correlazione di Pearson» (il lettore può inserire questo termine in Google e verrà sepolto da un profluvio di spiegazioni che qui tralasciamo), che ammette un massimo (correlazione perfetta X= Y) pari all’unità (r = 1). 25 que, l’area più popolata (l’80% delle osservazioni cade in questo intervallo). Qui le cose cambiano bruscamente, il legame fra le due variabili crolla da 0.82 a 0.27. Questo legame non è più significativo: se la X e la Y fossero state due misure sperimentali avremmo detto (a torto, ma in maniera matematicamente ineccepibile) che la Y non dipende dalla X. Gli stessi risultati, osservati a due scale differenti, ci forniscono una indicazione opposta. Che cosa dobbiamo pensare? Semplicemente che la distanza corretta da cui guardare il fenomeno era quella del pannello A, mentre nel pannello B il nostro sguardo è così ravvicinato che non riusciamo più a scorgere il legame esistente fra le due misure poiché è «sepolto» dal rumore casuale o, se preferite, da tutte quelle contingenze che non ci permettono di riconoscere a livello microscopico (il movimento della singola formica) la regolarità dell’organizzazione generale (l’intero formicaio). È sbagliato, dunque, pensare che avvicinarsi sempre più al livello microscopico permetta di scoprire le cause fondamentali dei fenomeni che osserviamo? Ebbene sì, con buona pace di chi dice che noi siamo uguali ai gorilla perché abbiamo il 95% del materiale genetico in comune; questo vuol dire semplicemente che le sequenze di DNA non sono situate a una distanza corretta per capire le differenze che esistono tra noi ed i gorilla. Allo stesso modo, andando ancora più a fondo, potrei dire che l’abbondanza relativa delle specie atomi26 che fra me e il ficus che ho sul pianerottolo è talmente uguale da rendere scientificamente dimostrato che io e il ficus siamo la stessa cosa (e chi dice il contrario è un maledetto oscurantista antiscientifico!). Molti scienziati di fama, affascinati e imbambolati da «teorie del tutto», questo non lo hanno ancora compreso. Perciò, come nell’osservazione di un quadro trovare la giusta visuale è indispensabile per poter veramente apprezzare il dipinto, così nel mestiere dello scienziato trovare la giusta visuale, da cui studiare il mondo e da cui muovere per costruire la propria opera, rappresenta la sfida più importante. 3. Il prodotto degli scienziati: precauzioni d’uso Nei cartoni animati lo scienziato è un signore molto intelligente e un po’ bislacco, sicuramente infantile: a volte cattivo, sempre fuori del mondo, ma con una grande abilità nel far uso di complicatissime formule matematiche. Per i filosofi lo scienziato è un bambino genialoide che ha a disposizione le chiavi della verità ma non sa che farsene, per cui il filosofo, meno intelligente ma più saggio, gli sfila dolcemente di mano quei disegnini tanto carini e finalmente li usa per svelare una definitiva visione del mondo. Sia i cartoni animati che i filosofi, comunque, concordano sui due punti chiave: l’infantilismo e la centra27 lità delle «leggi di natura», chiare e inesorabili. I cartoni animati, però, sotto il profilo epistemologico, sono molto più smaliziati: sanno che della scienza non ci si può fidare completamente, soprattutto quando diventa troppo complicata. Willy il Coyote ne sa qualcosa quando vede ridicolizzati, uno dietro l’altro, i suoi incredibili marchingegni da un intuitivo (e un po’ antipatico) Beep Beep. Molto meglio, allora, il «semplice» Bugs Bunny che, grazie all’uso accorto di due strumenti di base, la velocità nello scavare gallerie e l’abilità nei travestimenti, ottiene un successo dietro l’altro. Sia il quadro filosofico che quello fornito dalla Warner Bros. sono delle caricature. Nel primo caso, senza la saggezza dei disegnatori Warner Bros. che ci indicano il carattere di finitezza e imperfezione del fare scientifico, le distorsioni sono ben più pericolose. Qui abbiamo poco tempo per una disamina di tutte le manchevolezze della caricatura filosofica dello scienziato con tutte le sue astruse amenità su falsificabilità, paradigmi, ecc. La più grave è stata forse quella di accreditare la versione del primato della teoria nel fare scientifico: si è riuscito a far credere che un lavoro molto simile a quello del falegname e del carpentiere fosse un esercizio di deduzione di teoremi. Non si è trattato, chiaramente, di un equivoco nato per caso, ma della risposta alla necessità di un pensiero idolatrico che rendesse «necessario e inevitabile» tutto ciò che gli scienziati affermavano, dimenticandosi 28 completamente il carattere estatico e mai conclusivo dell’osservazione della natura. Questo slittamento di significato, che ha tolto alla scienza la sua ragion d’essere, si fonda su un equivoco legato al carattere del cosiddetto «metodo scientifico». Per questo è utile continuare il discorso sulla metodologia iniziato nel primo saggio entrando di più nel vivo di ciò che chiamiamo «inferenza statistica», strumento principe di argomentazione utilizzato dagli scienziati per dimostrare la forza delle loro affermazioni: qualcosa che tutti faremmo bene a conoscere, se vogliamo capire di cosa parlano le pagine dei giornali o la tv quando affrontano tematiche scientifiche. Il lavoro scientifico inizia sempre con una domanda di cui, in parte, si immagina già la risposta: la fase iniziale di scelta delle misure da acquisire, della strategia di raccolta dei dati, della definizione delle modalità sperimentali, che precede la fase dell’analisi vera e propria, è orientata a creare un contesto in cui la risposta sia il più possibile esauriente e con minori ambiguità possibili. Il gioco del biliardo si avvicina molto al mestiere dello scienziato: in entrambi i casi, le combinazioni di regolarità e pura casualità si presentano più o meno nella stessa proporzione. Inoltre, i giocatori di biliardo professionisti sono obbligati a dichiarare in anticipo l’effetto del colpo: se, per avventura, si verificasse un colpo ancora più sensazionale e astruso di quanto dichiarato, l’evento non avrebbe lo stesso valore della realizzazione della 29 predizione. Insomma, il bravo scienziato non si misura dal numero di volte che «ci azzecca» (cosa che dipende per larga parte dal caso), ma da come dispone chiaramente gli elementi del suo quadro, cosicché le sue risposte appaiano chiare, sia in positivo che in negativo. Il meccanismo retorico alla base di un qualsiasi decente pezzo di scienza può essere sintetizzato a grandi linee come segue: «se non ci fosse stato il fenomeno X (che io dico di aver scoperto) le cose sarebbero andate nella maniera A; invece, gli avvenimenti sono andati nella maniera B, dimostrando l’esistenza di X». Per mettere su un’arringa del genere abbiamo bisogno di tre elementi fondamentali: 1) avere un modello condiviso A di come andrebbero le cose se lo stato del mondo fosse lo stato reale «diminuito» dell’ente X, ciò che i metodologi chiamano ipotesi «controfattuale»; 2) dimostrare in maniera plausibile che le cose sono andate in maniera B, sensibilmente diversa da A; 3) rendere necessario il legame tra il non avverarsi di A e l’esistenza di X. Qui ci limiteremo al secondo punto, il più semplice da trattare senza entrare nel merito di un particolare problema. Giusto per dare un’idea dei vespai generati dai punti 1 e 3, si immagini – punto 1 – che cosa può significare creare un’ipotesi «controfattuale» in uno studio epide30 miologico volto a scoprire se gli afroamericani si ammalino più di frequente di una certa malattia rispetto ai caucasici. Allora, dovremmo immaginare due gruppi che si distinguono solo per il colore della pelle, andando a scovare neri e bianchi che hanno lo stesso reddito, frequentano le stesse scuole, hanno le stesse abitudini alimentari… più o meno una follia. Rimanendo nello stesso ambito – punto 3 –, dopo aver eliminato tutti questi possibili confondimenti, dovremmo dimostrare che quanto osservato non ammetta spiegazioni alternative. Limitiamoci, allora, al più «tranquillo» punto 2 e introduciamo due concetti estremamente utili: quello di «popolazione» e quello di «campione». Per popolazione intendiamo l’intero insieme di misure teoricamente possibili di un certo fenomeno, per campione le misure effettivamente realizzate. Soddisfare il punto 2 corrisponde a stabilire con quanta verosimiglianza i risultati ottenuti da un certo campione limitato possano essere estesi all’intera popolazione di riferimento. Andiamo sul pratico e immaginiamo di voler eseguire un’indagine epidemiologica sulla relazione tra il livello di istruzione e il ricorso a qualche forma di psicoterapia. In questo caso, la nostra ipotesi di partenza potrebbe essere che la psicoterapia sia più diffusa tra le persone di istruzione medio-alta, ipotizzando una sorta di «disagio dell’intellettuale» a cui le persone più semplici siano in qualche modo immuni. 31 La prima cosa da fare è situare la nostra indagine nel tempo e nello spazio: questo corrisponde a definire le condizioni al contorno della misura. Nell’esempio proposto viene scelta la popolazione romana di sesso femminile e di età compresa fra i trenta e i cinquanta anni. Questa popolazione, anche se non contattabile nella sua totalità, è perfettamente definita: in un qualunque momento si può stabilire con assoluta certezza se una persona ha i requisiti per far parte della popolazione controllando i registri dell’anagrafe. La popolazione è costituita da donne con diverso livello di istruzione, che noi abbiamo bisogno di esprimere con una misura il più possibile appropriata. Scegliamo, allora, come indicatore il numero di anni di studio (STUD), anche se tutti sappiamo che non sempre la cultura di una persona è proporzionale al numero di anni passato sui banchi di scuola (ammettendo di sapere di che si parla, parlando di «cultura»). Tuttavia, decidiamo che, «grossolanamente», la variabile STUD possa essere un’approssimazione di questo concetto, tanto più che ci basiamo su un campione piuttosto vasto in cui eventuali eccezioni si dovrebbero diluire. Qui possiamo toccare con mano cosa intendiamo quando diciamo che le nostre misure (e, quindi, la scienza che per definizione si fonda su misure) non sono la cosa in sé, ma qualcosa che la ricorda; la cultura in quanto tale è fenomeno sfuggente e indefinibile in maniera condivisa e per poterla inserire in un quadro «scientifico» dobbiamo trasformarla 32 in una sbiadita caricatura (la nostra variabile STUD), che, però, ci permette di operare in maniera controllabile e verificabile da un osservatore esterno. Stiamo barattando la profondità con la ripetibilità e la possibilità di controllo: sappiamo cosa perdiamo, sappiamo cosa guadagniamo. Il gioco rimane onesto fin tanto che non pretendiamo di aver capito l’essenza di ciò che stiamo studiando a livello della singola persona: questo è un punto da tenere bene a mente quando leggiamo di nuove scoperte mediche o di psicologia e sociologia. Capiamo, allora, i pericoli a cui andiamo incontro quando ci muoviamo dal terreno relativamente sicuro dell’osservazione della natura ed entriamo nei terreni minati delle scienze umane. Ma torniamo alla nostra domanda e poniamo che la variabile STUD sia la soluzione ottimale per quantificare la cultura delle persone: in questo caso ci viene in aiuto la media, un valore che ci dà un’idea dell’ordine di grandezza delle cose2. Infatti, se confrontiamo la media di STUD calcolata su un 2. La media aritmetica, cioè la somma di tutti i valori della variabile diviso per il numero N degli individui, è semplicemente esprimibile dalla formula: E (STUD) = S (stud(i))/N) [1], dove E sta per «expectation»,cioè «valore atteso» della variabile STUD, il simbolo greco della S maiuscola indica la sommatoria di tutti i valori, mentre sotto il segno della frazione abbiamo il numero N di osservazioni. Da quanto detto prima, questa media verrà eseguita separatamente per i gruppi PSIC e NOPSIC. STUD 33 campione di donne che hanno fatto ricorso alla psicoterapia con la media riferita a un campione di donne che non vi hanno mai fatto ricorso e riscontriamo una certa differenza, il problema si riduce a stabilire se questa differenza sia dovuta semplicemente al caso oppure no. Per intraprendere questa strada iniziamo a raccogliere le informazioni rilevanti per il problema. Alla fine della raccolta dati il nostro materiale sarà sintetizzato da una tabella che ha per righe i singoli soggetti sperimentali e per colonne il gruppo di appartenenza (codificato come PSIC, per chi ha fatto esperienza di terapia psicologica, e NOPSIC, nel caso contrario) e il valore della variabile STUD relativo al soggetto sperimentale. Qualcosa come: Nome Anna Laura Anita Renata Classe STUD NOPSIC 8 12 18 8 PSIC NOPSIC PSIC Nel caso proposto dall’esercizio, la media di 31 individui del gruppo NOPSIC è pari a 10.87 anni di studio, e quella dei 36 individui del gruppo PSIC è pari a 13.19 anni di studio, con una differenza di 2.32 anni. Sono sufficienti circa 2 anni di differenza nelle medie a dire che il grado di cultura ha un effetto sensibile sul ricorso alla psicoterapia? 34 Per decidere se la differenza osservata si possa attribuire al caso oppure no, dobbiamo confrontare questo differenziale di «circa due anni di studio» con la variabilità casuale. Abbiamo bisogno di una stima di tale variabilità nella popolazione, ossia di un indice che ci dica quanto, in media, ci aspettiamo che un’osservazione presa a caso differisca dalla media della popolazione. Si tratta, ancora, di un valore atteso, ma non più della grandezza tale e quale, bensì degli scarti (differenze, distanze) dei singoli accadimenti rispetto al valor medio. Questo indice, la cosiddetta «deviazione standard»3, ci dà un’idea di quale sia l’entità di una differenza «normalmente attesa» tra un elemento della popolazione e il valore medio della popolazione stessa. È, insomma, una misura dell’incertezza della nostra media o, se si preferisce, della sua scarsa rappresentatività. Potremmo dire che, nel nostro caso, le deviazioni standard dei due campioni coincidano, essendo pari a 3. La formula è: Std. Dev. (STUD) = √ S (stud(i)) – E(STUD))2 / N. A ben vedere, la deviazione standard non è altro che la media degli scarti delle singole osservazioni dal proprio centro con il solito trucco del quadrato seguito dalla radice per evitare la somma zero. La (2) senza l’operazione di quadrato si chiama «varianza», corrisponde a quello che i fisici chiamano «momento di inerzia» e, nei segnali, ha anche a che vedere con la «potenza» dei segnali. Noi, però, rimaniamo al significato intuitivo di «differenza media» tra un valore effettivo di una variabile e il centro della sua distribuzione. 35 4.55 per la classe NOPSIC e a 4.49 per la classe PSIC. Questo ci dice che la differenza osservata tra le medie delle due popolazioni, PSIC e NOPSIC, di 2.32, sia essa dovuta o no al caso, è, comunque, piuttosto piccola, essendo ampiamente all’interno della variabilità naturale, cioè di quanto differiscono in media due individui presi a caso dalla stessa popolazione. Possiamo, quindi, fermarci qui? Potremmo, e sicuramente non ci perderemmo un risultato eclatante, ma ci stiamo dimenticando di una sottigliezza legata a un insidioso concetto che la scienza ha mutuato da quella potente, quanto pericolosa, alleata che è la matematica, e cioè il concetto di «valore vero». Le cose stanno più o meno così: immaginiamo di poter effettivamente chiedere a tutte le donne di Roma di età compresa tra trenta e cinquanta anni se hanno mai frequentato sedute di psicoterapia e per quanti anni sono andate a scuola. Questa è un’operazione lunga e tediosa, ma che non presenta impossibilità intrinseche. Immaginiamo che alla fine della rilevazione le due popolazioni4, PSIC e NOPSIC, abbiano come valore medio e deviazione standard proprio gli stessi valori che noi abbia4. Attenzione, a questo punto non sono più campioni, cioè sottoinsiemi, ma sono proprio due popolazioni intere, rispettivamente: «tutte le donne romane fra i trenta e i cinquanta anni che sono state in psicoterapia» (PSIC), e «tutte le donne romane fra i trenta e i cinquanta anni che non sono mai state in psicoterapia» (NOPSIC). 36 mo osservato nei nostri miseri campioni di 36 e 31 individui. Solo a questo punto noi sapremmo con certezza che le due popolazioni sono diverse, in quanto PSIC ha media 13.19 e NOPSIC 10.87 e 13.19 è sicuramente più grande di 10.87. Carino, no? Allora il nostro ragionamento di buon senso sull’entità delle differenze si dimostrerebbe un’imperdonabile leggerezza che ci celerebbe la verità. Ricordiamoci che alla base dell’inferenza statistica (come di qualsiasi tipo di inferenza) c’è l’ambizione di derivare «verità generali» da osservazioni parziali e cioè di generalizzare da un campione alla popolazione, e noi stiamo preparando un’arringa per dimostrare che la psicoterapia c’entra con lo studio in generale e non soltanto per le nostre 67 intervistate. In altri termini, il problema diventa: con che verosimiglianza il valore medio della popolazione di riferimento è sovrapponibile a quello osservato nel campione5? Questo ci permette di definire una misura di variabilità che, a differenza della deviazione standard, non misura più lo scarto medio di un’osservazione dal suo insieme di riferimento, bensì lo 5. Senza entrare nei dettagli matematici della dimostrazione, è comunque intuitivo capire come campioni più numerosi siano più rappresentativi di campioni più piccoli. Si tratta di un teorema detto «del limite centrale», che fa sì che, con N che diventa molto grande e approssimandosi, quindi, il campione all’intera popolazione, la mia incertezza sulla media vera della popolazione scompaia progressivamente. 37 scarto della media di un campione dalla media della popolazione da cui è tratto. La domanda a cui risponde, insomma, non è più, come nel caso della deviazione standard, quanto mi aspetto che differisca dalla media un individuo preso a caso da una popolazione, ma piuttosto quanto mi aspetto che differisca dalla media della popolazione, la media di un campione di N elementi. La misura di questa variabilità si chiama «errore standard» (ES) e si ottiene dividendo la deviazione standard, di cui sopra, per la radice della numerosità del campione. In una semplice formula: ES = Std.Dev. / √ N Questo è un passaggio fondamentale su cui i nostri lettori devono meditare a lungo. L’individuo è ormai sparito dall’orizzonte: abbiamo assunto la popolazione come soggetto e ci facciamo delle domande su dei collettivi ridotti (campioni), chiedendoci quanto siano simili alla popolazione generale. Nel nostro caso, allora, le deviazioni standard dei due gruppi PSIC e NOPSIC che si situavano attorno a 4.5 corrispondono a un errore standard attorno a 0.8, decisamente inferiore alla differenza di 2.32 osservata tra i valori medi della variabile STUD nei due gruppi. Infatti, l’applicazione di un classico test6 porta a stimare una probabilità 6. Il test inferenziale associa alle distribuzioni osservate una densità di probabilità denominata «gaussiana». Qui basti dire che si tratta di una trasformazione dei dati osservati secondo un’ipotesi di distribuzione che 38 del 4% che la differenza osservata fra i due gruppi sia dovuta al caso. Questo valore del 4% ci consente di dire che l’effetto degli anni di studio sul ricorso alla psicoterapia è statisticamente significativo7, anche se solo marginalmente. Per capirsi, tutti noi siamo disposti ad accettare come buona qualcosa che si verifica nel 96% dei casi. Quanto sopra è tutto vero, ma a me, e spero anche a voi, sembra di sentire puzzo di bruciato, un vago sentore di imbroglio, ancora più insidioso perché supportato dall’evidenza matematica. Insomma, siamo ammirati della sottigliezza del ragionamento, ma, tutto sommato, non era più simpatico quel rozzo ma schietto confronto fra 2.3 e 4.5? Torniamo, allora, all’equazione precedente e, come fanno i matematici, facciamo un discorso «al limite», e vediamo cosa succede stiracchiando oltre il ragionevole le condizioni al contorno. In particolare, se la numeroporta a una forma a campana (curva di Gauss) con valori intermedi della variabile corrispondenti alle probabilità più elevate mentre i valori più estremi (molto piccoli o molto grandi) hanno probabilità minori. 7. Il limite di significatività statistica – cioè la probabilità di prendere una cantonata quando diciamo che due gruppi sono diversi, quando, invece, la loro differenza dipende solo dal caso –, convenzionalmente accettato come soglia per rifiutare o accettare un’ipotesi, è del 5%. Questo limite ha una storia interessantissima che merita di essere conosciuta, in quanto ha a che vedere con la birra. 39 sità del campione è molto grande (cioè N tende a infinito), è facile comprendere che, dato che la deviazione standard è un numero finito, aumentando il valore di N, che è al denominatore della formula, ES tenderà a zero. Tutto giusto, no? Al crescere della numerosità, il campione diventerà sempre più rappresentativo della popolazione con cui tende a coincidere. Questo risultato, però, porta con sé una conseguenza perversa: qualsiasi differenza, comunque piccola, rispetto a qualsiasi cosa, con un campionamento sufficientemente grande, diventa statisticamente significativa, cioè «vera». E con questo la matematica seppellisce definitivamente la scienza sotto una montagna di ridicolo, dimostrando come si possa rigorosamente affermare qualsiasi bestialità se si hanno a disposizione mezzi e tempo per affrontare una sperimentazione sufficientemente vasta e, quindi, (secondo la vulgata corrente anche tra la maggioranza degli scienziati) rigorosa. Cerchiamo di stare calmi e, mentre traiamo da questo risultato un’altra occasione di meditazione su quanto la sensibilità scientifica differisca da quella matematica, ma anche, cosa molto più importante, mentre tentiamo di comprendere l’imbroglio potenzialmente celato dietro frasi come «suffragato da una vastissima sperimentazione», cerchiamo di salvare la possibilità di un discorso razionale. Per prima cosa, separiamo il concetto di «statisticamente significativo» da quello di «rilevante». La signifi40 catività statistica si riferisce alla probabilità che due misure siano o no assolutamente identiche. «Assolutamente identiche» è molto diverso da «ragionevolmente identiche», tant’è che, mentre è praticamente impossibile che l’altezza di due persone misurata con la precisione del decimo di millimetro sia identica, il mondo è pieno di persone alte circa un metro e ottanta. Questo implica che la significatività statistica, come d’altronde qualsiasi altro strumento, è un concetto utilissimo a un certo dettaglio di misura, mentre, oltrepassato questo dettaglio, diventa addirittura controproducente. Alla base del raggiungimento della significatività statistica della differenza di due campioni ci sono tre ingredienti che intervengono alla pari: 1) il valore effettivo della differenza osservata (differenze grandi hanno più possibilità di essere significative); 2) l’entità della variabilità naturale della popolazione stimata dalla deviazione standard dei campioni (popolazioni più eterogenee saranno caratterizzate da un grado maggiore di incertezza rispetto alla loro media e, quindi, permetteranno con più difficoltà di osservare effetti significativi); 3) la numerosità del campione (un grande numero di osservazioni rende i campioni immagini più verosimili della popolazione di riferimento e aumenta la potenza del test statistico). 41 Il bilancio di questi tre ingredienti deve essere accortamente dosato dallo sperimentatore per evitare risultati assurdi, per cui una numerosità molto alta del campione e una variabilità relativamente bassa della popolazione consentono di osservare come significative anche differenze molto piccole tra le medie8. Viceversa, un campione poco numeroso in presenza di una notevole variabilità naturale non permetterà di dimostrare come significative anche differenze piuttosto elevate delle medie. Questa attività, da svolgersi prima dell’ottenimento dei risultati, consente di avere un’idea del tipo di esperimento da programmare sulla base delle risorse disponibili e, principalmente, di cosa io ritengo una differenza degna di nota. In pratica, uno sperimentatore che sia interessato a un farmaco antiipertensivo inizia a ritenere un risultato rilevante nel momento in cui il farmaco abbassa la pressione del 20%, mentre non ha alcun interesse a organizzare un test che dimostri in modo inequivocabile che veramente il suo farmaco abbassa la pressione in media dello 0.1%, in quanto questo abbassamento di pressione, benché certificato da una rigorosa sperimentazione, non cambia di nulla la condizione del paziente. In conclusione, mentre in matematica esiste un bordo netto tra il vero e il falso, nelle scienze sperimentali il 8. Si dice, allora, che il test ha una potenza elevata, è, cioè, molto sensibile. 42 confine cruciale è tra il rilevante e l’irrilevante e quest’ultimo, anche se è vero, resta sconsolatamente irrilevante. Ed ecco, allora, che comprendiamo due punti chiave in parte contrari al nostro consueto modo lineare di vedere: 1) che gli strumenti più sensibili non sono necessariamente i migliori; 2) che il concetto di verità di un’informazione è in una posizione subordinata rispetto al concetto di rilevanza. Il caso della psicoterapia è, però, rimasto in sospeso: in base ai risultati, possiamo dire che vale la pena approfondire o possiamo cavarcela facendo spallucce? Per rispondere a questa domanda dobbiamo prima rispondere a un’altra che è solo apparentemente innocente: «ma perché lo vogliamo sapere?». Insomma, se io sono un assicuratore che vuole stabilire il premio di una polizza di assicurazione sanitaria che comprenda la psicoterapia, sicuramente il dato è rilevante: lavorando sui grandi numeri posso pensare che un piccolo ritocco alle rate da pagare basato sul titolo di studio sia ragionevole e conveniente. Se io sono uno psicologo sperimentale che vuole costruire su questo risultato una teoria psicoanalitica sul «disagio dell’intellettuale», è meglio che lasci perdere: il risultato, così com’è, non mi dice alcunché sul singolo paziente, che è poi il soggetto di ogni eventuale teoria. Ancora peggio, io non so se l’ef43 fetto da me osservato non dipenda da un «confondente», ad esempio semplicemente dal fatto che, di solito, chi ha un titolo di studio più alto ha anche maggiore disponibilità economica e, quindi, si può permettere la psicoterapia. La storia recente dell’epidemiologia è tutta un susseguirsi di proclami e smentite sulle supposte pericolosità di campi elettromagnetici, particolato diesel, coloranti, ecc., proprio per i problemi che abbiamo cercato di enucleare qui. Di fatto, molti asseriscono che l’epidemiologia analitica, basata su questo uso della statistica, sia ormai arrivata al capolinea. Qui non abbiamo tempo per parlare di rimedi che esistono, ma implicano un approccio statistico completamente nuovo, basato sulla correlazione individuale e non sul dato di popolazione (ma per fare questo dovremmo uscire dalle fondamenta della scienza ed entrare nei miei appartamenti, cosa per altro abbastanza noiosa per chi non è proprio un fanatico di statistica). Questo, però, non cancella la natura di base del problema e cioè la centralità dell’innocente domanda «perché lo vogliamo sapere?», che da sola inserisce la dimensione etica nel fare scienza, annullando alla radice il mito del valore assoluto della conoscenza scientifica in quanto tale. Ecco, allora, che possiamo tornare a Willy il Coyote e ad alcune «precauzioni d’uso» che ci aiuteranno a comprendere il senso da dare non solo alle informazioni 44 scientifiche, ma a qualsiasi tipo di proclama che troviamo sui media, come, ad esempio, l’effetto di un farmaco su una caratteristica X di interesse terapeutico: 1) cercare sempre di scovare il punto in cui nell’articolo di giornale c’è scritta l’entità dell’effetto osservato. Non se l’effetto c’è o non c’è, ma quanto grande è: insomma, se X passa da 100 a 101 oppure da 100 a 1.000. Anche se non conosciamo di che si tratta, più o meno riusciamo a farci l’idea che nel primo caso l’informazione è perdibilissima, mentre nel secondo vale la pena continuare la lettura; 2) passare poi a vedere se si dice quale variabilità ci si aspetta nel caso non si intervenga in nessun modo. Se questo dato manca, buttare l’articolo nel cestino più vicino; 3) cercare di capire le caratteristiche salienti della popolazione su cui si è fatto lo studio: non è che qui si parla di «leggi di natura», comunque valide, qui le condizioni al contorno sono il 90% del gioco; 4) vedere in che termini è stata posta la domanda a cui si cerca di dare una risposta. Ricordo una quindicina di anni fa un articolo su «Science» che diceva di aver trovato «il gene della follia», considerando «affetti dalla stessa malattia» uno che si calava i calzoni nella metro, uno che aveva tentato il suicidio, uno che aveva bruciato una casa, e 45 uno molto, ma molto melanconico (articolo fornibile su richiesta e qui taciuto per misericordia). Armati di queste considerazioni, possiamo allora difenderci da tante «bufale», più o meno sensazionali che ci vengono propinate dai media e, soprattutto, apprezzare l’umiltà dello scienziato che cerca di costruire qualcosa che si avvicini il più possibile alla realtà, inciampando, sbagliando, approssimando. Lasciamo adesso i lidi della statistica e inoltriamoci nelle frontiere della scienza di base, mondo più rarefatto rispetto alla pratica «bruta» della scienza applicata. Parleremo di proteine, di entropia, di energia, roba apparentemente molto astrusa, quindi, miei cari visitatori delle fondamenta, non vi spaventate se vi sembra di non capire il senso. Abbandonatevi alle vostre sensazioni, tornate bambini che osservano lo stagno, riconquistate questa libertà (che gli storici o gli economisti possono solo sognare). 4. Semplice e Complesso 4.1. Premesse storiche: Jurassic Park Fino a qualche decennio fa, parlare di cosa fosse semplice e cosa complesso o, addirittura, del grado di complessità di un oggetto rispetto a un altro sarebbe apparso in46 concepibile. La scienza proiettava al suo interno (e anche all’esterno sotto forma di filosofia scientista) l’immagine di un progresso lineare e inesorabile delle scienze che avrebbero prima o poi chiarito ogni aspetto dello scibile. Nonostante il Novecento fosse stato caratterizzato da scienziati che, in vari campi, dalla fisica (Heisenberg, Poincarè), alla matematica (Gödel), fino alla metodologia statistica (De Finetti), hanno sottolineato la presenza di limiti ineludibili e intrinseci allo stesso fare scientifico, preceduti nel secolo precedente dalle intuizioni stupefacenti di Dimitri Ivanovic Mendeleev (la cui opera è scandalosamente poco conosciuta in Occidente), l’intera impresa scientifica trascinava con sé, per forza di inerzia, calcolo politico, infatuazione ideologica e l’idea della tendenziale conoscibilità completa del mondo. L’interesse per la complessità era nato nella comunità fisica in maniera impetuosa verso la metà degli anni Ottanta del secolo scorso, con l’intento di fornire delle descrizioni della forma della recinzione del «conoscibile» e come conseguenza dell’ormai universalmente accettata presenza di limiti intrinseci alla conoscibilità. Questo interesse era curiosamente in contrasto, nelle scienze biologiche, con le sirene degli epigoni della scienza positivista, che intonavano il loro canto del cigno: l’annuncio del progetto genoma che, con il sequenziamento completo del DNA umano, avrebbe costituito la «tavola periodica» della biologia, l’inizio del disvelamento del mistero della vita. 47 Curiosamente l’opposizione fra scienze un tempo «dure», diventate più pensose e rispettose del carattere multiforme della realtà, e l’arroganza crescente delle scienze «morbide» è rappresentata benissimo, e in contemporanea con il dibattito scientifico, in un film di Steven Spielberg del 1993: Jurassic Park. Per chi non lo ricordasse, il film tratta di un miliardario visionario (gli americani usano il termine Maverick per queste persone un po’ strampalate ma con intuizioni innovative) che compra un’isola tropicale dove impianta una sorta di «Parco del Giurassico» in cui si aggirano dinosauri estinti da decine di milioni di anni, «riportati in vita» da un’ingegnosa e spregiudicata metodica di biologia molecolare (completamente di fantasia, chiaramente, ma in linea con la filosofia delle tecniche effettivamente usate nella realtà). Frammenti di DNA di dinosauro, rinvenuti in zanzare conservate nell’ambra che avevano punto i bestioni e succhiato loro il sangue decine di milioni di anni addietro, venivano complementati con DNA di rospo (considerato il più simile a quello originario) e, una volta ricostituiti nella loro interezza, iniettati in uova di anfibio. Lì avveniva lo sviluppo embrionale con conseguente nascita dei dinosauri, solo femmine, in maniera da poter tenere il loro numero sotto controllo, in quanto la generazione di nuovi individui era possibile solo in maniera artificiale e, quindi, controllabile. 48 Prima di aprire al pubblico il «Jurassic Park», il proprietario invita a visitare la sua isola tre scienziati di carattere e formazione molto diversi: un «teorico del caos», il professor Ian Macolm (interpretato dall’attore Jeff Goldblum), un biologo evoluzionista specializzato in paleontologia, il professor Alan Grant (Sam Neill) e sua moglie, anch’essa biologa ma di formazione più di tipo fisiologico, la professoressa Ellie Sattler (Laura Dern). A causa di un informatico traditore, Dennis Nedry (Wayne Knight), responsabile del sistema di sicurezza del parco, le cose precipitano e i feroci dinosauri si liberano nell’isola in cerca di prede. Dopo varie peripezie, i personaggi (tranne il perfido informatico) riescono ad abbandonare l’isola e a salvarsi. Il parco viene distrutto, ma rimane un’angosciosa minaccia (da cui partiranno i vari sequel): avendo fatto sviluppare gli embrioni di dinosauro all’interno delle uova di rospo, animale che notoriamente (ma questa cosa la sapevano solo i biologi vecchio stampo, non sfiorando neppure l’immaginazione, ahimè, limitata dei biotecnologi) muta di sesso quando si trova in gruppi monosessuali, si sono prodotti anche dinosauri maschi che, accoppiandosi con le femmine, hanno portato l’esperimento giurassico fuori dal controllo umano. Il film riesce in maniera stupefacente a compendiare l’intero spettro dei diversi campi della scienza nell’imminenza di un cambiamento epocale: 49 1) il cupo teorico Malcolm dice a un certo punto: «Detesto avere sempre ragione», riferendosi alla sua previsione di fragilità e sostanziale erraticità dei sistemi complessi che li porta a sicura catastrofe. In qualche modo sottolinea un comportamento effettivo (l’instabilità dei sistemi troppo vincolati), fornendone, però, le ragioni sbagliate (ma che a quel tempo erano ancora in auge nel mondo scientifico): cioè, la dipendenza del caos deterministico dalle condizioni iniziali (il famoso «effetto farfalla» che abbiamo imparato a conoscere da mille divulgazioni). Di fatto la fisica non aveva ancora abdicato alla vecchia idea che esistesse un’equazione per tutto, anche per i sistemi viventi, solo che ammetteva che questa equazione avesse delle soluzioni particolarmente instabili (in gergo «attrattori strani»), per cui anche una lievissima incertezza nelle condizioni iniziali avrebbe portato a enormi conseguenze nel risultato finale (appunto la farfalla che, sbattendo le ali a New York provocava un uragano a Tokio). Il caos deterministico, poi, non fu mai dimostrato in nessun sistema reale ma, come spesso accade, la sua affannosa ricerca aprì la via allo studio accurato della reale complessità dei sistemi. 2) I biologi molecolari sono ripresi dal regista quasi sempre in gruppo, a sottolineare il carattere 50 «operaio» di produzione di massa dell’impresa biotecnologica che mal sopporta la vecchia figura dello scienziato individualista. A ribadire il carattere massificato della loro disciplina, con una punta, neanche tanto lieve, di pregiudizio, i biologi molecolari nel film sono tutti asiatici e, anche se dotati di prodigiosa abilità tecnica, sono non solo ignari ma anche disinteressati rispetto a problemi scientifici di più ampio respiro o alle conseguenze delle loro azioni. Spielberg ci offre, attraverso di loro, il ritratto di una tecno-scienza sicura dei suoi mezzi e completamente al di fuori dell’ambito della riflessione epistemologica o anche semplicemente culturale. L’efficacia della biotecnologia, nel film, si coniuga a delle conseguenze catastrofiche, nella realtà, più mestamente, a questa efficacia ormai non crede più nessuno o quasi. La biotecnologia, scontrandosi in maniera frontale con la complessità dei fenomeni vitali, si è dimostrata, di fatto, inadeguata ad applicazioni industriali e farmacologiche rivoluzionarie. 3) La biologia «tradizionale», rappresentata dalla coppia Grant/Sattler, viene all’inizio ritratta in atteggiamento estatico-reverenziale di fronte ai «miracoli» resi possibili dalla biologia molecolare che sembra avere il potere alchemico di decomplessi51 ficare, d’incanto, gli organismi viventi riducendoli alla loro sequenza di DNA. Questo atteggiamento si è effettivamente verificato nella biologia, dove, intorno agli anni ’80-’90, il dato molecolare spadroneggiava su ogni altro possibile approccio organismico o, comunque, di sistema. Le classificazioni biologiche, così come il funzionamento del cervello o l’eziologia delle malattie, venivano arbitrariamente ridotti al gene X o Y. Durante lo svolgimento della vicenda, però, i due biologi prendono coscienza di qualche vistosa crepa nell’impianto apparentemente perfetto del «Jurassic Park», finché anche loro si rendono conto, come Malcolm, ma basandosi su considerazioni ecologiche e non su modelli teorici, che la complessità (in questo caso l’interazione dei dinosauri con l’ambiente) non può essere ridotta al dato molecolare. 4) Infine, il perverso intreccio tra scienza e affari è rappresentato, non a caso, da un informatico bambinone e, tutto sommato, maligno che alla fine appare come il vero «cattivo» della vicenda. Il regista esprime un’antipatia profonda verso questa figura, diversa dalla sottovalutazione mostrata per i biotecnologi: il film ci suggerisce che l’informatica è roba per ragazzoni brufolosi e un po’ perversi. Questo è chiaramente un atteggiamento ul52 tramoralistico assolutamente fuori luogo, ma abbastanza diffuso. Mentre un «esperto di informatica» di trenta anni fa era un matematico o un ingegnere, adesso è un hobbista oppure il figlio scontroso e svogliato della signora del piano di sotto. In conclusione, come spesso accade, l’arte ha intuito l’aria dei tempi fotografando in maniera mirabile il mondo scientifico che, con varie emozioni e aspettative, stava per affrontare il fallimento di un modo di procedere vecchio di secoli. Ed è con questo fallimento, descritto nelle sue grandi linee attraverso i personaggi e le vicende del film, che la scienza deve fare i conti. Insomma, è proprio da dati naturali non integrabili nelle rappresentazioni teoriche che ne aveva dato la scienza in uno sviluppo di più di tre secoli, che prenderemo le mosse per cercare di definire il ruolo giocato dalla considerazione esplicita della complessità, con particolare riguardo alla biologia, dove la catastrofe del pensiero scientifico tradizionale ha avuto maggior risalto. 4.2. Risveglio: quali sono e dove si trovano le cose veramente interessanti L’articolo More is Different del fisico Philip Anderson, pubblicato dalla rivista «Science» nel 1972, può essere 53 considerato una sorta di spartiacque nella storia recente della scienza. Indicando che «il tutto è più della somma delle sue parti», Anderson esplicita a chiare lettere qualcosa che gli scienziati sapevano da sempre, ma solo sporadicamente avevano osato esprimere a piena voce. Il punto è che il vero oggetto della conoscenza scientifica non sono le cose in sé, ma le relazioni fra le cose e queste relazioni non sono direttamente derivabili dalle caratteristiche intrinseche degli oggetti che entrano in relazione, ma, tutt’al più, «compatibili» con esse. Insomma, con gli stessi mattoni posso costruire una cattedrale o una fattoria, ma andare al fondo delle caratteristiche del mattone non mi fa avanzare di un passo nel distinguere una cattedrale romanica da una gotica. Semmai, dovrò prendere in considerazione concetti «mesoscopici», a metà fra l’intera fabbrica e il mattone, come l’arco la cui forma circolare o ogivale permette, infatti, di discriminare i due stili. Insomma, ci si è resi conto che la rappresentazione più efficiente dei fenomeni va cercata dove si instaurano le relazioni importanti tra le cose, dove scale differenti si toccano grazie all’instaurarsi di correlazioni fra gli elementi. Il mondo del «mesoscopico» è il mondo delle proprietà emergenti, quelle proprietà, cioè, che scaturiscono dalle relazioni fra diversi oggetti messi in relazione in un sistema unitario: uno dei campi dove più acuta si percepisce l’importanza di questo «livello intermedio» è lo studio delle proprietà delle macromolecole biologiche. 54 È, dunque, proprio dalle proteine che inizieremo a discutere di complessità in biologia, sapendo che proprio lì inizia il mondo dei sistemi complessi tout court. Prima, però, di iniziare la parte «più scientifica» del capitolo adottiamo una definizione di minima di sistema complesso: «un sistema complesso è un sistema che mostra un comportamento imprevedibile», il grado di complessità è, quindi, proporzionale alla nostra incertezza sul suo comportamento. Per quanto di minima, questa è la definizione più rigorosa possibile di complessità che ha il vantaggio di rendere la complessità stessa misurabile con indici quantitativi in svariate situazioni sperimentali e che ha un diretto rapporto con risultati matematicamente rigorosi. Affineremo in seguito questa definizione che, però, a grandi linee, è sicuramente soddisfacente. Le proteine occupano una posizione unica nella gerarchia dei sistemi naturali, una zona grigia tra la chimica e la biologia. Le proteine sono dei polimeri costituiti da una serie non periodica di 20 specie monomeriche, dette «aminoacidi», legati fra loro in una catena continua da legami covalenti fra monomeri contigui in sequenza. Immaginatevi una collana di perline, con 20 tipi possibili di perline variamente intercalati fra di loro: le perline sono i singoli aminoacidi, la collana è la proteina, gli aminoacidi sono i monomeri, la proteina il polimero. Mentre i polimeri artificiali formano delle matrici insolubili (pallocchi di roba informe che non si scioglie), 55 la maggioranza delle proteine in soluzione si ripiega in strutture autoconsistenti (struttura terziaria), determinate dall’interazione della sequenza di monomeri (struttura primaria) con il solvente. Insomma, le proteine non si accumulano al fondo della beuta (cellula), ma nuotano elegantemente, ogni molecola separata dalle altre, nel mezzo in cui sono inserite. Nella figura 1 sono riportate due proteine rappresentate come sequenze di aminoacidi e come appaiono nello spazio (fold o struttura 3D). La figura riporta due proteine indicate dalle loro sigle pg ed sh3. I due «nastri ripiegati» sono una descrizione schematica di come appare il ripiegamento (fold) delle proteine nello spazio, è quella che chiamiamo «struttura 3d» o terziaria. Le sigle di tre lettere riportate una di seguito all’altra corrispondono alla sequenza di aminoacidi (o struttura primaria) delle proteine: ogni sigla corrisponde ad un particolare aminoacido, l’ordine di comparsa corrisponde all’ordine degli aminoacidi lungo la sequenza. 56 Sono due proteine estremamente piccole, formate da 56 e 62 aminoacidi. La grandezza delle proteine varia da circa 30 a 1.000, con pochi isolati mostri da 10.000 aminoacidi. Si tratta, comunque, anche nel caso delle proteine più piccole, di oggetti molecolari di dimensioni mostruose rispetto alle molecole di cui normalmente si occupa la chimica organica. Ciò fa sì che il «maggior problema» che una proteina deve risolvere è quello di trovare una configurazione spaziale che le permetta di essere solubile e, quindi, di operare le sue funzioni nella cellula senza precipitare in una matrice amorfa e uscire dalla soluzione. La sequenza di aminoacidi può, pertanto, essere considerata come una ricetta che, «interpretata» dalle condizioni al contorno (tipo di solvente, forza ionica, pH, presenza di altre molecole, ecc.), dà vita a una configurazione che garantisce la solubilità della macromolecola (la proteina in quanto tale). a) Qui possiamo vedere all’opera il primo (e, forse, più importante) elemento che concorre a caratterizzare ciò che denotiamo come «complessità»: le proteine (e, in genere, i sistemi complessi) sono dei sistemi aperti che non ha senso studiare indipendentemente dal contesto in cui sono inseriti. «Sciogliere» (o solubilizzare) qualcosa (il soluto, in questo caso una proteina) in qualcos’altro (il solvente) implica un rapporto, una relazione che trascende le proprietà 57 dei singoli elementi del rapporto e ci trasporta su un piano differente. La sequenza di aminoacidi, caratterizzante uno degli elementi della relazione (la proteina), si deve confrontare con le caratteristiche del solvente (quali e quante altre molecole sono presenti nella soluzione, la sua temperatura, la pressione, ecc.) per decidere del successo della relazione stessa. È proprio come un rapporto d’amore che sboccia fondendo le caratteristiche singole dei contraenti in qualcosa di diverso. E il contesto, quanto è importante il contesto! Una buona solubilizzazione, cioè, un buon rapporto tra proteina e solvente, implica il raggiungimento di una sorta di «ripiegamento ideale» della sequenza di aminoacidi nello spazio, detto «forma nativa». Il problema della previsione della forma nativa (struttura 3D) di una proteina può, naturalmente, essere collegato allo studio dell’effetto delle mutazioni (che alla fine, in generale, convergono in qualche struttura proteica mal costruita) o per la progettazione di farmaci (che a queste proteine sono supposti legarsi), ma questi aspetti pratici sono, tutto sommato, abbastanza irrilevanti per l’importanza del problema in sé che ha a che vedere con il nostro nuovo modo di porci nei confronti dei fenomeni naturali, una volta preso atto della sostanziale impredicibilità del mondo, anche in presenza di leggi microscopiche accurate. Ed è questo il motivo per cui il ripiegamento nello spazio delle proteine è il fondamento materiale migliore per parlare di complessità. 58 Gli scienziati hanno una conoscenza abbastanza accurata delle forze implicate nel ripiegamento (folding) delle proteine e, ciononostante, essi non riescono a prevedere la forma che assumerà una determinata sequenza quando si ripiega in soluzione per assumere la sua forma nativa. Ciò che manca sono, appunto, i principi mesoscopici che legano la conoscenza microscopica (assodata e stabile) del contributo relativo delle diverse forze che concorrono al ripiegamento. Le forze microscopiche, che concorrono a livello molecolare a definire la maggiore o minore «correttezza» della struttura a livello energetico, orientando, così, il ripiegamento (che, come tutti i processi fisici, tende verso un minimo di energia), sono ben note: legame idrofobico, legame idrogeno, forze di van der Waals, interazione elettrostatica. Ciononostante, non siamo in grado di applicare queste conoscenze al caso specifico, insomma, all’agire di concerto di queste forze nel caso di una particolare proteina in un particolare solvente. Quindi, non riusciamo a prevedere l’esito finale (la particolare struttura 3D) della proteina stessa a partire esclusivamente dalla sua sequenza di aminoacidi. Questa nostra incapacità deriva dal carattere «globale» del processo, per cui mosse «localmente svantaggiose» potrebbero, poi, rivelarsi ottimali in un’ottica più generale (come nel gioco degli scacchi sacrificare un pedone per avere accesso alla torre dell’avversario). Comprendere da dove proviene questa incapacità ci consentirà di ag59 giungere altri elementi, oltre al carattere aperto dei sistemi, che contribuiscono alla genesi della «complessità». Proprio perché si tratta di una configurazione stabile, il raggiungimento di una struttura nativa implica un processo di minimizzazione di energia: i diversi potenziali in gioco nelle relazioni tra diverse zone della sequenza e tra la sequenza e il solvente guidano il progressivo ripiegamento della catena nello spazio lungo la direzione tendenziale di un minimo di energia. La struttura, insomma, cercherà di «accomodarsi al meglio» nell’ambiente chimico-fisico in cui è immersa, per cui gli aminoacidi idrofobici (che si solubilizzano più favorevolmente nell’olio) tenderanno ad allontanarsi dalla fase acquosa esterna, ripiegandosi a formare il cosiddetto «nucleo idrofobico» (hydrophobic core) e i residui idrofilici (che si solubilizzano più favorevolmente nell’acqua) verranno esposti al solvente acquoso. Allo stesso modo principi come la massimizzazione del numero di legami di idrogeno e altri ben noti principi chimico-fisici guideranno la sequenza nel suo progressivo raggiungere la condizione nativa. Gli scienziati descrivono questa «passeggiata» verso un minimo di energia, corrispondente al ripiegamento nello spazio della proteina, folding funnel. L’immagine del funnel, dell’imbuto, suggerisce l’idea di una «discesa progressiva» verso un minimo di energia, verso una «forma ideale» che garantisca la migliore relazione fra soluto e solvente: l’amore «per tutta la vita», il più stabile e meno perturbabile possibile. 60 La figura 2 riporta il folding funnel di una proteina simulato attraverso una dinamica molecolare di un polimero ideale formato da aminoacidi idrofobici e idrofilici, casualmente accostati tra loro lungo la sequenza e guidati da regole energetiche molto semplici. La figura 2 è una di quelle rappresentazioni che fanno la gioia di noi scienziati (e che a volte ci fanno guardare con sospetto da chi scienziato non è): si tratta di una sorta di cartone animato la cui protagonista è una pallina (la nostra proteina) che si affaccia sul bordo di una voragine e, puff, vi casca dentro. La descrizione del folding corrisponde, allora, al racconto delle peripezie della pallina nel suo rotolare nella buca. All’inizio della sua discesa, l’entropia è massima, il che corrisponde a rimarcare che la buca è larga. Immaginiamo l’entropia come una misura del numero di possibili «configurazioni» della proteina (nel nostro cartone, quindi, il numero di modi con cui «miss pallina» si affaccia sul baratro). In questo stadio iniziale la proteina è lontana dalla sua forma definitiva e può assumere tutte le configurazioni che vuole; molte di queste saranno, però, sfavorite da un punto di vista energetico (e.g. esponendo al solvente acquoso residui idrofobici, cercando, insomma, di far diventare amici quei due acerrimi nemici che sono l’acqua e l’olio), per cui la molecola (e, statisticamente, la popolazione di molecole) inizierà a scendere lungo il crinale. 61 Nel grafico l’energia è riportata lungo l’asse verticale, mentre l’entropia (varietà delle diverse configurazioni possibili della molecola) è espressa lungo la direzione orizzontale. Dovremmo immaginarci una popolazione di molecole che esplorino le loro possibili configurazioni nel tempo guidate dalla minimizzazione di energia, ma, allo stesso tempo, grazie alla presenza di rumore termico e, quindi, di energia cinetica (altrimenti le molecole non potrebbero proprio muoversi e, dunque, non potrebbero esplorare lo spazio delle configurazioni) potendo accettare anche «mosse sfavorevoli» che, se pur per breve tratto, consentono loro di risalire la china del panorama energetico. Insomma, tanti piccoli gomitoli di filo che si avvolgono e si svolgono alla ricerca di una configurazione ottimale: la definizione di una proteina che sta cercando il suo stato finale è, infatti, molten globule che vuol dire proprio «gomitolo fuso». Torniamo a «miss pallina» nella sua discesa. Il crinale non è liscio, in quanto degli accomodamenti subottimali (minimi locali) potranno momentaneamente «intrappolare» la molecola che, per uscirne e trovare la strada verso il fondo dell’imbuto, avrà bisogno di andare controcorrente con un utilizzo di energia (questo utilizzo è detto DE). Scendendo lungo il funnel, la molecola si strutturerà sempre di più e il suo spazio di «configurazioni possibili» sarà ridotto (come ridotta è la larghezza del funnel), arrivando, quindi, al molten globule: immaginiamoci proprio 62 Legenda: Folding funnel simulato. L’asse verticale corrisponde all’energia del sistema, il progressivo ripiegarsi della proteina verso la sua forma di minima energia è quindi immaginato come una ‘caduta progressiva’ verso il fondo della buca. La larghezza della buca è proporzionale alle configurazioni possibili della proteina al livello corrispondente di energia, all’inizio quindi (energia elevata), la proteina ha a disposizione molte configurazioni possibili, man mano che procede verso il fondo i suoi gradi di libertà diminuiscono. Il carattere ‘accidentato’ (rugged) dei bordi della buca corrispondono al fatto che, anche se tendenzialmente in discesa, il sistema, nella sua evoluzione, può, per brevi tratti, scorrere in salita, il che corrisponde ad accettare ‘mosse’ localmente sfavorevoli ma a lungo andare convenienti. Il fondo della buca è anch’esso accidentato, il che corrisponde al fatto che, anche raggiunta la sua ‘struttura ideale’ la proteina può assumere configurazioni differenti, mantenendo, insomma, una dinamica. 63 uno spazio di possibilità ridotto a causa del restringimento della buca e non scordiamo mai che la rappresentazione iconica ha una suggestione inesprimibile a parole. Continuando verso il basso, la molecola giungerà al suo stato nativo di minima energia e in una forma abbastanza definita (in fondo l’imbuto è stretto) che, però, a differenza di quello che ci saremmo forse aspettati, non è un punto unico, ma è a sua volta un complicato insieme di picchi e di valli (un «panorama rugoso» o rugged landscape, come viene denominato dai biochimici). Insomma, la pallina non si ferma mai, anche sul fondo, grazie all’energia termica, continua a muoversi, ad agitarsi, a esplorare nuove versioni della sua «forma nativa», a «costruire il suo rapporto con l’ambiente», a tener vivo l’amore con il solvente. Deriviamo da questa avventura della pallina nel buco d’energia due conseguenze rilevanti per il nostro discorso, altri due tasselli del mosaico della complessità: il primo è che, a differenza di quello che accade con semplici sistemi inorganici che hanno un unico stato d’equilibrio (si pensi alla simmetria cubica dei cristalli di sale), qui possiamo, tutt’al più, parlare di famiglie di stati d’equilibrio tra cui la molecola si aggira, passando da uno all’altro grazie all’agitazione termica. Il secondo è che «l’obbedienza alla legge» che porta la pallina inesorabilmente (?) verso il suo destino di minimo d’energia non è scontata e immediata; ha bisogno di piccole «spintarelle» per uscire fuori da «appa64 renti soluzioni», e queste «spintarelle» sono dovute alla particolare storia, al particolare percorso che la molecola ha seguito e alle sue condizioni, al contorno di energia disponibile, alla concentrazione di soluto, ecc. I due tasselli che si aggiungono al carattere aperto dei sistemi complessi che abbiamo incontrato nel punto precedente a) sono allora: b) un sistema complesso dispiega molti diversi comportamenti sostanzialmente equivalenti dal punto di vista energetico e, quindi, non passibili di alcuna gerarchizzazione, neanche probabilistica; c) il cammino per arrivare a una soluzione non è irrilevante rispetto alla soluzione stessa, ma la determina in gran parte. I sistemi complessi non possono essere racchiusi completamente in una forma chiusa come un’equazione che ne descrive il comportamento «normale» a cui prima o poi tendono; essi possono solo essere «raccontati da storie conseguenti», ma non predefinite a priori. Il punto c è fortemente critico. Le cellule dispongono di proteine, denominate chaperon, che controllano amorevolmente il processo di ripiegamento delle strutture proteiche in maniera che l’esito finale sia corretto. Dal lato repressivo, invece, altre proteine, dette «proteasi», riconoscono le configurazioni scorrette di altre molecole proteiche e le distruggono. 65 Non si tratta di un’inutile cattiveria. I danni prodotti dalle «proteine venute male» possono essere molto gravi: alcune malattie cosiddette da misfolding, cattivo ripiegamento, sono il morbo di Alzheimer, il morbo di Parkinson, la malattia da prioni, il morbo di Huntington, ed è recentissima la scoperta dell’influenza del misfolding nello sviluppo di tumori. L’avventura del ripiegamento spaziale delle proteine, qui appena accennata a grandi linee, è quanto di più lontano si possa immaginare dalla considerazione usuale delle leggi fisiche come regolatrici inesorabili e senza errori del mondo e ci presenta davanti agli occhi due scenari inattesi e sconvolgenti per la scienza tradizionale. Il primo è la molteplicità delle soluzioni possibili, di cui molte decisamente non ottimali; si stima, infatti, che la proporzione di molecole che giungono a un folding non ottimale e sono, quindi, eliminate dalle proteasi sia attorno al 50%. Il folding è un processo delicato e difficile che molto spesso non arriva a buon fine. Insomma, ci si propone inesorabile l’impossibilità di un rapporto univoco tra struttura e funzione. Il secondo è l’importanza della storia e delle condizioni al contorno (la strada intrapresa per arrivare al fondo dell’imbuto, gli incontri che si fanno per via con altre molecole, protoni, ecc.). Non scordiamoci, comunque, che quello riportato nella figura 2 è un caso sovrasemplificato. Vediamo co66 Legenda: Il panorama energetico di una struttura nativa di una piccola proteina è riportato come sequenza di picchi (alta energia) e di valli (bassa energia), ogni posizione di questo panorama corrisponde ad un particolare ripiegamento nello spazio (configurazione) della proteina di cui uno è esemplificato in alto a destra nell’usuale rappresentazione a nastro ripiegato. me potrebbe apparire «il fondo dell’imbuto» (e, quindi, a condizioni di energia ottimali) per una proteina vera (anche se molto piccola, attorno a 30 residui). La figura 3 riporta lo spazio delle configurazioni di una piccola proteina rappresentata nell’usuale notazione a nastro ripiegato in alto a destra. La proteina si sposta da configurazione a configurazione in un ambito di 67 energia coerente con le fluttuazioni termiche a temperatura ambiente. Questa è, insomma, la vita normale di una proteina: se la proteina non si muovesse e non passasse da una configurazione all’altra non potrebbe proprio fare il suo lavoro all’interno della cellula. Questo ci porta direttamente al quarto punto qualificante la nascita della complessità in biologia, e cioè – punto d) – l’inestricabilità della struttura dalla dinamica di un sistema complesso. In altre parole, l’efficienza della struttura proteica analizzata risiede nella sua capacità di muoversi attorno alla sua posizione di equilibrio. La relativa flessibilità della molecola è una caratteristica molto importante che ci costringe a considerare la struttura tridimensionale della proteina come una «distribuzione di configurazioni» piuttosto che come una «soluzione di minima energia». Le caratteristiche di questa distribuzione di configurazioni determinano, alla fine, più che la «struttura di minima energia», il ruolo svolto dalla proteina in questione. In altre parole, proprio perché le proteine esercitano il loro ruolo biologico (catalizzare reazioni chimiche, permettere a piccole molecole di attraversare la membrana cellulare, mediare la relazione fra cellule differenti, ecc.) cambiando di configurazione, cioè, muovendosi, la loro maggiore o minore funzionalità non potrà essere dedotta esclusivamente dalla loro architettura di «minima energia», ma dalla relativa estensione delle configurazioni possibili e, quindi, dalla sua flessibilità e versatilità. 68 In questo attraversamento di uno dei campi più importanti della scienza dei nostri giorni abbiamo avuto un ritratto molto diverso dall’arroganza sbandierata dai propagandisti dello scientismo. Continuamente siamo stati richiamati ai limiti della nostra conoscenza: possiamo disegnare l’imbuto così come possiamo disegnare una mappa stradale, ma non ha senso volere conoscere la particolare strada intrapresa dalla molecola lungo il funnel, così come non ha senso dall’osservazione delle carte del «Touring» voler prevedere il tragitto di ogni automobile. Continuamente siamo stati richiamati anche alla contemplazione della bellezza della natura, all’armonioso compenetrarsi di principi chimico-fisici e contingenze, alla nostra capacità di immaginare il mondo e alla nostra impossibilità di rinchiuderlo definitivamente in un quadro immutabile. Proprio lì dove inizia la vita. Teniamo, allora, a mente questo chinarsi amorevole a osservare le «storie della pallina», tutte storie conseguenti, come in un romanzo dove dagli eventi passati scaturisce il futuro, ma insieme libere, non decidibili a priori, legate alle contingenze e ad altre storie che si intrecciano. Ora, resi un po’ più saggi e sospettosi dalla statistica e rinfrancati dalla danza delle macromolecole in un continuo corrispondersi amoroso con il loro ambiente chimico-fisico, siamo pronti ad affrontare il mare della scienza dei media. 69 2. Brutta scienza 1. Introduzione come osservava acutamente nel 1910 Pavel Florenskij, il cui nome ritorna spesso nel nostro percorso, […] siamo imbevuti di un pensiero tendenzioso e non riusciamo più ad accostarci a una questione, ad analizzarla nella sua essenza. Per noi le ipotesi assurgono a dogmi, i dogmi si irrigidiscono e lo spirito si chiude nell’involucro fossilizzato delle opinioni altrui, il criticismo svapora, la scienza perde la sua essenza e attraverso la spessa corazza dei falsi assiomi non c’è modo di giungere all’aria fresca [...] da quante teorie il pensiero tendenzioso si è creato una religione. Quanto osservato da padre Pavel è tipico delle fasi senili delle scienze: esse tendono a diventare una religione che atrofizza il pensiero scientifico rendendolo infruttuoso. Occorre un cambio di paradigma per salvare la scienza dalla stessa malattia che, qualche secolo fa, ha colpito sua sorella maggiore, l’arte: l’autoreferenzialità, il 71 rinchiudersi, cioè, in un linguaggio gergale, comprensibile a pochi iniziati, che si giustifica da solo perdendo ogni contatto con il reale. I sintomi sono a dir poco preoccupanti: al di là dei nostri gadget tecnologici (che però si riferiscono a una scienza di circa cinquanta anni fa), sono trenta anni che, ad esempio, non produciamo farmaci veramente innovativi. Le nostre teorie sulla regolazione biologica risultano pateticamente inadeguate al profluvio dei dati che la postgenomica ci propone; le grandi teorie fisiche, che sembravano aver sistematizzato definitivamente l’orizzonte della scienza fondamentale, non spiegano nessuno dei fenomeni più interessanti che anche semplicissimi strumenti di misura ci propongono. Ciononostante, siamo bombardati da scienziati pieni di sussiego che ci fanno capire che «la situazione è sotto controllo, le cose fondamentali già si sanno, la meraviglia è roba da selvaggi»; e tanto più sono sussiegosi, tanto più la loro scienza è fondata su basi inconsistenti. Difendersi dalle «ipotesi assurte a dogmi» è uno degli scopi dichiarati di questo libro e per questo dovremo imparare a riconoscere queste perversioni. Entriamo, allora, di ritorno dalla vivificante atmosfera dei fondamenti, nel palazzo della scienza dogmatica e arrogante. Prima di procedere, però, un breve ripasso alle protezioni che abbiamo incontrato nel precedente capitolo così da non sbattere la testa. Occorre tenere a mente che: 72 1) la scienza si basa su grandezze misurabili che non sono la «cosa in sé», ma un suo riflesso più o meno fedele e, comunque, valido solo in un dominio finito di condizioni (ad esempio relazione tra variabile STUD e grado di cultura); 2) ogni affermazione scientifica si riferisce a una certa scala nel tempo e nello spazio [ad esempio la simulazione matematica Y = X + N(0,7)]: 3) ogni affermazione scientifica ha una natura statistica: di fatto noi osserviamo solo gli eventi più probabili, quelli, cioè, che «rimangono invarianti» nel maggior numero di condizioni e che, quindi, ammettono il maggior numero di «configurazioni microscopiche» equivalenti. Nessuno ci autorizza ad assegnare una regolarità statistica osservata a livello di popolazione al singolo elemento della popolazione stessa (ad esempio il «fondo rugoso» dell’imbuto – funnel – del processo di ripiegamento delle proteine, la variabilità interna dei gruppi PSIC e NOPSIC, le motivazioni dei poveri automobilisti incolonnati sulla A24). Cercate traccia di una chiara disamina dei punti 1, 2, 3 nei pezzi di scienza che vi verranno proposti (non in questo libro, intendo lì fuori, nel mondo) e, se non li trovate, diffidate. Benissimo, ora possiamo entrare nel palazzo della brutta scienza e per vostra maggiore serenità sap73 piate che ogni «bruttura» vi verrà proposta con la spiegazione dei termini gergali usati. Nel primo salone vedremo un grande e intramontabile classico della letteratura scientifica dell’orrore: il determinismo genetico che verrà presentato in una delle sue forme più inquietanti. 2. Geni della felicità L’occasione viene da un più che classico esempio di scienza mediatica, riportato nel marzo del 2008 dai principali media italiani e, più o meno con le stesse parole, nelle maggiori agenzie internazionali. La notizia faceva riferimento alla scoperta di un gruppo di psicologi sperimentali australiani e scozzesi e annunciava la fantomatica individuazione dei geni della felicità: in pratica, il nostro sorridere alla vita dipende al 50% dal patrimonio genetico. Aggirando la grancassa mediatica, andiamo a vedere da vicino l’articolo originale: A. Weiss, T.C. Bates, M. Luciano (2008), Happiness is a personal(ity) thing: The genetics of personality and subjective well-being in a representative sample, «Psychological Science», 19, 205-210. Già dal titolo, La felicità è questione di personalità, si intuisce che il senso è molto diverso da quello proposto dalle testate giornalistiche. A ben vedere, nell’articolo originale non si parla affatto di geni della felicità, ma di 74 qualcosa di molto diverso. Per comprendere i perversi intrecci tra il lavoro scientifico e l’ideologia disumanizzante del determinismo genetico, che nega il libero arbitrio dell’uomo, abbiamo bisogno di ordinare la materia in tre sessioni: 1) un glossario in cui riporterò delle definizioni essenziali per capire i termini della questione; 2) un breve riassunto dell’articolo scientifico reale; 3) un confronto tra cosa emerge dall’articolo e quanto divulgato dai media. 2.1. Glossario DNA: acronimo per «acido desossiribonucleico», è un po- limero biologico costituito dalla giustapposizione di 4 monomeri fondamentali (nucleotidi) indicati con le lettere A, G, C, T che formano lunghissime (miliardi di nucleotidi) sequenze appaiate. I nucleotidi hanno la caratteristica di appaiarsi in maniera molto rigorosa tra filamenti adiacenti, per cui ogni C si appaia solo ed esclusivamente con una G e ogni A con una T (se tutto va bene, ma nel 99,99% delle volte va bene). Questo appaiamento preferenziale fa sì che un filamento di DNA del tipo AAGGC si appaierà con un filamento TTCCG. Due filamenti di DNA appaiati formano la famosa «doppia elica» che si vede un po’ dovunque come simbolo della scienza e della vita (che noia!). Comunque sia, questa proprietà di appaiarsi in modo pre75 ciso fa sì che il DNA si possa duplicare fedelmente (e possa, quindi, trasmettere l’eredità genetica da generazione a generazione), in quanto ciascuno dei due filamenti appaiati può dar vita, tramite una serie di reazioni enzimatiche piuttosto complicate, al suo complementare. Alla fine di questo processo di duplicazione avremo due doppie eliche identiche. Ciò fa sì che la molecola di DNA possa essere considerata una maniera efficacissima di «mettere da parte» l’informazione biologica, un deposito di dati simile a un compact disk o a una memoria di massa del computer. Una molecola di DNA consta di due sequenze appaiate di miliardi di nucleotidi (il mitico «genoma umano»). Una piccola percentuale, attorno al 5-10%, di questa sequenza (non contigua, un po’ qua, un po’ là lungo il filamento) viene usata dalla cellula per codificare le sue proteine, quelle che, effettivamente, svolgono il lavoro biologico che, a ben vedere, consiste nell’operare delle reazioni chimiche in modo molto specifico e controllato nello spazio e nel tempo. Quando parliamo di geni, di solito parliamo di singoli elementi di questa porzione «codificante» che hanno in sé l’informazione importante per produrre una particolare proteina, il progetto. Ma, così come un progetto non si trasforma magicamente in una casa, la sintesi proteica ha poi bisogno di una complessa macchina enzimatica per essere efficiente e questa «macchina enzimatica» si è da qualche anno scoperto che è tutto tranne 76 che un mero esecutore. A questo proposito basti pensare che il numero di specie proteiche di un organismo è almeno dieci volte più elevato rispetto al numero di geni: gli stessi progetti vengono, insomma, reinterpretati in modi vari e fantasiosi dal macchinario proteico cellulare. Ma rimaniamo al 5% di «geni strutturali»; cosa combini il restante 95% di DNA non lo sappiamo. Ci sono molte ipotesi contrastanti, ma le cose sono piuttosto oscure. Gene: la proprietà di appaiamento del DNA fa sì che questa molecola possa essere «letta» non solo per duplicarsi interamente ma anche da alcuni enzimi detti RNA polimerasi che, come dice il nome, non producono un altro filamento di DNA completo, ma tratti di un’altra molecola molto simile, detta RNA (acido ribonucleico), anch’essa ubbidiente alle regole di appaiamento prima indicate, ma con piccole differenze: al posto di T (timidina) abbiamo un altro monomero che si chiama U (uracile), ma la sostanza non cambia perché una sequenza AAGGG di DNA viene trasformata in una sequenza UUCCC di RNA. L’RNA viene prodotto a «salti» sullo stampo del DNA in zone particolari di questa lunghissima molecola corrispondenti a unità di informazione discrete, dette «geni». Ogni gene corrisponde a uno specifico carattere dell’organismo in quanto, da un punto di vista molecolare, contiene le informazioni necessarie per produrre una determinata proteina che a questo «carattere» so77 vrintende. Infatti, il filamento di RNA viene «tradotto» in proteina da un macchinario molecolare estremamente affascinante che a ogni tre nucleotidi «appaia» un aminoacido, generando, così, la sequenza di aminoacidi corrispondente alla particolare molecola proteica: il prodotto biologicamente efficace del gene. Robustezza dei sistemi biologici: diamo per buono (abbiamo appena accennato al fatto che non sia così, ma a questo livello possiamo far finta di niente) che a ogni gene corrisponda una sola proteina. Le proteine vanno da una cinquantina di aminoacidi (e quindi 50×3 = 150 nucleotidi corrispondenti a un minuscolo settore del DNA) a circa un migliaio. A spanne abbiamo circa centomila specie principali di proteine: ciascuna fa un suo lavoro che può consistere nel trasformare una piccola molecola organica in un’altra, nel trasportare ossigeno (l’emoglobina), nel costruire membrane cellulari, ecc. Se un gene è mutato (accade più o meno in un caso su un milione), cioè la sua sequenza di nucleotidi ha qualche errore, per cui una o più lettere sono sostituite da altre, la proteina corrispondente potrà avere un aminoacido al posto di un altro1. Questo er1. Ma questo non avviene necessariamente; il codice genetico è, infatti, detto «degenere» e ha 64 combinazioni da tre lettere per soli 20 aminoacidi, per cui la mutazione di un nucleotide potrebbe non cambiare in nulla la proteina corrispondente. 78 rore nella sequenza proteica, nella gran maggioranza dei casi (circa il 75%) non provoca nulla: la proteina fa lo stesso il suo lavoro anche se non è costruita perfettamente. In altri casi, invece, la proteina non è funzionale, il suo lavoro proprio non riesce a farlo. Anche in questa circostanza, di solito (nel 90% dei casi), all’organismo non succede nulla, in quanto c’è un’altra proteina che «vicaria» quella difettosa. Può, invece, succedere (nel 5% dei casi circa)2 che di quella proteina non si possa proprio fare a meno. E allora? Nel caso di organismi superiori, se si sta parlando di una mutazione non confinata a una singola cellula di un tessuto (mutazione somatica), ma di una mutazione trasmessa alle generazioni successive da un gamete (uovo o spermatozoo), generalmente proprio non si nasce, ci si ferma durante lo sviluppo embrionale nei primissimi stadi, 4-8 cellule. Ma, se dopo tutti questi filtri si nasce lo stesso, cosa avviene al mutante? La sua proteina difettosa gli provocherà dei guai più o meno seri: sono le malattie genetiche, ognuna estremamente rara, come la distrofia, il cosiddetto favismo, vari tipi di ittero, ecc. Ora questi problemi avvengono per cause scatenanti molto specifiche (tutto sommato è una 2. Qui è ben chiaro come man mano che si procede, diminuiscono le probabilità: questo è il 5% di quel 25% di quel 10% di proteine con guasti seri non vicariate, di quel caso su un milione che accade, per una cellula su miliardi di cellule, ecc. 79 sola proteina a essere difettosa) e acute. Completamente differente è il caso di caratteri complessi, come l’altezza o l’intelligenza (qualsiasi cosa essa sia), dove a interagire ci sono in gioco migliaia di proteine. Quando studiamo questi caratteri complessi non ha, quindi, senso cercarne «i geni», per il semplice fatto che sono talmente tanti e tutti «modulati» in maniera continua che le possibili combinazioni da studiare per capirci qualcosa sarebbero talmente tante che dovrei analizzare tutti gli abitanti del pianeta per fare dei gruppi sperimentali che tengano conto delle varie possibilità. Studi con gemelli: può avvenire che un singolo gene (ad esempio, quello la cui mutazione provoca la fenilchetonuria, un disordine metabolico causato dalla carenza di uno specifico enzima), se non ci accorgiamo in tempo che è mutato e non diamo, quindi, al bambino da subito alimenti che non contengono la molecola per cui manca l’enzima necessario per digerirla, possa provocare gravi ritardi mentali. Ma questo non vuol dire che il gene della fenilchetonuria è il gene dell’intelligenza. Sarebbe come dire che, siccome non posso camminare, e quindi non posso obbedire a chi mi dice di spostarmi, le gambe sono importanti per sentire. Questo vizio logico, piuttosto ovvio, è, purtroppo, continuamente reiterato in molta letteratura biologica. Quando abbiamo a che fare con caratteri complessi che non possiamo fattorizzare nei geni che 80 vi sono a vario titolo coinvolti (cioè, non esiste uno specifico gene dell’altezza o del colore della pelle, semmai ne esistono migliaia, la cui interazione complessiva si integra nel carattere altezza o colore della pelle), siamo obbligati a usare i gemelli come sistema sperimentale per studiarne le basi ereditarie. Se il carattere in questione fosse, invece, monogenico (riferibile, cioè, a un solo gene), potremmo semplicemente prendere due gruppi di individui qualsiasi, in cui il primo è formato da individui con il gene A nella sua forma «giusta» (wild type, forma selvaggia), il secondo da soggetti con il gene A nella sua forma mutata, e studiarne le differenze (la forma di studio analizzata nel caso simulato del ricorso alla psicoterapia). Nel caso dei gemelli monozigoti, cioè, derivanti da un solo evento di fecondazione, in cui l’embrione in uno stadio molto primitivo di sviluppo si è diviso in due, i due elementi della coppia condividono l’intero patrimonio genetico; nel caso di gemelli dizigoti, invece, i due elementi della coppia hanno un patrimonio genetico differente derivando da due eventi fecondativi separati. A questo punto, osservare che i gemelli monozigoti sono «più simili fra di loro», per un certo carattere, rispetto ai gemelli dizigoti è l’unica strada praticabile per stimare in maniera quantitativa «quanto c’entra la genetica» con il carattere complesso a cui sono interessato. Attenti, però! Affermare «quanto c’entra la genetica» non vuol dire stabilire «quali sono i geni». E del resto non lo saprò mai in 81 questo modo, proprio perché sono talmente tanti (e mutualmente interagenti) a essere coinvolti in quel carattere complesso che non è possibile separarne i singoli effetti. Quindi, il fatto stesso che uso i gemelli (e in particolare il confronto fra gemelli monozigoti e dizigoti, altrimenti i due potrebbero essere simili solo perché hanno avuto un’educazione simile, un’alimentazione simile, ecc.) significa che non sono nelle condizioni di individuare il «gene della felicità» o di chicchessia. Capiamo, allora, come la menzione dei gemelli nell’articolo che esamineremo in seguito è automaticamente incompatibile con il titolo e il tono dell’articolo originale. Ma qui la cosa è ancora più grossolana, la frase presente nelle agenzie giornalistiche era: «La ricerca sui gemelli consente agli studiosi di identificare i geni in comune tra i due fratelli». Quanto detto è assolutamente paradossale: semplicemente la risposta è che non c’è bisogno di ricercare niente, essere gemelli significa avere tutti i geni in comune e basta così. Misura della concordanza: la misura della concordanza di due caratteri tra due elementi di una coppia avviene con il calcolo del cosiddetto «coefficiente di correlazione» che abbiamo già incontrato nel capitolo sui fondamenti. In maniera ipersemplificata possiamo pensarla così: immaginiamo di misurare la grandezza X in 5 coppie di gemelli monozigoti e chiamiamo gli elementi della coppia A1-A2, B1-B2, C1-C2, D1-D2, E1-E2. Ora, se la 82 grandezza X (altezza, peso, intelligenza, sfortuna, ecc.) è ereditabile e A1 avrà valori relativamente alti di X, allora mi aspetto che anche A2 sia piuttosto alto, allo stesso modo; se B1 è basso, anche B2 mi aspetto che sia basso e così via. Bene, questo significa che l’ordine in cui compaiono (dal più basso al più alto) gli elementi con l’indice 1 (B1, E1, C1, ecc.) della coppia sia molto simile (o identico) all’ordine in cui compaiono gli elementi con l’indice 2. Il massimo di concordanza (i due ordinamenti sono completamente identici) porta a un coefficiente di correlazione uguale a 1; la completa indipendenza dei due ordinamenti a un coefficiente pari a 0 (vi risparmio come si misura quanto due ordinamenti distino dalla completa sovrapposizione, ma la cosa è piuttosto intuitiva). Il quadrato del coefficiente di correlazione mi dice quanta parte della variabilità (cioè, del fatto che un individuo è diverso dall’altro) sia spiegata dal legame fra gemelli, per cui un coefficiente di correlazione di 0.80 mi dice che il 64% di quella grandezza (8×8 = 64) è legato alla concordanza fra gemelli. Ora rifaccio lo stesso gioco con coppie di gemelli dizigoti. Immaginiamo di aver ottenuto un coefficiente di correlazione di 0.60, questo corrisponde a una percentuale di variabilità spiegata dalla concordanza del 36% (0.6 al quadrato). Quanta è, allora, la quota parte di questo carattere sicuramente attribuibile alla genetica? Semplice: 64 – 36, cioè la differenza fra la concordanza osservata fra coppie 83 di gemelli monozigoti e coppie di gemelli dizigoti. Insomma, il nostro carattere è spiegato dalla genetica (non dal gene Pinco Pallino, dalla genetica, dalla comunanza dell’intero patrimonio genico) per il 18%. È una stima conservativa (tutto sommato anche i due gemelli dizigoti hanno più geni in comune di due tizi qualsiasi), ma l’unica seria in quanto elimina gran parte dei fattori di confondimento. Ora la lettrice e il lettore possono affrontare il lavoro scientifico con un bagaglio di informazioni sufficiente a farsene un’opinione personale. 2.2. L’articolo scientifico di Weiss e colleghi Scopo dichiarato dell’articolo è quello di vedere se lo stato di benessere (well-being) percepito dalle persone può avere una base genetica e specificamente se questa base genetica è la stessa che influisce sui tratti di personalità. In altre parole, l’ipotesi dei ricercatori è che la personalità del soggetto influenzi il suo grado di benessere percepito e, quindi, in ultima analisi, di felicità. La personalità di un soggetto si può stimare con un test a domande e risposte del tipo di quelli che troviamo sui settimanali, avendo ben presente la grossolanità di questa «misura» visto che, in questo caso, il nostro strumento è ancora più grezzo di quanto non lo fosse, rispetto alla cultura, l’indice STUD pari agli anni di scolarizza84 zione prima illustrato. Il test di personalità oggi più comunemente accettato si chiama MIDI e classifica le persone assegnando a ciascuna, a seconda delle risposte date al test, 5 punteggi per cinque fattori di personalità denominati: essere nevrotici (Neuroticism), estroversione (Extraversion), consapevolezza (Conscientiousness), apertura (Openness), condiscendenza (Agreeableness). Altri studiosi hanno scoperto, attraverso studi molto vasti su gemelli, che questo punteggio, chiamato FFM (acronimo per Five-Factor Model, modello a cinque fattori), è ereditabile al 50%: ecco svelato il malefico 50% di ereditabilità della felicità dell’annuncio giornalistico, ma è evidente che a essere ereditabile al 50% non è la felicità ma la personalità nell’accezione in cui viene misurata dal test. I nostri autori hanno voluto vedere se qualcuno dei cinque fattori di personalità fosse correlato con la felicità percepita. Hanno perciò intervistato 365 coppie di gemelli monozigoti (più o meno equamente divise in coppie maschili e femminili) e 608 coppie di gemelli dizigoti con tre domande sul loro grado di benessere percepito, somministrandogli contemporaneamente il test e, quindi, ottenendo per ogni soggetto i cinque valori dei punteggi di personalità. Solo due dei cinque fattori risultavano correlati in maniera significativa con il grado di benessere: il fattore «essere nevrotici» (più nevrotici meno felici) e quello 85 «estroversione» (più estroversi più felici). Ora, non è che questo risultato ci sorprenda più di tanto, soprattutto se andiamo a vedere in cosa consistano il fattore «nevroticità» e il fattore «estroversione». Dunque, si è molto «nevrotici» se il soggetto ha scelto la frase «mi ci identifico molto» per le seguenti definizioni del suo carattere: malinconico (moody), lamentoso (worrying), nervoso (nervous); mentre si è molto estroversi se si è assegnato un punteggio alto alle definizioni: amichevole (friendly), vitale (lively), chiacchierone (talkative). Insomma, qui ci stanno dicendo che chi è amichevole, bonario, aperto verso il mondo di solito dice che è felice, mentre chi si definisce malinconico, lamentoso e nervoso di solito si dichiara infelice? Caspita, ma c’era bisogno di tanto studio? Evidentemente sì. Ma comunque, la felicità va e viene e fortunatamente anche ai malinconici ogni tanto la vita sorride, tant’è che la correlazione fra i fattori nevrosi ed estroversione e la percezione di felicità non ha dato risultati eclatanti, essendo pari a un coefficiente di correlazione r pari a 0.52 e 0.23, rispettivamente per monozigoti e dizigoti per ciò che riguarda il fattore nevrosi e a valori di r uguali a 0.45 e 0.13 per monozigoti e dizigoti per ciò che riguarda la relazione fra felicità percepita ed estroversione. Ora facciamoci due conti, applicando quanto appreso dal glossario. Eleviamo, allora, al quadrato i valori di correlazione, calcoliamone la differenza tra monozigoti e 86 dizigoti, dividiamo la differenza per due (ricordate solo il 50% della personalità è ereditabile) e avremo la risposta, e cioè che l’estroversione ha il 9% di componente genetica e l’essere nevrotici l’11%... altro che 50%! Insomma, tutto ciò è perfettamente legittimo: apprendiamo una cosa che le nostre nonne sapevano benissimo, e, benché ci aspettassimo una relazione più forte tra carattere e felicità percepita, abbiamo riscontrato un altro segno della profonda libertà di noi umani che ci permettiamo la felicità a scapito del nostro caratteraccio. Certo, uno statistico maligno come l’autore di questo libro potrebbe trovare parecchie falle nello studio, ma, insomma, diciamo che, se dimezziamo quei 9% e 11%, non dovremmo essere molto lontani dal vero. 2.3 Come la notizia è apparsa nei media La notizia dei geni della felicità, ahimè, ha letteralmente catalizzato l’attenzione dei media di tutto il mondo, rafforzando nell’immaginario comune l’assurda idea del DNA che tutto guida e che tutto vede, arrivando a far precedere il pezzo da un’enorme molecola di DNA che circonda il globo terrestre a suggerire l’inesorabile dominio della genetica sui nostri destini. Poi la sparata si dosa: se dico che il 100% della felicità si eredita non mi crede nessuno, allora quanto possiamo fare? Facciamo il 50%, così, come ogni mistificazione che funzioni, ci si apre la 87 strada per ritrattare; tutto sommato un 50% nell’articolo c’era, era riferito alla personalità, ma chi vuoi che vada a vedere! Da Londra a Singapore, da Parigi a New York il tono della stampa era paurosamente identico, come se la stessa notizia fosse stata semplicemente tradotta nelle diverse lingue. È difficile (e forse non molto utile) discernere il proclama ideologico (un altro tassello nella visione genocentrica e disumanizzante del mondo) dalla pura sciatteria (riempire lo spazio con qualcosa di frizzante e accattivante): il sospetto che tra le due interpretazioni non ci sia una differenza così grande si affaccia inquietante. Passiamo ora al secondo salone del palazzo della regina del ghiaccio che trama per bloccare i nostri desideri e la nostra voglia di nuovo e di inaspettato nel già detto e nel già noto. Il salone si presenta con aspetto elegante e suadente, la carezzevole musica che lo inonda è quella dell’imminente scomparsa di dolori e malattie, ma noi vi entreremo per un’esercitazione dettagliata di smontaggio di mistificazione scientifica. 3. Vaccino Miracoloso Il seguente pezzo, lanciato dalla Reuters nel settembre 2009, si presta benissimo al nostro obiettivo, poiché 88 raccoglie in uno spazio breve tutti gli elementi che sono alla base della scienza spettacolo. Il titolo, prima di tutto, esordiva così: Aids: il nuovo vaccino è un «passo importante» contro il virus. Nessuno si sbilancia più in frasi apodittiche del tipo: «sconfitto il cancro», ma sicuramente si può dire che la scienza sia fatta da piccoli passi d’avvicinamento verso una meta. Questo appare sicuramente ragionevole, ma stiamo attenti a non farci ingannare da questo tono dimesso. Un vaccino o è efficace o non lo è: magari può essere efficace ma tossico, però è difficile che sia «un passo importante». Di solito la ricerca è fatta da brusche interruzioni di rotta e salti improvvisi; piccoli e continui passi implicano che esista una meta, un progetto, e una strada nota da seguire. Questo non è certo il caso della sperimentazione di un vaccino che, per usare una metafora, è una procedura simile al gioco della slot machine: si vince o si perde, ma certo non si fanno piccoli passi. Un vaccino sperimentale contro l’Aids, ottenuto combinando due prodotti già esistenti, ha fatto progredire notevolmente la ricerca di un modo efficace per contrastare la malattia. Lo hanno detto oggi i ricercatori. Ma la sua applicazione potrebbe essere limitata, e un vaccino commerciale potrebbe richiedere altro tempo. La prima frase dice che qualche passo si è fatto, la seconda raffredda gli animi, crea suspense: 89 Il Ministro della Salute della Thailandia, dove è stata condotta la ricerca, ha definito il risultato ottenuto «un importante passo avanti nello sviluppo di un vaccino contro l’Aids», mentre due agenzie delle Nazioni Unite hanno parlato di una «nuova speranza» nel contrastare il virus, sottolineando, però, la necessità di continuare a lavorare. […] Almeno uno studioso ha detto che il vaccino potrebbe non funzionare nelle persone e nei paesi dove il virus hiv è più diffuso. Ancora una volta il tira e molla: c’è chi dice che è una bella notizia e c’è chi, invece, sostiene che probabilmente è quasi inutile (notare il sottile delirio della locuzione «almeno uno studioso»). Il vaccino è stato ottenuto combinando l’Alvac, prodotto da Sanofi-Pasteur, e l’Aidsvax, sviluppato da una società di San Francisco – la VaxGen – attualmente di proprietà dell’associazione no profit Global Solutions for Infectious Diseases. […] La ricerca è stata finanziata dall’esercito Usa e condotta dal Ministro thailandese per la Sanità pubblica, e funzionari di entrambi i paesi hanno detto a una conferenza stampa a Bangkok che il vaccino ha abbattuto del 31,2% il rischio di contrarre il virus nei 16.402 volontari a cui è stato somministrato. Finalmente appaiono dei numeri: 31,2% di riduzione di rischio e 16.402 volontari. Queste cifre sono di per sé sospette: i volontari sono decisamente troppi per essere 90 veramente volontari. Si tratta, sicuramente, di persone molto povere a cui sono stati offerti dei benefici e che non si fanno problemi a rischiare reazioni avverse; in Thailandia questo si può fare, dalle parti nostre no. Vediamo, poi, che tutta la novità è una combinazione di due vaccini che da soli non funzionavano, una miscela, insomma, mentre di scienza non c’è nulla, si tratta di pura empiria. Non dimentichiamo, infatti, che la definizione di scienza implica la costruzione di un modello esplicativo delle osservazioni. Quanto al 31,2% di variazione, per ora non sappiamo ancora interpretarlo poiché ci manca il dato di riferimento: dovremmo sapere, infatti, qual è il rischio di contrarre l’infezione nei placebo (chi non è stato vaccinato) per poi dedurne il 31,2%. «È la prima volta in tutto il mondo che si trova un vaccino che può prevenire l’infezione da hiv», ha detto il ministro thailandese della Salute Withaya Kaewparadai. UN GRANDE SUCCESSO PER I SOSTENITORI Il risultato, quasi del tutto inatteso, ha stupito i ricercatori, che dicono di non sapersi spiegare come mai la combinazione di vaccini funzioni. Questa seconda frase ci spiega come mai non si tratta di scienza e ci mette anche un po’ di ansia rispetto a questi ricercatori che fanno le cose in maniera casuale. Chissà 91 se si tratta degli stessi ricercatori che hanno progettato lo studio o di altri. Per chi ha sostenuto la sperimentazione, affrontando le critiche che non fosse etica o fosse uno spreco di denaro, visto che ci si attendeva che non funzionasse, è un enorme successo. «Io, come altri, non pensavo che ci fossero molte probabilità che funzionasse», spiega il dottor Anthony Fauci dell’Istituto Nazionale di Allergologia e Malattie Infettive degli Usa, che ha contribuito a finanziare lo studio. Qui ogni accenno di logica scompare nell’accavallarsi di frasi che si negano a vicenda: però, entra in scena il Luminare (Fauci è nome molto noto nella ricerca sull’Aids) che ammette di aver considerato male la ricerca. Ciononostante, la ricerca è stata finanziata e, a questo punto, è lecito chiedersi: perché? con quali motivazioni? I sostenitori della sperimentazione (ricercatori? autorità? produttori?) gongolano, ma non si capisce se perché sostenitori di un’alternativa visione sulla plausibilità scientifica del loro progetto o perché fedeli assertori dell’empiria selvaggia; comunque, sembra di stare all’uscita di una partita il cui pronostico è stato ribaltato più che in ambito scientifico. La scienza è sepolta nel ridicolo della magia, del puro ghiribizzo: 92 A Ginevra, l’Organizzazione Mondiale della Sanità e il Programma congiunto delle Nazioni Unite sull’HIV/Aids hanno dichiarato che «i risultati dello studio - che rappresentano un significativo progresso per la scienza - sono la prima dimostrazione che un vaccino contro l’infezione da HIV in una popolazione adulta è possibile, e sono di grande importanza». Ecco l’imprimatur ufficiale, la frase ponderata di due organizzazioni mondiali: niente colpi di testa, niente giudizi azzardati; il pulpito più alto dell’umanitarismo ha parlato e ha parlato di «progresso per la scienza» (ebbene sì, c’è scritto scienza) e di «grande importanza». Andiamo avanti: Le due organizzazioni hanno definito «modestamente produttiva» l’efficacia del vaccino. Ma come, non era di «grande importanza»? Anche queste organizzazioni mondiali sembrano affette da grave dissociazione: una procedura assolutamente basata sull’empiria, senza basi scientifiche genera un progresso scientifico, con risultati di grande importanza ma «modestamente produttivi». Si mena il can per l’aia, ma ecco l’affondo: I risultati restano inconcludenti. Analizzando in profondità i risultati del test, è emerso che le persone infette da hiv, nono- 93 stante la somministrazione del vaccino, avevano nel sangue la stessa quantità di virus e riportavano gli stessi danni al sistema immunitario dei malati non sottoposti al vaccino. Questo significa che il vaccino contribuisce a prevenire la malattia, ma non ha alcuna efficacia una volta che il virus si trova nel corpo. E va bene, allora se uno era già venuto in contatto con il virus il vaccino è inutile, ma se veramente prevenisse… «Nel gruppo a cui è stato somministrato il placebo ci sono state 74 infezioni, nel gruppo a cui è stato somministrato il vaccino 51», ha spiegato in un’intervista telefonica il dottor Jerome Kim, colonnello dell’esercito americano del Walter Reed Army Institute of Research, del Maryland, che ha aiutato a condurre la sperimentazione. Oh, grazie colonnello, finalmente i numeri che ci mancavano! Allora, se immaginiamo che il gruppo di controllo (quello a cui non hanno somministrato il vaccino) sia uguale in numerosità a quello dei vaccinati, dovremmo riuscire a ricavare il 31,2% di differenza (vedi all’inizio del pezzo), come il risultato del calcolo seguente: (74–51)/74 = 23/74, che, in effetti, fornisce come risultato 0,31 (31%). Benissimo, i conti tornano: l’ipotesi di equa numerosità dei gruppi è, quindi, fondata e possiamo vedere quanto è il tasso di infezione nei due gruppi (ognuno, quindi, formato da 8.201 soggetti, cioè da 94 16.402/2), mentre per il placebo abbiamo: 74/8.201 = 0,0090 = 0,9%; per i vaccinati 51/8.201 = 0,0060 = 0,6%. Facciamo un po’ d’ordine fra tutte queste percentuali. Passare da un’incidenza di 0,9 a una di 0,6 corrisponde a dire che ho abbattuto l’incidenza complessiva di 0,3 punti percentuali (se preferiamo del 3 per mille) attraverso un vaccino di cui non posso conoscere eventuali effetti a lungo termine. A conti fatti questo appare come un risultato veramente modesto… ma continuiamo a leggere. «Anche se il livello di protezione che garantisce è abbastanza modesto, lo studio è un grande passo in avanti per la scienza», ha detto Kim. «È la prima prova che lo sviluppo di un vaccino sicuro ed efficace è possibile». Non so a voi, ma a me il colonnello Kim comincia a stare simpatico: viene sempre dietro ai miei commenti. Ma come fanno a sapere che il vaccino è sicuro? Dove sono gli elenchi degli eventi avversi? Le 16.402 persone vaccinate sono state seguite accuratamente per registrare eventuali effetti collaterali inattesi? Kim, Kim rispondi! Silenzio. L’unica informazione potenzialmente rilevante è taciuta. Nessuno può saperlo: i 16.402 sono svaniti per Bangkok e non hanno nessuna intenzione di essere interrogati ancora. 95 Kim ha sottolineato che il vaccino potrebbe non funzionare nelle persone e nei paesi dove il virus hiv è più diffuso: in Africa, sui maschi omosessuali o tra chi fa uso di droghe per via endovenosa. «Il vaccino è stato testato in Thailandia ed è specifico per i ceppi attualmente in circolazione nel paese». Ormai siamo fuori strada. Qui traspare un po’ di vergogna: «funziona solo in Thailandia», ma perché mai se avete appena detto che non sapete perché funziona? Come fate a sapere che è specifico? Il senso è chiaro, ma bisogna essere un po’ maliziosi: nessun produttore si imbarcherà mai in un’impresa con dei margini così modesti; in nessun paese un vaccino che diminuisce di una inezia la probabilità di un evento rarissimo ha speranza di essere mai venduto, e nessuno mai si avventurerà in un’altra sperimentazione. Altro che avanzamento della scienza! Sia Kim che Fauci fanno notare che il vaccino è stato elaborato specificamente per contrastare due sottotipi della sindrome da immunodeficienza acquisita: l’E, diffuso in Thailandia e nel Sud-est asiatico, e il B, più comune negli Usa e in Europa. Ma come Fauci! Prima avevi detto che non c’era nessuna base razionale per il funzionamento e ora, insieme a Kim, tiri fuori l’effetto specifico. Poi, addirittura per gli Usa e l’Europa! Certo, qualcuno malizioso direbbe che lì pagano, ma, aggiungerebbe anche, non per una sola (ter96 mine romano che indica cattivo affare) come questa, è un po’ troppo anche in questi tempi bui. Siamo pronti per il comunicato aziendale? Eccolo: L’AD di Sanofi-Aventis, Chris Viehbacher, ha detto in una nota che la società continuerà le ricerche sull’hiv in collaborazione con studiosi, governi, ong e altre aziende che producono vaccini. I volontari hanno ricevuto sei vaccinazioni, quattro con l’Alvac, due con l’Aidsvax. Qualcuno vuole investire? Siamo buoni, non siamo la perfida industria farmaceutica, lavoriamo con scienziati e volontari delle ONG. Si stima che i malati di Aids siano 33 milioni nel mondo. Da quando il virus è stato identificato negli anni 80, le vittime sono state 25 milioni. I potenziali clienti sono infiniti, la malattia è gravissima (25 milioni, 33 milioni..), qualcuno vuole investire? Fine dell’articolo. Il bilancio: una sperimentazione inutile (come tante), forse dannosa (speriamo di no), propagandata per «un passo importante», stanco tentativo finale di pubblicità aziendale, nessun insegnamento. Fine dell’esercitazione. 97 Siete usciti dal salone stanchi e un po’ depressi? Allora è il momento di tirarsi su con un volo di fantasia, intravedere una via d’uscita alle strettoie della tecnoscienza d’avanspettacolo grazie a un artista vero. Per farlo, usciamo all’aria aperta, fuori dal palazzo della regina di ghiaccio, direttamente nei prati ultraverdi degli albi di «Topolino». 4. Ricerca scientifica, automazione, economia: cosa ci insegna il caso Paperopoli Nel caos che abitualmente regna nella camera delle mie figlie, nonostante gli sforzi e i rimproveri di mia moglie e miei, ho scovato una perla rara. Si tratta del numero 2.647 di «Topolino» (Mondadori) del 22 agosto 2006, e, segnatamente, dell’avventura Archimede e l’aiuto esagerato. Archimede Pitagorico è stato, nella mia infanzia, un grande modello a cui ispirarmi: mi piaceva il suo mettersi a disposizione in maniera disinteressata, la sua genialità operativa, il suo essere al di là delle convenzioni, con la sua zazzera spettinata, le maniche alzate e un vecchio gilet, ammiravo il suo passare con disinvoltura da complicate equazioni alla fatica manuale al tornio. Insomma, lo scienziato che tutti sogniamo, lontano mille miglia da quel trombone saccente di Pico de Paperis che, invece, 98 rappresentava per me il simbolo del secchione e (col senno di poi) di una certa cultura umanistica che si trova più a suo agio nel già detto e già scoperto (i libri) che sulla frontiera dell’inaspettato (le invenzioni di Archimede). Il tempo passa e Archimede si trova di fronte ai problemi che affliggono l’odierna tecno-scienza e i suoi complessi rapporti con la società e l’economia, ma il geniale inventore ne esce da par suo e, nel contempo, ci fornisce alcune preziose lezioni sul concetto di ottimizzazione alla fine dell’epoca moderna. Ecco, allora, cosa è successo a Paperopoli: Archimede è amareggiato, non riesce più a dedicarsi alla sua amata scienza di base perché i paperopolesi gli portano a riparare i loro elettrodomestici esaurendo, quasi completamente, il suo tempo e le sue energie. Il suo amico Paperino cerca di tirarlo su lusingandolo: Archimede non si limita a riparare gli elettrodomestici, bensì li migliora. Ad esempio, la lavatrice della signora Candeggina ora non si limita più a lavare i panni, ma esce fuori a stenderli. Insomma, ciò che angustia Archimede non è lavoro di routine, ma tecnologia di alto livello: noi, con un neologismo, chiameremmo tecno-scienza quell’attività che ci fornisce cellulari sempre più perfezionati e computer sempre più veloci. Ma, come fa notare Archimede a chi non capisce il dilemma, la tecno-scienza inibisce lo sviluppo della scienza vera e propria perché il lavoro alla 99 frontiera del conosciuto è trascurato a favore del già noto e, quindi, sfruttabile economicamente. Ma Archimede ha un’idea: visto il carattere tutto sommato ripetitivo dell’attività di ripara-tutto, delega il lavoro a un robot da lui appositamente inventato e messo in opera, il robot Aggiust-one, numero uno dei robot riparatori. All’inizio i risultati sono sorprendenti: Aggiust-one evade in maniera efficiente e veloce gli ordini dei paperopolesi e Archimede ha del tempo libero per dar sfogo alla sua creatività scientifica. In poco tempo, però, il sistema incontra una criticità generata dal suo stesso successo: il flusso di clienti ininterrotto necessita di un continuo rifornimento di pezzi di ricambio e Archimede si trova ridotto a fare da fattorino ad Aggiust-one procurandogli i pezzi di cui ha bisogno per il suo lavoro. Chiaramente Aggiust-one, essendo una macchina, non può procurarseli da solo; egli è programmato per aggiustare e andare in giro a far compere è al di là delle sue competenze. Il passaggio dalla scala artigiana a quella industriale ha, insomma, dei costi elevatissimi per Archimede; allo stesso modo, noi comprendiamo come la risposta «moderna» allo sviluppo industriale, attraverso le macchine che sostituiscono il lavoro, oltre a sollevare l’uomo dalla fatica, ha, però, un noioso sottoprodotto: dequalificano pesantemente il lavoro artigiano. Archimede da scienziato si trova declassato a un lavoro ripetitivo come 100 quello di fattorino di Aggiust-one, di servo, cioè, della sua stessa creatura. Ma andiamo avanti, anche perché Archimede non demorde e costruisce un secondo robot, l’assistente del suo assistente, Fattor-due, il robot fattorino che corre qua e là a rimediare in giro pezzi di ricambio. Dopo questa miglioria l’attività di Archimede diventa ancora più richiesta. Fuori dalla sua porta si è formata una fila lunghissima di clienti e Aggiust-one e Fattordue lavorano senza interruzioni. Tutto sistemato? Niente affatto Fattor-due è, come tutte le macchine moderne, ottimizzata, esegue, cioè, una «funzione obiettivo» nel miglior modo possibile, date certe condizioni al contorno, e la funzione obiettivo di Fattor-due è trovare i migliori pezzi sul mercato. Peccato, però, che questi pezzi siano anche i più costosi e che Archimede, che dai proventi della sua attività di riparazione ricavava i soldi per la ricerca di base, si trovi a secco. Egli ha il tempo di pensare alle sue invenzioni, ma non ha il denaro per metterle in pratica. Insomma, l’aumentata scala dell’attività di Archimede richiede una figura aggiuntiva, un altro piano di ottimizzazione che si aggiunge al lavoro tecnico (Aggiust-one) e alle infrastrutture (Fattor-due). Il piano aggiuntivo è quello della programmazione economica e Archimede ha bisogno di un contabile, di un amministratore che gestisca economicamente l’azienda. Il geniale inventore produce, allora, il suo terzo assistente: 101 Cont-tre, il robot contabile. Tutto pare risolto per il meglio, il cerchio sembra chiudersi, il classico dialogo che si ascolta nell’azienda è: Aggiust-one: «Servono viti!». Fattor-due: «Eseguo!». Cont-tre: «Comprale alla “bottega del bullone”, sono in offerta!». Il sogno del capitalismo moderno: un’azienda ottimizzata (spesso si usa la parola «razionalizzata», ingenerando forti equivoci sulla natura della ragione, ma questo lo capiremo alla fine) che produce un surplus su cui Archimede può innestare le sue avventure conoscitive disinteressate, ma che, nel lungo periodo, saranno alla base di nuovi e inaspettati sviluppi. Questo genere di mondo siamo usi chiamarlo «mondo moderno»: ogni singola cosa è fatta al suo meglio, ma è proprio questo il guaio, come vedremo tra poco. La razionalità economica, ultimo livello della catena di ottimizzazione e,quindi, paradigma di razionalità tout court, non tarda a rivolgersi verso la scienza: e perché non dovrebbe? Tra l’altro si suppone che lì fuori ci sia una democrazia (questo è un buon frutto della modernità) e, dunque, i contribuenti hanno il diritto di sapere come vengono spesi i loro soldi. Un brutto giorno, insomma, Archimede si trova a ordinare a Fattor-due dei chiodi al vanadio rinforzato, essenziali al suo progetto di microa102 stronave, ma Fattor-due non si muove, Cont-tre non ha autorizzato la spesa, i chiodi al vanadio rinforzato costano cento volte di più dei chiodi normali. Alle rimostranze di Archimede, che spiega a Cont-tre come i chiodi normali non siano adatti alla sua microastronave, Conttre emette la sentenza che pone fine all’utopia moderna per coerente suicidio: «Invenzione non commercializzabile come elettrodomestico, quindi, inutile, niente chiodi al vanadio rinforzato». Qui è racchiuso tutto il dramma della scienza attuale: per essere finanziata, essa deve dimostrare il valore commerciale dei suoi prodotti. Questa è una contraddizione in termini: questo valore non può esistere per cose che ancora non si conoscono e i cui esiti sono incerti. Il patto iniziale tra l’economia e la scienza, per cui questa poteva vivere lontano dai bisogni economici, sul «di più», si è rivelato insostenibile sulla base della doppia (e convergente) pressione della democrazia e della compatibilità economica. Nel nostro mondo la mossa della scienza per uscire dall’impasse è stata quella della menzogna o, se vogliamo essere politically correct, dell’immagine: si è cominciato a favoleggiare di miracolose cure a portata di mano, di risoluzione di problemi epocali, ecc. In ciò la scienza è stata furbescamente aiutata dalla finanza che si occupava di vendere questi sogni sotto forma di futures di aziende di biotecnologia e simili, prima che da queste imprese fosse venuta fuori neanche una cura per i calli. 103 Ora questa opzione sta iniziando a mostrare la corda. Si comincia a disinvestire dalla biotecnologia; la scienza si muove a tentoni e alcuni tentano la strada (pericolosissima) della scienza come religione satanica, per cui la scienza spiega ogni cosa, ogni nostra pulsione, ci dà le risposte che cerchiamo su noi stessi, ci svela l’ordine del mondo. Questo è veramente da disperati all’ultima spiaggia! Il fallimento è lì ancora prima di cominciare e credo che nessuno al mondo trovi sollievo per la sua anima facendosi convincere che le sue malinconie dipendano da un gene mutato (e, se magari qualcuno così esiste, ha veramente bisogno di cure, ma serie). Ma a Paperopoli le cose vanno in maniera diversa. Archimede è davvero un grande: la sua mossa di liberazione, quando Cont-tre sfrontatamente arriva a togliergli il portafoglio dalle mani, è quella di ridurre i suoi tre assistenti a un ammasso di ferraglia. Semplicemente li smonta. Archimede ritorna, così, alla sua iniziale dimensione artigianale; non ha problemi a dire a Paperino che gli chiede una riparazione: «ripassa domani». Ma l’economia customer oriented? Chi se ne importa! «Ripassa domani», anche perché una società che deve usare dei termini inglesi per sostituire il vecchio adagio «il cliente ha sempre ragione», che faceva bella mostra di sé alle spalle del desco del ciabattino, non merita di essere presa troppo sul serio. Il nostro ora gestisce autonomamente il suo tempo dividendosi tra scienza e riparazioni e l’ultima fra104 se che pronuncia sorridente è: «D’ora in poi seguirò il proverbio: chi fa da sé, fa per tre». Probabilmente i nostri lettori saranno rimasti un po’ perplessi su questa apparente arroganza di Archimede: si vuole rifugiare in una torre d’avorio? Non vuole il controllo democratico della scienza? Archimede è un luddista o peggio ancora, un talebano? Niente di tutto questo. Archimede continua il dialogo fecondo con il pubblico che gli porta dei problemi da risolvere, ma lo gestisce senza intermediari, facendosi capire e, insieme, perseguendo la sua ricerca conoscitiva su una scala che non provoca sconquassi nel mondo e il cui «controllo democratico» non è un’imposizione arbitraria, ma apprezzamento da parte del mondo. È la strada dell’artista prima della rivoluzione industriale: l’artista che seguiva sia il suo genio, sia la committenza e che, soprattutto, come nel caso delle invenzioni di Archimede, migliorava a livello minuto la qualità del vivere. Si pensi alla bellezza dei paesi antichi ricavati dal percolare di modelli costruttivi dall’arte all’artigianato e la si confronti con l’orrore delle periferie moderne dove l’ottimizzazione economica (gli architetti razionalisti svedesi dichiaravano esplicitamente: «Viva l’ordine, abbasso il bello!») ha generato male di vivere e bruttezza. 105 3. Bella scienza 1. Introduzione «il valore degli avanzamenti scientifici si misura non tanto dalla quantità di luce che da essi proviene, ma dalla lunghezza delle ombre che proiettano». Questa frase è tratta dal libro Nepal: alla scoperta del regno dei Malla, dove uno dei più grandi orientalisti di tutti i tempi, il maceratese Giuseppe Tucci, rievoca le sue spedizioni in Nepal dalla metà degli anni venti alla fine degli anni cinquanta. Quello che ci vuol dire Tucci è che la vera scienza è «apertura verso l’ignoto» per cui i suoi passi avanti più importanti sono quelli da cui scaturiscono nuovi filoni di ricerca, interi mondi di cui non sapevamo l’esistenza, che approfondiscono la vertigine dell’ignoto e, quindi, l’estensione del conoscibile. I veri nemici della scienza sono, dunque, spesso, proprio quelli che se ne ergono a paladini, e che cercano di convincerci che tutto è stato scoperto e che a noi rimane solo da «ritoccare qualche dettaglio» (basti leggere i capitoli iniziali dei libri dell’ul107 trafamoso professor Dawkins per avere questa sgradevole sensazione del già visto, già noto, già fatto). La «lunghezza delle ombre» ricorda da vicino la «luce di tenebra» dei grandi mistici come san Giovanni della Croce e ci offre un bello spunto di meditazione sulle consonanze tra vero atteggiamento scientifico e vero atteggiamento religioso. La scienza dei nostri tempi è particolarmente ricca di squarci di «pura luce di tenebra» proprio perché viviamo in un periodo in cui tutte le certezze accumulate nel passato stanno crollando rovinosamente. Questo porta al paradosso di una brutta scienza trionfalistica, tutto sommato impotente, ma contemporanea di una miriade di pietre preziose che ci offrono dei vertiginosi affacci sull’ignoto. Non è un caso se parliamo di pietre preziose, cioè, di oggetti di dimensioni relativamente piccole rispetto al loro valore; infatti, a differenza di altri periodi della scienza che ci hanno lasciato capolavori di una bellezza incomparabile e di dimensioni maestose in termini di rivolgimenti del pensiero – quali possibili conseguenze –, ma anche in termini di impegno assorbente dell’autore (due esempi su tutti possono essere la tavola periodica degli elementi di Dimitri Ivanovic Mendeleev e il concetto di campo elettromagnetico di James Clerk Maxwell), la bellezza scientifica dei nostri giorni è racchiusa, quasi sempre, in opere brevissime, in appunti veloci. 108 Insomma, è come se fossimo in un periodo di splendide canzonette e non di opere e sinfonie; la cosa certa è che questi piccoli capolavori non li troverete praticamente mai nei mezzi di comunicazione di massa, ancora ammaliati dalla brutta scienza in disfacimento progressivo. Mi preme, però, darvi un assaggio di quali meravigliose suggestioni possano derivare dalla scienza dei nostri tempi e per fare ciò mi riferirò a tre piccole gemme. La scelta è stata molto difficile, forse non sono neanche le mie tre opere preferite (per quanto, in ogni caso, bellissime), ma, di certo, sono quelle per me più semplici da spiegare nelle loro linee essenziali, senza troppe premesse e rifacendomi ad alcuni concetti espressi nel capitolo iniziale sui fondamenti. Sono, insomma, opere relativamente «semplici» che, non a caso, il mio amico Lorenzo Farina e io abbiamo inserito nel sito «scienza semplice», cui i lettori sono indirizzati qualora desiderino approfondire i temi trattati in questo libro1 o leggere in forma originale gli articoli descritti. 1. L’indirizzo del sito Internet è: http://www.dis.uniroma1.it/~farina/semplice/. 109 2. La forma delle reti E.A. Variano, J.H. McCoy, H. Lipson, Reti, Dinamica e Modularità, «Physical Review Letters» 92, 1887012 (2004). Questo è un articolo di matematica sperimentale. Il suo fascino maggiore risiede, forse, in questa giustapposizione di opposti (la matematica è normalmente considerata agli antipodi dell’empiria) da cui gli autori riescono a cavare informazioni molto interessanti sul funzionamento dei sistemi reticolari. Scopo del gioco è quello di capire se esiste la possibilità di fondare una sorta di relazione struttura/funzione per i sistemi reticolari, se, cioè, delle particolari topologie di nodi collegati da archi garantiscano un funzionamento più stabile di altri. Considerare i sistemi reali come delle «reti di interazione», in cui gli elementi costituenti sono schematizzati come «nodi» connessi tra di loro da «legami», è diventato il paradigma più diffuso di spiegazione non solo in scienza e tecnologia, ma anche in campi come la sociologia o la politica. Probabilmente, ciò in parte deriva dalla fascinazione che molte persone provano per ciò che viene considerato lo strumento «più sofisticato» della propria era, per cui nel Settecento tutto era immaginato come un 2. La versione originale è consultabile sul sito: http://www.dis.uniroma1.it/~farina/semplice/pdf/Variano2004.pdf. 110 orologio (da cui l’enfasi sul meccanicismo); nell’Ottocento la metafora dominante era quella della macchina a vapore (da cui l’accento sui calcoli energetici); nel Novecento abbiamo assistito alla metafora della teoria dell’informazione con l’equiparazione di qualsiasi fenomeno a un calcolatore elettronico (da questa metafora sono derivate le incredibili mistificazioni sul DNA «software» della cellula calcolatore). All’alba del ventunesimo secolo, un’enorme rete che connette il mondo, Internet, è l’indiscusso idolo tecno-scientifico per cui non stupisce il grande interesse per lo studio dei sistemi reticolari. Al di là della sociologia, però, la metafora della rete è di estremo interesse, giacché offre una possibilità completamente nuova e inedita rispetto alle metafore del passato: quella di prendere sul serio la molteplicità delle scale in cui realmente avvengono i fenomeni naturali. Nel primo capitolo di questo libro abbiamo cercato di chiarire cosa si intenda per effetto di scala e abbiamo visto che i sistemi appaiono molto differenti a seconda della «distanza» da cui li guardiamo e, quindi, come diversi comportamenti, regolarità e funzioni possano convivere nello stesso sistema a seconda delle dimensioni temporali e spaziali prese in considerazione. Il paradigma della rete è prezioso per provare a costruire un quadro complessivo in cui «tutto si tenga» e in cui comportamenti collettivi emergano dal sommarsi di molteplici interazioni microscopiche: la formalizzazione in termini di rete, infatti, 111 rende piuttosto facile calcolare sullo stesso sistema proprietà locali dei singoli nodi e proprietà collettive di insiemi di nodi e legami, permettendo di «variare gli ingrandimenti» senza imporre al sistema in studio nessuna specifica legge di funzionamento. Gli autori di questo articolo si domandano se esista la possibilità di definire una sorta di «energetica» che indirizzi la forma delle reti effettivamente riscontrabili in natura, se, cioè, alcune «forme» (intese come tipo e distribuzione di legami tra nodi) garantiscano ai sistemi dei comportamenti «più stabili» e regolari nel tempo. La stabilità di una rete è una questione importantissima e ha grandi effetti sulla nostra esistenza: basti pensare alla rete elettrica, ai collegamenti aerei, ma anche al nostro metabolismo che, di fatto, è una rete di reazioni chimiche variamente interconnesse tra di loro. Lo studio del comportamento dinamico di tutte le possibili topologie di reti (cioè, di tutti i modi con cui posso collegare fra di loro un insieme di nodi) non è fattibile per il semplice motivo che, anche limitandosi a pochissimi nodi, il numero di modi per metterli in collegamento diventa subito astronomico. Per questo gli autori scelgono un particolare punto di vista che permette una drastica semplificazione del problema: limitarsi alle particolari condizioni di stabilità lineare (cioè, che la rete, se modificata in maniera non troppo profonda, non abbia apprezzabili cambiamenti del suo comportamento) e lasciar emergere le 112 soluzioni «vincenti» da un processo di selezione naturale simulato (algoritmi genetici). Gli autori sono consapevoli delle manchevolezze del loro approccio e affidano la verosimiglianza dei loro risultati al fatto che dal loro impianto ultrasemplificato si producano reti con delle caratteristiche simili a quelle trovate in natura. In altre parole, gli scienziati approntano una sorta di «pentolone computazionale» in cui inseriscono mille differenti software, ognuno corrispondente a un particolare cablaggio di una rete di 25 nodi. Ogni rete può essere modificata da «mutazioni casuali» che ne cambiano la struttura di legame fra gli elementi; ognuna di queste reti sarà valutata per il suo grado di robustezza (invarianza del suo comportamento nel tempo) e solo le reti più invarianti potranno «figliare», cioè, dar vita a una o più copie del loro modello di cablaggio proporzionalmente al loro grado di invarianza (robustezza). Alla fine dei giochi, quando dopo centinaia di migliaia di iterazioni la popolazione del pentolone non cambia più, gli autori «vanno a vedere» le architetture superstiti, che, evolvendo in un campo che premia la robustezza, avranno, giocoforza, delle topologie «ben architettate» in termini di resistenza e affidabilità. Osservando queste reti, gli autori riescono a dimostrare una proprietà emergente dal loro pentolone (da loro non esplicitamente inserita come criterio di selezione), quella della modularità, cioè, la proprietà di essere 113 segmentabili in moduli parzialmente indipendenti, che è poi una delle caratteristiche salienti delle reti naturali: un esempio per tutti è il nostro organismo che, pur essendo globalmente connesso, può non di meno essere segmentato in moduli significativi come il sistema nervoso, il sistema immunitario, il sistema digerente, ecc. È interessante notare come questo risultato sia stato ottenuto con un uso veramente minimo di formalismi matematici e di ipotesi di funzionamento. L’emergere di proprietà «ottimali» dal puro e semplice cablaggio delle reti ci fa intravedere un modo completamente differente di fare scienza, in cui i «principi ordinatori» non sono più da ricercarsi nei «mattoni fondamentali» della materia, ma da leggi di organizzazione abbastanza indipendenti dal «materiale da costruzione» e, piuttosto, legate a proprietà di relazione tra gli oggetti. La possibilità di «contaminazione» fra differenti campi di un risultato come questo è enorme. La portata di questi studi è notevole poiché gli stessi principi costruttivi possono essere sfruttati per progettare reti elettriche, per organizzare il traffico veicolare o per predisporre moduli architettonici; ma anche per cercare di comprendere i punti critici di un ecosistema (complicata reti di relazioni fra nodi costituiti da piante, animali, microrganismi) e la sua stabilità rispetto a perturbazioni esterne. 114 3. Semplice è bello A. Bender, R.C. Glen, Un commento sulle misure di arricchimento nello screening virtuale: confronto fra il contenuto di informazione di metodi a differenti livelli di sofisticazione, «Journal of Chemical Information and Modeling», 2005, 45 (5), pp. 1369-13753. Nel campo della chimica farmaceutica due ricercatori, Bender e Glen, hanno affrontato di petto (demolendolo) uno dei miti più pervicaci e diffusi anche tra gli scienziati, oltre che tra la gente comune: quello del realismo ingenuo e del progresso lineare. Secondo questo mito, i metodi d’indagine (ma anche le teorie, i modelli, le misure) più sofisticati sono invariabilmente i migliori in termini di accuratezza e capacità predittive. Questo mito affonda le radici nella sbrigativa assimilazione della natura alla scienza, la quale, semmai, della natura è una bella rappresentazione, seppur parziale, ma non certo la cosa in sé. Nel loro studio gli autori analizzano una serie di rappresentazioni di differente grado di sofisticazione valutando la loro abilità di predizione dell’attività farmacologica (legame fra farmaco e corrispondente ricettore proteico) di un insieme molto grande di molecole. Que3. La versione originale è consultabile su: http://www.dis.uniroma1.it/~farina/semplice/pdf/Bender2005.pdf. 115 ste rappresentazioni vanno dal massimo di rozzezza (numero di atomi di carbonio di una molecola), alle vette estreme della sofisticazione e della scienza, come complicati programmi, detti di docking molecolare, che simulano il legame del farmaco con la cavità della proteina (ricettore) prendendo in considerazione esplicitamente una grande massa di informazioni legate alla struttura tridimensionale e alle caratteristiche chimico-fisiche del ricettore e della molecola di interesse farmacologico. Questi diversi modi di predire l’attività delle molecole vengono trattati come dei concorrenti iscritti a una gara: vince chi riesce a prevedere con più efficienza le molecole che risulteranno essere capaci di legarsi a uno specifico ricettore, una molecola proteica che «riconosce» la molecola come un segnale efficace per un cambiamento di conformazione che poi verrà trasferito alla cellula come informazione biologicamente rilevante. Per dare un riferimento metrico ai risultati, viene iscritto alla gara un concorrente molto particolare: un pescatore casuale (random selection) di molecole che semplicemente seleziona a caso le strutture molecolari. Qui il taglio è molto chiaro e asciutto e io non so nascondere la mia predilezione per il lucido cinismo dell’esperimento statistico: queste sono le regole del gioco, vediamo un po’ chi vince. I risultati del test, che prende in esame qualcosa come 7.000 differenti molecole, sono di una chiarezza sconvolgente: mentre i metodi basati sulla 116 semplice considerazione della formula di struttura, cioè atomi connessi tra loro da legami chimici (a ben vedere un’altra rappresentazione reticolare), funzionano assai bene, garantendo un ottimo 70% di risposte corrette, i metodi più sofisticati non vanno oltre al 20% di risposte azzeccate, di poco superiore al 10% del selettore casuale e, addirittura, inferiore alla prestazione dell’incredibilmente rozza conta di atomi (le molecole sono confrontate tra di loro in termini di similitudine di composizione). Ricordiamoci che qui siamo giunti in uno dei punti caldi della ricerca applicata, anche se, vista così, sembra uno di quei giochi che deliziano solo noi addetti ai lavori: in gioco c’è niente di meno che la previsione dell’attività terapeutica di una molecola e, quindi, il modo più efficiente per produrre medicine. La catastrofe dei metodi più sofisticati è una prova lampante delle manchevolezze delle nostre conoscenze; mentre noi siamo convinti di guadagnare in realismo aggiungendo nuovi dettagli alla rappresentazione, in realtà ci allontaniamo da una misura efficiente del reale man mano che la sofisticazione dei ragionamenti aumenta, con la conseguenza che il metodo più complesso sia quello più simile alla completa casualità. Accettiamo con un sorrisetto sardonico (pur comprendendo intimamente le loro ragioni) le giustificazioni degli scienziati «puri» che ci dicono come, in ogni caso, bisogna spingere agli 117 estremi il nostro sforzo teorico, ma risulta evidente come questo articolo sia di per sé stesso un «manifesto della scienza semplice». Il vincitore della «gara dei metodi» è, infatti, basato su una rappresentazione bidimensionale delle molecole (la classica formula di struttura dei libri di chimica organica) in termini di grafo, con gli atomi corrispondenti ai nodi e i legami chimici agli spigoli. Le molecole non sono bidimensionali e tanto meno i grafi, ma questa rappresentazione ha funzionato molto meglio di tutte le rappresentazioni che «saggiamente» (?) prendevano in considerazione l’effettiva tridimensionalità delle molecole. La spiegazione dell’arcano è che la formula chimica (di cui un esempio è riportato in figura) è una sorta di rappresentazione multimediale del tipo di quelle utilizzate nei fumetti o negli affreschi medievali, in cui convivono differenti livelli di espressione, da quello spaziale (la forma bidimensionale della molecola), a quello sim118 bolica (i nomi degli atomi) e relazionale (l’indicazione dei legami covalenti) che distilla un gran numero di conoscenze diverse. La formula di struttura, insomma, non è un semplice «appiattimento» di una struttura a tre dimensioni, ma un raffinato simbolismo da cui il chimico può derivare preziose informazioni (nel caso riportato in figura, ad esempio, il carattere aromatico, i movimenti che la molecola può fare nello spazio, il numero di configurazioni equivalenti, i centri di reazione, ecc.). Il supposto maggior «realismo» delle rappresentazioni tridimensionali avviene a scapito della sapienza di cui sono intrise le formule di struttura e questo non è un guadagno. La scienza è natura e rappresentazione: una brutta foto a colori ci dice di meno di una bella foto in bianco e nero (benché il mondo sia a colori). Gli autori, in maniera assolutamente spontanea e largamente inconsapevole, ci danno una grande lezione su come interpretare le nostre rappresentazioni del mondo il cui valore predittivo non può mai essere giudicato dalla «quantità di teoria» che vi ho inserito (perché ogni teoria è inevitabilmente parziale e imperfetta e, quindi, superato un certo limite, ha un effetto controproducente), ma solo dal confronto onesto e controllato con l’esperimento. Il raggiungimento di un ottimo risultato in termini di fedeltà al reale è questione di arte e di sottili equilibri tra correlazione con la natura (incognita) delle cose e strumenti di rappresentazione. Siamo all’Adaequatio rei et in119 tellectus di Tommaso d’Aquino, infinitamente lontano da ogni pretesa di dominio assoluto del reale. 4. Proteine come insiemi di relazioni N. Kannan, S. Vishveshwara, Identificazione di domini di catene laterali nelle strutture proteiche con un metodo spettrale di analisi dei grafi, «Journal of Molecular Biology», 292 (2), 1999, pp. 441-4644(24). Il lavoro di questi due ricercatori indiani ha di nuovo a che vedere con l’efficienza delle rappresentazioni. Nel lavoro precedente avevamo osservato come quella particolare formalizzazione a rete (o grafo) molecolare in termini di atomi = nodi e legami covalenti = spigoli, che i chimici chiamano «formula di struttura», consentisse di ricavare delle importanti informazioni sul comportamento delle piccole molecole organiche, inattingibili a metodologie di analisi più astruse e sofisticate. Anche qui si parla di reti, solo che la rete non è la rete di legami covalenti che tengono insieme gli atomi di una molecola, ma la «rete» formata dai contatti tra le catene laterali dei differenti residui aminoacidici costituenti una proteina. 4. L’articolo è scaricabile in versione originale da: http://www.dis.uniroma1.it/~farina/semplice/pdf/Kannan1999.pdf. 120 Qui siamo nel pieno di quella «scienza delle proteine» che, come abbiamo detto nel capitolo dedicato ai fondamenti, marca l’entrata a pieno titolo nel mondo dei sistemi complessi. Vale forse la pena sottolineare di nuovo come, al di là delle applicazioni pratiche (gran parte della biologia, a livello molecolare, dipende dal corretto funzionamento e, quindi, dalla corretta struttura e dinamica dei sistemi proteici), le proteine siano un punto di svolta cruciale per il pensiero scientifico, situandosi al confine fra «scienze dure» (fisica) e «scienze morbide» (biologia), laddove, cioè, un uso massiccio di modelli quantitativi lascia spazio a delle formulazioni molto più nebulose e qualitative. Riportare senza traumi e in maniera completamente naturale un tema «piuttosto morbido» come la biochimica nell’alveo di una classica tecnica della fisica matematica ha, quindi, un’importanza enorme per l’estensione delle possibilità di nuove scoperte e per la precisione delle descrizioni ottenibili. Ripensando alle figure di proteine come «nastri ripiegati», possiamo comprendere il senso della proposta formulata dai due autori del lavoro, provenienti dal prestigioso Indian Institute of Science di Bangalore5: per riuscire a fornire una descrizione il più possibile oggettiva e quantitativa 5. Si tratta dello stesso Istituto dove lavorava il biofisico indiano Gopalasamudram Narayana Iyer Ramachandran, uno dei padri dello studio della biofisica strutturale. 121 della «forma» di questi nastri nello spazio, devo trovare una proprietà che sia il più possibile confrontabile tra strutture molto differenti e indipendente dal «punto di vista» della struttura stessa (immaginiamo come cambia un qualsiasi oggetto visto dal lato e visto dall’alto). L’idea dei due ricercatori è, insieme, semplice e geniale: invece di guardare le proteine «da fuori», pensiamo a come apparirebbero viste da «dentro» o, meglio, viste da un osservatore che si muova lungo la loro sequenza di aminoacidi. Questa vista è l’unica a essere univocamente definita per differenti molecole proteiche: dopotutto, ogni proteina è una sequenza di aminoacidi ordinata (in cui, cioè, si può dire con sicurezza quale sia il primo, il secondo, il terzo, l’ennesimo aminoacido) che si ripiega nello spazio a tre dimensioni, per cui «raccontare quello che si incontra», camminando passo passo (aminoacido per aminoacido) lungo la sequenza, è uno schema che si può applicare a ogni proteina. Al contrario, la struttura tridimensionale ripiegata può essere «osservata da fuori» in miriadi di differenti orientamenti senza che ne esista uno solo ottimale per svelare le similitudini tra diverse strutture proteiche. Cosa potremmo vedere «camminando sulla sequenza»? Niente di diverso che altri residui a distanza maggiore o minore, un po’ come, camminando lungo una strada, potremmo incontrare delle deviazioni per particolari paesi. La posizione di ogni paese, insomma, può esse122 re immaginata come definita dall’insieme di distanze da altri paesi (qual è quel luogo che dista 20 chilometri da Ostia, 20 chilometri da Frascati e 20 chilometri da Fiano?...Lascio al lettore la soluzione). Nel caso dei residui aminoacidici lungo una sequenza abbiamo un vantaggio rispetto ai paesi: esiste una distanza minima tra aminoacidi che non può essere oltrepassata per motivi energetici (le due nuvole elettroniche non possono compenetrarsi, a differenza dei paesi dalle orribili conurbazioni create dalla speculazione edilizia). A questo punto, capiamo la genialità della vista proposta dagli autori: invece di guardare la struttura da fuori e, quindi, osservare le diverse forme che la catena aminoacidica assume in diverse zone della molecola (dette «domini»), guardiamola da dentro sfruttando i punti in cui due residui aminoacidici vengono a contatto fra loro (distanza minima). Da questo punto di vista la proteina appare come una struttura reticolare i cui nodi sono i residui e gli spigoli i contatti fra di loro. Una volta accettata questa rappresentazione, la definizione di dominio corrisponde alla definizione statistica di cluster o di «modulo»: un dominio è costituito da un insieme di residui in cui i contatti interni (tra residui appartenenti allo stesso dominio) sono molto più numerosi dei contatti esterni. Gli autori hanno a disposizione dei metodi matematici affermatisi da lungo tempo (detti «metodi spettrali», da cui il titolo del lavoro) per identificare automatica123 mente i domini di una struttura proteica a partire dalla semplice matrice di contatti6. Questi metodi consentono di rappresentare ogni struttura, indipendentemente dal numero di residui, come un profilo numerico che potrò sovrapporre a un altro per calcolare la similitudine delle «architetture» dei contatti, indipendentemente da differenze dimensionali e concentrandomi, invece, sui «principi costruttivi» delle strutture. Il lavoro qui sommariamente descritto ha iniziato un intero filone della biochimica che ha consentito di far luce su numerose proprietà fisiologiche delle proteine e della natura del loro ripiegamento. Ha inoltre permesso di individuare, soggiacente a una varietà apparentemente selvaggia di forme, l’uso di pochissimi «modelli costruttivi», facendo intravedere un’organizzazione completamente inaspettata della materia vivente che pone degli interrogativi enormi sulla congruenza del semplice modello neodarwiniano dell’evoluzione. 5. Conclusioni: scienza di base e dialogo Niente male vero? Capite che enorme semplificazione e pulizia di pensiero potrebbe derivarci dalla diffusione del 6. Una matrice di valori 0 e 1 avente come righe e colonne gli aminoacidi ordinati lungo la sequenza, con un valore 1 all’incrocio di due aminoacidi in contatto e 0 altrimenti. 124 metodo scientifico in termini non ideologici (era nel suo DNA) e neanche strettamente contenutistici (cosa s’intende per idrossidi e idruri, la classificazione delle briofite, ecc.), ma squisitamente metodologici? Un metodo scientifico inteso come strumento di pensiero che consenta una visualizzazione delle nostre congetture e, quindi, una loro immediata percezione in termini estetici (si pensi all’uso del concetto di «rete» nei lavori descritti sopra). Capite come il pensiero scientifico, se correttamente interpretato, potrebbe veramente essere il «campo neutro» in cui valicare steccati ideologici ormai vecchi, ma giudicati ancora insuperabili? Mi viene in mente, a questo proposito, un episodio accaduto al mio amico Daniele quando eravamo ragazzi nella Roma giovanile iperpoliticizzata della fine degli anni Settanta. Il mio amico andava in giro nel suo quartiere stracciando manifesti di un’organizzazione di estrema destra. Mauro, suo rivale politico, molto, ma molto più grosso e forte di lui, se ne accorge e lo abbranca; sta per tirargli un pugno quando a Daniele viene in aiuto un colpo di genio e a bruciapelo chiede al suo avversario «A Mà, come te và co’ le donne?». Mauro si blocca, non può continuare. È stato portato dal suo ex nemico su un piano comune in cui entrambi condividono le normali (?) delusioni dell’età adolescenziale, in cui si riconoscono fratelli. Alla fine, i due si allontanano a braccetto meditando sull’arduo compito di stabilire un proficuo contat125 to con l’altra metà del mondo. Questa storia, forse un po’ pittoresca, ci spiega bene la necessità di una qualche esperienza condivisa su cui fondare il dialogo con l’altro. La scienza ci offre un grande campionario di «esperienze condivise» su cui tentare un approccio comune, con cui superare le divisioni; usare lo scientismo come barriera ideologica è un crimine imperdonabile, e non solo contro la scienza. Io mi auguro che questo libro abbia offerto ai suoi lettori alcuni spunti di meditazione e anche qualche elemento critico; qualche anticorpo non solo per salvarsi dai continui attacchi alla dignità umana (in termini di riduzione dell’autostima, di negazione della libertà di giudizio e di pensiero) a cui l’odierno scientismo ci sottopone, ma anche per assaporare l’aria fina dei Campi Elisi della bella scienza in cui spero di incontrarli numerosi. Spero, altresì, di aver convinto Flaminia che siamo ben lontani da una scienza «che comprende tutto» e che anzi questa sia una contraddizione in termini. E spero che Irene sia ormai convinta che gli scienziati non siano più «cattivi» di avvocati, fruttivendoli, idraulici e badanti. Dal fondo sento, però, dei brusii. Lo so bene, in questo libro non compaiono quelle che sono considerate le «grandi questioni messe in campo dalla scienza», solo un criptico accenno alla fine del paragrafo precedente su Darwin e la teoria dell’evoluzione. Neanche una parola sulle cellule staminali o magari sul batterio artificia126 le (sic) di quel furbacchione di Craig Venter, sui temi di neuroetica, ecc. Non si tratta di dimenticanze casuali: vi avevo detto che il libro trattava di scienza giocata e non di scienza chiacchierata e, per giocare bene, il campo deve essere libero da tifosi urlanti e da erbacce infestanti. Quindi, ho dovuto, giocoforza, eliminare ogni possibilità di confondere il mestiere della scienza con elementi spuri, ma sono convinto che, vista la grande reperibilità degli «argomenti caldi», non abbiate difficoltà a trovare ciò che vi interessa altrove, sperando, semmai, che le cose che avete letto qui vi forniscano dei criteri di giudizio sulle cose di vostro interesse. 127 Indice Prefazione di Ermanno Bencivenga Vale la pena di impegnarsi sul serio (una breve introduzione) 1. Fondamenti 2. Brutta scienza 3. Bella scienza pag. v 3 11 71 107 Finito di stampare nel mese di ottobre 2010 da Rubbettino Industrie Grafiche ed Editoriali per conto di Rubbettino Editore Srl 88049 Soveria Mannelli (Catanzaro)