La Scienza salverà la Terra

L’Aquila / La Scienza salverà la Terra nell’Anno Domini 2018. È pieno di stelle! L’alba dell’Uomo interstellare sembra ancora lontana. Lo Spazio italiano ha una nuova legge ma non è l’Odissea: la direzione e il coordinamento delle Politiche Spaziali e Aerospaziali attribuiti alla Presidenza del Consiglio. La liberalizzazione dell’impresa e dell’industria spaziale privata resta una chimera nel Belpaese. Negli Anni Sessanta del XX Secolo l’Italia era la terza potenza missilistica sulla Terra. La Via della Seta “Marco Polo” passa per lo spazio. Per il volo umano si aprono nuove prospettive di collaborazione spaziale tra Italia e Cina. I voti augurali dei Presidenti di Russia e Cina appaiono come una benedizione del Cielo. Il Presidente russo Putin annuncia: “La coesione, l’amicizia, l’amore disinteressato per la Russia moltiplicano le nostre forze per azioni meritevoli e grandi risultati”. Il Presidente cinese Xi Jinping rivela: “Abbiamo acceso il primo computer quantistico!”. Ciascuno faccia pure i doverosi confronti. Le comunicazioni quantistiche sono un settore strategico della ricerca internazionale, in quanto permettono di garantire comunicazioni riservate a prova di “hacker” e in futuro costituiranno il “cervello quantistico” delle “persone artificiali” di uso anche domestico. Fake News, mediocrazia e ricerca, per la serie “non è vero ma ci credo”, nel tempo di Abnego, Presidente degli Stati Uniti d’America ma non della Terra. Sono trascorsi 50 anni dal capolavoro “2001 Odissea nello Spazio”, il film di Stanley Kubrick del 1968, basato su un soggetto di Arthur C. Clarke, il 2 Aprile, ma i potenti ci costringono ancora a fluttuare a bordo di risibili capsule e stazioni spaziali, mentre continuiamo a spendere miliardi di euro in sonde nucleari automatiche (Cassini) che, invece di indirizzare nello spazio interstellare, facciamo precipitare sui pianeti giganti con assurde motivazioni: “per non far prendere in raffreddore a ET”. Strauss docet! Può la scienza costituire un modello regolativo in grado di contrastare il proliferare delle fake news governative o private? Meglio i falsi positivi che i falsi negativi? Gravità, curvature spaziotemporali e pensiero. La scelta dei “peer reviewer”. L’Italia che scienza finanzia? Il Bando PRIN2017 si avvale di complessivi 391 milioni di euro e poiché i progetti sono triennali, ne deriva che la capacità di spesa è di 130 milioni spiccioli l’anno. Risibili se si pensa che l’Italia spenderà per la obsoleta Nato la bellezza di 100 milioni di euro al giorno! Altro che volo interstellare! I “disturbi” dell’informazione e del “sarà vero?” sono molteplici e possono anche segnare il destino di una Civiltà. I 391 milioni sono erogati dal Miur secondo un preciso calendario. E, tuttavia, recita il bando: “Le Università garantiscono, in ogni caso, la continuità delle attività dei progetti anche in pendenza delle erogazioni da parte del MIUR”. Insomma, se il Miur si rivelerà pessimo pagatore, saranno le università (ma non gli Enti di Ricerca) a dover anticipare per garantire la continuità del finanziamento. L’Unione Europea cosa pensa della scienza elaborata in Russia? Quando si mostra l’istantanea di una tipica simulazione computerizzata dell’evoluzione dell’Universo in cui appare la misteriosa struttura spugnosa del Cosmo e di un filamento di Dna, cosa si prova? Di questa immensa ragnatela tridimensionale è artefice la Materia Oscura che, con la sua azione gravitazionale, plasma i lunghi filamenti, li collega tra loro con nodi e obbliga la materia ordinaria a concentrarsi nelle regioni con densità più elevata. Le galassie si trovano nei punti più densi della struttura e sono maggiormente concentrate nei nodi, dove si raggruppano in ammassi e superammassi. Interessante osservare come gran parte del volume dell’Universo e del Dna sia occupato dalle immense regioni desolatamente vuote che si estendono tra i filamenti. Le “fake news” paradossalmente trattate come “vere” possono fare “miracoli” nel mondo della ricerca? Ci si può fidare degli scienziati e dei politici italiani? E dei Nobel? Cosa può rappresentare oggi l’Universo e quali sono le sono le nostre relazioni con la scienza? Quanto siamo consapevoli che queste straordinarie conoscenze e tecnologie sono fondate su una visione del Cosmo rivoluzionaria? Gli scienziati italiani hanno superato la russofobia? Lo spaziotempo è privo di confini: tutte le particelle dell’Universo sono fra loro dipendenti e interconnesse. A Roma la mostra “Gravity. Immaginare l’Universo dopo Einstein” al Museo Nazionale delle Arti del XXI Secolo fino al 29 Aprile 2018. I curatori della mostra hanno chiesto ad antropologi, artisti, scienziati, storici dell’arte, filosofi, letterati, fisici, geografi e biologi, di rispondere a queste domande offrendo un loro personale punto di vista sui temi proposti. Italiani in prima linea tra i vincitori dei Consolidator Grants 2017, le sovvenzioni destinate dal Consiglio Europeo della Ricerca-ERC a ricercatori in fase di consolidamento della carriera scientifica. A livello nazionale emerge una forte concentrazione nella distribuzione dei finanziamenti per macro settore, con più del 71,4 % dei progetti finanziati nel campo delle scienze fisiche e ingegneria, oltre il 21,4 % nelle scienze umane e sociali e più del 7,1% nelle scienze della vita. Su scala europea, il 45,9% dei progetti totali finanziati riguarda le scienze fisiche e ingegneria, il 30,7 % le scienze della vita e il restante 23,4% le scienze umane e sociali. Nel complesso, i 329 progetti vincitori sono stati selezionati su 2.538 proposte di ricerca sottoposte alle valutazioni dell’ERC, con un tasso di successo pari al 13%. Il 32% delle sovvenzioni sono state assegnate a donne. Nella “top 10” di Nature appare Marica Branchesi, astrofisica italiana del Gran Sasso Science Institute di L’Aquila. Davide Castelvecchi, che ha scritto il suo profilo, la definisce “Merge maker, an astronomer helped scientists make the most of a historic gravitational-wave event”. L’Astrofisica vince alla grande con la rivelazione dell’onda gravitazionale originata dalla fusione di due stelle di neutroni e la nascita dell’Astronomia Multi Messaggero. Il “Breakthrough of the year” scelto dai frequentatori della rivista Science è la terapia genetica dei tumori. All’Istituto Nazionale di Geofisica e Vulcanologia, Alessandro Amato in un post riassume “un anno di terremoti in Italia. Ne sono stati localizzati 44455 in totale (di cui circa 37000 appartengono alla sequenza in Italia centrale)”. Nel suo libro “Ogni Giorno. Tra scienza e politica” Elena Cattaneo spiega come alcuni politici e scienziati non siano esenti da responsabilità nei confronti di questo sentimento antiscientifico. In verità, l’Italia è una società che nei meccanismi di cooptazione di potere privilegia i mediocri, che meglio degli altri garantiscono la conservazione frenando l’innovazione, è destinata a sprofondare fra bufale e leggende metropolitane. L’arte del buon governo si trasforma in governance, i cittadini vengono declassati a clienti e consumatori. Il sondaggio prende il posto della scienza. Il merito, l’eccellenza e l’originalità di pensiero cedono il passo al luogo comune e al conformismo. L’Homo Abnegus sostituisce l’Homo Sapiens? Buon Anno Domini 2018.

(di Nicola Facciolini)

“L’eccesso di enfasi sulla geometria può solo oscurare le connessioni profonde tra la gravitazione e il resto della fisica” (Stefan Weinberg). “Non c’è stata nessuna presa della Bastiglia, niente di comparabile all’incendio del Reichstag e l’incrociatore Aurora non ha ancora sparato nessun colpo di cannone. Tuttavia, l’assalto è stato già lanciato ed è stato coronato dal successo: i mediocri hanno preso il potere” (Alain Deneault). La Scienza salverà la Terra nell’Anno Domini 2018. Il primo computer quantistico è stato costruito e attivato in Cina. Gli “address” tradizionali di Capodanno, i voti augurali dei Presidenti di Russia (https://www.youtube.com/watch?v=iPqOY7ROnrw&feature=youtu.be&a) e Cina (https://www.youtube.com/watch?v=RIDN1cDhz7c) appaiono come una benedizione del Cielo (http://en.kremlin.ru/events/president/news/56591). È pieno di stelle! L’alba dell’Uomo interstellare sembra ancora lontana. Sono trascorsi 50 anni dal capolavoro “2001 Odissea nello Spazio”, il film di Stanley Kubrick del 1968, basato su un soggetto di Arthur C. Clarke, il 2 Aprile, ma i potenti ci costringono ancora a fluttuare a bordo di risibili capsule e stazioni spaziali, mentre continuiamo a spendere miliardi di euro in sonde nucleari automatiche (Cassini) che, invece di indirizzare nello spazio interstellare, facciamo precipitare sui pianeti giganti con assurde motivazioni: “per non far prendere in raffreddore a ET”. Strauss docet! Il Presidente della Federazione Russa, Vladimir Putin, dichiara alla Nazione: “Cari amici! Siamo alla soglia del nuovo anno, il 2018. Indubbiamente questa festa ci fa visita ogni anno, ma allo stesso tempo la percepiamo sempre come nuova, piacevole e amata; crediamo che tutto ciò che si desidera durante questi momenti, tutte le nostre speranze, si avvereranno. Il nuovo anno da noi è prima di tutta una festa di famiglia. Lo festeggiamo com’era durante l’infanzia: con regali e sorprese, con un calore speciale, con l’attesa di grandi cambiamenti. E questi accadranno sicuramente nella nostra vita se ognuno di noi si ricorderà sempre dei propri genitori, si prenderà cura di loro, apprezzerà ogni minuto trascorso con loro, se comprenderemo di più i nostri figli, le loro aspirazioni e i loro sogni, se sosterremo chi ci è vicino, chi ha bisogno del nostro aiuto e della nostra sincera generosità. La capacità di aiutare, di essere sensibili, di donare bontà – osserva Putin – riempie la vita di un senso vero, umano. Non importa dove ci troviamo: a tavola con la famiglia, in compagnia, per le strade festose, saremo uniti dall’euforia delle feste di Capodanno, mentre le nuove tecnologie ci permettono di condividere i nostri sentimenti con i nostri cari a centinaia e a migliaia di chilometri da noi. E, come sempre, i miei più sentiti auguri a chi, in questo momento, lavora, svolge il suo dovere militare, a chi è di turno in ospedale, chi pilota gli aerei e chi conduce i treni. Siamo tutti insieme in questa fantastica notte di Capodanno. Siamo insieme anche nei nostri comuni affari quotidiani. La coesione, l’amicizia, l’amore disinteressato per la Russia moltiplicano le nostre forze per azioni meritevoli e grandi risultati. Voglio ringraziare tutti di cuore per la fiducia in se stessi e nel nostro paese, per il lavoro e per i suoi risultati. Che la fiducia e la comprensione reciproca ci accompagnino sempre. Cari amici! Mancano letteralmente pochi secondi al 2018. È arrivato il momento di scambiarsi l’un l’altro le parole più desiderate, chiedere scusa per gli errori, per le offese, abbracciare, dichiarare il proprio amore, scaldare i cuori con cura e attenzione. Che il nuovo anno porti nella vita di ogni persona, di ogni famiglia cambiamenti per il meglio, affinché tutti siano in salute, affinché nascano bambini e affinché ci rendano felici. Vi auguro con sincerità successo e benessere. Pace e prosperità per la nostra grande Russia, la nostra amata e unica! Siate felici! Buon anno, buon 2018!”. Ciascuno faccia pure i doverosi confronti. Le “fake news” paradossalmente trattate come “vere” possono fare “miracoli” nel mondo della ricerca? Quando si mostra l’istantanea di una tipica simulazione computerizzata dell’evoluzione dell’Universo in cui appare la misteriosa struttura spugnosa del Cosmo e di un filamento di Dna, cosa si prova? Di questa immensa ragnatela tridimensionale è artefice la Materia Oscura che, con la sua azione gravitazionale, plasma i lunghi filamenti, li collega tra loro con nodi e obbliga la materia ordinaria a concentrarsi nelle regioni con densità più elevata. Le galassie si trovano nei punti più densi della struttura e sono maggiormente concentrate nei nodi, dove si raggruppano in ammassi e superammassi. Interessante osservare come gran parte del volume dell’Universo e del Dna sia occupato dalle immense regioni desolatamente vuote che si estendono tra i filamenti. L’Unione Europea cosa pensa della scienza elaborata in Russia? Gli scienziati hanno superato la russofobia? Per riuscire a utilizzare le conoscenze scientifiche di cui siamo già in possesso, dobbiamo imparare a capire l’incertezza, nel senso probabilistico, che caratterizza la scienza. Negli Stati Uniti d’America sia i cittadini sia decisori politici mostrano di avere poca familiarità con questi concetti. Secondo Aspen Reese, ricercatrice in Ecologia Microbica alla Harvard University, in un articolo sul magazine Undark, “sappiamo che fumare aumenta il rischio di sviluppare il cancro. Ma si tratta di una tendenza generale, che si osserva mediando su più casi, e sappiamo quindi che possono sempre esserci dei dati isolati che deviano da questa tendenza. Qualcuno può fumare per 60 anni senza mai sviluppare il cancro”. Questi casi isolati sono previsti dalla teoria, e non dovrebbero essere usati per mettere in dubbio le conclusioni raggiunte sul fenomeno in generale. Nella “top 10” di Nature per il vecchio anno 2017 appare Marica Branchesi, astrofisica italiana del Gran Sasso Science Institute di L’Aquila. Davide Castelvecchi, che ha scritto il suo profilo, la definisce “Merge maker, an astronomer helped scientists make the most of a historic gravitational-wave event”. Analizzando gli articoli pubblicati su riviste indicizzate dal database “Web of Science” della “Clarivate Analytics” di Philadelphia, Nature trova che la percentuale di lavori mai citati è più bassa di quello che si pensava, circa il 10%. La frazione cambia da settore a settore. Ad esempio le scienze ingegneristiche contano un maggior numero di articoli non citati rispetto alla medicina o alla biologia. Tuttavia è molto difficile raggiungere conclusioni definitive su questo argomento, a causa della frammentazione dei database e, in alcuni casi, della loro scarsa qualità. Inoltre l’assenza di citazioni non implica che la ricerca in questione non abbia avuto impatto sulla comunità scientifica. Così molti italiani si trovano in prima linea tra i vincitori dei “Consolidator Grants 2017”, le sovvenzioni destinate dal Consiglio Europeo della Ricerca-ERC a ricercatori in fase di consolidamento della carriera scientifica. È quanto emerge dai recenti risultati del bando ERC che destina 630 milioni di euro a 329 studiosi di eccellenza di 39 diverse nazionalità. Con 33 premiati, i ricercatori italiani sono secondi solo ai germanici, vincitori di 55 sovvenzioni. Seguono i francesi e i britannici, rispettivamente con 32 e 31 studiosi beneficiari di finanziamenti. I progetti selezionati saranno condotti nelle università e nei centri di ricerca di 22 Paesi europei, tra cui spiccano il Regno Unito della “Brexit”, sede di 60 progetti, seguito da Germania, Francia e Paesi Bassi che accoglieranno rispettivamente 56, 38 e 25 progetti. In Italia saranno ospitati 14 progetti di ricerca, di cui 2 all’Università degli Studi di Milano, i restanti singoli presso l’Università di Padova, l’Università Sapienza di Roma, la Scuola Internazionale Superiore di Studi Avanzati, il Politecnico di Torino, l’Università di Pisa, l’Istituto Nazionale di Astrofisica, il Consiglio Nazionale delle Ricerche, l’Istituto Nazionale di Fisica Nucleare, l’Università Cattolica del Sacro Cuore, l’Istituto Italiano di Tecnologia, il Laboratorio Europeo di Spettroscopie non lineari, l’Università degli Studi di Torino. I finanziamenti serviranno ad affrontare sfide scientifiche alla frontiera della conoscenza in tutti gli ambiti disciplinari, nei 3 grandi settori di scienze della vita: scienze fisiche e ingegneria, scienze umane e sociali. Tra le ricerche che saranno condotte in Italia, 10 rientrano nel grande settore delle scienze fisiche e dell’ingegneria. Di queste, 3 riguardano i costituenti fondamentali della materia, 2 l’ingegneria dei processi e dei prodotti e 1, rispettivamente, la matematica, la fisica e le scienze chimiche analitiche, l’ingegneria dei sistemi e della comunicazione, le scienze dell’Universo, le scienze della Terra. Un unico progetto italiano selezionato rientra nel grande settore delle scienze della vita, con focus sulla biologia evoluzionistica, di popolazione e dell’ambiente, mentre i restanti 3 progetti finanziati sono relativi alle scienze umane e sociali, 2 sul tema delle culture e della produzione culturale, 1 sulla mente umana e la sua complessità. A livello nazionale emerge dunque una forte concentrazione nella distribuzione dei finanziamenti per macro settore, con più del 71,4 % dei progetti finanziati nel campo delle scienze fisiche e ingegneria, oltre il 21,4 % nelle scienze umane e sociali e più del 7,1% nelle scienze della vita. Su scala europea, il 45,9% dei progetti totali finanziati riguarda le scienze fisiche e ingegneria, il 30,7 % le scienze della vita e il restante 23,4% le scienze umane e sociali. Nel complesso, i 329 progetti vincitori sono stati selezionati su 2.538 proposte di ricerca sottoposte alle valutazioni dell’ERC, con un tasso di successo pari al 13%. Il 32% delle sovvenzioni sono state assegnate a donne. Di valore fino a un massimo di 2 milioni di euro l’uno, i Consolidator Grants finanziano progetti di ricerca di durata quinquennale presentati da ricercatori che abbiano maturato dai 7 ai 12 anni di esperienza dal completamento del dottorato di ricerca. Due progetti di ricerca dell’Università Statale di Milano sono tra i 33 vincitori italiani: sono i lavori di Francesco Ficetola, zoologo del dipartimento di Scienze e politiche ambientali, e Paolo Stellari, docente di geometria del dipartimento di Matematica “Federigo Enriques”. Francesco Ficetola è l’unico scienziato italiano a essersi aggiudicato il prestigioso riconoscimento nelle scienze della vita, con un progetto sulle conseguenze del ritiro dei ghiacciai, fenomeno in atto da più di un secolo a causa del “riscaldamento globale”. Lo studio utilizza una nuova tecnologia, il Dna ambientale, per studiare il profilo degli organismi che vivono sopra e sotto il suolo, per capire cosa succede dopo il ritiro dei ghiacciai e fare una previsione sul futuro ambientale delle montagne. Il Grant ERC attribuito a Paolo Stellari si colloca invece nell’ambito della matematica pura, a cavallo tra la geometria e l’algebra. Il progetto si compone di due parti: la prima tratta lo studio delle proprietà geometriche di alcune “varietà” tramite strumenti algebrici, mentre la seconda indaga alcune questioni aperte da anni che riguardano congetture fondamentali, sempre a cavallo tra algebra e geometria. I risultati attesi possono avere ricadute nell’ambito della geometria e della fisica teorica. L’Italia che scienza finanzia? Nelle more della registrazione da parte della Corte dei Conti, con il Decreto Direttoriale n. 3728, il 27 Dicembre 2017 il Ministero dell’Istruzione, dell’Università e della Ricerca (Miur) ha reso pubblico il Bando “PRIN 2017”, il budget e le regole del prossimo piano di finanziamento dei Progetti di ricerca di Rilevante Interesse Nazionale. Il piano si avvale di complessivi 391 milioni di euro e poiché i progetti sono triennali, ne deriva che la capacità di spesa è di 130 milioni spiccioli l’anno. Non è una cifra altissima in assoluto, tenuto conto che in Germania e in Francia finanziamenti analoghi hanno un budget superiore anche di un ordine di grandezza. Ma certo quello italiano sembra essere il più alto PRIN degli ultimi anni. Questo è certamente un punto di forza del Bando PRIN 2017. Ma una parte maggioritaria del budget, 250 milioni di euro, provengono dalla risorse finanziarie non spese e dunque disponibili dell’Istituto Italiano di Tecnologia (IIT). Il che significa che si tratta di una fonte una tantum. Non c’è certezza, dunque, che il prossimo bando PRIN abbia una dotazione del medesimo ordine di grandezza. Il che, a sua volta, significa che non è garantita quella continuità di finanziamento che la comunità scientifica richiede. Il bando prevede tre linee di intervento: quella Principale, quella Giovani, per ricercatori al di sotto dei 40 anni e quella Sud, cui possono partecipare ricercatori che lavorano nelle regioni meridionali che hanno un ritardo nello sviluppo (Basilicata, Calabria, Campania, Puglia e Sicilia) o in transizione (Abruzzo, Molise e Sardegna). Inoltre il bando distingue fra tre grandi aree: scienza per la vita (LS); scienze fisiche, chimiche e ingegneristiche (PE); scienze sociali e umanistiche (SH). Le scienze per la vita e le scienze fisiche, chimiche e ingegneristiche hanno una dotazione di 140 milioni di euro ciascuna, mentre per le scienze sociali e umane il budget previsto è di 111 milioni. Risibili se si pensa che l’Italia spenderà per la obsoleta Nato la bellezza di 100 milioni di euro al giorno! Altro che volo interstellare! La linea d’intervento Principale potrà contare su 305 milioni di euro, quella Giovani su 22 milioni di euro, quella Sud su 64 milioni di euro. Altri 4,6 milioni circa andranno al sistema di valutazione e monitoraggio. Ogni unità di ricerca dei macrosettori LS e PE è composta da un minimo di 1 a un massimo di 6 persone. Nel macrosettore SH e anche per la linea d’intervento Giovani, l’unità di ricerca non può superare il numero di 4 ricercatori. Ogni progetto, che ha la durata di tre anni, delle linee di intervento Principale e Sud potrà contare su un budget complessivo massimo di 1.200.000 euro (400.000 euro/anno). Per la linea d’intervento Giovani, il budget complessivo massimo è inferiore di un terzo, ovvero è di 800.000 euro. Nel caso delle linee di intervento Principale e Sud, il coordinatore di un progetto o “principal investigator” deve essere un professore o ricercatore universitario, o un dirigente di ricerca, un dirigente tecnologo, un ricercatore o un tecnologo degli Enti Pubblici di Ricerca vigilati dal Miur. Tutti devono avere un contratto a tempo indeterminato e una prospettiva di lavoro di almeno quattro anni. Il bando prevede una discriminazione tra università ed EPR. Recita, infatti: “Nel caso in cui siano previste più unità di ricerca, esse debbono necessariamente afferire a diversi atenei/enti; nel caso in cui sia prevista una sola unità di ricerca questa deve necessariamente afferire a una università”. Nel caso della linea d’intervento Giovani, il leader potrà essere, come recita il testo del bando, “un professore/ricercatore under 40, in servizio a tempo indeterminato presso una università, o un ricercatore/tecnologo under 40 in servizio a tempo indeterminato presso un ente di ricerca, o un ricercatore universitario under 40 in servizio a tempo determinato con contratto RTD-B, purché abbia ottenuto la valutazione positiva (obbligatoriamente da allegare alla proposta) prevista dal comma 5 dell’articolo 24 della legge 30 dicembre 2010, n.240, a seguito del possesso dell’abilitazione scientifica nazionale”. Le domande, redatte in lingua inglese, potranno essere presentate tra il 15 Febbraio e il 29 Marzo 2018. La valutazione dei progetti avverrà mediante due fasi di selezione: la prima fase è definita di pre-selezione ed è “di competenza diretta dei Comitati di Selezione (uno per ciascuno dei settori di ricerca ERC, per un totale di venticinque CdS)”, mentre la seconda fase, di valutazione scientifica, è “affidata a revisori esterni ai Comitati di Selezione, ma coordinati dagli stessi CdS”. I 391 milioni sono erogati dal Miur, secondo un preciso calendario. E tuttavia, recita il bando: “Le Università garantiscono, in ogni caso, la continuità delle attività dei progetti anche in pendenza delle erogazioni da parte del MIUR”. Insomma, se il Miur si rivelerà pessimo pagatore, saranno le università (ma non gli Enti di Ricerca) a dover anticipare per garantire la continuità del finanziamento. È stato approvato nell’ambito di Horizon 2020 il Progetto Fellini, un innovativo programma di Fellowships, cofinanziato dalla Commissione Europea con 3.2 milioni di euro tramite l’Azione Marie Sklodowska Curie COFUND. Il progetto, grazie alla competitività salariale delle borse erogate, rappresenta un’opportunità per attrarre nel Belpaese eccellenti giovani ricercatori provenienti da tutto il mondo. Il progetto offrirà un totale di 30 borse di mobilità in entrata, della durata di 36 mesi ciascuna, per ricercatori esperti di qualunque nazionalità, interessati a sviluppare un progetto di ricerca e formazione presso una delle strutture Infn e che negli ultimi 3 anni non abbiano trascorso più di 12 mesi in Italia. Il progetto potrà essere svolto presso una delle sezioni o laboratori dell’Infn a scelta e dovrà riguardare una delle macro aree tematiche dell’Istituto: fisica particellare, fisica astroparticellare, fisica nucleare, fisica teorica, attività di ricerca tecnologica. Il programma, di durata quinquennale, produrrà due bandi a cadenza annuale, ciascuna delle quali finanzierà 15 borse. Fellini rientra nell’ambito delle iniziative dell’Ente volte a promuovere l’Infn a livello nazionale e internazionale e prevede l’opportunità per ciascun borsista di trascorrere un anno presso un altro istituto di ricerca o industria di loro scelta (http://www.cordis.europa.eu/project). Sul tema “Ricerca scientifica e falsificazione”, il 2017 è stato davvro prolifico di interventi. Secondo il professore Paolo B. Pascolo, ordinario di Bioingegneria industriale all’Università degli Studi di Udine, “anche se è consolidata l’idea che un processo sperimentale o un modello fisico-matematico debba essere sottoposto ad un programma di falsificazione, al fine di entrare nell’alveo della comunità scientifica, vi sono esperimenti che per loro natura non sono ripetibili. Mi riferisco in primo luogo a quelli relativi alla congettura dei neuroni specchio, ma anche a quelli sulle onde gravitazionali (GW), almeno nella forma con la quale sono state annunciate le “misurazioni”. Per quanto riguarda il caso nei neuroni specchio (MNs), è nota la data dell’annuncio – siamo nel 1996 –dell’individuazione di una classe specifica di neuroni, con riferimento anche a precedenti esperimenti: erano quelli del 1992, in capo a Di Pellegrino e colleghi; tutti ricercatori facenti parte del “gruppo” di Giacomo Rizzolatti. È interessante segnalare che detti esperimenti potevano benissimo essere interpretati in mille modi, ma all’epoca si è scelta una strada utile per costruire un modello interpretativo di una varia messe di comportamenti “automatici”, umani e non. Se si esaminano in dettaglio gli esperimenti iniziali, in ottica falsificazionista (Popper, Kuhn), ne viene fuori che da un semplice epifenomeno rilevato in una situazione patologica a carico di macachi (misure con elettrodi impiantati nell’area F5 della corteccia cerebrale) si è costruita una teoria, quella del Mirror Neuron System (MNS), che è stata prontamente trasferita sull’uomo. Non è un caso che molti articoli inizino sempre nello stesso modo: “In 1996, the MNs was discovered in monkeys…”. Seguendo esperimenti successivi, eseguiti da vari scienziati, si hanno conferme, smentite e dubbi e a oltre 20 anni di distanza non si è giunti ancora ad una conclusione, nonostante le ormai migliaia di citazioni e articoli che affollano le riviste scientifiche. Anche le riviste scientifiche non sono esenti da alcune criticità, come il proprio ruolo competitivo che non è di natura squisitamente scientifica, ma anche economico, i loro legami con queste o quelle scuole di pensiero, la scelta dei peer reviewer. Ci limitiamo ad alcune osservazioni: a) il peer reviewer è di regola anonimo rispetto all’autore dell’articolo che deve vagliare e dovrebbe essere un esperto; se detto articolo professa tesi contrapposte al pensiero del peer reviewer, quest’ultimo, approvando l’articolo in questione, minerebbe la propria “posizione” scientifica, le proprie pubblicazioni e/o la propria carriera accademica e sarà perciò tentato di respingerlo (spirito di conservazione); b) se l’articolo è interessante e altamente innovativo, non può sfuggire al peer reviever l’interesse a far proprie le idee di fondo, per sé o per il gruppo di lavoro a cui appartiene: un’idea innovativa, per un ricercatore, è preziosa come il brevetto per un industriale; vuol dire carriera, celebrità; ne sa qualcosa Henry Poincaré dall’alto dei cieli e tutta la sua scuola. È capitato varie volte che l’autore di un lavoro originale sia stato “cassato” ma le sue idee compaiano in altra veste e in altra forma in capo ad altri autori; c) ci sono peer reviewer che occupandosi di materie affini, ma non rigorosamente attinenti, hanno la tendenza, per certi versi inevitabile, ad avvalorare solo quei lavori scientifici che corrono sul solco di quello già detto e pubblicato, ossia dei déjà vu; d) è impensabile che uno qualunque dei peer reviewer in circolazione si metta a rifare quegli esperimenti che vengono sottoposti al suo vaglio, perché ciò potrebbe implicare anni di ricerca e costi non sostenibili, dunque egli è costretto a limitare la propria valutazione ad aspetti marginali: correttezza formale dell’articolo, buon inglese, risultati in linea con quel che si sa già e via dicendo; e) molte, troppe, riviste chiedono denaro per accettare gli articoli, tipicamente tra i 1.600 e i 6.000 euro. D’altra parte le case editrici si occupano di far tornare i propri conti e se trovano ricercatori che, per smania o per necessità di pubblicare, sono disposti a sacrificare i contributi alla ricerca in vista della carriera accademica, delle “asticelle”, ecc., come dare loro torto?”. Detto questo, ritorniamo al problema Mirror Neurons (MNs) e all’articolo pubblicato su Researchitaly dal titolo “Neuroni specchio, questione aperta?” che riprendeva anche gli esperimenti fatti dallo scrivente su soggetti autistici sottoposti a elettromiografia del muscolo miloioideo, dai quali esperimenti si è visto che non vi era differenza sostanziale tra autistici e non autistici, ma si è giunti alla conclusione che gli analoghi esperimenti, “pro MNs”, di Cattaneo e colleghi (2007) erano tecnicamente inadeguati alla complessità del problema che stavano affrontando. Una ulteriore indagine sui MNs è stata condotta su un centinaio di studenti appartenenti a categorie educative diverse come geometri, alberghieri, congegnatori meccanici e studenti d’arte, sottoposti alla visione di opere d’arte, come i tagli di Fontana e i lavori di Pollock. Anche in questo caso sono state verificate risposte diametralmente opposte a quelle ottenute dai fautori dei MNs e ne sono state messe in evidenza le lacune metodologiche. In sintesi: le risposte dei 100 studenti facevano specchio con le proprie eredità culturali ed educative e non con il gesto creatore dell’artista o degli artisti proposti (Fontana, Pollock, ecc.). Come sostenuto in vari contesti, l’effetto specchio non è dovuto a neuroni specchio, per altro mai identificati né isolati, ma al sostrato culturale e – perché no – anche motorio che, ovviamente, attiene al sistema di neuroni che ognuno di noi possiede (“common neurons”) e che si modella, in termini funzionali, con il proprio vissuto ed è eccitato dal presente, osservato o meno che sia. Lo stesso slittamento di significato, anche se in “luoghi scientifici” apparentemente lontani, si ha con la faccenda delle onde gravitazionali, sicuramente ipotizzate ai fini dell’Ottocento e da Henry Poincaré (1905) il quale aveva semplicemente affinato il concetto di “effetto a distanza” della gravitazione di Newton inglobando Maxwell. Il fatto che nell’equazione di campo della Relatività Generale di Einstein faccia bella mostra di sé la costante gravitazionale G di matrice newtoniana, che è misurata con un torsiometro, la dice lunga; l’attribuzione “coatta” di proprietà fisiche alla geometria come parto di alta matematica, che ovviamente è il mero frutto del pensiero umano, come lo sono i concetti di spazio e di tempo (euclideo, non euclideo, metri, secondi) ha portato a una serie di slittamenti di significato dei fenomeni fisici che ora siamo chiamati ad interpretare. Consegnare la Gravità a curvature (ossia nascondere la Gravità entro una cerchia di ϱ), come peraltro sottolinea il premio Nobel per la Fisica Steven Weinberg, fa perdere il senso profondo della Gravità stessa, ossia parlare di deformazione di un tessuto spaziotempo geometrico fa scivolare il problema delle onde gravitazionali a esercizio matematico. In giro si trova anche scritto e detto che le GW sono una conseguenza della Relatività Generale (RG) e non che la RG è un modello matematico entro il quale trovano posto “formule” che descrivono o possono descrivere il fenomeno. Da qui l’enfasi mediatica sulle onde gravitazionali, che però non ha stupito coloro i quali si ricordano il Premio Nobel per la fisica del 1993 a Russell A. Hulse e Joseph H. Taylor, né quelli che hanno notato difformità tra quanto asserito da Gaby Gonzales di LIGO e Scott A. Hughes del MIT, né la “traduzione” per i media: forse non si sono letti con estrema attenzione gli articoli scientifici ed è sempre opportuno tenere presenti gli ordini di grandezza delle misure e la forma dei segnali. E neppure si è meravigliato chi si ricorda a memoria che già Galileo Galilei attribuiva alla luce un valore finito, calcolato per la prima volta da Ole Rømer nel 1676; a tal proposito vale ricordare, per dovere di chi fa scienza, che fu Alì al-Hasan ibn al-Haytham (Alhazen), nel suo libro di ottica del 1015, Kitab al-Manazir, a immaginare la luce come una propagazione di corpuscoli, mentre, tre secoli dopo, il fisico persiano Kamal al-Din al-Farisi (1267-1319), commentando Alhazen, propose, per spiegare l’arcobaleno, una propagazione ondulatoria della luce. Noi europei ci siamo arrivati secoli dopo. Infatti già la semplice ipotesi sulla natura corpuscolare della luce (oggi i fotoni) permise a Johann von Soldner, in uno scritto del 1801 per gli Annali dell’Osservatorio di Berlino, ovvero un secolo prima di Einstein, di stimare la deviazione gravitazionale della luce. Questo, a mio parere, era ed è la chiave per legare gli effetti gravitazionali alla luce intesa come sottoinsieme dello spettro elettromagnetico, al di là e oltre il modello geometrico e al di là del risultati numerici ottenibili con i vari modelli. In conclusione, non si risolvono le questioni biofisiche e neuroscientifiche introducendo “postulati” o comode congetture o scorciatoie. Così facendo semplicemente si accantonano le questioni di fondo. Con Stefan Weinberg ci sentiamo di dire che “l’eccesso di enfasi sulla geometria – e aggiungo del numero e/o della misura – può solo oscurare le connessioni profonde tra la gravitazione e il resto della fisica”; in altri termini, ogni congettura, ogni modello, dev’essere suscettibile di falsificazione, meglio se effettuata dall’autore stesso della congettura in questione”. Dunque, i “disturbi” dell’informazione e del “sarà vero?” sono molteplici e possono anche segnare il destino di una Civiltà. Con i termini di “Fake News” e “Post-verità” si è voluto segnalare come la manipolazione delle informazioni, dal falso plateale dei “fatti alternativi” all’alterazione dei contesti informativi all’uso ingannevole delle immagini, abbia raggiunto una scala planetaria industriale anche grazie ai nuovi strumenti di comunicazione di massa, compreso il Web. Al punto da indurre il “sospetto” che tramite strategie di disinformazione si siano potuti alterare i risultati di elezioni politiche e referendum. Compreso il volo umano sulla Luna? Fenomeno in realtà antichissimo che accompagna la storia dell’Umanità dai suoi albori, la mistificazione delle informazioni per i più diversi scopi assume oggi una evidenza particolare anche fra le giovani generazioni, particolarmente esposte a una “tempesta di messaggi” mai registrata prima, paragonabile al tasso di neutrini emessi da una Supernova. Occorre chiarire meglio le varie forme che può assumere oggi la disinformazione e concentrarsi anche in modo propositivo sul problema della attendibilità delle fonti. Esiste in altre parole una via per verificare le notizie, distinguere la scienza dalla ciarlataneria, consolidare il senso critico soprattutto nel lavoro formativo delle scuole. Il messaggio è stato chiaro: la scienza nei suoi ideali mertoniani (disinteresse, comunitarismo, scetticismo sistematico e trasparenza) resta il metodo di riferimento per imparare a distinguere le affermazioni verificabili da quelle di minore forza perché basate sull’opinione o palesemente errate. Si tratta ovviamente di un quadro ideale, che deve fare i conti con una realtà in forte mutamento. Lo sviluppo della scienza negli ultimi decenni, infatti, con l’aumento della competitività e l’abbassamento degli standard di pubblicazione, nonché la prevalenza di interessi privati guidati da princìpi non coincidenti con i princìpi fondativi della ricerca, rende anche l’impresa scientifica a maggior rischio di futilità, fallacia e in taluni casi vera e propria frode. Ciò che rende insostituibile il metodo sperimentale galileiano è tuttavia la capacità di scovare gli errori e autocorreggersi. Ma può la scienza costituire un modello regolativo in grado di contrastare il proliferare delle fake news governative o private? Sfidare la concezione illuminista della scienza è l’impresa del XXI Secolo grazie anche alla Russia: mostrando la sostanziale inefficacia del cosiddetto “debunking” (demistificazione) delle affermazioni false presenti su Internet, molte potenze, privati e imprese nel 2017 hanno collezionato una magrissima figura in ogni settore. La dinamica del dibattito pubblico sui “social”, sembra mostrare che le fake news non sono l’elemento primario ma la conseguenza di una forte sfiducia nei confronti delle autorità e degli esperti che, in un sistema informativo senza intermediari riconosciuti come quello dei social media, porta a una crescente polarizzazione di opinioni in bolle non comunicanti. Al contrario, il tentativo di far cambiare idea all’altro contrastando sul piano logico e scientifico le sue affermazioni lo spinge a difenderle con ancora più forza. Più produttivo sarebbe, anche da parte di agenzie sanitarie e scientifiche, adottare uno stile di ascolto e di confronto, che per risultare autentico implica la disponibilità della comunità scientifica a mettersi sullo stesso piano degli interlocutori e accettare la messa in discussione della sua presunzione di autorità quasi “religiosa”. Difficile trovare un punto di equilibrio, su cui è necessario sviluppare nell’Anno Domini  2018 un dibattito adeguato. È comunque significativo che, per sostenere queste posizioni, si faccia largo uso di strumenti degli interlocutori, vale a dire pubblicazioni “peer reviewed”. A conferma che, al di là delle differenza di accento, il metodo scientifico resta il riferimento ideale per condurre un dibattito pubblico fra cittadini consapevoli. Per far questo è necessario far crescere una base comune di competenze e capacità di decodifica di concetti, misure e rappresentazioni grafiche di natura scientifica che ormai pervadono il dibattito pubblico su una miriade di temi di natura bioetica, economica, sociale, culturale, religiosa, spaziale. Una scatola degli attrezzi concettuali che abiliti chiunque a comprendere numeri, schemi e correlazioni statistiche. Senza questa base diventa difficile un confronto e molto alto il rischio di manipolazioni e financo la possibile rottura del “patto sociale” che tiene insieme il nostro sistema democratico civile. Se si sposta l’attenzione sui giovani in età scolare si pone anche il tema delle competenze e del benessere digitale. Emergono da una ricerca condotta su migliaia di studenti lombardi le forti differenze nelle capacità di discernere fra fonti più o meno accreditate su Internet, o di saper distinguere fra bufale e informazioni verosimili. Anche perché il sistema della disinformazione così frequente in Rete dipende anche dalla forma che assumono le fake news, costruite in modo da attirare la nostra attenzione in maniera istantanea, dando luogo spesso a comportamenti di “consumo” impulsivi. Inoltre, più l’ambiente è ricco di stimoli concorrenti, come avviene nel digitale, più si rischia di agire impulsivamente nella loro selezione. Il concetto di “clickbait” (esca da click) illustra bene questi meccanismi. Per fruire delle informazioni “online” in modo critico è necessario contrastare l’involuzione del sistema educativo che punta sempre di più sulle capacità di “problem solving”, a discapito del “problem setting”. È importante invece educare al ragionamento libero come presupposto di quello finalizzato a compiti specifici. Un interessante sistema per aumentare l’approccio critico alle informazioni da parte dei ragazzi può riguardare un giornale online condotto da studenti che attraverso l’attività di selezione e redazione dei contenuti digitali si traduce in aumento della consapevolezza sulla credibilità di testi e immagini. Esiste poi una genealogia delle fake news rinvenibili anche nelle società tradizionali sotto forma di “voci che corrono”. Forse questo radicamento storico serve per capire la ragione di una forma di comunicazione che da sempre si è nutrita dell’inverosimile, per rispondere a bisogni collettivi di fascinazione ma anche per raggiungere obiettivi strategici di varia natura, dalla delegittimazione degli avversari alla promozione di forme di contropotere. Oggi, con i nuovi sistemi di comunicazione, queste “notizie” esprimono riferimenti e valori che non coincidono più con la tradizionale fiducia nelle fonti istituzionali, trasformandosi in vere narrazioni alternative e antagoniste. Può servire quindi il tentativo di categorizzare le fonti in “documenti forti” e “documenti deboli”, cui corrispondono diversi formati e percezioni di verosimiglianza e per i quali servono strategie di risposta differenziate. Esempi convincenti di questa confusione fra fonti di diversa natura sono le notizie “alternative” di salute, sulle credenze dell’influenza e sulle “malattie portate dai migranti” e “dai pacchi postali orientali”. Un altro caso interessante concerne la difficoltà di convincere i propri studenti della natura fraudolenta del “metodo Stamina”, dal momento che questa “cura” veniva sponsorizzata da una trasmissione come “Le Iene”, addirittura sostenuta da un buon numero di Parlamentari e dispensata dal più grande Ospedale di Brescia! Un altro tema politicamente caldo e per questo soggetto a controversie e forme di rifiuto, come insegna il Presidente Trump anche su “Twitter”, è naturalmente il cambiamento climatico. Invece di affrontarlo in termini di “debunking” con un climatologo si può preferire dare spazio a una narrazione sulle possibili conseguenze catastrofiche del cambiamento climatico. E proprio questo fa il romanzo di Bruno Arpaia, “Qualcosa là fuori”, ambientato in una ipotetica Italia dell’Anno Domini 2080 ormai inabitabile e precorsa da torme di Italiani trasformati in “migranti ambientali” in fuga verso l’Artico e la Russia ancora risparmiate dalla morsa del caldo. In che modo la narrativa, il cui presupposto è proprio la sospensione temporanea dell’incredulità, può vaccinarci contro il negazionismo climatico? Forse proprio perché per suo statuto la narrazione da un lato fa vivere nell’immaginazione quello che si stenta a figurarsi a livello razionale. Dall’altro, non pretendendo di offrire la “verità” ma solo scenari verosimili si pone come una sorta di “lingua di mezzo” di tolkieniana memoria capace di congiungere bolle, creare un sentire comune fra persone con convinzioni e ideologie profondamente diverse. La Terra di Mezzo è qui! Il “fake” non si contamina solo informazioni testuali e quantitative. Anche le immagini sono soggette a manipolazioni, com’è possibile verificare ingaggiando il pubblico a riconoscere per ogni fotografia mostrata se sia frutto di invenzione, manipolazione o corretta riproduzione della realtà. Le immagini veicolano messaggi ancora più potenti di quelli testuali, ed essere in grado di verificarne l’attendibilità è essenziale per esercitare il proprio senso critico. Un altro tipo di immagini, le tavole dei fumetti, possono raccontare con grande efficacia fatti complessi superando le barriere culturali. È il caso della “graphic novel” di Will Eisner “Il complotto”, dedicato al racconto di uno dei più incredibili falsi storici: “I Protocolli dei Savi di Sion” che tanta fortuna hanno copiosamente elargito a Dan Brown (Codice Da Vinci) e in quel di Hollywood. Può essere utile guidare il pubblico alla visione di alcune tavole selezionate del capolavoro di Eisner. Come ricorda Umberto Eco nella prefazione della edizione italiana: “quello che appare incredibile è che questo falso sia rinato dalle proprie ceneri ogni volta che qualcuno ha dimostrato che si trattava di un falso, al di là di ogni dubbio. Per cui credo che, malgrado questo coraggioso e non comic ma tragic book di Will Eisner, la storia non sia ancora finita. Però vale la pena continuare a raccontarla, per opporsi alla Grande Menzogna e all’odio che essa continua a incoraggiare”. Sono i tanti temi trattati dalla “mediocrazia” di cui parla nel suo ultimo libro il filosofo canadese Alain Deneault. Una società che nei meccanismi di cooptazione di potere privilegia i mediocri, che meglio degli altri garantiscono la conservazione frenando l’innovazione, è destinata a sprofondare fra bufale e leggende metropolitane. L’arte del buon governo si trasforma in governance, i cittadini vengono declassati a clienti e consumatori. Il sondaggio prende il posto della scienza. Il merito, l’eccellenza e l’originalità di pensiero cedono il passo al luogo comune e al conformismo. Scrive Angelo Mincuzzi sul Sole24Ore: “Una rivoluzione anestetizzante si è compiuta silenziosamente sotto i nostri occhi ma noi non ce ne siamo quasi accorti: la mediocrazia ci ha travolti. I mediocri sono entrati nella stanza dei bottoni e ci spingono a essere come loro, un po’ come gli alieni del film di Don Siegel “L’invasione degli ultracorpi”. E Mediocrazia è il titolo del libro del filosofo canadese Alain Deneault, docente di scienze politiche all’Università di Montreal. Il lavoro (“La Mediocratie”, Lux Editeur) è stato appena tradotto in italiano dall’editore Neri Pozza, con il titolo “La Mediocrazia”. Meritava di essere pubblicato anche in Italia, se non altro per il dibattito che ha saputo suscitare in Canada e in Francia. Deneault ha il pregio di dire le cose chiaramente: «Non c’è stata nessuna presa della Bastiglia – scrive all’inizio del libro – niente di comparabile all’incendio del Reichstag e l’incrociatore Aurora non ha ancora sparato nessun colpo di cannone. Tuttavia, l’assalto è stato già lanciato ed è stato coronato dal successo: i mediocri hanno preso il potere». Già, a ben vedere di esempi sotto i nostri occhi ne abbiamo ogni giorno. Ma perché i mediocri hanno preso il potere? Come ci sono riusciti? Insomma, come siamo arrivati a questo punto? Quella che Deneault chiama la «rivoluzione anestetizzante» è l’atteggiamento che ci conduce a posizionarci sempre al centro, anzi all’«estremo centro» dice il filosofo canadese. Mai disturbare e soprattutto mai far nulla che possa mettere in discussione l’ordine economico e sociale. Tutto deve essere standardizzato. La “media” è diventata la norma, la “mediocrità” è stata eletta a modello. Essere mediocri, spiega Deneault, non vuol dire essere incompetenti. Anzi, è vero il contrario. Il sistema incoraggia l’ascesa di individui mediamente competenti a discapito dei supercompetenti e degli incompetenti. Questi ultimi per ovvi motivi (sono inefficienti), i primi perché rischiano di mettere in discussione il sistema e le sue convenzioni. Ma comunque, il mediocre deve essere un esperto. Deve avere una competenza utile ma che non rimetta in discussione i fondamenti ideologici del sistema. Lo spirito critico deve essere limitato e ristretto all’interno di specifici confini perché se così non fosse potrebbe rappresentare un pericolo. Il mediocre, insomma, spiega il filosofo canadese, deve «giocare il gioco». Ma cosa significa? Giocare il gioco vuol dire accettare i comportamenti informali, piccoli compromessi che servono a raggiungere obiettivi di breve termine, significa sottomettersi a regole sottaciute, spesso chiudendo gli occhi. Giocare il gioco, racconta Deneault, vuol dire acconsentire a non citare un determinato nome in un rapporto, a essere generici su uno specifico aspetto, a non menzionarne altri. Si tratta, in definitiva, di attuare dei comportamenti che non sono obbligatori ma che marcano un rapporto di lealtà verso qualcuno o verso una rete o una specifica cordata. È in questo modo che si saldano le relazioni informali, che si fornisce la prova di essere “affidabili”, di collocarsi sempre su quella linea mediana che non genera rischi destabilizzanti. «Piegarsi in maniera ossequiosa a delle regole stabilite al solo fine di un posizionamento sullo scacchiere sociale» è l’obiettivo del mediocre. Verrebbe da dire che la caratteristica principale della mediocrità sia il conformismo, un po’ come per il piccolo borghese Marcello Clerici, protagonista del romanzo di Alberto Moravia, “Il conformista”. Comportamenti che servono a sottolineare l’appartenenza a un contesto che lascia ai più forti un grande potere decisionale. Alla fine dei conti, si tratta di atteggiamenti che tendono a generare istituzioni corrotte. E la corruzione arriva al suo culmine quando gli individui che la praticano non si accorgono più di esserlo. All’origine della mediocrità c’è, secondo Deneault, la morte stessa della politica, sostituita dalla “governance”. Un successo costruito da Margaret Thatcher negli Anni ‘80 e sviluppato via via negli anni successivi fino a oggi. In un sistema caratterizzato dalla governance, sostiene l’autore del libro, l’azione politica è ridotta alla gestione, a ciò che nei manuali di management viene chiamato “problem solving”. Cioé alla ricerca di una soluzione immediata a un problema immediato, cosa che esclude alla base qualsiasi riflessione di lungo termine fondata su princìpi e su una visione politica discussa e condivisa pubblicamente. In un regime di governance siamo ridotti a piccoli osservatori obbedienti, incatenati a una identica visione del mondo con un’unica prospettiva, quella del liberismo. La governance è in definitiva, sostiene Deneault, una forma di gestione neoliberale dello stato, caratterizzata dalla deregolamentazione, dalle privatizzazioni dei servizi pubblici e dall’adattamento delle istituzioni ai bisogni delle imprese. Dalla politica siamo scivolati verso un sistema (quello della governance) che tendiamo a confondere con la democrazia. Anche la terminologia cambia: i pazienti di un ospedale non si chiamano più pazienti, i lettori di una biblioteca non sono più lettori. Tutti diventano “clienti”, tutti sono consumatori. E dunque non c’è da stupirsi se il centro domina il pensiero politico. Le differenze tra i candidati a una carica elettiva tendono a scomparire, anche se all’apparenza si cerca di differenziarle. Anche la semantica viene piegata alla mediocrità: misure equilibrate, giuste misure, compromesso. È quello che Denault definisce con un equilibrismo grammaticale «l’estremo centro». Un tempo, noi Italiani eravamo abituati alle “convergenze parallele”. Questa volta, però, l’estremo centro non corrisponde al punto mediano sull’asse destra-sinistra ma coincide con la scomparsa di quell’asse a vantaggio di un unico approccio e di un’unica logica”. Che fare? “La mediocrità rende mediocri, spiega Denault. Una ragione di più per interrompere questo circolo perverso. Non è facile, ammette il filosofo canadese. E cita Robert Musil, autore de “L’uomo senza qualità”: «Se dal di dentro la stupidità non assomigliasse tanto al talento, al punto da poter essere scambiata con esso, se dall’esterno non potesse apparire come progresso, genio, speranza o miglioramento, nessuno vorrebbe essere stupido e la stupidità non esisterebbe». Senza scomodare Musil, viene in mente il racconto di fantascienza di Philip Klass, “Null-P”, pubblicato nel 1951 con lo pseudonimo di William Tenn. In un mondo distrutto dai conflitti nucleari, un individuo i cui parametri corrispondono esattamente alla media della popolazione, George Abnego, viene accolto come un profeta: è il perfetto uomo medio. Abnego viene eletto Presidente degli Stati Uniti e dopo di lui i suoi discendenti, che diventano i leader del mondo intero. Con il passare del tempo gli uomini diventano sempre più standardizzati. L’Homo Abnegus, dal nome di George Abnego, sostituisce l’Homo Sapiens. L’umanità regredisce tecnologicamente finché, dopo un quarto di milione di anni, gli uomini finiscono per essere addomesticati da una specie evoluta di cani che li impiegano nel loro sport preferito: il recupero di bastoni e oggetti. Nascono gli uomini da riporto. Fantascienza, certo. Ma per evitare un futuro di cui faremmo volentieri a meno, Deneault indica una strada che parte dai piccoli passi quotidiani: resistere alle piccole tentazioni e dire no. Non occuperò quella funzione, non accetterò quella promozione, rifiuterò quel gesto di riconoscenza per non farmi lentamente avvelenare. Resistere per uscire dalla mediocrità non è certo semplice. Ma forse vale la pena di tentare”. Fin troppi sono gli stimoli e i temi evocati dal tormentone delle fake news in salsa russofobica. Ci sarà modo nel corso del 2018 di scrivere articoli più focalizzati e rivolti soprattutto agli studenti delle scuole secondarie, per mettere in pratica quei suggerimenti di Educazione Digitale fin qui accennati. Ci si può fidare della scienza? Il ‘900 ha prodotto straordinari sviluppi scientifici con conseguenze profonde sul mondo in cui viviamo. Altre innovazioni sorprendenti ci attendono. Il progresso della scienza si basa su rigorosi meccanismi di verifica interna dei risultati raggiunti. Ma negli ultimi anni il modo di fare scienza è cambiato. Passione, curiosità e rigore faticano sempre di più a trovare spazio, schiacciati come sono da dure leggi di mercato e da una competizione sfrenata. Da vocazione di pochi, fare ricerca è diventato un mestiere di molti. Con conseguenze e rischi, come la comparsa di frodi, plagi, ma soprattutto con una produzione scientifica abnorme e spesso di scarso rilievo. Una scienza che perde di credibilità in un’era di fake news rappresenta un rischio che non possiamo permetterci. Le fake news sono soltanto la punta dell’iceberg di un cambiamento molto più radicale che riguarda il processo di produzione della conoscenza. Internet ha dato a tutti la possibilità di accedere a una quantità sconfinata di informazioni, indebolendo il ruolo dei corpi intermedi come giornalisti e accademici. Evidenze empiriche forti suggeriscono che tutti, nessuno escluso, tendiamo a selezionare e rafforzare le narrazioni che più si addicono alla nostra visione del mondo, ignorando o combattendo posizioni contrarie. La polarizzazione domina i processi di fruizione dell’informazione, e quando è particolarmente alta il ricorso all’uso strumentale delle informazioni è prerogativa di tutti. Quando queste vengono formulate in maniera strumentale, omettendo dettagli (deliberatamente o non), possiamo avere un effetto di distorsione dell’ecosistema informativo. Fare delle scelte sulla propria salute in consapevolezza e autonomia richiede un buon governo delle fonti di informazione. Per esempio, da chi arrivano le nostre convinzioni sull’influenza e su come contrastarla? Il ruolo determinante del “me l’ha detto mia cugina” è così importante? Anche la “tratta” privata e governativa dei “profughi” e dei “migranti economici” è stata ed è tuttora un terreno in cui prolifera la disinformazione intenzionale. Si pensi all’uso dell’argomento salute per consolidare vecchi pregiudizi e forme più o meno velate di razzismo, dipingendo i migranti come untori, portatori sani e vettori di malattie per le quali non è documentata alcuna prevalenza in queste popolazioni. E se sono i giovani a chiedere “sarà vero quello che vedo, sento o leggo in Rete?, cosa rispondono gli adulti: sanno insegnare come distinguere ciò che può essere attendibile da ciò che sicuramente non lo è? I docenti si trovano a dover insegnare ciò che nessuno ha mai spiegato loro: l’uso della Rete. Mentre scienza e pseudoscienza si confondono, molti sono disorientati e tra questi anche politici, papi, prelati, scienziati e grandi decisori. Purtroppo per i giovani, disincanto e pessimismo sembrano essere le emozioni dominanti tra gli adulti. La “competenza digitale” è una delle difese più importanti contro la cattiva informazione sul Web. I dati della diffusione di tale competenza tra i giovani italiani mostrano che essa è distribuita in modo disuguale, specie nella dimensione informativa. Tuttavia, la capacità di valutare le informazioni non è l’unica competenza chiave per una buona dieta informativa: le fake news non sono infatti solo un problema di contenuto ma anche di forma! Esse sono costruite in modo da attirare la nostra attenzione in maniera istantanea e danno luogo spesso a comportamenti di consumo impulsivi. Inoltre, più l’ambiente è ricco di stimoli concorrenti, come avviene nel digitale, più rischiamo di agire impulsivamente nella loro selezione. Il concetto di “clickbait” illustra bene questi meccanismi. Educarsi a un consumo non impulsivo degli stimoli digitali concorre quindi, insieme alla competenza digitale informativa, a difenderci dai tranelli della cattiva informazione. “Il complotto” è una graphic novel russofobica uscita dalla penna di Will Eisner che racconta come negli ultimi anni dello zarismo i servizi segreti russi abbiano commissionato la scrittura di un incredibile falso storico, tratto da un “feuilleton” francese di metà Ottocento intitolato “I Protocolli dei Savi di Sion”, teso a identificare negli Ebrei un progetto politico di sovvertimento dell’ordine mondiale. Testo di riferimento da allora dell’antisemitismo, l’opera ha conosciuto una fortuna che arriva fino ad oggi, con centinai di ripubblicazioni, in Italia negli Anni ’70 anche da parte del movimento fascista Ordine Nuovo, nonostante il libro sia stato smascherato come un falso già negli Anni Venti del Novecento da una inchiesta del Times di Londra. Come cittadini siamo sempre più spesso chiamati a compiere scelte economiche, politiche e personali su temi che hanno uno sfondo o un contenuto scientifico. Trovare e identificare informazioni corrette e rilevanti è una sfida non facile. Ma le dobbiamo pretendere da tutti i partiti che si presentano con i loro “candidati” preconfezionati dal Rosatellum alle elezioni politiche italiane del 4 Marzo 2018 per il nuovo Parlamento della XVIII Legislatura e il nuovo Governo. Complice il Web dove l’informazione è soggetta ad alterazioni continue, con le fake si stanno radicando alcune trasformazioni nelle strutture dell’informazione e nei processi della conoscenza e della politica. Tra queste trasformazioni rilevano quelle che riguardano i meccanismi di costruzione della fiducia nelle fonti, che tende a non accordarsi più a strutture e figure autorevoli riconosciute istituzionalmente, ma a nuove forme di autorevolezza, focalizzate e alternative. Ciò induce processi di ridefinizione del sistema dell’informazione e rende spesso opaca la fonte stessa, soprattutto per l’emergere di canali di risonanza delle fake. Le immagini fotografiche occupano con prepotenza la nostra vita quotidiana e saturano le nostre percezioni visive. Nella maggior parte dei casi esse sono totalmente opache, nel senso che non ne conosciamo provenienza, contesti culturali e sociali di origine, modalità di realizzazione, ragioni della loro divulgazione, attendibilità, verosimiglianza. Ci sfugge cioè, perché non è quasi mai disponibile, chi sta comunicando e con quale scopo lo fa. Se vogliamo che le immagini possano tornare a informarci sul mondo reale dobbiamo imparare a decifrarle, a impadronirci cioè di strumenti che ci permettano di esercitare una critica severa e costante con la quale riconoscere e smascherare eventuali manipolazioni, deformazioni, rimaneggiamenti, messe in scena. Per evitare inoltre di contribuire noi stessi al rilancio e quindi alla diffusione di immagini fuorvianti e inappropriate o addirittura false e offensive, dobbiamo alfabetizzare il nostro sguardo ai linguaggi visivi per riuscire a frenare e gestire il loro fatale potere di attrazione. In un suo articolo apparso su PNAS, il giornalista M. Mitchell Waldrop usa una frase provocatoria che ricorda un celebre monologo Shakesperiano, per riassumere uno dei problemi del mondo dell’informazione odierno: gli sforzi per la produzione di contenuti seri e verificati da soli possono fare poco contro la mis/dis/mal infomazione, se non si accompagnano ad altrettanti sforzi da parte di “big” come Facebook, Twitter e Google, di lavorare sulla logica degli algoritmi che presentano i contenuti agli utenti che sono persone e non robot. Anche se i suddetti oligarchi hanno dichiarato di voler investire in questa direzione, spiega Waldrop, la verità è che al momento strategie chiare ce ne sono poche. Facebook per esempio sta stringendo legami con aziende per finanziare la formazione di giornalisti, ma chiaramente non basta. Il problema per i “social media” è essenzialmente come riuscire a dirimere fra assicurare la libertà di parola a tutti e il decidere che cosa è accettabile e che cosa no. Secondo Ethan Zuckerman, giornalista che dirige il “Center for Civic Media” al MIT, una forma di censura non è possibile, e anche solo provare condurrebbe al disastro perché fomenterebbe nei produttori di fake news ancora di più il desiderio di continuare a fare disinformazione. Non significa però non potere fare nulla. Sono due infatti le strategie che secondo l’autore colossi come Facebook e Google possono mettere in campo per affrontare il problema. Anzitutto fare in modo che certe notizie provenienti da siti non considerati accertati vengano indicizzate meno, cosa che lo stesso Facebook aveva annunciato di voler fare a Maggio 2017, e secondo investire nell’alfabetizzazione mediatica degli utenti, per rendere le persone sempre più consapevoli e saggie. Accanto alla prima strategia, per scoraggiare i produttori e i diffusori di notizie false, c’è anche un’altra possibile strada, quella di ridurre al minimo i “benefici” che si possono trarre dal fare disinformazione. Non dimentichiamo che grossa parte delle notizie false che circolano in Rete e sui “social network” sono fabbricate ad hoc per far fruttare denaro, per esempio tramite la pubblicità, a chi le produce e le veicola. In questo senso, spiega l’autore, Facebook e Google hanno già affermato che alcuni siti non avrebbero più potuto guadagnare denaro tramite le loro reti pubblicitarie. Meglio i falsi positivi che i falsi negativi? Eppure, al momento pare che viviamo un circolo vizioso senza vie d’uscita sicure. Secondo quanto riferisce Filippo Menczer, “computer scientist” dell’Università dell’Indiana, le grandi aziende finiscono per preferire i falsi negativi prodotti dagli algoritmi, che al massimo lasciano passare articoli spazzatura, piuttosto che i falsi positivi che finiscono per includere nella massa di articoli spazzatura notizie invece verificate, com’è accaduto nel caso della foto vincitrice del premio Pulitzer che raffigurava una bambina di 9 anni vietnamita che fugge nuda da un attacco di Napalm, e che gli algoritmi per la “protezione contro la pedopornografia” hanno segnalato come contenuto spazzatura! La seconda strategia è quella di aiutare gli utenti a valutare quello che stanno vedendo. Nel Febbraio 2017 un rapporto di “Pew Research” evidenzia che le persone ricordano meno la fonte della notizia che hanno visionato sui social network rispetto a quando arrivano alla notizia tramite il sito Web. Sulla scia di queste osservazioni, qualche mese dopo, in Agosto, Facebook aveva proposto di permettere agli editori di inserire il logo del proprio brand accanto al titolo delle notizie in modo che compaia chiaramente anche nella preview sui social. Tuttavia, pare non essere così semplice risolvere il problema. Uno studio pubblicato a Settembre 2017 da alcuni ricercatori dell’Università di Yale ha mostrato che “etichettare” le notizie rafforza implicitamente l’idea che vi sia un’autorità che dirime tra le informazioni “accettate” e quelle che “non lo sono”, provocando un inasprimento contro questa autorità in nome della libertà di pensiero e parola. Insomma, si tratterebbe di un’operazione controproducente. E si ritorna così al problema evidenziato: come riuscire, da parte dei vari Facebook, Youtube, Twitter e Google, a sciogliere il dilemma fra assicurare la libertà di parola a tutti e decidere che cosa è accettabile e che cosa no. Scienziata di fama internazionale e senatrice a vita, Elena Cattaneo, ha sempre mantenuto fede al suo impegno di difendere il sapere scientifico contro i pregiudizi e i sentimenti antiscientifici che sempre più di frequente permeano la società. È noto il suo pensiero su alcuni temi scientifici di forte impatto sull’opinione pubblica, tra cui i vaccini e il caso Stamina. Il progresso scientifico sembra essere accompagnato da un crescente sentimento antiscientifico che coinvolge una parte della nostra società. “Le ragioni di questo fenomeno sono molteplici, quella che più mi colpisce – al netto dei temi tipici dell’impoverimento culturale, delle percentuali sconfortanti di forme di analfabetismo di ritorno – è l’incapacità (quasi storica) per cui sempre più spesso la classe dirigente del nostro Paese – osserva Elena Cattaneo – non solo non valorizza, ma anzi cede alla moda populista di irridere le élite intellettuali. Che questo sia particolarmente vero nei confronti della cultura scientifica si comprende meglio, forse, ricordando che è almeno dai tempi di Croce e Gentile che il peso culturale della scienza, sia dal punto di vista della conoscenza che da quello dell’etica, viene sistematicamente sminuito; anche se il nostro Paese ha dato i natali a Galileo Galilei, padre del metodo scientifico, spesso nel dibattito pubblico si capovolge completamente tale metodo, scegliendo di prendere in considerazione i fatti solo se risultano strumentali alla conferma di posizioni preconcette. A ben vedere, la società ha anche una straordinaria fame di scienza, di comprensione del suo funzionamento, delle sue conquiste. É confortante vedere come si siano moltiplicate le occasioni pubbliche di divulgazione della scienza con festival dedicati, sempre accompagnati da grande partecipazione. Ma manca il lievito, l’uso quotidiano e strutturale del sapere scientifico. Non vorrei che i successi di partecipazione cui accennavo fossero solo una plastica rappresentazione di una sempre maggiore polarizzazione di una minoranza attiva e interessata a fronte di una maggioranza tecnicamente ignorante”. Il caso Stamina è considerato uno dei più grossi fallimenti del sapere scientifico: un cortocircuito di disinformazione italiana. “Su quella vicenda sono stata correlatrice di un’indagine conoscitiva in Senato, conclusasi nel 2015, che ha prodotto una corposa relazione finale di 160 pagine Il documento riassume più di sette mesi di audizioni e analisi documentali, relative a una delle vicende a carattere medico sanitario più oscure degli ultimi decenni. Il preteso metodo Stamina – rileva Elena Cattaneo – ha finito con l’interessare ed investire della sua presunta efficacia l’intero apparato statuale, spaziando dal potere esecutivo a quello legislativo fino a quello giudiziario (in sede civile, amministrativa e penale), coinvolgendo la comunità scientifica nazionale ed internazionale, investendo con particolare intensità la sensibilità e l’emotività dei cittadini spettatori e, soprattutto, generando enormi aspettative taumaturgiche in migliaia di malati e loro familiari. Tribunali, media, governo, il Parlamento (per poi correggersi, tardi, riconoscendo gli errori fatti) hanno sostenuto un “rito magico”. In quella relazione, nelle osservazioni finali, all’unanimità osservammo come “grande attenzione debba essere profusa dalle Istituzioni sanitarie rispetto alle necessità di corrispondere in modo sempre scientificamente onesto, medicalmente obiettivo e socialmente utile alle aspettative di cura dei pazienti e delle loro famiglie”. Anche se con l’attuale governance delle istituzioni sanitarie e le modifiche legislative occorse, un caso del genere non potrebbe più avere spazio, non bisogna mai abbassare la guardia, perché è molto facile che l’emotività – specie se veicolata e alimentata da mezzi di informazione irresponsabilmente sensazionalistici e fuorvianti – abbia la meglio sul metodo scientifico, impedendo di tenere nella giusta considerazione i fatti che la scienza ci mette a disposizione”. Con il nuovo Decreto Vaccini si è resa obbligatoria la vaccinazione di bambine e bambini per l’iscrizione agli asili nido e alle scuole materne. “Credo che la discussione di questi mesi, che ha accompagnato l’approvazione della legge, sia stata salutare nel convincere coloro che, poco informati, non vaccinavano per facilità piuttosto che per convinzione, ora investiti del tema e “costretti” a prendere “posizione”. Credo che gli argomenti a favore di questa straordinaria conquista della medicina, che nei prossimi 10 anni salverà altre 25 milioni di persone, abbiano convinto, ancor prima che l’obbligo si manifestasse all’atto di iscrivere i propri figli a scuola. È però ancora troppo presto, a mio avviso, per valutarne gli effetti: è passato poco tempo dall’entrata in vigore della legge e non ci sono ancora dati sufficienti per un giudizio definitivo sull’intervento normativo, anche se alcuni primi sondaggi campione sono incoraggianti circa l’aumento percentuale delle vaccinazioni. Resto convinta, come dichiarai anche in Senato durante la discussione nel merito, che sia una delle più importanti leggi di sanità pubblica della legislatura e che migliorerà le prospettive di salute dei cittadini italiani, anche se sarebbe un errore considerarla un punto di arrivo. È invece un punto di partenza per riconquistare la fiducia delle persone su questo tema, imparando a informarle in maniera chiara e corretta, in modo che possano compiere scelte consapevoli in un ambito che tocca la salute e il benessere di tutti. Le modalità attraverso le quali si informano le persone pesano sull’accettazione delle prove che vengono presentate. La nostra storia evolutiva ha radicato nel nostro cervello dei forti pregiudizi che possono portare ad errate interpretazioni delle prove e dei rischi, a una incomprensione della differenza tra correlazione e causalità. Non vaccinare il proprio figlio temendo di esporlo ad un rischio immaginario porta a esporre non solo lui, ma anche i soggetti deboli che non possono vaccinarsi al rischio concreto di contrarre la malattia”. Nel suo libro “Ogni Giorno. Tra scienza e politica” Elena Cattaneo spiega come alcuni politici e scienziati non siano esenti da responsabilità nei confronti di questo sentimento antiscientifico. “Da parte della politica ci sono due ordini di problemi – rivela la Cattaneo – da un lato si tende a prendere in considerazione i fatti e i dati non prima di formarsi un’opinione, ma solo dopo, in maniera strumentale, per sostenere le proprie convinzioni preconcette; dall’altro sembra che, di fronte a questioni complesse su cui sarebbe importante legiferare in maniera informata, partendo dai dati sui fenomeni che si intendono regolari, si preferisca assecondare le paure istintive che molti cittadini provano di fronte a innovazioni a loro poco familiari (ma dalle quali trarrebbero grande giovamento), finendo per inserire divieti generalizzati a strade scientifiche innovative, anziché regolare la complessità. È senz’altro vero, dimostrato proprio dalla scienza, che i fatti e i dati, per quanto possano essere verificati e attendibili, non bastano da soli per convincere qualcuno a cambiare idea abbandonando i propri “bias cognitivi”, ma proprio per questo – osserva la Cattaneo – lo scienziato dovrebbe essere in prima linea anche nell’elaborare modalità di comunicazione che tengano conto dei bias e aiutino a minimizzarne l’effetto. Inoltre, se come studiosi si tace, che sia per “quieto vivere” o, peggio, per non pregiudicare eventuali interessi e aspettative personali, o infine, perché si vive il dibattito pubblico come un’attività estranea al proprio lavoro, l’uomo di scienza, di fronte a evidenti distorsioni del metodo scientifico o di fronte a procedure non trasparenti, non ci si può stupire se – quando si vede “costretto” a muoversi – lo fa con poca credibilità e efficacia”. Il “caso glifosato” docet. Con una lettera gli epidemiologi ed esperti di cancerogenesi ambientale Benedetto Terracini, Paolo Vineis, Annibale Biggeri e Franco Merletti hanno voluto rispondere all’articolo che la senatrice Elena Cattaneo ha pubblicato lo scorso 1° Dicembre su “La Repubblica” titolato “Gli equivoci sul glifosato”, in cui la staminologa avanza dubbi sulla classificazione dell’erbicida come “probabile cancerogeno” stabilita dalla IARC di Lione. IARC è la struttura della Organizzazione Mondiale della Sanità deputata al riconoscimento dei rischi ambientali. Gode di grande prestigio su scala mondiale. Con l’agenzia collaborano da decenni diversi centri di ricerca italiani. Sul glifosato, noto con il nome commerciale di Roundup, è in corso da tempo una controversia fra ambientalisti, scienziati, la casa produttrice Monsanto, esponenti della sanità pubblica, agronomi, e agenzie che hanno dato pareri diversi, a volte contrastanti. Recentemente  l’Unione Europea ha rinnovato per altri cinque anni l’autorizzazione all’uso dell’erbicida. Alcuni mesi fa il quotidiano francese “Le Monde” ha pubblicato il dossier “Monsanto papers” teso a mostrare il lavoro di disinformazione da parte della multinazionale su governi, fra cui quello statunitense che finanzia lo IARC, come quello italiano e di altri Paesi, ricercatori e media. Nella critica alla IARC si è distinta in particolare Kate Kelland della Reuters con una serie di articoli a cui ha dato puntuale risposta l’agenzia. Con la lettera gli epidemiologi italiani “chiariscono” alcuni punti fondamentali del processo di revisione tipico delle monografie IARC, come la n. 112 dedicata appunto al glifosato. In un altro articolo, pubblicato su La Repubblica, l’agroecologo dell’Università di Milano Stefano Bocchi si è invece concentrato sulle affermazioni relative agli aspetti ecologici e agronomici connessi all’uso massivo dell’erbicida, e sull’agricoltura biologica. “La Senatrice Elena Cattaneo (La Repubblica, 1° dicembre) smentisce il giudizio dell’Agenzia Internazionale per la Ricerca sul Cancro – IARC) che – si legge nella lettera di Benedetto Terracini, Paolo Vineis, Annibale Biggeri e Franco Merletti – il glifosato è “probabilmente cancerogeno per la specie umana”. La senatrice dissente perché “due componenti del team di lavoro IARC sul glifosato” avrebbero omesso di palesare i loro conflitti di interesse e avrebbero celato alcuni dati scientifici in proprio possesso. La Senatrice sorvola sul fatto che la IARC è la struttura dell’Organizzazione Mondiale della Sanità (OMS) deputata alla valutazione dei rischi cancerogeni. Il programma IARC di valutazione dei rischi cancerogeni sulla base dell’evidenza scientifica è a noi famigliare e alcuni tra noi hanno avuto l’opportunità di parteciparvi direttamente. Conosciamo quindi – apprezzandoli – i criteri utilizzati dalla IARC per controllare tanto l’indipendenza e l’integrità morale dei componenti dei gruppi di lavoro quanto il rigore nella raccolta e analisi critica degli studi presi in considerazione. I criteri, ripetutamente aggiornati, sottoposti al vaglio dell’intera comunità scientifica, sono accessibili (www.iarc.fr). In quanto all’occultamento di dati scientifici sul glifosato, non ci risulta che i gravissimi episodi denunciati dalla senatrice Cattaneo abbiano avuto luogo: sollecitiamo quindi la senatrice a produrre una documentazione, se esiste, oppure una smentita. Tali argomenti sono stati largamente utilizzati dalla Monsanto, i cui interessi sulla sostanza chimica sono grandi, per screditare il lavoro della IARC. La prof. Cattaneo gode di prestigio scientifico (sia pure in campi diversi dalla cancerogenesi ambientale) e svolge una importante funzione pubblica: le parole da lei espresse possono avere un effetto destabilizzante sul lettore di Repubblica. Con la categoria “probabilmente cancerogeno per la specie umana”, da decenni, la IARC designa agenti adeguatamente saggiati in animali di laboratorio per i quali mancano adeguate osservazioni sulla specie umana, non sempre di facile esecuzione. Come tali, questi agenti sono ritenuti meritevoli di interventi di prevenzione (tanto che le normative europee per la sicurezza negli ambienti di lavoro non fanno distinzione tra agenti “cancerogeni” e “ agenti probabilmente cancerogeni per la specie umana”). Sui tentativi delle multinazionali di distorcere il processo di costruzione della conoscenza sulle proprietà nocive del glifosato esiste uno sconvolgente dossier prodotto da parte di un giornale del calibro di Le Monde, che ha avuto ampia circolazione anche in Italia. Dato il suo doppio ruolo di parlamentare e di scienziata, dalla prof. Cattaneo ci saremmo aspettati maggiore chiarezza su un problema di rilevanza per la salute pubblica prima ancora che per l’agricoltura. Infine, ci sembrano inopportune le parole della senatrice che sembrano mettere in dubbio i rischi di cancro legati al consumo di carni insaccate e di bevande alcooliche. Si tratta di rischi basati su prove solide (rafforzate ulteriormente dopo il giudizio dei gruppi di lavoro IARC), che hanno condotto Associazioni Scientifiche Italiane e internazionali (ad esempio il prestigioso World Cancer Research Fund) a raccomandare che tale consumo venga contenuto”. Lettera firmata da Annibale Biggeri (Università di Firenze), Franco Merletti (Università di Torino), Benedetto Terracini (Università di Torino, attualmente in pensione) e Paolo Vineis (Imperial College, Londra). Gli agricoltori italiani fanno ampio uso del “glyphosate” in presemina per ridurre la competizione tra flora infestante e le piante coltivate. La notizia che lo IARC l’aveva classificato come probabilmente cancerogeno a Primavera 2015 aveva suscitato negli agricoltori profonda preoccupazione visto che fino a quel momento tutte le informazioni in loro possesso dicevano il contrario e lo IARC era ai loro occhi un’istituzione rigorosa di cui fidarsi pienamente. Su quali studi era basata questa classificazione? Per quanto riguarda i dati sull’Uomo la classificazione nella categoria 2A si basava su studi riguardanti il linfoma non di Hodgkin (NHL) basati su dati raccolti fino al 1995. In effetti andando sul sito che pubblica le statistiche sul cancro negli Usa (https://seer.cancer.gov/sta…) si vede che da metà Anni Settanta a metà Anni Novanta in concomitanza con l’inizio dell’uso del “glyphosate” il NHL raddoppia passando da 10 a 20 casi su 100.0000. Poi però dal 1995 al 2013 resta fermo a 20 casi su 100.000 mentre l’uso del “glyphosate” decuplica grazie all’abbassamento del suo prezzo e all’introduzione delle colture GM resistenti al “glyphosate”. Strano. Se aumenta l’uso di dieci volte dovrebbe aumentare anche l’esposizione e se aumenta l’esposizione dovrebbero aumentare anche i casi che invece non aumentano secondo le statistiche ufficiali! Strano che lo IARC nel 2015 prenda in considerazione studi con dati vecchi di 20 anni e non prenda in considerazione i dati delle statistiche ufficiali che, non saranno oggetto di pubblicazione scientifica, ma sono pur sempre dati ufficiali che arrivano al 2013 e non ritenga magari di attendere la pubblicazione di dati più recenti. Poi però arrivano i pareri di EFSA, WMO, FAO, ECHA e, allora, la cieca fiducia nello IARC crolla negli agricoltori e ben prima dell’intervento della Cattaneo. Anche i “Monsanto Papers” francamente appaiono “un’accozzaglia di complottismo, gossip e processo alle intenzioni”. Se le parole della Cattaneo, senatrice a vita e scienziata, rischiano di destabilizzare il lettore, allora che dire per quelle di ministri e capi di Governo quando attaccano EFSA o ECHA perchè non arrivano a conclusioni loro gradite? Non rischiano di destabilizzare l’Italia e l’Europa? Si apprende poi della Lettera Aperta al Sindaco di Padova da parte di un gruppo di presidenti e/o di membri della giuria del Premio Galileo: “Apprendiamo dalla stampa che la nuova Amministrazione del Comune di Padova ha deciso di “rivoluzionare” il Premio Galileo per la divulgazione scientifica. Tutti i firmatari di questa lettera sono stati o presidenti o componenti, per molti anni, della giuria scientifica del Premio. Ci rammarichiamo della scelta del Comune, perché la riteniamo un grave danno per la città di Padova e per il nostro Paese. Da quanto si legge sulla stampa, infatti, la “rivoluzione” del Premio consiste essenzialmente in una sua riduzione a manifestazione locale, e nel suo inserimento in un Festival, mirato principalmente al trasferimento tecnologico, nonostante l’operazione venga invece presentata come un “rilancio”. Non esisteva in Italia un Premio analogo al Premio Galileo. Nei suoi undici anni di vita era diventato un punto di riferimento fondamentale per la diffusione di cultura scientifica e per le case editrici che, pur tra molte difficoltà, sempre più numerose si impegnano nel settore. Nato sul modello del Premio Campiello, riuniva nella sua “giuria scientifica” esponenti delle Università italiane, degli Enti di ricerca, di alcune delle maggiori testate giornalistiche, dell’Accademia dei Lincei, dell’Accademia Galileiana e dell’Accademia della Crusca. Il suo radicamento patavino era, per altro, ben espresso dai numerosi docenti dell’Ateneo di Padova, dal Direttore dell’Osservatorio Astronomico di Padova e da un membro designato dall’Accademia Galileiana, a rappresentare la cultura scientifica di eccellenza del territorio in cui il Premio era nato. Questa ricchezza oggi si perde: la giuria sarà infatti costituita solamente da cinque docenti dell’Ateneo di Padova. Inoltre la “giuria dei lettori” del Premio era formata dagli studenti appartenenti a classi del quarto anno delle scuole superiori, una per ogni provincia italiana, la cui scelta ruotava anno dopo anno. Ogni classe, con la guida degli insegnanti, leggeva e discuteva i libri della cinquina selezionata nell’adunanza pubblica dalla giuria scientifica, esprimendo poi il voto per il libro preferito. Un modo per far crescere nei giovani la passione per la scienza e orientarne le scelte universitarie. Anche questa valenza di discussione, confronto e orientamento si perde: la giuria dei lettori sarà infatti formata da 200 studenti appartenenti solo a scuole di Padova e Rovigo, e da 200 ricercatori dell’Università di Padova (non si hanno notizie su come verranno scelti). Ognuno, ci pare di capire, esprimerà il suo voto senza alcun confronto. Peccato. Il Premio Galileo era un fiore all’occhiello del Comune di Padova. Una delle poche iniziative culturali, continuate nel tempo da amministrazioni di segno politico diverso, che aveva dato a Padova una visibilità e prestigio nazionali. Peccato per Padova e peccato per il nostro Paese, che tanto avrebbe bisogno di crescita di cultura scientifica diffusa”. Polemiche che nulla possono contro le grandi notizie dell’anno appena archiviato. Due fenomeni chiave della Fisica Quantistica, la dualità onda particella dei fotoni e l’entanglement, ossia l’azione a distanza tra particelle, sarebbero stati osservati assieme, per la prima volta. L’importante risultato, pubblicato sulla rivista Nature Communications, è il frutto, a livello sperimentale, di uno studio coordinato dal Quantum Information Lab dell’Università Sapienza di Roma e, a livello teorico, dall’Università di Palermo. La ricerca è stata condotta in collaborazione con ricercatori dell’Università di Qufu, in Cina, e dell’Istituto di Fisica del Vietnam. Il duplice comportamento della materia e della radiazione elettromagnetica come onda o particella, gioca un ruolo fondamentale nella descrizione della natura tracciata dalla fisica quantistica. Lo stesso vale per l’entanglement: un fenomeno del mondo quantistico molto particolare, in base al quale la correlazione tra particelle inizialmente interagenti si esercita anche a distanza “infinita”. Entrambi i fenomeni erano già stati osservati a livello sperimentale. Finora, tuttavia, non era chiaro se questi due tratti fondamentali della meccanica quantistica potessero emergere contemporaneamente. Per verificare questa possibilità, i ricercatori hanno innanzitutto ottenuto la manifestazione simultanea, come onda e come particella, di un singolo fotone, in una sovrapposizione quantistica dei due comportamenti. Successivamente, hanno osservato due fotoni, in cui il comportamento di onda o particella dell’uno veniva determinato dal comportamento duale dell’altro, indipendentemente dalla distanza tra i due. “In sintesi abbiamo dimostrato che un entanglement a due fotoni, nella loro duplice natura onda-particella – rivela Rosario Lo Franco dell’Università di Palermo – è possibile. Questo fenomeno, in analogia con la pittoresca espressione di Einstein, può essere quindi denominato “azione di dualità onda-particella a distanza” e si può estendere anche a più fotoni grazie alla semplicità dello schema teorico e all’efficacia dell’apparato sperimentale”. Il prossimo passo annunciato dai ricercatori sarà lo sviluppo di una piattaforma integrata basata su circuiti ottici, per applicazioni nell’ambito della crittografia e della comunicazione quantistica perantro già avviata in Cina come comunicato nel suo “address” dal Presidente Xi Jinping: “Abbiamo acceso il primo computer quantistico!”. Le comunicazioni quantistiche sono un settore strategico della ricerca internazionale, in quanto permettono di garantire comunicazioni riservate a prova di “hacker” e in futuro costituiranno il “cervello quantistico” delle “persone artificiali” di uso anche domestico. Per la prima volta nella storia, una ricerca italiana condotta dall’Agenzia Spaziale Italiana e dall’Università degli Studi di Padova ha dimostrato che queste sono possibili anche nello spazio alla distanza record di 3.500 Km: un risultato di enorme importanza in termini di fisica fondamentale e per lo sviluppo di nuove applicazioni nel settore ICT. Nel 2015 l’Italia è stata protagonista della prima trasmissione quantistica via satellite della storia, con un esperimento coordinato da Paolo Villoresi dell’Università di Padova in collaborazione con il Centro di Geodesia Spaziale dell’ASI di Matera, che ha permesso di inviare informazioni protette alla distanza record di 1.700 km utilizzando un fascio di fotoni sparato nello spazio e rispedito a terra in un tempo di un nanosecondo. Nello studio attuale, pubblicato sulla rivista Science Advances e coordinato dallo stesso Paolo Villoresi, la collaborazione italiana tra Università di Padova e ASI ha verificato la validità della descrizione quantistica della duplice natura onda corpuscolo della luce a una distanza record di 3.500 Km nello spazio, quindi in un contesto ancora inesplorato. “È un importante risultato per la ricerca italiana che ci aiuta ad entrare nei misteri dell’infinitamente piccolo e di conoscere meglio il comportamento della luce – rivela Roberto Battiston, Presidente dell’Agenzia Spaziale Italiana – grazie alle distanze spaziali abbiamo confermato uno degli assunti della teoria quantistica, ossia che la particella mantiene la sua duplice natura di onda corpuscolo. Con questo esperimento l’Italia conferma il suo ruolo di primissimo livello nello sviluppo delle comunicazioni quantistiche che avranno molte applicazioni nel futuro”. Dal punto di vista applicativo, il lavoro dei ricercatori italiani mette in luce l’avanguardia del Belpaese nelle comunicazioni quantistiche satellitari che rivestiranno un ruolo sempre maggiore, da qui in avanti, nel campo delle comunicazioni criptate su grandi distanze. Sempre dalla fisica quantistica arrivano due risultati che superano i limiti finora raggiunti in sensibilità e precisione nelle misurazioni dei fenomeni legati alla Relatività Generale e alla fisica gravitazionale. I risultati, pubblicati su “Physical Review Letters”, sono stati ottenuti in due esperimenti di interferometria atomica da un team di ricercatori dell’Università di Firenze e dell’Infn. Alla base dei due esperimenti, ci sono gli apparati di interferometria atomica, realizzati a Firenze, e basati sull’utilizzo di “fontane atomiche” create con il laser. Nel primo esperimento, svolto nell’ambito del Progetto “MAGIA Advanced”, i ricercatori hanno messo a punto un metodo che permetterà di effettuare test sulla validità del Principio di Equivalenza di Einstein con una precisione senza precedenti. “Raffreddando con il laser gli atomi di Rubidio fino quasi allo zero assoluto e lanciandoli verso l’alto in un sistema sottovuoto – spiega Guglielmo Tino, coordinatore dell’esperimento, ricercatore dell’Università di Firenze e dell’Infn – sono state create le condizioni per misurare la caduta dei gravi eliminando gli effetti dovuti alla variazione della gravità terrestre, che influenzano qualunque misurazione classica”. Utilizzando poi atomi di Stronzio, i ricercatori hanno realizzato un secondo esperimento che si è dimostrato valido per futuri esperimenti di misurazione, su scala quantistica, delle onde gravitazionali a bassa frequenza. “Nella regione delle basse frequenze – rivela Tino – la misurazione della caduta dello stronzio in una fontana atomica può raggiungere sensibilità ancora più elevate di quelle ottenute dagli interferometri di Ligo e Virgo e del futuro rivelatore Lisa. Il nostro esperimento apre quindi la strada a strumenti di interferometria atomica di altissima precisione, i quali permetteranno di sostituire le onde luminose, i fotoni, con onde di materia, gli atomi, per studiare le onde gravitazionali a frequenze bassissime, che non si possono osservare con gli attuali interferometri ottici terresti. Ciò renderà possibile lo sviluppo, in collaborazione con l’Agenzia Spaziale Europea e l’Agenzia Spaziale Italiana, della tecnologia quantistica per futuri esperimenti spaziali basati su apparati di dimensioni e costi ridotti rispetto a quelli che utilizzano strumenti di fisica classica”. Tra i molti problemi che astronomi e cosmologi si trovano a dover districare vi è anche quello della “materia mancante”. Le attuali teorie e i dati provenienti dallo studio della Radiazione Cosmica di Fondo, il cosiddetto eco fossile del Big Bang, hanno suggerito quale potrebbe essere la composizione del Cosmo. Le misurazioni dell’Osservatorio spaziale Planck, diffuse nel 2013, indicano che il nostro Universo è composto per il 68,3% da Energia Oscura, per il 26,8% da Materia Oscura e per il rimanente 4,9% dalla materia ordinaria, quella di cui siamo fatti noi, i pianeti e le stelle. Se per le prime due componenti, come ben denota l’aggettivo che le qualifica, si brancola ancora nel buio (al Gran Sasso sappiamo cosa comporti la loro presenza, ma nulla della loro origine e composizione!), anche la situazione che riguarda la materia ordinaria, la cosiddetta componente barionica, presenta un problema piuttosto imbarazzante. I dati non tornano? Era il 1992 quando Massimo Persic e Paolo Salucci, provando a fare i conti in tasca all’Universo, giungevano alla desolante “conclusione” che il contributo della materia ordinaria visibile è meno del 10% del valore inferiore predetto dai modelli della nucleosintesi primordiale. Della materia barionica dell’Universo, insomma, si riusciva a malapena a vederne un decimo. Una situazione piuttosto imbarazzante, visto che questa conclusione comporta che di tutto ciò che compone l’Universo il 99,5% sfugga alla nostra vista. Gli stessi autori suggerivano quali potessero essere le riserve nascoste di questa materia a noi invisibile, puntando il dito, ad esempio, sul gas diffuso tra le galassie degli ammassi e dei superammassi, sulla presenza di Idrogeno atomico freddo all’interno delle stesse galassie o addensato in aloni intorno ad esse. Tutt’altro che semplice, però, snidare questa incredibile quantità di materia ordinaria dalla quale non ci perviene alcun segnale. Il complesso calcolo di questa materia nascosta è stato ripetuto in tempi molto più recenti da Michael Shull (University of Colorado) e collaboratori: secondo le loro stime, nell’Universo locale mancherebbe all’appello circa il 30% della massa barionica. Stime meno desolanti di quelle di Persic e Salucci, ma non certo meno preoccupanti. È pur vero che molti dei possibili nascondigli sono stati pian piano svelati. Qualche anno fa, per esempio, impiegando la vista acuta del Telescopio Spaziale Hubble, Nicolas Lehner e Christopher Howk dell’Università di Notre Dame (South Bend, Indiana) e Bart Wakker dell’Università del Wisconsin hanno osservato la luce di 18 Quasar quasi allineati con la galassia di Andromeda per studiare la distribuzione della materia che compone l’alone gassoso che avvolge il sistema stellare. Quando la luce proveniente da un Quasar lontano attraversa l’alone che circonda M31, viene inevitabilmente influenzata e questo comporta che, in un piccolo intervallo di lunghezze d’onda, il Quasar mostri un calo di luminosità. Dalla misura di quell’oscuramento i tre astronomi hanno potuto dedurre quanto gas la radiazione avesse attraversato, derivando di conseguenza dimensioni e densità dell’alone stesso. Nello studio, pubblicato nel Maggio 2015 su “The Astrophysical Journal”, i ricercatori riferiscono che questa sorta di bozzolo che avvolge Andromeda è circa 6 volte più grande e 1000 volte più massiccio di quanto precedentemente supposto. Si tratterebbe insomma di una struttura gigantesca e pressoché invisibile che si estenderebbe fino a circa metà strada tra quella galassia e la “nostra” Via Lattea. Se fosse visibile a occhio nudo, precisa uno dei ricercatori, le dimensioni in cielo di quell’alone sarebbero cento volte il diametro della Luna piena. Altrettanto stupefacente, comunque, anche la massa che caratterizza la struttura, equivalente a circa la metà della massa stellare di M31. Nello studio si suggerisce che la massa di quel tenue alone altamente ionizzato che avvolge Andromeda sarebbe almeno il 30% della massa barionica complessiva della galassia. Un notevole passo in avanti, dunque, nell’individuazione della materia ordinaria che manca all’appello. Altri astronomi hanno però rivolto la loro attenzione anche all’alone della “nostra” Galassia, escogitando sistemi piuttosto ingegnosi per stimarne la densità. Alla fine del 2015, è stato pubblicato lo studio condotto dal team coordinato da Munier Salem (Columbia University) e Gurtina Besla (University of Arizona) in cui la stima della densità dell’alone viene derivata studiando l’interazione tra la Via Lattea e la Grande Nube di Magellano, una delle sue galassie satellite. Analizzando con estrema attenzione il gas che questa galassia perde per strada nel corso del suo moto attraverso l’alone della Via Lattea, gli astronomi hanno calcolato che, in prossimità della Grande Nube di Magellano, l’alone della nostra Galassia ha una densità di 0,1 atomi per decimetro cubo. Densità sicuramente irrisoria per gli standard cui siamo abituati nella vita quotidiana, ma sufficiente ad aggiungere alla stima della materia barionica della Via Lattea circa 26 miliardi di masse solari, vale a dire qualcosa di molto prossimo alla metà della massa della sua componente stellare. Fatti tutti i conti, insomma, l’alone di gas snidato da Salem e Besla apporterebbe un ulteriore 15% al censimento globale della massa barionica della Via Lattea, lasciandone comunque un bel 35% ancora da snidare. La “nostra” Galassia e quella di Andromeda, dunque, sarebbero caratterizzate da un alone molto più denso e pronunciato di quanto supposto in precedenza, nascondiglio perfetto per una notevole quantità di materia ordinaria finora sfuggita all’osservazione. Si potrebbe però obiettare che quel bozzolo di gas che avvolge le due galassie possa essere una caratteristica locale e non riscontrabile in gran parte delle altre galassie del Cosmo. La particolare collocazione di Andromeda e della Via Lattea, membri più massicci di un raggruppamento di galassie piuttosto vicine tra loro (il cosiddetto Gruppo locale) potrebbe aver giocato un ruolo chiave nella formazione e nel mantenimento di simili aloni. Nell’impossibilità di verificare quanto sia fondata una simile obiezione, gli astronomi hanno rivolto la loro attenzione ad altri possibili depositi invisibili di materia ordinaria: i giganteschi ponti di materia che si estenderebbero tra le galassie. Le simulazioni sempre più affidabili dell’evoluzione delle strutture del Cosmo, mettono in evidenza che la materia sarebbe organizzata in una complessa struttura filamentosa innescata dalla Materia Oscura, che avrebbe poi vincolato anche la materia ordinaria a riprodurre lo stesso andamento. Una struttura che il termine “ragnatela cosmica” descrive in modo davvero significativo e i cui punti nodali coinciderebbero con le regioni del Cosmo in cui si troviamo concentrate, raggruppate in ammassi e superammassi, le galassie. Quei lunghi filamenti tra le galassie potrebbero insomma essere un perfetto ricettacolo per la parte di materia ordinaria che ancora sfugge a ogni osservazione. Indagare su queste strutture, però, è tutt’altro che semplice. Non solo l’eventuale gas di materia ordinaria presente nei filamenti sarebbe troppo tenue per essere colto sul fatto dai telescopi ottici, ma anche se avesse temperature sufficientemente elevate da fargli emettere radiazione X, questa non sarebbe alla portata degli attuali osservatori spaziali. Due team indipendenti di ricercatori, uno coordinato da Hideki Tanimura dell’Istituto di Astrofisica spaziale di Orsay (Francia) e l’altro guidato da Anna de Graaff dell’Università di Edimburgo, hanno però trovato il modo di sondare la presenza di materia ordinaria in quei filamenti, pubblicando i risultati raggiunti. Nell’impossibilità di una individuazione diretta, i due team hanno fatto ricorso al fenomeno noto come “effetto Sunyaev-Zel’dovich”, un fenomeno che riguarda il comportamento dei fotoni a bassa energia della Radiazione Cosmica di Fondo quando si trovano ad attraversare gas caldo e ricevono un pizzico in più di energia dagli elettroni lì presenti con i quali interagiscono. Si tratta di un effetto molto debole e dunque di difficile individuazione, ma gli astronomi hanno trovato il modo di renderlo evidente. Attingendo ai dati della “Sloan Digital Sky Survey”, i ricercatori hanno preso in considerazione un grandissimo numero di coppie di galassie potenzialmente collegate da filamenti di materia: il team di Tanimura ha considerato 260mila coppie di galassie, mentre il team di de Graaff ne ha valutato un milione. Sovrapponendo le immagini sono riusciti a far emergere la presenza dell’effetto Sunyaev-Zel’dovich provando dunque l’esistenza di materia ordinaria diffusa nei filamenti che uniscono le coppie di galassie. Dato che le galassie prese in esame dai due gruppi di ricerca non erano alla stessa distanza, era logico attendersi differenze nelle rilevazioni; una volta che si è tenuto conto di questo fattore, però, le rilevazioni dei due team si sono mostrate in ottimo accordo. Dalle analisi è emerso che la densità della materia barionica dei filamenti sarebbe da tre a sei volte maggiore della densità media del vuoto circostante. Secondo i calcoli dei ricercatori, questa maggiore densità sarebbe in grado di rendere conto di circa il 30% della materia ordinaria mancante. Notevole, dunque, l’importanza dei due studi: oltre a ridurre in modo significativo l’ammontare di materia ordinaria sfuggita finora all’osservazione, infatti, confermano appieno i modelli evolutivi che emergono dalle simulazioni. Ovviamente in attesa che una prossima generazione di telescopi per la radiazione X, più grandi e molto più sensibili di quelli attuali, riesca finalmente a cogliere sul fatto la tenue radiazione emessa dal gas ionizzato ed estremamente caldo che guizza in quei filamenti. È tradizione che, a Capodanno, si cerchi di fare un bilancio delle attività svolte e dei risultati ottenuti. Lo fanno anche le grandi riviste scientifiche che chiedono ai loro comitati di redazione di esaminare criticamente tutto quello che è stato pubblicato durante l’anno per arrivare alle top ten del 2017. Si comincia con la lista delle scoperte più importanti a giudizio degli esperti, di quelle che sono piaciute di più al pubblico (si contano i voti in appositi siti web), di quelle che hanno suscitato più discussione sui social, delle foto più belle oppure di quelle più ricche di significato, per finire con la lista degli scienziati più importanti. Ogni rivista propone la sua scelta ma le più autorevoli sono sicuramente quelle compilate dalle redazioni di “Science” e “Nature”. Nel tentativo di non duplicare i prodotti, “ScienceNews” pubblica la sua top ten dei risultati dell’anno mentre Nature si occupa delle persone. Non è un caso che queste liste, benchè compilate in modo assolutamente indipendente, siano collegate. Gli scienziati “top” dell’anno passato sono, ovviamente, quelli coinvolti nelle ricerche top dell’anno. Secondo Science, nel 2017 l’Astrofisica vince alla grande con la rivelazione dell’onda gravitazionale originata dalla fusione di due stelle di neutroni. Non c’è quindi da stupirsi che nella top 10 degli scienziati di Nature ci sia la coordinatrice dello sforzo congiunto che ha visto collaborare migliaia tra fisici e astronomi. Si tratta di Marica Branchesi, una giovane scienziata che lavora al Gssi (Gran Sasso Science Institute) e coordina il gruppo responsabile di passare agli astronomi l’informazione relativa  alla rivelazione del passaggio di un’onda gravitazionale. L’Astronomia gravitazionale è una nuova finestra sull’Universo che si è aperta nell’Anno Domini 2015 con la rivelazione del primo segnale da parte degli interferometri Ligo negli Usa. Mentre gli strumenti erano ancora in preparazione, e quando ancora molti dubitavano delle possibilità di rivelare le mitiche onde gravitazionali, Marica riesce a convincere diversi gruppi di astronomi delle potenzialità del nuovo campo di ricerca. Solo chi accetta le regole del gioco, ottemperando alla richiesta di confidenzialità assoluta, avrebbe potuto partecipare alla caccia. La posta in gioco era molto alta: individuare l’oggetto celeste responsabile dell’emissione dell’onda. Un compito per niente facile perché l’informazione spaziale circa la direzione di arrivo delle onde gravitazionali non è molto precisa e bisogna dedicare moltissimo tempo di osservazione per coprire vaste regioni di cielo. Inoltre, la possibilità di trovare una controparte ottica, radio o X, dipende dal tipo di oggetto celeste che ha originato le onde gravitazionali. La prima mezza dozzina di segnali gravitazionali sono stati dovuti alla collisione di due buchi neri che orbitavano uno intorno all’altro avvicinandosi sempre di più fino a fondersi con liberazione di un’immensa quantità di energia, ma senza rilasciare materia e quindi senza produrre qualcosa capace di emettere radiazione. I primi tentativi di ricerca di controparti di onde gravitazionali sono stati dei buchi nell’acqua, ma ci vuole ben altro per fare demordere le astronome a caccia di oggetti eccezionali. L’occasione giusta è arrivata il 17 Agosto scorso, quando è stato rivelato un segnale gravitazionale in coincidenza con un breve lampo di radiazione X, poi seguito dall’accensione di una nuova sorgente ottica nella galassia Ngc4993. Marica si è trovata a coordinare una settantina di gruppi di astronomi che si sono lanciati a testa bassa nella sfida, ottenendo risultati fantastici, degni del primo posto nella top 10 dei risultati dell’anno.  Per questo Nature le ha attribuito il titolo di “Merger Maker”. La possibilità di utilizzare insieme le informazioni provenienti dal canale gravitazionale e da quello elettromagnetico ha segnato la nascita dell’Astronomia Multi Messaggero. Un successo strepitoso. Gli esperti prevedono un grande futuro per l’astronomia multi messaggero, ma non vince al televoto. Come spesso succede, i giudici popolari esprimono un parere diverso, più attento alla ricerca medica e alla possibilità di curare le malattie più insidiose. Il “Breakthrough of the year” scelto dai frequentatori del sito della rivista Science è la terapia genetica dei tumori. Certo, riuscire a vincere tumori ritenuti incurabili è qualcosa che colpisce nel profondo, ma è anche molto interessante il secondo classificato del voto popolare: un rivelatore per neutrini piccolo e compatto, a riprova che le particelle più numerose e più elusive dell’Universo hanno una folta schiera di estimatori. Anche l’articolo più discusso sui social ha a che fare con la salute: si tratta di uno studio sull’influenza della dieta, in particolare dei grassi, nella malattie cardiovascolari. L’Astronomia ritorna in vetta alla classifiche con la scelta delle foto dell’anno che vedono la “Great American Eclipse” dello scorso Agosto rivaleggiare con le ultime foto della sonda Cassini da tre miliardi di euro fatta schiantare su Saturno! Gesto davvero imperdonabile. La Luna, i pianeti e stelle dell’ESO sono molto fotogenici. Elena Solfaroli Camillocci, ricercatrice della sezione Infn di Roma “La Sapienza” ha ricevuto il premio “ITWIIN 2017” dedicato alle donne della ricerca, della tecnologia e dell’impresa avanzata, assegnato dall’Associazione Italiana Donne Inventrici e Innovatrici. Il premio è stato conferito all’incubatore di imprese “I3P Scpa” del Politecnico di Torino lo scorso 21 Novembre. Durante l’incontro sono state premiate le innovatrici che, come Elena, nel 2017 hanno avuto un impatto significativo in campo economico e/o sociale. Elena è stata premiata per il suo determinante contributo allo sviluppo di un’originale tecnica di chirurgia oncologica radioguidata che si basa sulla Radiazione Beta. La tecnica aiuta il chirurgo a localizzare con maggior precisione i margini del tumore ed eventuali infiltrazioni non altrimenti identificabili. Di conseguenza porta a una più completa e radicale asportazione del tessuto tumorale riducendo il rischio di recidiva. A differenza di tecniche già utilizzate che impiegano la Radiazione Gamma, l’utilizzo di radiotraccianti beta emittenti, con limitato potere penetrante, permette di estendere la tecnica anche a tumori siti in distretti anatomici, ad esempio l’addome, in cui sono presenti organi sani che captano fisiologicamente, come fegato, reni o vescica. La tecnica riduce notevolmente la radioespozione del personale medico, rendendola pressoché trascurabile. La chirurgia radioguidata con radiazione beta può, quindi, offrire nuove opportunità per la chirurgia oncologica pediatrica e per la resezione di neoplasie dell’adulto non altrimenti trattabili. Elena fa parte dell’Applied Radiation Physics Group di fisici e bioingegneri del dipartimento di fisica dell’Università di Roma La Sapienza che studia le possibili applicazioni della fisica delle particelle. Ha esperienza nello sviluppo di rivelatori per la fisica subnucleare e ha lavorato per il grande esperimento Atlas del Cern di Ginevra. Lo spazio ha una nuova legge: prevede principalmente che la direzione e il coordinamento delle Politiche Spaziali e Aerospaziali vengano attribuiti alla Presidenza del Consiglio. La Via della Seta “Marco Polo” passa per lo spazio. Per il volo umano si aprono nuove prospettive di collaborazione spaziale tra Italia e Cina. Riordino delle competenze del comparto e conseguente cambiamento anche per l’organizzazione dell’Asi, con l’approvazione, in sede legislativa, da parte della Commissione attività produttive della Camera dei Deputati, del DDL Spazio. Compagine parlamentare compatta nel dare all’Italia “uno strumento necessario per la competizione e la crescita economica”, si legge nella nota dell’Asi. Ma la liberalizzazione dell’impresa e dell’industria spaziale privata resta una chimera nel Belpaese. La “riforma del settore spaziale è giunta a destinazione con l’approvazione del provvedimento che prevede il riordino della “governante del comparto” ovviamente teleguidato dagli Usa e dalle altre potenze europee. Dopo oltre quattro anni di dibattiti e tre diversi disegni di legge confluiti poi in un unico testo semplificato, è stato approvato dalla Commissione Attività Produttive della Camera. “Contiene misure per il coordinamento della politica spaziale e aerospaziale e importanti disposizioni sull’organizzazione e il funzionamento dell’Agenzia Spaziale Italiana”. Il testo votato dovrebbe aprire una “nuova fase di percorso per il settore spaziale italiano che si pone al pari di altri Paesi europei”, rileva l’Asi. La nuova legge prevede, principalmente, che la direzione e il coordinamento delle politiche spaziali e aerospaziali vengano attribuiti alla Presidenza del Consiglio. Viene poi istituito un Comitato interministeriale che avrà il compito di definire gli indirizzi del governo in materia. Negli Anni Sessanta del XX Secolo l’Italia era la terza potenza missilistica sulla Terra. “L’approvazione della legge sul riordino della governance dell’Agenzia Spaziale Italiana istituzionalizza – dichiara il Presidente Roberto Battiston – l’ottimo lavoro fatto in questi anni dalla Cabina di Regia Spazio di Palazzo Chigi, confermando il ruolo di architetto di sistema dell’Agenzia Spaziale Italiana nell’ambito del Comitato Interministeriale previsto dalla nuova legge, sotto l’alta direzione politica della Presidenza del Consiglio. Con questa approvazione si conferma e si rende Sistema un’impostazione che è stata determinante nell’affrontare con successo due Ministeriali ESA, la messa a punto del piano stralcio Space Economy e numerosi altri importanti interventi di settore. È un passo importante per dare maggiori servizi all’utenza, per garantire le infrastrutture spaziali necessarie per la crescita del settore spaziale, per renderlo sempre più competitivo in sede internazionale”. Bttiston ricorda che “la cabina di regia ha visto il coinvolgimento dell’ASI, degli attori istituzionali e della Presidenza del Consiglio, e ha permesso risultati visibili, come il significativo incremento degli addetti dell’industria spaziale, un ritorno industriale del 30%  rispetto agli investimenti fatti dall’Italia in Commissione Europea, il successo dell’ingresso in borsa di Avio con il Progetto Vega, la sottoscrizione di programmi ESA ambiziosi come Space Rider, il prossimo lanciatore europeo VEGA-C, il completamento della missione ExoMars2020, le attività del programma Stazione Spaziale Internazionale ed i progetti tecnologici sviluppati in ambito ESA. Ci tengo particolarmente a ringraziare il Parlamento per lo sforzo compiuto e per il lavoro realizzato delle due Commissioni di Camera e Senato coinvolte nel processo legislativo. L’approvazione di questa legge è stata bipartisan a testimonianza di un valore nazionale condiviso. Un grazie anche alla Presidenza del Consiglio: l’attenzione degli ultimi due governi per il settore spaziale ha reso possibile questi importanti risultati”. È Roberto Battiston ad aggiudicarsi l’edizione 2017 del Premio Space Economy dell’Asas, organizzato in collaborazione con le testate Airpress e CorCom, attribuito “a personalità che abbiano particolarmente contribuito alle sviluppo delle potenzialità della space economy nazionale”. L’anno scorso ad essere premiato fu Paolo Puri, autorità nazionale responsabile per il Prs di Galileo e promotore della Cabina di Regia per lo spazio, ora istituzionalizzata dalla nuova governance spaziale nazionale. Il riconoscimento al professor Battiston è stato motivato “dal significativo lavoro svolto a favore del processo con il quale il nostro Paese si sta dotando di una innovativa governance per il settore Spazio, al contempo operando per assicurare l’attribuzione di adeguate risorse alle attività spaziali nazionali”. Battiston è stato premiato a Roma nel corso del convegno “La potenza dei Big Data per la crescita dei servizi spaziali” organizzato proprio dall’Asas, l’Associazione costituita nel 2004 da alcune tra le più significative imprese del settore per valorizzare le applicazioni e i servizi basati sulle tecnologie spaziali e la capacità, che queste hanno, di portare dallo spazio alla Terra le potenzialità di questo settore e di contribuire all’innovazione tecnologica dell’Italia. Battiston è già ordinario di Fisica sperimentale all’Università di Trento, città dove è nato nel 1956 e tuttora vive. Vanta una lunga e prestigiosa carriera accademica e scientifica, ricca di riconoscimenti internazionali, cominciata subito dopo la laurea con lode in Fisica alla Normale di Pisa, nel 1979. È stato, tra le altre cose, presidente della Commissione II dell’Infn per la Fisica astroparticellare ed è membro del Tifpa (Trento Institute for Fundamental Phisycs and Application), il nuovo Centro Nazionale dell’Infn. Un “pezzo” di Cosmo porta il nome di Roberto Battiston. È l’asteroide 21256-1996CK ad essere battezzato “21256Robertobattiston”. A proporre di dedicare il nome dell’asteroide a Roberto Battiston sono stati l’Amministratore Delegato di Thales Alenia Space Italia, Donato Amoroso, e Walter Cugno, SVP Esplorazione & Scienza di Thales Alenia Space. “21256Robertobattiston” è un asteroide della Fascia Principale del Sistema Solare. Scoperto nel 1996 dall’ingegnere Claudio Casacci di Thales Alenia Space, appassionato di astronomia, e da Maura Tombelli con le osservazioni condotte al telescopio di Cima Ekar dell’Inaf, presenta un’orbita caratterizzata da un semiasse maggiore pari a 3,2115893 UA e da un’eccentricità di 0,1808348, inclinata di 2,15716° rispetto all’eclittica. Buoni frutti anche dalla visita in Italia della delegazione della China Manned Space Agency (CMSA), l’Agenzia cinese per il volo umano. Al Miur, il Presidente Roberto Battiston e il Direttore Generale della CMSA, Wang Zhaoyao, hanno firmato le minute che confermano i progressi della cooperazione spaziale italo-cinese. La partnership era cominciata lo scorso Febbraio, quando durante la visita di Stato del Presidente della Repubblica Mattarella, Battiston e Zhaoyao avevano siglato l’accordo quadro per la collaborazione scientifica rivolta allo studio delle missioni di lunga durata degli astronauti-tachionauti, in particolare sugli aspetti di biomedicina, fisiologia e delle relative tecnologie. Un accordo dalle potenziali ricadute importanti, considerata, da una parte, la posizione di leadership che l’Italia ha raggiunto nel settore del volo umano nell’ambito della realizzazione e dell’uso della Stazione Spaziale Internazionale e, dall’altra, l’importante programma di volo umano che la Cina sta sviluppando, in particolare con la realizzazione della Stazione Spaziale cinese Tiangong-3. Durante l’incontro al Miur i Cinesi hanno sottolineato che l’ASI è la prima agenzia al mondo, oltre l’ESA, con cui la cooperazione è passata rapidamente dalla firma di un Accordo alla sua realizzazione, e hanno anche aperto a prospettive future di collaborazione per l’esplorazione nell’ambito dei programmi discussi dalle principali agenzie di tutto il mondo, tra questi una missione umana sulla Luna, su Marte, su Giove e su Venere, insieme alla Russia. Entrambe le parti hanno valutato positivamente il lavoro compiuto dal Joint Cooperation Committee che stabilisce le modalità della partnership, tra cui l’accesso a dati scientifici, pubblicazioni congiunte, scambio di personale e partecipazione congiunta a technical reviews sul volo umano. Il capo delegazione Zhang Yulin, Vice Comandante della CMSA, ha espresso apprezzamento per il lavoro svolto in questi mesi, sottolineando come la collaborazione sulle infrastrutture spaziali dovrà svilupparsi a partire da tre capisaldi: innovazione, unicità e nuove funzionalità. La delegazione cinese ha anche espresso apprezzamento per le capacità di Thales Alenia Space e di Altec. La delegazione italiana, di cui faceva parte anche l’astronauta ESA, Samantha Cristoforetti, ha auspicato un rafforzamento della partnership bilaterale, fondata sul mutuo interesse delle comunità scientifiche e industriali. In questo senso il Presidente Battiston ha voluto ricordare che l’accordo tra ASI e CMSA “potrà aiutare gli sforzi della comunità spaziale europea e globale nelle prossime tappe dell’esplorazione umana”. È in corso a Roma, fino al 29 Aprile 2018 al Museo nazionale delle Arti del XXI Secolo, il “MAXXI” in via Guido Reni 4/a, la Mostra fra arte e scienza “GRAVITY. Immaginare l’Universo dopo Einstein”. Il pensiero creativo di artisti e scienziati alla prova dei grandi interrogativi posti dal Cosmo. È questo il tema della Mostra Gravity, risultato di una collaborazione del Museo MAXXI con l’Agenzia Spaziale Italiana e l’Istituto Nazionale di Fisica Nucleare, con il sostegno del Ministero dell’Istruzione, dell’Università e della Ricerca. Il pubblico può ammirare installazioni scientifiche, reperti storici e simulazioni di esperimenti, come il Cannocchiale di Galileo e lo Specchio di Virgo, l’interferometro laser che capta le onde gravitazionali, e dialogare con opere di artisti moderni e contemporanei: da Marcel Duchamp ad Allora&Calzadilla, Peter Fischli e David Weiss, Laurent Grasso, Tomás Saraceno. Cosa può rappresentare oggi l’Universo e quali sono le sono le nostre relazioni con la scienza? I curatori della mostra hanno chiesto ad antropologi, artisti, scienziati, storici dell’arte, filosofi, letterati, fisici, geografi e biologi, di rispondere a queste domande offrendo un loro personale punto di vista sui temi proposti. Superando il format del catalogo di mostra, la pubblicazione si propone così come una raccolta di testi d’autore, un libro d’artista dalla grafica accattivante, che tratteggia un vivido ritratto della creatività contemporanea. Nel 1917 Albert Einstein pubblica un articolo che fonda la Cosmologia moderna e trasforma i modelli di Cosmo e Universo immaginati fino ad allora da scienziati e pensatori, rivoluzionando le categorie di spazio e tempo. A cento anni da questa pubblicazione il MAXXI dedica una mostra a una delle figure che più ha influenzato il pensiero contemporaneo. Il progetto è il risultato di una inedita collaborazione della scienza con l’artista argentino Tomás Saraceno per la parte artistica. Indagando le connessioni e le profonde analogie tra l’arte e la scienza, “Gravity. Immaginare l’Universo dopo Einstein” racconta gli sviluppi della Relatività (non più solo “teoria”!) nella visione odierna dell’Universo e le affascinanti ricadute che essa produce ancora oggi in campo artistico. Attraverso il coinvolgimento di artisti internazionali, la mostra rende omaggio allo scienziato che ha cambiato radicalmente le nostre conoscenze, la percezione e l’immaginario dell’Universo. Installazioni artistiche e scientifiche immersive, reperti iconici e simulazioni di esperimenti per avvicinarsi all’essenza delle innovazioni scientifiche introdotte da Einstein e svelare le profondità sottese all’Universo conosciuto, ma anche i meccanismi che legano insieme tutti gli uomini nella ricerca della conoscenza, in un processo collettivo nel quale gli artisti e gli scienziati svolgono un ruolo ugualmente significante e fondamentale per la società. La Relatività di Einstein afferma che il tempo non procede in modo uniforme, ma, in certe condizioni fisiche può accelerare o rallentare, fino addirittura a fermarsi, e che lo spazio è simile a un tessuto elastico che si deforma e si incurva. È una visione delle cose molto lontana dalla nostra esperienza quotidiana. Eppure, guardando il mondo attraverso la lente della Relatività, siamo riusciti a descrivere eventi cosmici remoti e irraggiungibili: il ciclo di vita delle stelle, la formazione di galassie o ammassi, fino all’origine del tutto, all’istante in cui l’intero Universo era racchiuso in un punto miliardi di volte più piccolo di un nucleo atomico. Senza Einstein della Civiltà occidentale, non sapremmo lanciare i satelliti che collegano il mondo in un’unica rete globale, né potremmo spingerci sempre più lontano dalla Terra per esplorare il Cosmo grazie ai magnati o sempre più dentro la materia con giganteschi acceleratori di particelle. Quanto siamo consapevoli che queste straordinarie conoscenze e tecnologie sono fondate su una visione del Cosmo rivoluzionaria? Una visione che illumina la natura più profonda dello spazio e del tempo e quindi, in definitiva, del posto che occupiamo nell’Universo. La mostra indaga l’incontro tra l’attuale visione del Cosmo e l’evoluzione dell’arte e del pensiero contemporanei sottolineando il mutamento di prospettive e lo scardinamento delle certezze della conoscenza. Attraverso tre concetti chiave (Spaziotempo, Confini, Crisi) prendiamo coscienza di un’esperienza che accompagna l’Umanità da sempre: siamo all’interno del Cosmo, soggetti attivi e partecipi dell’Universo creato da Dio e che abitiamo. “Cosmic Concert”, l’opera di Tomás Saraceno al centro della galleria, racconta proprio il nostro essere immersi in un flusso di segnali cosmici, che ci raggiungono producendo armonie o dissonanze; visualizzando la polvere cosmica, l’artista si pone come il mediatore di un percorso interiore che passa tra frequenze non udibili ma percepibili, onde gravitazionali e il buio, che non è solo metafora dell’Universo stesso ma anche dei limiti del sapere umano. Ancora una volta, l’osservatore si fa spettatore e artefice di ciò che osserva in una relazione inestricabile con ciò che lo circonda. Un processo che gli artisti, come gli scienziati, indagano constatando i limiti del nostro sapere, ma guidati dall’irrefrenabile desiderio di spingersi sempre oltre. La nuova visione einsteiniana di spazio e tempo si fonda su un principio fondamentale: la velocità della luce è una costante universale. Per quanto velocemente possiamo muoverci, il suo valore di circa 300.000 chilometri al secondo risulterà “sempre” lo stesso. Questa idea, però, ha delle conseguenze contrarie alla nostra intuizione. Se la velocità della luce è sempre costante, sono spazio e tempo a modificarsi, a cambiare in funzione di chi sta osservando. Spazio e tempo, inoltre, non sono più aspetti distinti e indipendenti della Realtà, ma costituiscono un’entità unica, una sorta di “spazio a quattro dimensioni”: lo spaziotempo. Nello spaziotempo è la velocità con cui ci muoviamo a definire la prospettiva con cui osserviamo il mondo, a determinare il metro e l’orologio con cui lo misuriamo. E le nostre stesse esistenze. Ad esempio, eventi simultanei per un osservatore, possono avvenire in due istanti diversi per un altro. Alla velocità delle nostre esperienze quotidiane, estremamente ridotte rispetto a quella della luce, gli effetti della Relatività sono impercettibili, ma diventano cruciali quando esploriamo il Cosmo o i componenti ultimi della materia. Oltre agli strumenti con cui l’Uomo, a partire dall’antichità, ha descritto lo spazio e il tempo degli eventi cosmici, questa sezione presenta un modello dell’esperimento con cui Albert Michelson e Edward Morley, alla fine dell’800, osservarono che la velocità della luce è la stessa per due osservatori in moto relativo. La Relatività della misura è oggetto della riflessione di “3 Stoppages Étalon”, un’opera in cui Marcel Duchamp crea la sua personale unità di misura facendosi guidare dal caso. L’opera “The Way Things Go” di Peter Fischli e David Weiss focalizza l’attenzione sulla rigorosa concatenazione dei fenomeni di causa ed effetto, presentando un’interminabile reazione a catena di eventi apparentemente insignificanti. Tomás Saraceno ci invita a prendere parte, con la nostra presenza in mostra, al suo “Cosmic Concert” che rende percepibile l’invisibile trama di relazioni cosmiche di cui è fatto l’Universo. Il tempo diventa intuizione nel video “163.000 Light Years” dove la ripresa fissa del cielo stellato non è altro che l’immagine cristallizzata del passato che, per effetto della velocità elevata ma non infinita della luce, ci appare come il nostro presente. In ogni ambito del conoscere, la crisi, il momento in cui si sfalda la visione corrente e crollano le convinzioni più accreditate, è la premessa necessaria all’emergere di nuove interpretazioni e modelli di riferimento. Anche la prima Teoria della Relatività di Einstein, la cosiddetta Relatività ristretta, rispose a una crisi: quella della fisica classica di fronte alle nuove conoscenze sulla propagazione delle onde elettromagnetiche e della luce. E, a sua volta, ne produsse un’altra: la crisi della teoria newtoniana della gravitazione universale di fronte alla natura relativistica dello spazio e del tempo. Per superare questa crisi, Einstein formulò la Teoria Generale della Relatività. In questa nuova visione lo spaziotempo si presenta come un tessuto elastico deformato da stelle e pianeti, così che gli altri corpi, per effetto di queste deformazioni, scivolano lungo la sua superficie curva. La forza di Gravità, quindi, non è altro che il manifestarsi di questa reciproca interazione tra i corpi celesti e la trama cosmica dello spaziotempo. È una visione complessa, disorientante e assai difficile da immaginare. Per aiutare a comprendere la dinamica e a visualizzare la struttura dello spaziotempo, questa sezione presenta diverse installazioni interattive che consentono di vivere esperienze virtuali e il racconto immersivo di due prove decisive del modello einsteiniano: la deflessione gravitazionale della luce, osservata per la prima volta nel 1919 e la scoperta delle onde gravitazionali, avvenuta nel 2015, ben un secolo dopo la loro previsione teorica. Il video “The Great Silence” di Allora&Calzadilla offre, da una prospettiva diversa, una riflessione sul tema della crisi, ovvero sulla reale capacità dell’Uomo di interpretare i segni della natura. L’opera allude all’incomunicabilità tra il genere umano e le altre specie che popolano la Terra e l’Universo, evidenziando la nostra incapacità di decifrare i messaggi che arrivano dal mondo circostante prima ancora di quelli provenienti dal Cosmo. Da sempre il Cosmo è l’ultimo orizzonte a cui si rivolge il nostro desiderio di conoscenza. I suoi confini si sono allargati e allontanati da noi, quanto più profondamente siamo riusciti a scrutarlo con i nostri occhi artificiali: dal cannocchiale di Galilei fino ai più potenti telescopi oggi in orbita intorno alla Terra. Siamo arrivati a descrivere l’Universo come il “Tutto” di cui ricostruire l’origine e predire l’evoluzione, ma con la nostra esperienza siamo divenuti anche più consapevoli della portata inafferrabile dei fenomeni cosmici e dei limiti delle nostre conoscenze. La Relatività ha mostrato come una porzione dell’Universo è inevitabilmente esclusa dal nostro raggio di osservazione e che i “confini” della parte che invece possiamo osservare si allontanano sempre più rapidamente da noi in un Universo che è in fuga in ogni direzione. Sappiamo che probabilmente una trama di Materia Oscura pervade il Cosmo, come un’immensa ragnatela: attorno ai suoi fili si sono addensate, centinaia di milioni di anni dopo il Big Bang, le prime stelle e galassie. Non conosciamo però la natura di questa materia né riusciamo a rivelarla. Analogamente, quella che viene definita “Energia Oscura” sembrerebbe spingere l’Universo ad espandersi sempre più rapidamente, determinandone il suo destino futuro. Questo carattere ambivalente dell’evoluzione del sapere umano è indagato anche dalla ricerca artistica contemporanea, come nell’installazione “The Horn Perspective” di Laurent Grasso, che riflette sul confine labile tra scienza e finzione, tra percezione reale e suggestioni artistiche, ricordandoci quanto sia complesso decifrare e interpretare i messaggi provenienti dal Cosmo. All’Istituto Nazionale di Geofisica e Vulcanologia, Alessandro Amato in un post riassume “un anno di terremoti in Italia. Ne sono stati localizzati 44455 in totale (di cui circa 37000 appartengono alla sequenza in Italia centrale). Tra questi 44455 ne abbiamo avuti: 5 di magnitudo ≥5 (uno di questi in Albania); 26 di magnitudo ≥4 (qualcuno fuori dai confini); 396 di magnitudo ≥3 (come sopra, ma percentualmente molti meno); 4626 di magnitudo ≥2 (con i 4626 epicentri dei terremoti di M≥2 compresi alcuni eventi nei mari e nelle terre circostanti”. Cosa è successo di rilevante nel 2017? “Senza pretesa di esaustività, alcuni avvenimenti a mio avviso importanti. 1) Sequenza in Italia centrale. La sequenza è andata scemando, più o meno seguendo le aspettative. C’era stata la ripresa importante a Gennaio (4 eventi di M≥5 in poche ore il giorno 18), che aveva fatto segnare l’attivazione di una nuova faglia più a sud (Campotosto) e conseguente timore di altri eventi più forti (che finora non sono avvenuti). 2) Ischia. Ci sono stati altri morti per un terremoto, dopo i quasi 300 del 2016. Due persone hanno perso la vita per un evento di magnitudo intorno a 4! Vero che l’ipocentro era molto superficiale, ma un evento di così piccola magnitudo non dovrebbe provocare crolli e vittime, senza se e senza ma. 
3) Sequenze e paure. Ci sono state numerose sequenze o sciami in varie zone d’Italia, che hanno fatto preoccupare gli abitanti. Sarà servita questa preoccupazione a mettere in atto misure di riduzione del rischio, per esempio facendo controllare e magari adeguare o rinforzare le proprie abitazioni? Non credo molto, anzi temo che il più delle volte, passata la sequenza e quindi la paura, si sia rapidamente dimenticato il rischio (“anche stavolta l’abbiamo sfangata”). Spero però che almeno in qualche caso si sia fatto qualcosa di concreto, e che al prossimo terremoto qualcuno in più si sarà salvato. 4) Sismabonus. A questo riguardo, un elemento nuovo e importante del 2017 è certamente il Sismabonus, introdotto nel febbraio scorso. Trattandosi di un beneficio a carattere volontario, temo che non molti si siano dati da fare al riguardo, per ragioni – comprensibili – di carattere economico e burocratico. Sono curioso di vedere qualche dato statistico su questo, a quasi un anno dall’entrata in vigore della legge. Peraltro non mi pare che si sia fatta un’adeguata pubblicità alla cosa, forse per timore che un eccessivo numero di richieste potesse far saltare il bilancio dello Stato (ma è solo un’ipotesi). 5) Tsunami. Aggiungo una novità a mio avviso importante del 2017. Dal 1° Gennaio scorso è operativo il Centro Allerta Tsunami, che mi onoro di coordinare per l’INGV, insieme a un gruppo di ottimi ricercatori. A Giugno 2017 è uscita la Direttiva del Presidente del Consiglio che istituisce il Sistema di Allertamento nazionale, coordinato dal Dipartimento della Protezione Civile e in collaborazione con l’ISPRA, che gestisce la Rete Mareografica Nazionale. Monitoriamo i forti terremoti del Mediterraneo che potrebbero generare degli tsunami pericolosi per le nostre coste. Un rischio remoto, ma non così tanto come si ritiene comunemente”. Cosa si può augurare per il 2018? “Purtroppo non un anno senza terremoti, per ovvie ragioni. I terremoti continueranno a esserci, molti piccoli e qualcuno più forte. Ripensandoci però, mi sentirei di augurare non uno ma più anni con pochi terremoti forti, e nel frattempo un’azione decisa di mitigazione del rischio, attraverso la riduzione della vulnerabilità degli edifici. Questa azione passa per una maggiore consapevolezza e un maggiore impegno di tutti, da noi cittadini alla politica. Se saremo fortunati (qualche anno di “calma sismica”) e bravi (riduzione graduale della vulnerabilità), al prossimo terremoto piangeremo meno lutti, meno danni, e potremo esserne orgogliosi”. Buon Anno Domini 2018.

                                                                                                                                    © Nicola Facciolini

 

Redazione - Il Faro 24

Share
Published by
Redazione - Il Faro 24