Abbiamo un’altra arma per evitare la catastrofe climatica. Ma funzionerà davvero?

Tempo di lettura: 9 minuti.

Siamo sull’orlo della catastrofe, non c’è più tempo. Secondo il sesto e ultimo rapporto dell’IPCC (Gruppo Intergovernativo sul Cambiamento Climatico) la maggior parte dei cambiamenti già in atto è irreversibile, ed è improbabile che riusciremo a restare entro i parametri dei recenti accordi sul clima se non ci saranno ingenti spese di denaro pubblico (si parla di migliaia di miliardi di dollari di investimenti). Poche decine di gradi in più rispetto alla media globale fanno la differenza per milioni di specie, anche se l’incremento ci sembra insignificante. E fanno la differenza anche per noi.

Gli oceani stanno già morendo, gli animali soffocando, le tempeste e i fenomeni atmosferici rari diventano sempre più estremi e violenti (è stato stimato che solo durante i devastanti incendi in Australia tra la fine 2019 e l’inizio del 2020 siano morti 3 miliardi di animali). Fenomeni che prima accadevano solo una volta ogni 1000 anni, come le ondate di caldo estreme, ora accadono in media ogni 100, ed entro il 2040 potrebbero diventare comuni. Un recente rapporto della NOAA statunitense ha rilevato che il 2021 è stato il quarto anno più caldo per gli Stati Uniti dal 1895, da quando è iniziata la raccolta dati, e sei degli anni più caldi sono stati registrati negli ultimi dieci.

I recenti accordi climatici, da quello di Parigi del 2015 a quello dell’anno scorso a Glasgow impongono che, per mantenere la temperatura globale media ben al di sotto di 2 ℃ sopra i livelli pre-industriali, sia necessario non solo completamente fermare le emissioni di CO2 (il diossido di carbonio, comunemente noto come anidride carbonica) ma addirittura cercare di ottenere «emissioni negative». Secondo studî sempre più numerosi questo bisogno di «emissioni di carbonio negative» è sempre più impellente. Sempre l’IPCC stima che dovremmo rimuovere dall’atmosfera tra 100 e 1 000 Gt («gigatonnellate» = miliardi di tonnellate) di CO2 entro il 2100 per evitare effetti catastrofici (al momento ne emettiamo 51 miliardi ogni anno). Il problema è che nessuno ha una buona idea di come riuscirci esattamente.

Un canguro davanti a una casa in fiamme nel lago Conjola, nel Nuovo Galles del Sud, in Australia, 31 dicembre 2019. Crediti: © Matthew Abbott, The New York Times

La soluzione ovvia sarebbe piantare un sacco di alberi, per convertire la CO2 in legno (è ciò che fanno tutte le piante grazie alla fotosintesi, restituendo come prodotto di scarto il tanto gradito ossigeno). Ma questo significherebbe rimboschire un’area con una dimensione intermedia tra quella dell’India e del Canada (circa 5 milioni di km2), secondo le più recenti stime. Ciò non è chiaramente fattibile.

Si potrebbe anche provare a fertilizzare l’oceano, il più grande «polmone» terrestre (il 50–80% di tutto l’ossigeno che respiriamo sulla Terra proviene dagli oceani!) stimolando la crescita del fitoplancton, che restituisce ossigeno come scarto attraverso la fotosintesi, come le piante. Ma anche in questo caso, la vastità del progetto e i costi da sostenere fermerebbero un tale progetto prima che abbia modo di partire. 

E fino a oggi altre soluzioni alternative sono sempre state prese poco in considerazione a causa dei costi stratosferici, o perché poco efficaci, o per entrambi i motivi. La tecnologia della cattura del carbonio (carbon capture and storage, CCS) promette di rivoluzionare questo paradigma.

Come i vaccini a mRNA contro la COVID-19 e gran parte delle tecnologie avanzate che hanno del fantascientifico, la tecnologia CCS non è saltata fuori dal nulla. È da decenni che gli scienziati parlano di bilanciare le emissioni di gas serra catturando CO2 e immagazzinarla da qualche parte, e di conseguenza sperimentano questo tipo di tecnologia nelle più remote aree del pianeta terra e nei più avanzati progetti di ingegneria.

Un impianto della ClimeWorks per la cattura diretta dall’aria. Crediti: © ClimeWorks

Il primo problema è la cattura del CO2 stesso. Una soluzione, e la più intelligente quando disponibile, è la «cattura diretta dall’aria» (direct air capture, DAC): si installano attrezzature per il filtraggio per la cattura delle emissioni direttamente alla fonte, sulle ciminiere di centrali elettriche o fabbriche. Il vantaggio è che non solo possono lavorare giorno e notte, ma soprattutto non richiedono la conversione dell’intera centrale o fabbrica a un tipo di energia più pulita, abbattendo sensibilmente i costi di transizione energetica per la relativa filiera.

Lo svantaggio è legato principalmente al costo di una tale operazione, sia in termini di denaro, sia in termini di energia spesa per tenere in funzione suddette macchine. Ipotizzando però di riuscire ad alimentarle con energia pulita e a basso costo (sempre più fattibile considerando che il fotovoltaico e l’eolico sono ormai di gran lunga le forme di energia a più basso costo per kWh prodotto, con prezzi intorno a 0,04–0,12€/kWh), i costi potrebbero scendere intorno ai 100–200 dollari a tonnellata. È comunque più del costo schemi di negoziazione delle emissioni, ma non troppo distante dal prezzo di 100$ che la maggior parte degli economisti climatici ritiene sia necessaria per richiedere la transizione a un’economia mondiale più verde (a oggi i prezzi nell’UE sono intorno agli 80€ per tonnellata).

Sono già attivi alcuni impianti di sperimentazione dell’azienda canadese Carbon Engineering e da quest’anno dovrebbe avviare la costruzione del più grande impianto per la DAC in Texas, che prevede di completare nel 2025, e con una capacità di cattura stimata di 1 milione di tonnellate l’anno; l’azienda è confidente di riuscire a catturare carbonio a un costo medio stimato di 300 dollari per tonnellata. ClimeWorks, un’impresa svizzera, ha già aperto un impianto DAC in Islanda nel 2021 chiamato Orca, che seppellisce CO2 catturato in forma minerale a un tasso di 4 000 tonnellate l’anno.

Una volta catturato, il diossido di carbonio dev’essere immagazzinato da qualche parte, e definitivamente: non possiamo permetterci che esso abbia modo di scappare e ritornare nell’atmosfera. Per questo ci viene in aiuto la geologia.

Conoscenza solida

Una delle osservazioni più straordinarie e fondamentali del secolo scorso proviene da alcuni piccoli laboratori universitari di geologia sparsi per il globo e da una valle sperduta tra i monti Al Hajar, in una nazione non molto conosciuta, a est dell’Arabia Saudita: l’Oman. La valle è un deserto brullo, marrone, con solo qualche cespuglio qua e là, formato prevalentemente da una roccia chiamata peridotite, segnata dagli agenti atmosferici. Eppure questo luogo desolato potrebbe custodire un processo chiave per la nostra sopravvivenza.

Jabal Shams, «la montagna del Sole», è la cima più elevata dell’Oman. Crediti: © Wikimedia Commons

Quando piove, l’acqua piovana percola dalle crepe nella roccia, e porta con sé ossigeno e diossido di carbonio disciolti nell’aria. Acqua e gas reagiscono con la roccia formando vene solide di nuovi minerali (carbonati) che, come radici di alberi, scavano sempre più in profondità nella pietra. E come per magia, l’anidride carbonica si trasforma in roccia. Questo processo di carbonatazione è probabilmente il miglior modo di immagazzinare CO2: è un processo che la natura già attua, non occupa spazio in superficie, non c’è bisogno di gestire bombole con CO2 sotto pressione e a temperature criogeniche che rischierebbero di esplodere, e i sottoprodotti sono rocce stabili che possono essere usate anche per altre applicazioni industriali. Ma il punto fondamentale è che non c’è modo per la CO2 di «sfuggire»: il carbonio è chimicamente incastrato nella roccia tra atomi di ossigeno e altri minerali. E l’acqua carbonata iniettata è più densa dell’acqua circostante nella formazione geologica e quindi ha la tendenza ad affondare dopo che è stata iniettata, contribuendo alla permanente fissazione del carbonio senza necessitare ulteriori “tappi”.

Peter Kelemen, geologo della Columbia University, e suoi colleghi, stimano che le rocce in Oman assorbano e pietrifichino ogni anno fino a 100 000 tonnellate di CO2, circa un grammo di gas serra per metro cubo di roccia. Questo avviene in modo del tutto naturale già da milioni di anni! Un piano proposto da Kelemen prevede di accelerare le reazioni naturali trivellando il terreno per alcuni chilometri (fino a 3000 metri di profondità), dove le rocce sono più calde, e pompare acqua di mare satura di CO2 estratta dall’aria con la DAC. A quelle profondità le rocce hanno una temperatura media di 100 ℃, che accelera le reazioni di carbonatazione (anche di migliaia di volte, secondo le simulazioni) e vaporizza l’acqua aiutandola a tornare in superficie senza l’ausilio di pompe artificiali.

Kelemen e un collega studiano i minerali di peridotite sulle montagne di Al Hajar, in Oman. Si notino le vene bianche di carbonati formati in milioni di anni grazi al processo naturale di carbonatazione. Crediti: © Columbia University

Ma è possibile costruire l’infrastruttura necessaria per attuare un simile piano, in tempi brevi e con costi quanto più possibile ridotti?

Una corsa contro il tempo

Il basalto è una roccia grigio-nera e densa, derivata dal mantello, punteggiata di piccole bolle. Contiene meno minerali della roccia dell’Oman, ma comunque più rispetto ad altre rocce della superficie terrestre. Il vantaggio però è che il basalto è uno dei principali componenti della crosta terrestre, coprendo circa il 5% dei continenti e la maggior parte del pavimento oceanico. Per cercare di sfruttarlo, la società islandese Reykjavík Energy ha dato il via a un esperimento di iniezione di CO2, chiamato Carbfix, presso l’impianto geotermico di Hellisheiði. Dal 2012 alcuni macchinari hanno separato CO2 dagli scarichi della centrale e li hanno iniettati nel basalto sottostante attraverso pozzi a una profondità di 400 e 800 metri. Nel corso di due anni, il 95% era stato correttamente immagazzinato nei carbonati. Da allora, il progetto ha permesso di immagazzinare circa 10 000 tonnellate di CO2 all’anno. L’obiettivo della società è riuscire ad accumulare un miliardo di tonnellate entro il 2030. E è stato stimato grazie al solo basalto presente in Islanda, potrebbero essere immagazzinate 400 Gt di CO2.

Un’altra azienda con sede in Oman, la 44.01 (che prende il nome dal peso molecolare medio del CO2) dovrebbe iniziare le operazioni commerciali già da quest’anno. Useranno acqua dolce, o anche acque di scarico trattate, per portare ogni anno 10 000 tonnellate di gas in un singolo pozzo, con l’obiettivo di arrivare fino a 100 000 tonnellate l’anno e 1 Gt complessiva entro il 2030.

Per immagazzinare 1 Gt di CO2 l’anno in Oman, Kelemen e i suoi colleghi hanno calcolato che, sotto opportune condizioni di concentrazione del gas dell’acqua di mare facilmente ottenibili con i macchinari odierni, sarebbero necessari 5 000 pozzi di iniezione. Insieme pomperebbero un totale di 23 km3 d’acqua ogni anno, circa l’1,5% della portata media del Po, o il 21% di quella dell’Arno. Sembra un’operazione di un’entità sconvolgente, ma l’emergenza climatica richiede interventi drastici, e non possiamo permetterci di scartarne nemmeno uno. E il costo dell’inazione potrebbe essere decine di volte più elevato, senza contare quello inestimabile della perdita di vite umane, specie viventi e distruzione ambientale. Solo negli Stati Uniti gli eventi estremi del 2021 (gelo e siccità estremi, incendi boschivi, uragani e cicloni) hanno causato perdite stimate per 145 miliardi di dollari. È stato il terzo anno più costoso nella storia del paese, e il numero di eventi catastrofici da più di 1 miliardo di dollari è cresciuto in maniera sostenuta nell’ultimo decennio.

Un deserto dell’Oman. Crediti: © 44.01

Con i suoi 15 000 metri cubi di roccia il deserto dell’Oman potrebbe diventare uno dei più grandi bacini naturali di immagazzinamento del diossido di carbonio. E dalla superficie terrestre emergono affioramenti simili in Alaska, Canada, California, Islanda, Nuova Zelanda, Giappone. Kelemen stima che in tutto il mondo queste rocce possano immagazzinare da 60 000 a 600 000 Gt di CO2: da 25 a 250 volte la quantità emessa in atmosfera dall’umanità a partire dal 1850.

Il costo del disastro

Come spesso accade nella storia delle azioni umane, i ricchi fanno i disastri e i poveri ne pagano le conseguenze. II paesi con meno risorse hanno meno capacità di quelli più sviluppati di adattarsi al cambiamento dei movimenti meteorologici, e tendono inoltre a essere più vicini all’equatore, dove il clima sta diventando più instabile che da altre parti. Mentre il mondo si scalda, saranno loro a soffrire di più, e ad avere meno risorse per difendersi. Il Programma delle Nazioni Unite per l’Ambiente (UNEP) stima che entro il 2030 i paesi poveri dovranno spendere 140–300 miliardi di dollari all’anno per misure di adattamento, come le difese costiere e i progetti di riforestazione, se vogliono evitare i danni causati dai cambiamenti climatici.

Attualmente, la Carbfix mineralizza CO2 a un costo di circa 25 dollari per tonnellata, in linea con la fascia di prezzo per la riforestazione. Uno studio dell’Università della Pennsylvania ha stimato che i costi complessivi di cattura e immagazzinamento di CO2, inclusi gli stipendi degli operatori e le spese di costruzione e manutenzione delle attrezzature per vent’anni variano tra 120–220 dollari per tonnellata eliminata. Questa però è una stima che non considera l’innovazione: attualmente gli impianti sono di modeste dimensioni, e se questa tecnologia verrà adottata su larga scala, i costi potrebbero abbattersi drasticamente.

Non è necessario però arrivare a mineralizzare gigatonnellate di CO2 entro i prossimi cinque anni però: come per ogni tecnologia all’inizio della sua evoluzione, servono una serie di strutture gradualmente più grandi da cui imparare, per migliorare l’efficienza e i costi. È solo così che riusciremo ad abbattere gradualmente il prezzo e scalare la tecnologia a livello mondiale.

Una proprietà eccezionale della peridotite è la sua potente spinta chimica a reagire con l’anidride carbonica, non disponibile nel suo normale habitat nelle profondità della terra, ma abbondante nell’aria o nelle acque sotterranee vicino alla superficie. La reazione forma carbonato, un minerale che blocca il carbonio in forma solida. Crediti: © Columbia University

Operazione fumo negli occhi

Non dobbiamo però lasciarci abbindolare da una tecnologia al limite del fantascientifico come questa e usarla come scusa per non aumentare i nostri sforzi di riduzione delle emissioni e transizione a un’economia verde e circolare.

ENI ha di recente proposto lo «sviluppo del primo hub [sic] di decarbonizzazione nell’Europa meridionale costruendo a Ravenna un sistema di cattura, trasporto e iniezione del carbonio, prodotto dal distretto industriale di Ravenna-Ferrara-Porto Marghera, nonché dalla produzione di idrogeno decarbonizzato e di energia elettrica, negli esistenti giacimenti esauriti nel mare Adriatico», con un finanziamento da 1,35 miliardi di euro dal PNRR e altri milioni dalla Commissione Europea. 

In Italia, decine di personalità del mondo accademico si oppongono fermamente a questa proposta. In una lettera aperta denunciano la non accettabilità socio-economica e industriale di questi progetti per come sono stati condotti fino a ora. «Proporre lo stoccaggio e l’uso della CO2 rappresenta un alibi straordinario per continuare a produrre anidride carbonica contribuendo all’attuale trend di crescita esponenziale del disastro ambientale. E perseverando scelleratamente a privatizzare utili e socializzare i costi» si legge nell’appello sottoscritto da cinquantatré accademici indirizzato al presidente della Repubblica Mattarella e al presidente del Consiglio Draghi.

In particolare, i firmatari sostengono che la tecnologia CCS si candida a essere una comoda scorciatoia e rischia di compromettere seriamente un percorso di decarbonizzazione del sistema di produzione e consumo che dovrebbe avere invece nella sua razionalizzazione il taglio selettivo dei consumi energetici.

Tra i firmatari c’è anche Ugo Bardi, docente di Chimica Fisica presso l’Università di Firenze. «I risultati sono chiari—commenta Bardi—: per ogni combinazione ragionevole dei parametri, l’energia rinnovabile vince sul “sequestro” del carbonio. Il vantaggio, non solo monetario, suggerisce che dovremmo impegnarci al massimo in questa direzione per combattere i cambiamenti climatici».

E anche Bruxelles ha dato il suo no, sostenendo che per avere un’Unione Europea a emissioni zero nel 2050 si possa e si debba fare a meno della CCS.

Luce (e roccia) in fondo al pozzo

La proposta di ENI è però sostanzialmente diversa da quella esemplificata in questo articolo. Essa prevederebbe, infatti, l’iniezione e l’immagazzinamento del CO2 nei pozzi di idrocarburi in via di esaurimento o già esauriti, e questo darebbe nuova linfa alle attività estrattive di gas e petrolio, contribuendo ulteriormente all’arricchimento di ENI e della cancerogena industria di cui fa parte. Il carbonio così immagazzinato, inoltre, non sarebbe fissato in modo permanente attraverso la carbonatazione, presentando quindi un maggior rischio di fuoriuscite nel tempo.

Per di più ENI è una compagnia petrolifera tra le principali responsabili delle emissioni di gas climalteranti, e un punto di vista morale suggerisce che gli ingenti profitti che una tecnologia come la CCS porterebbe non dovrebbero andare in mano ai soli privati, e per di più a uno dei principali fautori dell’ambiente tossico in cui il Pianeta adesso si trova. E ENI sa perfettamente che questa tecnologia costituisce un’arma formidabile per sviluppare un nuovo mercato, con potenzialità e profittabilità come pochi altri.

Sia l’IEA (Agenzia Internazionale dell’Energia) che l’IPCC sono tuttavia favorevoli in qualche misura all’adozione della tecnologia CCS. Essa non è di certo la soluzione ai problemi enormi e drastici del cambiamento climatico. Né dovremmo investire più risorse in questa tecnologia di quante ne investiamo per la vera produzione di energia pulita, di materie prime pulite (cemento e acciaio in primis), per efficientare le nostre case e per transitare verso una mobilità sostenibile su scala globale.

L’industria delle emissioni negative è appena nata: si trova al punto in cui era il settore petrolifero a metà Ottocento, quando ancora a dominare era l’industria dell’olio di balena. Via via che nuove ricerche e nuovi finanziamenti verranno effettuati, essa migliorerà, e arriverà a poter essere considerata un’arma efficace e pulita per combattere il cambiamento climatico da affiancare a quelle che già abbiamo, soprattutto durante questo primo periodo di transizione a forme di energia più verde. E i deserti dell’Oman e i fondali oceanici potrebbero rivelarsi alcuni tra i nostri migliori alleati.

Andrei Florea

Pubblicità

Robotica e bioingegneria: storia e futuro del nostro cervello

Tempo di lettura: 7 minuti.

Per decenni, gli studiosi di intelligenza artificiale e neuroscienziati hanno cercato di creare una coscienza artificiale, una mente sintetica. Raggiungere questo obiettivo risponderebbe a molte domande filosofiche interessanti su cosa significhi essere umani e su cosa siano la coscienza e il pensiero, oltre che potenzialmente poter risolvere una quantità spropositata di malattie neurodegenerative. È uno dei più antichi e affascinanti interrogativi capire come un chilogrammo e pochi etti di materia eccitabile siano responsabili della visione, del movimento, della sofferenza e dell’amore. Ma ancora non siamo arrivati a quel punto.

Nel frattempo, però, da anni è iniziata una rivoluzione silenziosa nel mondo delle neuroscienze e della bioingegneria. Queste discipline hanno compiuto progressi significativi nella comprensione del funzionamento del cervello, partendo da funzioni di primo livello come pensare, ragionare, ricordare e vedere, e suddividendole in componenti sottostanti. Per fare questo, i ricercatori hanno studiato singole regioni del cervello e sviluppato «protesi cerebrali» e «interfacce neurali». L’obiettivo non è sviluppare una coscienza artificiale (per ora), bensì è più pragmatico: trovare una cura per malattie come il morbo di Parkinson, l’Alzheimer, la sindrome di Tourette, l’epilessia, la paralisi e una miriade di altri disturbi legati al sistema neurvoso.

Per creare un’interfaccia tra la componentistica a base di silicio da un lato e le cellule cerebrali dall’altro, le due entità devono parlare la stessa lingua. I ricercatori hanno fatto grandi progressi nella comprensione del funzionamento a livello neurale della coclea dell’orecchio e della retina dell’occhio, e questi progressi hanno portato a sviluppi come l’impianto cocleare (un dispositivo in grado di restituire una parvenza di udito alle persone gravemente sorde), e una recente interfaccia cervello-macchina fornisce a persone che hanno per la vista una limitata capacità di percepire la luce. Il dispositivo, conosciuto come Orion, è prodotto dalla Sight Medical Products di Los Angeles: una minuscola videocamera, montata sugli occhiali, converte le immagini in impulsi elettrici e li invia in modalità wireless a 60 elettrodi impiantati nella corteccia visiva dei pazienti. Le persone con questo dispositivo sperimentale percepiscono nuvole di puntini luminosi, che permettono loro di orientarsi. «È ancora una meraviglia ogni volta che l’accendo» riferisce un partecipante allo studio.

Poter restituire anche solo parzialmente la vista a chi l’ha persa è un sogno a lungo coltivato: milioni di persone nel mondo vivono con deficit di entrambi gli occhi, causati dalla retinite pigmentosa, dalla degenerazione maculare, glaucomi, infezioni, tumori o traumi.

Per far funzionare queste e altre interfacce future, però, serve una comprensione più profonda del funzionamento dell’intero cervello. E quello che per ora gli scienziati capiscono molto meno bene è come comunica il sistema nervoso centrale.

Elettricità cerebrale

Per quel che sappiamo, i sistemi nervosi funzionano gestendo un flusso di correnti elettriche che attraversano reti ultradense e iperconnesse di neuroni, che fungono da elementi di commutazione, cioè un po’ come interruttori e relè, o come i transistori dei moderni microprocessori. Già il fisico e fisiologo Luigi Galvani, a fine Settecento, fece esperimenti per capire il funzionamento del sistema nervoso: con una rana appena morta, collegando un filo ad una sua zampa e puntando il filo in cielo a mo’ di parafulmine durante una giornata tempestosa, notò che la zampa si contraeva a ogni lampo. Ipotizzò quindi che le fibre nervose trasportassero una qualche specie di «elettricità animale» non tanto diversa dall’elettricità che i fisici cominciavano a studiare in quei decenni. Nel 1802 poi, Giovanni Aldini, nipote di Galvani, durante un evento pubblico stimolò elettricamente il cervello di un prigioniero decapitato: la mascella tremò, e un occhio si aprì. L’evento, come intuibile, generò molto scalpore e inorridimento, e probabilmente contribuì a ispirare Mary Shelley per la scrittura del suo famoso romanzo gotico Frankenstein.

Luigi Galvani, De viribus electricitatis in motu musculari commentarius, 1792. Esperimenti sulle rane. Crediti: © AlessandroVolta.it

Interfacce neurali passate e future

La storia delle protesi e interfacce cerebrali è molto lunga. È emersa una nuova capacità,attraverso cui il cervello umano potesse comunicare direttamente con l’ambiente da quando il medico tedesco Hans Berger (1873 – 1941) inventò, intorno agli anni Venti del Novecento, l’elettroencefalogramma (EEG). Da quel momento, i laboratori statunitensi in primis, in linea con una tendenza che vedeva, e vede tutt’ora, la crescita esponenziale di malattie neurodegenerative, si sono interessati allo sviluppo di sistemi elettroencefalografici in grado di garantire un margine accettabile di autonomia-comunicativa ai soggetti con gravi disabilità. Medici, scienziati e ingegneri si dedicano alle protesi visive fin dagli anni Sessanta. Ed è in quegli anni che venne per la prima volta introdotto il concetto di interfaccia uomo-macchina (brain-computer interface, BCI).

Le prime ricerche sulle BCI sono iniziate negli anni Settanta presso la University of California Los Angeles, e nel giro di pochi decenni sono stati dimostrati metodi e tecnologie di interazioni dirette uomo-macchina prodotte da segnali neurali catturati con metodi prima invasivi (elettrodi impiantati) poi semi-invasivi (elettrodi a contatto), recentemente non invasivi (campi elettromagnetici, ultrasuoni). L’ultima frontiera consiste nell’impianto diretto di elettrodi e circuiti integrati nella corteccia cerebrale, finalizzati alla cattura e all’elaborazione dei segnali neurali generati dalle attività di comunicazione e di formazione del pensiero negli esseri umani. 

E al giorno d’oggi il progresso tecnologico delle interfacce neurali sembra procedere a passo spedito. Ad aprile di quest’anno la Neuralink, una società dell’imprenditore Elon Musk, ha diffuso un incredibile video che mostra una scimmia giocare al videogioco Pong senza alcun controllore o interfaccia fisica. Ci riesce grazie a due circuiti integrati (‘chip’) impiantati nella corteccia motoria sinistra e destra. Ciascun chip ha 1024 elettrodi filiformi che registrano l’attività elettrica (detta “chiacchiericcio”) di singoli neuroni. Collettivamente essi trasmettono l’intenzione di muovere le racchette su o giù per rispedire la pallina dal lato opposto. E tutto ciò avviene in modalità senza fili (‘wireless’): nessun componente elettronico né fili penzolanti protrudono dalla testa della scimmia.

Illustrazione di un progetto concettuale dell’interfaccia neurale di Neuralink. Crediti: © Neuralink.

Storie tricolore

Come in molte grandi scoperte scientifiche e cambi di paradigma, l’Italia ha giocato e gioca tutt’ora un ruolo importante nello sviluppo della bioingegneria, delle neuroscienze e delle interfacce uomo-macchina. Eppure talvolta i nomi di tali innovatori rimangono ignoti ai più o finiscono per essere quasi dimenticati dalla storia. Citiamo, ad esempio, il grande fisico ed imprenditore italiano Federico Faggin, un pioniere delle interfacce uomo-macchina (puntatore, tastiera e schermo tattile sono tutti considerati interfacce uomo-calcolatore, o human-computer interfaces).

Federico Faggin alla Cygnet con il Communication CoSystem, 1984. Crediti: © Federico and Elvia Faggin Foundation.

Oltre ad essere stato l’inventore del primo microprocessore della storia, l’Intel 4004 (proprio il 15 novembre è ricorso il cinquantesimo anniversario di questa straordinaria invenzione: date un’occhiata ai post e alle storie pubblicate sulla nostra pagina Instagram), Faggin ha anche fondato due importanti aziende che hanno avanzato gli studî nel campo delle BCI: la Synaptics e la Cygnet Technologies. Quest’ultima, fondata nel 1980, è nota soprattutto per aver progettato e prodotto il Communication CoSystem, una periferica innovativa che consentiva di collegare calcolatore personale e telefono per la trasmissione di voce e dati, rappresentando un notevole progresso nel campo emergente delle comunicazioni personali. Nel 1986, mentre tutti i colossi dell’informatica si affannano a trovare un degno sostituto del puntatore da utilizzare sui nascenti calcolatori portatili, Faggin fonda Synaptics, che contribuirà, a partire dalla sua messa in commercio nel 1994, alla diffusione del tappetino tattile (‘touch-pad’), tecnologia che costituisce la base per gli schermi tattili (‘touch-screens’) e la rivoluzione dei cellulari intelligenti che sfruttano tale tecnologia.

Una visione ravvicinata del Synaptics i1000, il primo circuito neurale della storia. Crediti: © Federico and Elvia Faggin Foundation.

Ma il prodotto forse più sorprendente della Synaptics fu un circuito integrato visionario, il cui intento fu il nome dell’azienda stessa: il primo circuito sinaptico, una rete neurale sperimentale dotata di una logica interna che riproduce le connessioni del cervello umano: migliaia di processori neurali correlati simulano i neuroni e i collegamenti fra questi ultimi (sinapsi), elaborando non più dati sotto forma di relazioni matematiche, ma esperienze. Si chiamava Synaptics i1000, ed emulava la retina dell’occhio umano per catturare le immagini del carattere e la capacità cerebrale umana di classificare i caratteri scritti a mano: era in grado di riconoscere fino a 20mila caratteri al secondo con un’affidabilità prossima al cento per cento. Correva l’anno 1991, e da solo qualche mese era stata pubblicata la prima pagina sul World Wide Web, effettuata la prima chiamata GSM commerciale in Finlandia e Linus Torvalds aveva appena iniziato a programmare il kernel Linux (il codice che permette al vostro cellulare, tra le altre cose, di farvi vedere questa pagina web e a questo stesso testo di essere presente in rete).

«Godi, Fiorenza, poi che se’ sì grande / che per mare e per terra batti l’ali […]»

Il 3 dicembre ricorre la Giornata internazionale delle persone con disabilità e, oltre a numerose aperture straordinarie di musei e visite guidate, anche Firenze sta dando il suo cospicuo contributo, stavolta però non nel campo delle interfacce neurali o protesi, bensì della bioingegneria della riabilitazione. Il Ring@Lab dell’Università di Firenze è un laboratorio che sperimenta nuove tecnologie come intelligenza artificiale e robotica, con l’obiettivo di migliorare i tempi di recupero dei pazienti e monitorare con precisione le terapie, nell’ambito del progetto “REHub” finanziato dalla Fondazione CR Firenze. Il tutto utilizzando strutture ad alta tecnologia. Il laboratorio è infatti dotato di occhiali per la realtà virtuale ed aumentata, sensori per la rilevazione dei movimenti degli arti, insieme a scansori (o scanditore, dall’inglese ‘scanner’) e stampanti 3D per progettare e produrre esoscheletri robotici.

Un paziente in riabilitazione al Ring@Lab dell’Università di Firenze. Crediti: © Nove da Firenze.

Come possono andare a braccetto ingegneria e medicina? L’esempio arriva da un paziente che, dopo un ictus, deve fare riabilitazione alla mano. Lo scansore 3D rileva l’arto, e successivamente la stampante 3D progetta una specie di scheletro robotico personalizzato che si interfaccia con il paziente per facilitargli i movimenti, mentre un sistema di mappatura nervoso valuta l’andamento della riabilitazione. Il progetto permette di poter eseguire il tutto da casa, senza bisogno di ricovero e con controllo a distanza, con conseguente riduzione generale dei costi e il prolungamento della terapia a beneficio dei risultati.

Se siete interessati al progetto vi potete candidare: sono in arrivo cinque assegni di ricerca biennali per altrettanti ricercatori del Ring@Lab.

Andrei Florea

Verso nuove frontiere del Sistema Solare

Tempo di lettura: 5 minuti.

Probabilmente molti di noi ricorderanno il 2021 come uno dei peggiori anni della storia recente. Ma di sicuro non la comunità mondiale di astronomi, astrofili e appassionati di scienza in generale, poiché quest’anno sarà uno dei più prolifici in termini di esperienze spaziali della storia recente dell’umanità! Ben tre missioni spaziali stanno per essere lanciate o sono già partite per la loro destinazione finale, e due di queste hanno come obiettivo primario lo studio di asteroidi. Avete capito bene: di solito molti di noi pensano agli asteroidi come semplici palle di roccia più o meno grandi poco significativi, e che di tanto in tanto possono causare grossi guai a un pianeta se ci passano troppo vicino, e niente di più – di sicuro non come oggetti astronomici degni di studio scientifico approfondito. Ma vediamo perché è di primaria importanza studiare questi nostri piccoli vicini nel grande condominio del Sistema Solare.

Diamanti nel Cielo

La prima e la più carica di strumentazione scientifica è la missione Lucy della NASA, partita il 16 ottobre scorso dal Complesso di Lancio 41 a Cape Canaveral, in Florida. Lucy viaggerà per 12 anni prima di arrivare al suo obiettivo primario: l’asteroide «Patroclo» (617 Patroclus), un asteroide troiano orbitante intorno al punto di Lagrange L5 di Giove.

Facciamo però un passo indietro. Gli asteroidi troiani sono due famiglie di asteroidi in orbita attorno ai punti di Lagrange L4 ed L5 di Giove, che stanno cioè “davanti” e “dietro” a Giove sulla sua orbita. I punti di Lagrange sono quei punti immaginarî nello spazio che si formano quando due corpi molto massivi orbitano l’uno intorno all’altro: l’interazione gravitazionale reciproca contente di avere dei punti in cui questa interazione è nulla (intuitivamente, in questi punti un corpo “tira” a sé quanto l’altro, e quindi la forza gravitazionale media in quel punto è nulla); di conseguenza, alcuni corpi più piccoli e meno massivi dei due possono restare in orbita intorno a questi punti. Ed è esattamente ciò che fanno gli asteroidi troiani.

Schema dei punti di Lagrange intorno a due corpi generici. Crediti: Wikimedia Commons
Gli asteroidi troiani in orbita “davanti” e “dietro” Giove. Crediti: Wikimedia Commons

L’obiettivo della missione Lucy è fare luce sulla storia della formazione dei pianeti del Sistema Solare, e in ultima analisi del nostro pianeta: gli asteroidi infatti possono essere considerati i “fossili della formazione planetaria”, poiché formati da materiale ammassatosi insieme nella prima storia della formazione del Sistema Solare per formare pianeti e altri corpi.

È questo il motivo del nome della missione: come la scoperta dell’ominide australopiteco Lucy, avvenuta il 24 novembre 1974 da parte del paleoantropologo Donald Johanson e del suo team, fece luce sulla storia e l’evoluzione dell’umanità, la missione Lucy tentare di fare altrettanto. Se non lo sapevate, Lucy si chiama così perché la sera della scoperta essi stavano ascoltando la famosa canzone dei Beatles “Lucy in the Sky with Diamonds”. Tra l’altro, è un fortunato caso: secondo gli studiosi su Giove si verificano le condizioni ideali affinché i diamanti si formino in alta quota, quando i fulmini innescano nel metano cambiamenti chimici che portano i nuclei di carbonio ad assumere la forma cristallina dei diamanti. Secondo una prima stima, si formerebbero circa mille tonnellate di diamanti all’anno. Su Giove quindi potrebbero letteralmente piovere diamanti dal cielo come i Beatles avevano immaginato!

Per realizzare questa promessa, il veicolo stellare farà diversi fly-by di ben otto asteroidi: il primo della serie ad essere raggiunto sarà 52246 Donaldjohanson (chiamato così proprio in onore del paleoantropologo su citato), un asteroide della fascia principale (tra Marte e Giove), il 20 aprile 2025. Gli altri sette asteroidi fanno parte della fascia dei troiani, e sono Eurybates, Polymele, Leucus, Orus, Patroclus e Moenetius. Tra questi ultimi, 627 Patroclus è sicuramente la star: non solo è il più grande, ma è anche il primo asteroide mai scoperto ad avere in orbita a sé un altro asteroide (Menezio, battezzato così in onore dell’argonauta greco padre di Patroclo)!

La sonda spaziale Lucy in scala. Crediti: NASA

Nel corso della sua visita, Lucy percorrerà più di un miliardo di chilometri, e al termine della missione si metterà in orbita stabile tra la Terra e il Sole, servendo da capsula del tempo per le future generazioni (o futuri visitatori interstellari della terra!).

Segnatevi la data del 2033 quindi, quando Lucy inizierà a inviarci spettacolari immagini mai viste prima di questi antichi oggetti.

Una curiosità: data la divisione di questi asteroidi in questi due campi intorno ai punti di Lagrange, i primi scopritori di questi corpi celesti, all’inizio del Novecento, si sono divertiti a chiamarli dopo gli eroi greci e troiani della guerra di Troia rispettivamente quelli in L4 e in L5. Tuttavia, a causa della loro scoperta prima che questa convenzione fosse adottata, gli asteroidi 627 Patroclus (Patroclo) e 624 Hektor (Ettore) si trovano nei campi opposti rispetto a quelli a cui dovrebbero appartenere. Si potrebbe proprio dire che entrambe le famiglie hanno una spia dell’altro fronte in mezzo ai proprî simili!

Giocare a freccette galattiche

Il 24 novembre, anniversario della scoperta di Lucy, dovrebbe seguire un’altra missione statunitense verso alcuni asteroidi: DART acronimo di Double Asteroid Redirection Test («test di redirezionamento di due asteroidi»). La missione, tuttavia, ha uno scopo più pratico di quello di Lucy: essa valuterà la fattibilità di cambiare la traiettoria di un asteroide, nel caso in cui ne venisse scoperto uno che minaccia di scontrarsi con la Terra (“dart” in inglese significa proprio «dardo, freccetta»).

DART, una sonda del peso di 600 kg, è destinata a schiantarsi, nel settembre 2022, su Dimorphos, un minuscolo asteroide in orbita attorno a uno più grande, Didymos, a una velocità di 6,2 km al secondo. L’intenzione è quella di alterare la velocità dell’orbita di Dimorphos di circa mezzo millimetro al secondo, accorciando così il suo periodo orbitale, ora di 11,9 ore, di una decina di minuti.

La missione DART nella NASA in un’illustrazione artistica. Crediti: NASA/Johns Hopkins Applied Physics Lab

La missione è di fondamentale importanza per la salvaguardia del nostro pianeta: Didymos ha un diametro di 780 metri, e se un oggetto di quelle dimensioni colpisse la Terra potrebbe devastare un mezzo continente, provocando tempeste di fuoco e un successivo raffreddamento del clima che potrebbe durare per anni. Sarebbe un disastro di proporzioni mai viste.

Tranquilli però, non c’è motivo di preoccupazione! Nel caso in cui la missione non andasse secondo i piani, non c’è modo che essa modifichi l’orbita del sistema asteroide-luna tanto da metterlo in rotta di collisione con la Terra: la forza dell’impatto è comunque minima, e nel peggiore dei casi può modificare solo di qualche minuto il periodo orbitale di Dydymos, neanche lontanamente abbastanza da curvare la traiettoria tanto da farla puntare verso di noi.


C’è anche una parte di Italia (ed Europa) in questa missione. Poco prima dello schianto, la sonda rilascerà dietro di sé un piccolo satellite, non più grande di una scatola di scarpe: è LICIACube, un cubesat (cioè piccolo satellite a forma cubica) italiano, realizzato a Torino. LICIACube sarà fondamentale per studiare lo schianto della sonda, il cratere e i detriti generati, poiché resterà in orbita a distanza di sicurezza ricavando dati importanti per valutare la deflessione dell’asteroide. Successivamente, nel 2024, l’Agenzia Spaziale Europea lancerà un veicolo di follow-up battezzato Hera, che arriverà al doppio asteroide nel 2026, per un’ispezione più dettagliata. Tutti questi dati verranno quindi elaborati per scoprire quanto sarebbe fattibile una missione di deviazione degli asteroidi.

Andrei Florea

La traiettoria di Lucy da più angolazioni – Crediti: Kel Elkins, Emi Wright, NASA

La nuova corsa allo spazio

Tempo di lettura: 15 minuti

Di esplorazione spaziale oggi si parla molto, o almeno più di qualche anno fa, grazie alla nuova corsa allo spazio a cui stanno prendendo parte le più grandi superpotenze e compagnie mondiali, al punto da farcela ritenere qualcosa di acquisito, o addirittura scontato o secondario. Non è così. Non è affatto così.

L’impresa epocale dell’Apollo 11 si presta a una lettura su molti livelli. Quello politico e ideologico, che conosciamo tutti, con la contrapposizione delle due superpotenze mondiali di allora. Quello storico e antropologico, perché segnava per la prima volta la conquista di un nuovo corpo celeste. Quello ingegneristico e tecnologico, per la miriade di soluzioni nuove inventate, di cui tutt’oggi rimangono le tracce in molti degli oggetti che usiamo quotidianamente. E quello umano, per l’insieme di passioni ed emozioni che hanno convinto non solo gli astronauti e tutto il team di 400 000 tra ingegneri, tecnici, medici, fisici, addetti alle pulizie che lavoravano per e con la NASA, ma anche e soprattutto per tutte le persone che in quelle centodieci ore, dalla partenza dalla piattaforma di lancio 39A del Kennedy Space Center fino al «piccolo passo» di Armstrong, Aldrin e Collins, hanno fatto gioire, piangere, sognare e tenuto col fiato sospeso centinaia di milioni di persone in tutto il mondo.

Piccoli passi e grandi balzi

È assolutamente spettacolare come in poco meno di 66 anni siamo passati dal non saper nemmeno come volare ad arrivare a poggiare piedi sulla Luna. Fate un bel respiro e pensate intensamente a questo fatto. Da non saper nemmeno volare ad arrivare su un corpo celeste al di fuori della Terra. Nessun’altra invenzione umana ha impiegato così poco tempo a manifestarsi in tutta la sua completezza.

Il primo tentativo di volo controllato con un velivolo più leggero dell’aria è stato tentato dai fratelli Willard e Orville Wright il 17 dicembre 1903. Fu in quel giorno ventoso che i due fratelli fecero la storia e il giro delle pagine dei giornali di tutto il mondo. E proprio di quel primo Wright Flyer, Neil Armstrong volle un pezzo di legno dell’elica sinistra da portare con sé sulla Luna, a sottolineare il debito nei confronti di questi pionieri del volo umano.

Subito dopo le invenzioni si susseguirono a passo serrato: nel 1906 Traian Vuia, un ingegnere rumeno, costruirà e volerà sul primo velivolo dotato di ruote in grado di decollare e atterrare senza aiuto esterno. Nella Prima Guerra Mondiale, poco più di dieci anni dalla loro prima apparizione, gli aeroplani venivano già ampiamente utilizzati. Nel primo dopoguerra subirono enormi miglioramenti tecnologici, che culminarono con la realizzazione di nuovi bombardieri e caccia (come i leggendarî Spitfire della RAF e Stuka della Luftwaffe), e infine con Enola Gay (un Boeing B-29 Superfortress), il temibile bombardiere che devastò Hiroshima e Nagasaki.

L’aeroplano di Traian Vuia e il suo ingegnere, maggio 1907.

Il passo successivo però è stato forse il più difficile. Tutto questo sviluppo aeronautico è piccolo in confronto alla spesa materiale e scientifica incredibile che il governo statunitense ha messo in atto negli anni Sessanta del secolo scorso: mentre il velivolo dei fratelli Wright costava meno di mille dollari per essere costruito (circa 29 mila dollari ad oggi), la spesa pubblica per il solo programma Apollo ammonta a circa 200 miliardi di dollari odierni, una spesa che non ha eguali nella storia. In quegli anni gli Stati Uniti stavano cioè dedicando più del 4% della spesa pubblica a un’economia pianificata da 400 000 lavoratori interamente gestita da funzionari governativi, con il solo scopo di arrivare per primi.

Il lettore però non sia indotto erroneamente a pensare che quei soldi siano stati spesi solamente per soddisfare di una superpotenza avida di vincere la conquista allo spazio, e che non siano serviti a nient’altro: delle ingenti spese di denaro pubblico per i programmi spaziali, anche al giorno d’oggi, il vincitore è sempre il cittadino, grazie alla ricaduta benefica che ogni invenzione e scoperta scientifica ha sul benessere dell’umanità. Si calcola infatti che dal solo programma Apollo siano state portate alla luce tra le 5 000 e le 10 000 invenzioni, alcune nemmeno quantificabili, che hanno avuto un impatto positivo su tutta l’umanità. Pensate solo alle nuove leghe metalliche o resine inventate per rendere i veicoli e i velivoli più leggeri, o allo sviluppo immenso dell’informatica, o al miglioramento della qualità del vostro sonno. Sì, perché il cuscino o il materasso in memory che probabilmente utilizzate per dormire bene e serenamente sono un sottoprodotto della ricerca NASA: il memory infatti è un materiale studiato per rendere più confortevole i sedili degli astronauti, ed evitare che abbiano serî problemi alla schiena alla partenza del lanciatore, a causa delle enormi accelerazioni che si manifestano durante l’ascensione.

Si è inoltre calcolato che ogni dollaro speso per il programma americano degli anni Sessanta abbia portato un valore aggiunto di ben cinque dollari all’economia, che in termini odierni vuol dire qualcosa come un ventesimo di tutto il PIL degli Stati Uniti. Non male per aver “solo” messo una dozzina di uomini sulla Luna e aver riportato indietro qualche chilo di roccia lunare.

Ed è andata egregiamente, anche se gli intoppi non sono mancati durante tutto il programma spaziale, con a volte purtroppo esplosioni fatali per alcuni astronauti, come quella dell’Apollo 1 del 27 gennaio 1967, che costò la vita a tre astronauti. Riportiamo forse il più decisivo di tutti: la fase finale dell’Allunaggio.

La giornata del 20 luglio inizia in maniera del tutto normale per l’equipaggio dell’Apollo 11, ora in orbita attorno alla Luna nel modulo Columbia. Ellwin Evans, CAPCOM di turno, dà il buongiorno e mentre l’equipaggio fa colazione, si aggiornano con Houston sullo stato del veicolo e la sua posizione. La giornata procede come previsto e verso sera il modulo lunare Eagle, con a bordo Neil Armstrong e Buzz Aldrin, si separa dal Columbia. Sono le 17:44 UTC del 20 luglio 1969. Osservando l’operazione dei grandi oblò del Columbia, l’eccitazione e la tensione di Collins, rimasto solo a bordo, si sciolgono in un «Beautiful!».

Trascorsa un’ora dal distacco Aldrin e Armstrong si preparano all’accensione dei motori dell’Eagle. A Houston sale l’agitazione, e l’attuale direttore di volo Gene Kranz invita tutti a sedersi e prepararsi, e augura buona fortuna ai due pionieri. La relativa tranquilltà che per ora ha contraddistinto il viaggio dell’Apollo sta però per terminare. Le comunicazioni sono disturbate, e per di più Aldrin si accorge che il veicolo sta superando di diversi chilometri la posizione prevista per l’allunaggio. Nonostante tutto, la situazione non sembra preoccupare Aldrin che si concentra sul radar altimetrico di atterraggio. A dieci chilometri dal suolo però le cose cambiano.

Il capitano comunica la presenza di un errore nell’Apollo Guidance Computer, con il codice 1202. Chiede cosa significhi, non avendolo mai visto prima d’ora nelle simulazioni effettuate, mentre la notizia fa sussultare gli animi al centro di controllo. Si valuta ogni possibilità, anche quella di annullare lo sbarco. L’errore seganla che il radar di bordo, che rileva il terreno lunare, ha mandato in sovraccarico il computer di bordo. La comunicazione risolutiva spetta a Steve Bales, guidance officer (GUIDO). Il giovane ingegnere invita quindi ad Aldrin e Armstrong a ignorare l’errore e continuare la discesa. L’errore però non sparisce. Bales è costretto a ribadire per ben dieci volte all’equipaggio di continuare, mentre a terra gli ingengeri e il personale CAPCOM si stanno mangiando le mani. A poca distanza dal primo si presenta un secondo allarme, il 1201, e con il diminuire delle riserve di carburante, l’Eagle diventa sempre più difficile da manovrare. Questo causò lo sbattere incontrollato contro le pareti del propellente nel serbatoio, e fece scattare l’allarme di basso livello di combustibile 30-45 secondi prima del dovuto, mettendo ancora più pressione ai due astronauti per il poco tempo che avevano a disposizione.

Neil Armstrong (1930 – 2012) mentre si esercita nel simulatore del Modulo Lunare al Kennedy Space Center, 19 giugno 1969. © NASA

A novecento metri da suolo sul Modulo Lunare viene effettuato un breve test sui comandi, una prova per ciò che sta per accadere. Qualche minuto più tardi, mentre Houston concede il «GO» per l’atterraggio, Armstrong si rende conto che nella zona di atterraggio prevista, a ridosso del cratere ovest nel Mare della Tranquillità, si trovano molte rocce di grandi dimensioni che avrebbero potuto compromettere lo scafo del lander. Il Controllo Missione a Houston con i dati radar in diretta “vede” una situazione regolare. Sull’Eagle però si vivono momenti critici: la manovra di ricerca di un nuovo punto di allunaggio rischia di consumare troppo carburante. La spia luminosa indica che quello a disposizione è già solo il 5,6% del totale. A un minuto e quaranta secondi dall’allunaggio il radar, probabilmente in sovraccarico, perde contatto, provocando il lampeggiamento di un’altra spia d’allarme. A Houston inizia un conto alla rovescia di 94 secondi, al termine del quale la decisione deve essere presa subito: allunare in venti secondi o annullare la missione.

Armstrong guarda fuori dai finestrini, e vede la polvere del cratere lunare Little West alzarsi vigorosamente. Mancano 85 secondi. La spia del carburante continua a urlare, e ora è sotto il 5%. Lo scarico del motore solleva enormi quantità di polvere. Armstrong capisce che non c’è combustibile a sufficienza per annullare la missione. A meno di 30 secondi dalla fine del countdown ordina lo «shutdown» dei motori, ma lo spegnimento arriva solo qualche secondo dopo, garantendo un atterraggio più morbido del previsto, a oltre sei chilometri dal punto originariamente individuato.

Restano venti secondi alla deadline. Si accendono le spie di contatto. I motori sono fermi. Da Houston c’è un silenzio tombale, carico di timori e speranze. Sui loro computer appare che il propulsore è stato disattivato, ma ancora nessuno conosce l’esito della missione. È ancora presto per cantare vittoria. Armstrong si fa coraggio e accende il microfono. Alle 20:17 UTC del 20 luglio 1969, queste sono le parole che si scambiano:

– «Houston, qui Base della Tranquillità. L’Eagle è atterrato». Un boato fragoroso si alza in sala. La voce di Charles Duke del CAPCOM, rotta dall’emozione, risponde: «Ricevuto, Tranquillità, vi leggiamo da Terra. Qui un bel po’ di persone stavano diventando cianotiche. Ora stiamo tornando a respirare. Grazie mille». Wernher von Braun, il padre del Saturn V e del programma Apollo, insieme a centinaia di altre persone scoppia a piangere. Eagle è veramente atterrato!

L’equipaggio dell’Apollo 11 (in ordine da sinistra: Armstrong, Collins, Aldrin) nella Mobile Quarantine Facility, in quarantena per 21 giorni dopo essere atterrati sani e salvi. © NASA

“Più le cose cambiano più rimangono uguali”

Lassù, purtroppo, non ci siamo più tornati. Dopo quelle sei missioni Apollo, svolte tra il 1969 e il 1972 – da Apollo 11 a Apollo 17 – nessuno ha più mandato equipaggi umani sulla Luna, soprattutto a causa dei costi ingenti. Eppure una nuova allo spazio è già iniziata, e si potrebbe scommettere che sarà altrettanto intensa ed emozionante, e piena similarità in comune con la prima.

Nel gennaio 2019 la Cina ha fatto atterrare la sua sonda Chang’e 4 sulla faccia oscura della Luna, per la prima volta nella storia, e gli Stati Uniti contano di tornarci entro il 2024 come prova generale per il primo viaggio di un equipaggio umano su Marte.

La Cina è inoltre in grado di lanciare regolarmente satelliti di tutte le dimensioni che utilizza per i propri servizî di comunicazione, ricognizione e intelligence, e che mette a disposizione anche di paesi terzi. L’anno scorso ha completato un nuovo sistema di navigazione satellitare, Beidou, rivale globale del sistema GPS originariamente messo in campo dagli Stati Uniti negli anni Ottanta, e dei più recenti sistemi GLONASS e Galileo sviluppati rispettivamente dalla Russia e dall’Europa. La sua pressione nello scacchiere geopolitico dello spazio si fa sempre più intensa e sentita, non solo nel Nuovo Continente, ma anche in Europa, dove anche qui un’accelerazione dei programmi spaziali europei è – per fortuna – in atto.

Un fatto sicuramente rimane invariato. Il programma Artemis, il nuovo programma spaziale della NASA per portare di nuovo uomini (e per la prima volta anche donne) sulla Luna, come Apollo è modellato dalla geopolitica della rivalità tra le grandi potenze, allora tra Stati Uniti e Unione Sovietica, ora tra Stati Uniti e Cina. Esso non è da meno, e la rivalità non è puramente di prestigio, ma anche e soprattutto economica e militare. Battere la Cina è una proposta semplice e popolare, come lo era allora battere l’URSS. Il programma Artemis elaborato sotto l’amministrazione Trump è stato accolto dall’amministrazione di Biden e sembra godere di un solido sostegno bipartitico al Congresso statunitense, poiché è un approccio per “far tornare grande l’America”.

Lo Space Launch System come dovrebbe apparire una volta finalizzato, in un render della NASA. © NASA

Artemis serve anche altri obiettivi politici. Gli americani messi sulla Luna da Apollo erano tutti uomini bianchi e questo non passò di certo inosservato neanche all’epoca: una delle opere più famose del poeta e musicista nero Gil Scott-Heron inizia con “A rat done bit my sister Nell (con Whitey on the Moon)”. Di recente è stato fatto molto per pubblicizzare il contributo che le donne e le persone di colore hanno dato al programma dietro le quinte: quest’anno il quartier generale della NASA a Washington, DC è stato ribattezzato in onore di Mary W. Jackson, la prima donna ingegnere nera dell’agenzia – il vostro corrispondente dell’Alfiere vi consiglia in merito di guardare il film “Il diritto di contare” (Hidden Figures). Inoltre, Wally Funk, un’aviatrice che negli anni Sessanta, al reclutamento di candidati astronauti per il programma Mercury 13, soddisfò tutti i criterî per essere un’astronauta, tranne che per il suo sesso, è stata ospite nello spazio insieme Jeff Bezos il 20 luglio, a ben 82 anni. Artemide, dal nome della sorella di Apollo, sarà il mezzo con cui anche le donne e i non bianchi raggiungeranno per la prima volta la Luna.

La privatizzazione dell’esplorazione spaziale

Come già anticipato, il 20 luglio appena trascorso, in occasione de 52esimo anniversario del primo Allunaggio, il multimiliardario Jeffrey Bezos, fondatore di Amazon e proprietario del Washington Post, con il suo lanciatore New Shepard è riuscito ad andare nello spazio (più precisamente, sopra la cosiddetta “linea di von Kármán”, cioè quella linea immaginaria a 100 km sopra il livello del mare che demarca la fine dell’atmosfera terrestre con lo spazio vero e proprio). Lo ha fatto grazie alla sua compagnia privata di esplorazione spaziale, Blue Origin, che come la Virgin Galactic e la SpaceX ingegnerizza, produce e testa i proprî lanciatori spaziali riutilizzabili e capsule per il trasporto umano nello spazio. Per la compagnia è stato un punto di svolta, non solo perché era la prima volta che un equipaggio umano volava con uno dei suoi lanciatori, ma anche perché hanno preso parte al volo contemporaneamente sia la persona di più anziana ad arrivare nello spazio (Wally Funk, che ha così coronato il suo sogno di una vita) sia la più giovane, il diciottenne Olivier Daemen.

Il lander lunare Blue Moon presentato da Jeff Bezos. Egli, con la sua compagnia Blue Origin, ha intenzione di prendere parte al sogno americano di tornare sulla Luna entro il 2024. © Dave Mosher

Bezos però si è dovuto accontentare di arrivare secondo in questo nuovo inizio della corsa allo spazio privata. L’11 luglio infatti un altro miliardario americano, Richard Branson, forse noto ai più per la sua compagnia di palestre Virgin, è stato il primo insieme ad altre 5 persone ad arrivare vicino alla linea di von Kármán (ha toccato i 90 km s.l.m.) con il lanciatore VSS Unity VF-1, progettato e costruito dalla sua Virgin Galactic. Tuttavia, esso non è un razzo vero e proprio come quelli della Blue Origin o SpaceX, bensì una sorta di “spazioplano” con motori a razzo, specificatamente studiato per voli suborbitali per il turismo, e non è quindi in grado di portare payload, come ad esempio satelliti, in orbita bassa.

Il miliardario Elon Musk però, benché non abbia ancora raggiunto lo spazio, è quello che per ora ha le ambizioni più grandi e le tecnologie migliori. I prototipi dell’elegante Starship, con scafo in acciaio inossidabile (materiale assai inusuale per un lanciatore spaziale, che ha però l’enorme vantaggio di costare pochissimo ed essere facilmente modellabile nelle forme desiderate) sono stati lanciati, atterrati e talvolta esplosi nello stabilimento di SpaceX in Texas per mesi mentre l’azienda testava i loro nuovi motori e la loro capacità di cambiare il loro orientamento a mezz’aria, con manovre molto difficili che non erano mai state tentate prima d’ora. Il prossimo volo di prova sarà il più ambizioso di sempre per l’azienda: vedrà il primo utilizzo del booster “Super Heavy” (il primo stadio del lanciatore) per lanciare la Starship quasi in orbita. L’obiettivo finale è che i lanciatori Super Heavy, come i primi stadi dei booster Falcon 9, ritornino e facciano un atterraggio verticale dopo aver mandato in orbita le Starship. Da lì esse lanceranno i satelliti e torneranno sulla Terra o attenderanno un successivo lancio per rifornite prima di partire verso destinazioni più lontane, come Marte.

Il lanciatore Starship della SpaceX, il secondo stadio del lanciatore composto da Super Heavy e Starhip insieme. © Startmag

Questo piano ambizioso è però pieno di idee innovative a partire dalle fondamenta. I motori Raptor che alimentano i lanciatori Super Heavy e Starship usano una tecnologia per ora unica nel mondo, anche se già prototipa in passato dalla NASA: sono infatti motori a razzo alimentati a metano e ossigeno liquidi. Potrà sembra un’innovazione da poco, eppure è di fondamentale importanza per missioni umane future che si spingeranno non solo alla Luna, ma anche oltre, verso Marte. A differenza dei combustibili solidi o liquidi tipicamente utilizzati per i motori a razzo, come il kerosene, il metano è molto più economico e sopratutto è ottenibile facilmente tramite una reazione chimica molto semplice, nota come reazione di Sabatier. È un fatto di fondamentale importanza poiché in viaggi molto lunghi sarebbe proibito usare la maggior parte dello spazio cargo per trasportare con sé carburante da utilizzare nelle fasi di allunaggio o ammartaggio e successivo decollo. Sulla Luna, ma soprattutto su Marte dove l’acqua solida e il diossido di carbonio (CO2) sono facilmente disponibili, il metano e l’ossigeno sono facilmenti ottenibile tramite la reazione di Sabatier, che non necessita di apparecchiature complicate.

Inoltre, nel design finale è previsto che il Super Heavy sia spinto da ben 33 motori Raptor, che in totale genereranno il doppio della spinta rispetto al primo stadio di un Saturn V, il leggendario lanciatore progettato da Wernher von Braun che permise lo svolgimento delle missioni Apollo, e che tutt’oggi rimane il più grande e potente lanciatore mai costruito dall’umanità.

Anche piani di Blue Origin per un booster molto più grande di quello con cui Bezos si è issato fino allo spazio il 20 luglio scorso non sono ancora così lontani, ed è previsto che anch’esso utilizzi motori alimentati a metano. Il signor Bezos ha anche al suo fianco soldi e determinazione, così come amici nelle cerchia di Washington.

L’approccio competitivo e privato è quindi quello giusto. Quando la NASA costruisce i propri veicoli spaziali, i prezzi salgono alle stelle (letteralmente), non ultimo perché ai politici piace vedere i soldi federali spesi nei loro stati d’origine. Il loro nuovo lanciatore spaziale “Space Launch System” (SLS) del programma Artemis è un esempio calzante: i suoi costi di sviluppo sono stati enormi, ed è troppo costoso per i voli frequenti perché non è riutilizzabile. Un’azienda privata avrebbe potuto svolgere il lavoro molto meglio, come dimostra SpaceX con lo sviluppo del suo sistema di lancio Starship, simile per capacità all’SLS ma tecnicamente più ambizioso, e pensato per essere completamente riutilizzabile, così come i lanciatori di Blue Origin.

Gli Stati Uniti potrebbero quindi avere a breve tre lanciatori in grado di supportare le missioni umane sulla Luna, due privati e uno pubblico, prima che la Cina ne abbia anche solo uno.

That’s one small step for [a] man, one giant leap for Mankind.

Neil armstrong, 02:56:15 UTC del 21 luglio 1969

“Guarda alle stelle, guarda come brillano per noi”

Questa volta, è possibile che l’America arrivi invece sulla Luna sostenendo le aspirazioni di imprenditori brillanti e determinati, anche se a volte meschini, e sfruttando le capacità che forniscono, promettendo di essere una modalità di esplorazione più efficace. Potrebbe anche essere l’inizio di qualcosa di più di una semplice corsa ai secondi primi. Mentre Musk sogna che le sue astronavi portino i coloni su Marte, Bezos parla di utilizzare le risorse della Luna per costruire nuove industrie nello spazio (come la generazione di energia, l’estrazione di asteroidi o la produzione di nuovi materiali esotici). È una visione condivisa da entusiasti dello spazio cinesi come il Tenente Generale Zhang Yulin, che lavora in una parte dell’esercito di liberazione popolare dedicata alle operazioni spaziali e cibernetiche.

«Here men from the planet Earth first set foot upon the Moon – July 1969, A. D.
We came in peace for all Mankind». © NASA.

Questa volta potrebbe davvero essere una vera nuova corsa allo spazio, qualcosa che farà sognare di nuovo milioni di persone in tutto il mondo, le farà emozionare e unire come pochi altri eventi riescono. L’umanità intera si trova davanti alla sfida del prossimo piccolo grande passo, che vedrà forse anche determinare quale sarà l’ideologia politica trionfante, com’è già successo cinquant’anni addietro. Gioite quindi e supportate i nuovi programmi spaziali, siate fieri di cosa l’umanità riesce a compiere se si ritrova unita e in cooperazione. Ne trarrete beneficio spirituale ed emotivo, ma anche materiale ed economico. E chissà, magari sarete voi i prossimi astronauti che ci faranno sognare, o una delle vostre prossime vacanze potrebbe essere non più al mare, ma sul nostro bel satellite naturale osservato in dettaglio per la prima volta da Galileo e alle quali tante poesie sono state dedicate nel corso dei secoli. E su cui, appena cinquant’anni, fa siamo riusciti a mettere piede “in pace e a nome di tutta l’Umanità”.

Andrei Florea

La sicurezza di Internet: le nuove frontiere del cibercrimine e come difendersi

Tempo di lettura: 5 minuti.

All’inizio di maggio i cibercriminali hanno messo in ginocchio l’oleodotto che fornisce quasi la metà del combustibile necessario alla costa orientale degli Stati Uniti per cinque giorni. Per riaverne il controllo, la Colonial Pipeline Company, l’azienda che gestisce l’oleodotto, ha dovuto pagare un riscatto da $4,3 milioni in Bitcoin.

Qualche giorno dopo, un secondo “attacco ransomware” ha messo in ginocchio la maggior parte degli ospedali in Irlanda, con la minaccia di divulgare informazioni riservate delle cartelle cliniche dei pazienti nel caso in cui il governo irlandese avesse deciso di non pagare il riscatto da $20 milioni. Lo staff è passato ad utilizzare carta e penna, causando molti ritardi e inconvenienze per i pazienti. Al 14 giugno, la situazioni non è ancora rientrata nella norma.

Ancora, agli inizi di giugno, la più grande azienda di processamento carni del mondo, JBS, ha visto i suoi sistemi del Nord America e dell’Australia andare in tilt a causa di un altro “attacco ransomware”. L’azienda ha dovuto pagare $11 milioni di riscatto per continuare a far lavorare i suoi 150.000 dipendenti che forniscono un quinto della carne a livello mondiale. Cosa sta succedendo nel mondo?

Ciberguerra e deterrenza digitale

“Ransomware” è una parola composta da “ransom” che vuol dire riscatto e “malware” che vuol dire software malevolo. Un ransomware è quindi un virus informatico che blocca il sistema di un utente, di solito criptandolo, e chiede un riscatto per riottenere il controllo dei file.

Essi non sono nulla di nuovo: già nel 1989 il cavallo di troia “AIDS” si diffondeva tramite floppy disk, criptava i file sul disco dell’utente e chiedeva un riscatto di 189 dollari per riaverli indietro. Altri importanti attacchi perpetrati grazie all’utilizzo di ransomware sono quelli eseguiti tramite il famigerato WannaCry, di matrice nordcoreana, che nel maggio 2017 ha iniziato a diffondersi sfruttando una falla scoperta dall’NSA trapelata sul mercato nero: WannaCry ha infettato oltre 230.000 computer in 150 paesi, e l’Europol l’ha definito «il più grande attacco ransomware di sempre». Anche Petya, un altro ransomware di matrice russa a larghissima diffusione nel 2016-2017 usava lo stesso exploit di WannaCry (chiamato EternalBlue), e secondo la Casa Bianca ha recato danni per più di $10 miliardi a livello mondiale.

Gli attacchi ransomware stanno sempre più incrementando. Secondo la rete di analisi di Kaspersky Lab, un’azienda di cibersicurezza, ogni giorno 80.000 infezioni da ransomware vengono scoperte nel mondo. Secondo un’analisi di The Economist però, gli attacchi si sono spostati dall’avere come target principale i piccoli privati alle grandi corporazioni, per avere riscatti molto più grossi e sicuri. Chainalysis, una società di sicurezza informatica, afferma che nel 2020 l’importo pagato in riscatti Bitcoin è aumentato del 311% rispetto al 2019, a circa 350 milioni di dollari. Le vittime sono di solito le imprese, ma sempre più spesso includono i governi e i loro dipartimenti, compresa la polizia.

Il ransomware WannaCry avverte che i file sono stati crittati e chiede un riscatto per riaverli. © Wikimedia Commons

Gli attacchi informatici non sono però perpetrati solo tramite ransomware. L’attacco del 2014 da parte della Corea del Nord ai danni di Sony, che si era permessa di criticare il dittatore di Pyongyang, quello a Equifax nel 2017 quando i dati di 147 milioni di persone sono stati rubati, o il recentissimo scandalo di SolarWinds, portati a termine tramite altri mezzi sofisticati di attacco informatico, dimostrano che l’infrastruttura a livello mondiale poggi su basi poco solide, e che gli attacchi vengono effettuati sia da gang criminali sia, spesso e volentieri, da Stati esteri, con l’obiettivo di sabotare o rubare dati di un’altra nazione, in una violenta e continua guerra cibernetica.

Le capacità informatiche offensive sono ora diffuse tra gli Stati e comunemente utilizzate nelle campagne militari. Nella loro guerra contro lo Stato Islamico, Gran Bretagna e America hanno usato attacchi informatici per sopprimere la propaganda del gruppo terroristico, interrompere i suoi droni e seminare confusione nei suoi ranghi. Sono anche usati per fare danni fisici in tempi in cui nessuna guerra è ufficialmente in corso. Considerate il pionieristico worm Stuxnet americano-israeliano, che ha indotto le centrifughe iraniane a disintegrarsi un decennio fa, o il riuscito sabotaggio della rete elettrica ucraina da parte della Russia nel 2015 e 2016.

L’era dell’insicurezza informatica

La nostra infrastruttura digitale non è costruita pensando alla sicurezza. Questo perché gran parte del sistema dipende da componenti vecchie, ma anche perché sono mancati gli incentivi a privilegiare la sicurezza. Né Internet, né il Web, né la maggior parte delle applicazioni sono progettate avendola in mente come priorità. Ed è molto difficile migliorare la solidità di un sistema che è già completo e che è stato costruito senza tenere conto della sicurezza. Inoltre siamo circondati da “debito tecnico”, programmi cioè che funzionano ma sono stati creati frettolosamente, spesso decenni fa, e non avrebbero mai dovuto operare ai livelli in cui operano (ad esempio come database sanitarî critici).

La rete non ha mai avuto la solidità di cui oggi avrebbe bisogno. In realtà, se si pensa a quanto siano diffusi questi problemi, è sorprendente che gli attacchi informatici siano così poco frequenti. Mentre gli utenti di internet sono passati da poche migliaia a più di quattro miliardi, i tentativi di migliorare la sicurezza sono stati ostacolati dai costi, dalla scarsa lungimiranza e dai diversi interessi in conflitto tra loro.

I ransomware non sono l’unico problema, sebbene siano uno dei più annosi. Alla fine, comunque, tutto si ripercuote sull’utente finale, sul cittadino, che esso stesso sia vittima di un attacco informatico, o che un’azienda detentrice dei suoi dati sia vittima di un attacco.

Riguardo quest’ultima istanza, forse il caso più eclatante è Facebook: azienda nota per le sue ripetute violazioni della privacy a danno dei suoi utenti, negli anni è stata vittima di alcuni tra i più gravi scandali informatici di mala gestione. Ricordiamo lo scandalo “Cambridge Analytica” nel 2016, quando tale azienda usò illegalmente dati di 80 milioni di cittadini americani per creare un profilo psicologico completo di essi (circa 5000 diversi tratti) per bombardarli con pubblicità mirata e favorire la vincita di Donald Trump. Più di recente, i dati personali completi (nome, cognome, data e luogo di nascita, numero di cellulare, professione, ecc.) di 500 milioni di persone nel mondo, compresi 36 milioni di italiani (la quasi totalità degli utilizzatori italiani di Facebook) sono stati rubati e messi a disposizione gratuitamente sul mercato nero di Internet. I vostri dati probabilmente sono lì, per tutti da visionare, e soprattutto per i malintenzionati da sfruttare, per furto di identità, di dati bancari, ecc.

Analogamente, innumerevoli altri scandali di sicurezza di Facebook si sono susseguiti negli anni, mostrando come anche una delle più grandi aziende di informatica al mondo possa essere vittima della negligenza e della mala gestione.

Come Facebook però, tante altre grandi aziende, e persino Nazioni, hanno subito una perdita di dati privati (“leak” in gergo). Quasi un sistema informatico sensibile alla settimana è violato, e queste sono solo i database di cui siamo a conoscenza. Molto probabilmente anche qualche vostra email, password, o numero di cellulare è lì. Ma allora dobbiamo rassegnarci? La sicurezza e la privacy non sono possibili in nessun modo sul web? No, e ora vediamo alcuni semplici consigli per migliorare drasticamente la nostra sicurezza e riprendere in mano la nostra privacy.

Se ti affascina la sicurezza informatica, e sogni una carriera in questo ambito, puoi dare un’occhiata al corso magistrale di Informatica dell’UNIFI, che tra gli insegnamenti contiene anche quello di sistemi ciber-fisici sicuri. L’esperto di sicurezza informatica è uno dei lavori più richiesti e meglio pagati attualmente nel mondo.

Piccolo prontuario di sicurezza informatica

Nella comunità di esperti informatici, un acronimo ricorrente quando si parla di problemi di sicurezza è “PEBKAC”,  “Problem Exists Between Keyboard And Chair”, ossia “Il problema sta fra tastiera e sedia”; l’utente è il problema. Questo è vero per quasi tutti gli incidenti informatici. La maggior parte delle volte, i criminali informatici sfruttano bias e debolezze della nostra mente per farci cliccare su un’email malevola, o andare su un sito che scarica malware, o semplicemente sfruttano la nostra negligenza con la tecnologia per infiltrarsi nei nostri sistemi.

Il primo passo per risolvere un problema è accorgersi di esso e capirlo. Teniamo quindi a mente che nessuno di noi è infallibile, e nessuno si deve ritenere tale. Al contrario, dobbiamo costantemente chiederci se l’azione che stiamo per compiere o abbiamo compiuto rappresenta un rischio. Poi, per meglio capire la nostra situazione attuale, facciamo un giro sul sito HaveIBeenPwned, che nel gergo informatico significa “sono stato violato?”. È il più grande e autorevole sito di raccolta di data breach (cioè database di dati personali rubati) al mondo. Potete immettere la/le vostra/e e-mail per vedere se appaiono in qualche violazione, e se sì, quando è successa. Facciamo così anche per le nostre password e numero di cellulare (tranquilli, nessuna informazione in chiaro viaggia sul web: il controllo viene fatto “in locale”, generando un hash da ciò che scrivete. Non c’è alcun modo che il sito o qualsiasi altra persona possa in qualche modo intercettare la vostra password e il vostro cellulare). Se a tutte e tre i test risultare positivi, mettetevi le mani nei capelli, e riflettete sul fatto che è un miracolo che non siate ancora stati vittime di un furto di identità o di account importanti.

A questo punto però potreste chiedervi che importanza abbia se la vostra password o il numero di cellulare sono a giro per il web. A parte per il fatto che questa è una violazione della privacy intrinseca e rappresenta un problema grave di per sé (penso che nessuno scriverebbe su fogli di carta il proprio indirizzo e cellulare, per poi sventolarli e regalarli a giro per la città), la sventura maggiore è la negligenza umana della gestione delle password. La maggior parte degli utenti usa password simili, se non uguali, per tutti i servizi web (molto probabilmente lo fate anche voi). Quando ciò succede, un pirata informatico che abbia rubato le vostre credenziali dal sito A può tranquillamente accedere ai siti B, C, e D e rubarvi l’accesso anche a questi. Fatto ciò, avendo accesso alla vostra email, il criminale cambia le password alla vostra casella postale e a tutti i siti, impedendovi di accedere più ad essi.

E questo processo è automatizzabile al 100%: il pirata programma un software che, prendendo tutte le coppie di email e password dal database rubato, le prova automaticamente sugli X siti più popolari (Amazon, eBay, iCloud, fascicolo sanitario). Se il software trova un accesso, lo comunica la pirata, che ora ha il pieno controllo del vostro account, e tutte le informazioni contenute in esso (dati della carta di credito, indirizzo, dati sanitarî, ecc.).

Gli umani hanno poca fantasia e una cattiva memoria. È assai difficile usare una password diversa per ogni servizio. Per questo le password sono uno dei più grandi fallimenti dell’ingegneria informatica: sono difficili per gli umani da ricordare e facilissime per i computer da indovinare. Come difendersi?

Regola 1: Utilizzare password diverse per ogni sito.

Il trucco ovviamente non è ricordarsele tutte, crearle tutte simili, o peggio ancora, appuntarsele da qualche parte, ma usare un gestore di password. Probabilmente li avrete già sentiti nominare. Il loro funzionamento è semplice: usando una sola password chiamata master password (che si presuppone sia forte) sbloccate un database criptato in cui il programma vi genere una password totalmente casuale e sicura (del tipo “rCZ_(Qn?=^]0K9g+c$v#”) diversa per ogni servizio. Così se mai il sito A dovesse essere violato, i criminali informatici non potranno accedere ai siti B, C e D, perché le password sono tutte diverse tra loro e senza alcuna correlazione.

I gestori di password sono estremamente efficaci per un semplice motivo: invece di ricordare tante password mediocri e insicure, dovete ricordare un’unica password molto sicura. E questo per sempre: non dovrete mai più memorizzare una password in vita vostra.

Non solo, ma l’esperienza sul web diventerà anche molto più comoda: non dovrete mai più scrivere una password in vita vostra, perché la maggior parte dei gestori di password, una volta che vi siete autenticati con la master password, vi autocompila i campi di login.

Potreste a questo punto avere qualche dubbio: «non è meno sicuro mettere tutte le password in un unico posto? Se mi rubano o violano il database mi rubano tutte le password!». Ottima domanda. La risposta è no.

Il database è criptato, cioè solo e solamente avendo la master password è possibile accedervi, e non in nessun altro modo (se la master password è molto forte, altrimenti il criminale potrebbe tentare di crackarla), perché gli algoritmi di crittografia usati sono inviolabili, letteralmente.

Non prendete però le parole di uno sconosciuto sul web per buone: come in ogni scienza che si rispetti, ogni affermazione va provata (regola bonus per voi: assumete che qualsiasi persona con cui interagite sul web sia malevola e cerchi di recarvi danno in qualche modo o voglia darvi notizie false; così farete molta più attenzione nelle vostre interazioni). Se avete delle basi di matematica del liceo, e vi va di addentrarvi nei bellissimi meandri della crittografia, date un’occhiata all’Appendice 1, per capire esattamente come e perché gli algoritmi moderni di crittografia sono matematicamente inviolabili, e convincetevi voi stessi.

Gestori di password gratuiti e open-source che potete iniziare a usare da questo momento (facilità estrema di utilizzo):

  • Bitwarden: semplicissimo da usare, tutto online, si sincronizza su tutti i dispositivi a cui lo connettete; se siete fanatici della privacy il database potete crearlo da voi in locale con Docker; algoritmo di crittografia molto sicuro; tanto supporto e manuali online; interfaccia moderna molto carina.
  • KeePassXC: software derivato dal più famoso KeePass, migliorato in sicurezza, da scaricare in locale sul dispositivo (per Android potete usare Keepass2Android, per iOS Strongbox). Per i fan più puri della privacy: il database rimane criptato in locale, e lo potete sincronizzare sui dispositivi tramite USB o con un cloud a vostra scelta; sicurezza estrema, personalizzazione infinita. Open-source, testato indipendentemente. Una cassaforte di adamantio per i vostri dati.

Corollario 1: Come costruire una master password sicura.

Come visto in precedenza, la debolezza di un sistema sta nel suo anello più fragile: se la vostra master password non è sicura, l’intero database non lo sarà. Per iniziare a creare una master password inviolabile, cominciate con scordarvi tutto ciò che sapete di password: è inutile usare come password qualcosa come “7R#]SI|lT@” perché è assai difficile per noi umani da ricordare e facile per un computer da calcolare.

La sicurezza di una password si misura con la sua “entropia”. Senza entrare nel dettaglio, essa aumenta esponenzialmente con la lunghezza di una password. Dovete quindi puntare quindi a una password formata da tante parole: non più una pass-word, ma una pass-phrase.

  • Unite insieme più parole: TopoHulkAstronautaGenoveffo è già una buona password. Usate almeno quattro parole, sei meglio. Cercate di usare parole che abbiano un significato per voi, così che vi sia più facile da ricordare. Se sapete più lingue, usate parole di più lingue, o inventate, se per voi è facile da ricordare. Le passphrase sono facili da ricordare, poiché potete crearvi un’immagine mentale della frase senza senso: in questo caso, un topo che ha le sembianze di Hulk uccide un astronauta di nome Genoveffo. L’avete già imparata, e nel caso la scordiate, vi basterà ricordare l’immagine mentale.

Attenzione però: non usate il vostro nome, o quello di un vostro parente, o qualcosa che tutti sanno vi piace. Nessuno dovrebbe poter risalire alla vostra password conoscendovi.

  • Aggiungete qualche numero in fondo o all’inizio della passphrase, per aumentare l’entropia.
  • Se volete, aggiungete uno o due caratteri, ma non è strettamente necessario (es: @stronauta invece di Astronauta). La vostra master password è già sicura con i passi precedenti.

Prendetevi il vostro tempo, e pensate a una passphrase veramente sicura. Se avete poca fantasia, potete usare un servizio online che genera passphrase sicure per voi come questo. Fatto ciò avete una passphrase nuova di zecca. Ripetetela come un mantra trenta volte finché non vi si stampa in mente, e per nessun motivo non scrivetela mai da nessuna parte, né ditela a nessuno, neanche al vostro migliore amico: ricordate, chi ha la master password ha tutte le vostre password.

Regola 2: Abilitare l’autenticazione a due fattori (2FA) su ogni servizio che la supporta.

Come visto in precedenza, i criminali informatici usano sistemi automatizzati per provare ad accedere agli account con combinazioni di e-mail e password rubate. Per ovviare a questo problema, è stata inventata l’autenticazione a due fattori. Probabilmente già la usate per accedere al vostro conto bancario.

L’autenticazione a due fattori permette di usare un codice temporaneo della durata di 30 secondi insieme alla password: anche se qualcuno sa le vostre credenziali, ma non ha accesso al vostro cellulare o token dove viene generato il codice, non potrà in alcun modo accedere all’account.

Attivate quindi 2FA su tutti gli account che lo permettono (tutti le maggiori compagnie come Google, Microsoft, Apple, Adobe, ecc. la supportano; andate nelle impostazioni dell’account e attivatela da lì).

Regola 3: Capire la provenienza delle e-mail e dei siti web per proteggersi dal phishing

L’attacco di phishing (pronunciato come “fishing” che vuol dire “pescare”) funziona così: arriva una email o un messaggio da una fonte apparentemente affidabile che invita l’utente a compiere un’azione come l’apertura di link o di file allegati. Il messaggio di solito segnala una mancata fatturazione, l’imminente rinnovo di un servizio, la chiusura di un conto bancario o, in altri casi, annuncia la vincita di un premio.

I tipi di attacchi e di messaggi sono sempre più sofisticati e credibili, per questo sempre più difficili da riconoscere, ma tutti hanno in comune una richiesta, fornire uno o più dati personali: username, password, codice fiscale, data di nascita, fino alle coordinate bancarie. Tutti però hanno una caratteristica comune: un senso di urgenza. Se un’email vi chiede di cambiare subito i vostri dettagli bancari, o di un account, o di inviare subito soldi per verificare una transazione, probabilmente si tratta di phishing o scam. Nessuna compagnia autorevole vi metterà mai pressione e o senso urgenza nel compiere un’azione.

Come riconoscere il phishing o lo scamming:

  • Occhio agli errori. Nei casi di phishing più grossolano le email contengono errori ortografici, o piccole storpiature, nel nome del presunto mittente, ma in ogni caso il reale indirizzo da cui provengono queste email è differente da quello ufficiale. Controllate SEMPRE l’indirizzo del mittente.
  • Non credere alle urgenze. È uno dei fattori sui quali il phishing fa maggiormente leva: un pagamento in sospeso da saldare immediatamente, un premio da ritirare a breve o il rischio di perdere un account se non si paga subito. Quando una email punta a mettere fretta, il rischio che sia una truffa è alto.
  • Controllare le richieste di rinnovo. Un dominio in scadenza o il termine di un abbonamento: se si riceve l’avviso dell’imminente rinnovo di un servizio, è meglio non farsi prendere dall’ansia. Prima di aprire qualsiasi link, o fornire i propri dati al sito sbagliato, è meglio controllare sul sito del servizio in questione se effettivamente c’è un rinnovo in corso.
  • Attenzione agli allegati. Quando sono presenti allegati con estensione dei file inusuale bisogna prestare molta attenzione. In questo caso, oltre al semplice phishing, potrebbero nascondersi virus dietro quei file.
  • Nessuno regala niente. Le email che annunciano vincite di denaro, o di qualsiasi tipo di premi, sono quasi sempre fasulle. Uno smartphone in regalo, l’eredità di un lontano parente (o il famoso principe Nigeriano) o la vincita alla lotteria dovrebbero suonare sempre come campanelli d’allarme.
  • Onestà con voi stessi. Come già ripetuto, siete facilmente manipolabili, soprattutto quando sotto stress, o arrabbiati, o avete una cattiva giornata. Basta un nonnulla per cadere in trappola. Se non siete sicuri, sempre meglio lasciar stare. Ricontrollerete l’e-mail o il sito web quando sarete più freschi. Se succede alle grandi aziende, può senz’altro succedere anche a voi.

Inoltre, controllate sempre la barra degli indirizzi del vostro browser: se un’e-mail vi chiede di autenticarvi su PayPal (e già qui c’è puzza di phishing), e la pagina a cui vi rimanda è del tipo “paypal.be1253i12y3.com”, il sito è un phishing: è un sito fasullo, di proprietà del criminale informatico, e quando metterete i vostri dati ve li ruberà. Questo perché l’URL del sito non è “ufficiale”: ha quei caratteri strani in mezzo, che nessun sito ufficiale ha (PayPal ha come URL solo e solamente paypal.com).

Icona HTTPS che indica una connessione sicura verso il sito. © Wikimedia Commons

Se inoltre fate acquisti, fate attenzione che il sito sia fidato, ben recensito, e soprattutto abbia il lucchetto accanto all’URL: il lucchetto significa che la connessione al sito è criptata, e se ci cliccate sopra potete vedere chi è l’autorità che certifica la connessione. Se è un’autorità conosciuta, come il sito stesso, o qualche provider famoso come GlobalSign, Digisign, Aruba, ecc. il sito è affidabile. Altrimenti potrebbe non esserlo.

Regola 4: Avere sempre un backup dei dati che ritenete importanti

Colonia Pipeline, JBS, HSE, e tante altre compagnie vittime di ransomware hanno dovuto pagare il riscatto. Questo perché non erano pronte. Non avevano un sistema di backup per l’infrastruttura critica. Se siete vittima di infezione da ransomware, e non avete un backup dei dati importanti, siete fritti.

Pagare un riscatto, oltre che illegale perché finanzia i criminali informatici, non garantisce il ripristino del sistema: i pirati potrebbero semplicemente non volervi dare la chiave di decrittazione, oppure potrebbe non esistere, come nel caso del ransomware NotPetya, che critta i vostri file con una chiave temporanea irrecuperabile.

Per non perdere tutto ciò che è di valore dovete innanzitutto seguire tutte le regole precedenti: un malware non si scarica da solo, non è senziente. È sempre colpa dell’utente se un’infezione avviene (ricordate “PEBKAC”). Siate quindi molto attenti nella vostra attività sul web.

Poi, dotatevi di un buon antivirus a pagamento, come Kaspersky (costa pochi euro l’anno). Infine, fate assolutamente un backup dei vostri dati. È fondamentale! Non solo per proteggervi dai malware, ma dalla fallacia della tecnologia: i componenti si usurano con i tempo, e il vostro disco rigido o smartphone potrebbe smettere di funzionare improvvisamente domani, e perdereste tutti i dati. Al sottoscritto è successo e non è una piacevole esperienza.

Fate una veloce ricerca sul web per capire quale sia per voi il modo migliore di eseguire un backup. Il vostro corrispondente usa Cobian Backup, un software gratuito e resiliente. Potete fare backup su dischi rigidi in locale (dischi della WD o Seagate esterni da diversi terabyte oggi costano solo qualche decina di euro) oppure usare servizi cloud sicuri, che rispettino la vostra privacy, come pCloud, Mega, ProtonDrive o SpiderOak.

Il futuro della rete

Affrontare la ciber-insicurezza è difficile perché sfoca i confini tra gli attori statali e privati e tra geopolitica e criminalità. Le vittime di cyber-attacchi includono aziende e enti pubblici. I perpetratori includono gli stati che conducono spionaggio e testare la loro capacità di infliggere danni in guerra, ma anche bande criminali in Russia, Iran e Cina la cui presenza è tollerata perché sono un irritante per l’ovest. Tali attacchi sono la prova di un’epoca dell’insicurezza che inciderà tutti, dalle imprese tecnologiche a scuole e eserciti. 

È un problema legato alla concentrazione della ricchezza globale e all’assenza di controlli efficaci sulle sue conseguenze. Tutto questo per dire che, esattamente come succede con il debito tecnico, le soluzioni improvvisate per risolvere una crisi immediata non risolvono i problemi di fondo. E una nuvola di segretezza e vergogna che circonda gli attacchi informatici amplifica le difficoltà. Molte aziende trascurano le basi, come l’autenticazione a due fattori. Colonial Pipeline non aveva preso neanche le precauzioni più semplici.Trovare un rimedio all’insicurezza digitale significherebbe anche creare regole migliori nel settore tecnologico, in modo che le problematiche di sicurezza diventino interne e intrinseche delle diverse aziende, a cui spetterebbe la responsabilità di trovare soluzioni ai problemi che hanno creato.

E soprattutto, la soluzione inizia con l’educazione. L’8 giugno scorso alcuni tra i più grandi siti web del mondo hanno smesso di funzionare per un’ora, a causa di una piccola azienda, Fasty, che la maggior parte delle persone non ha mai sentito neanche nominare, e che fornisce un servizio altrettanto oscuro ai più quanto fondamentale (essa fa da Content Delivery Network, fornendo i dati multimediali dei siti web più velocemente e in modo decentralizzato).

L’informatica e i dati sono alla base del mondo moderno. La digitalizzazione permetterà di aumentare la produttività e l’efficienza dei processi, rivoluzionare l’assistenza sanitaria e salvare molte vite negli anni a venire. Ma più il mondo è plagiato dall’insicurezza informatica e dall’ignoranza, più le persone si allontaneranno dalla rivoluzione, rischiando di ottenere l’effetto opposto. Immaginate se la vostra auto connessa fosse infettata da un ransomware e vi chiedesse: “pagaci 5.000 euro, o le porte rimarranno bloccate per sempre”.

Il cibercrimine impedisce la digitalizzazione di molte industrie, ostacolando una rivoluzione che promette di aumentare gli standard viventi in tutto il mondo. Ora più che mai è necessario diventare persone più informate, per costruire tecnologie migliori, che ci aprano la porta su un mondo migliore.

Andrei Florea

Appendice 1: “Come funzionano gli algoritmi di crittografia?” (ancora non pubblicata. Per iniziare, potete dare un’occhiata qui e qui)

Il futuro delle automobili: autonome, elettriche, ecosostenibili ed aerodinamiche

Tempo di lettura: 3 minuti.

Il futuro del trasporto su strada ha molte sfaccettature, alcune molto innovative, altre che sono il prodotto dei perfezionamenti di tecniche usate da più di cent’anni. Vediamo di dare una veloce panoramica su alcuni aspetti delle auto elettriche e sull’aerodinamica delle auto. 

Auto elettriche: la materia grezza del futuro

Nel 2020, secondo IHS Markit, nonostante quasi ovunque le vendite di auto siano crollate anche di doppie cifre percentuali, sono state vendute quasi 2,5 milioni di auto elettriche a livello mondiale. La domanda è destinata ad aumentare esponenzialmente nei prossimi anni, sia per i limiti che saranno imposti sia a livello europeo sulla circolazione di auto diesel, sia per gli investimenti delle principali compagnie automobilistiche nella produzione e nella ricerca sui veicoli elettrici. Verosimilmente, in futuro non saranno vendute solo più automobili elettriche, ma anche camion, autobus, motocicli, biciclette e forse anche navi elettriche. E quando la loro vita utile sarà a termine, verrà il momento di riciclarle a dovere, e non sarà un compito facile.

Quando un’auto con motore termico è rottamata, quasi il 95% di essa viene riciclata, ed il processo è facile, poiché esse sono costituite principalmente da materie plastiche facilmente rimovibili, e tanta materia ferrosa che è duttile e riciclabile; senza contare che il processo per il riciclo delle auto è ormai qualcosa di perfezionato nel corso di decenni  di esperienza in questo settore.

A differenza delle auto tradizionali, i veicoli elettrici contengono un numero molto maggiore di componenti non ferrosi difficili da riciclare (si veda il grafico). Separare questi componenti è assai complicato, richiede molta energia, e non sempre è possibile recuperarli tutti, soprattutto perché la maggior parti di questi materiali si trova rinchiusa all’interno di componenti elettrici complessi.

Composizione delle auto elettriche (in alto) e di quelle con motore a combustione (in basso).©The Economist

Per le batterie al litio, ci sono attualmente due processi di riciclo attuabili su grande scala: l’approccio pirometallurgico e quello idrometallurgico.

Il primo consiste nel comprimere tutte le componenti della batteria in un unico agglomerato detto “massa nera”, che in seguito è posto  a in una fornace, portando il composto ad alte temperature, da cui poi colano metalli preziosi come il cobalto o nichel. Il principali inconvenienti  di questo metodo sono la grande quantità di energia per far funzionare le fornaci, e l’impossibilità di recuperare molti componenti di interesse dalla massa nera: infatti materiali preziosi come la grafite vengono permanentemente bruciati o resi irrecuperabili.

L’approccio idrometallurgico, più innovativo e recente, inizia come il precedente dalla massa nera di materiali compressi, ma usa acidi e solventi per separare i varî metalli. Questo approccio richiede molta meno energia termica rispetto al primo, e permette di recuperare i materiali non metallici come la grafite. Il problema principale però è il necessario trattamento delle acque reflue contenenti gli acidi, che sono tossiche, per evitare danni ambientali, anche ingenti.

Come è intuibile quindi, se non vogliamo prescindere dall’uso dei veicoli elettrici per un futuro sostenibile, dobbiamo far in modo di migliorare i nostri procedimenti di riciclo, e soprattutto spronare i produttori a progettare componenti più standardizzati e facilmente disassemblabili, per favorire il riciclo e il massimo recupero dei materiali.

dai un’occhiata anche a questo nostro recente articolo sulle automobili elettriche e sul loro funzionamento.

Auto aerodinamiche: un argomento viscoso

Un altro fattore di vitale importanza per avere auto efficienti dal punto di vista del consumo, e con un impatto acustico ridotto (puoi leggere il nostro articolo sui danni provocati dall’inquinamento acustico nel nostro articolo qui) è il coefficiente aerodinamico: esso dà una misura della resistenza all’aria di un automobile. Questo poiché la resistenza aerodinamica riduce la velocità del corpo in moto e impone una dissipazione energetica, rendendo il veicolo meno efficiente.

L’ingegnere rumeno Aurel Persu (1890 – 1977) fu tra i primi uomini a capire l’importanza dell’aerodinamica e a costruire un prototipo di veicolo aerodinamico, intuendo che la forma più aerodinamica possibile è quella di una goccia d’acqua in caduta libera, e che per ridurre al minimo il coefficiente aerodinamico era necessario inserire gli pneumatici a filo con la carrozzeria, piuttosto che lasciarli fuori come era prassi quegli anni. Questa sua idea è contenuta nel brevetto depositato in Germania il 13 novembre 1922 dal titolo “Automobile di forma aerodinamica con quattro ruote montate nella carrozzeria aerodinamica”.

L’automobile di Aurel Persu ha un coefficiente aerodinamico di 0,22 uno dei più bassi ancora oggi, considerando che la più aerodinamica auto commerciale attualmente in vendita, la Lucid Air, ha un coefficiente di 0,21, e la maggior parte delle auto non di lusso attualmente in vendita hanno coefficienti ben al di sopra di 0,30. Questa innovazione permise al prototipo di Persu di consumare 4-5 volte meno carburante delle auto d’epoca in produzione, e di affrontare le curve su strada a ben 60 km/h.

La creazione di Persu, donata da lui stesso, è oggi visibile al Museo Nazionale della Tecnica «Dimitrie Leonida» di Bucarest.

Nelle competizioni, controintuitivamente a quanto si potrebbe pensare, il coefficiente aerodinamico non è di fondamentale importanza, e anzi di solito è molto elevato (intorno a 0,8-1): è la deportanza ad essere più importante. La deportanza è la forza aerodinamica che spinge il veicolo verso il suolo, aumentandone l’aderenza e la stabilità. Alle velocità delle competizioni, è di fondamentale importanze tenere il veicolo quanto più attaccato al suolo, per avere maggiore controllabilità. È il carico verticale provocato dagli alettoni di una “Formula 1” che genera questa deportanza, e di conseguenza riduce notevolmente la forma aerodinamica del veicolo.

Una foto dell’auto aerodinamica di Persu. Da notare le ruote a filo con la carrozzeria. Berlino, 1923. ©Wikimedia Commons

Il coefficiente di attrito del veicolo di Persu è di 0,22, uno dei più bassi ancora oggi. ©Dimitrie Leonida Technical Museum archive

Auto connesse: sempre più intelligenti

L’altra frontiera della tecnologia che va di pari passo con lo sviluppo delle auto elettriche è lo studio dei sistemi a guida autonoma. Anch’essi non sono certo una novità: già negli anni Sessanta del secolo scorso ingegneri statunitensi provarono a includere magneti permanenti nel cofano delle auto oltre che nel manto stradale con polarità opposta. Questo faceva sì che le automobili si allineassero semplicemente per il fatto che magneti con polarità opposta si attraggono. È un sistema estremamente efficace, soprattutto se pensiamo a quanto rudimentale fosse. Certamente però esso non è scalabile, poiché richiederebbe che tutte le strade in tutto il mondo siano tappezzate di magneti permanenti, cosa non fattibile da nessun punto di vista economico, logistico, o di buon senso.

Da allora numerose generazioni di scienziati e ingegneri hanno creato e innovato sistemi di guida autonoma basati su visione artificiale per il riconoscimento dei cartelli stradali, delle linee spartitraffico, e degli ostacoli intorno all’auto, oltre che sull’uso di sistemi GPS.

Per quanto sorprendenti siano gli avanzamenti della tecnica in questo campo, e per quando ovvio sia che i sistemi a guida autonoma siano il futuro data la loro resilienza, velocità di risposta e sicurezza, rimangono la strada per arrivare a sistemi completi di guida autonoma è ancora accidentata. Rimangono ancora da testare questi sistemi su ogni tipo di veicolo, ogni tipo di terreno, e in ogni tipo di condizione atmosferica, per assicurarsi che in tutti i casi sia in grado di rispondere correttamente.

Inoltre, è ancora da definire l’annosa questione riguardo ai possibili incidenti e a chi andrebbe accollata la responsabilità nel caso uno di esse succeda – poiché, benché i sistemi di guida autonoma siano migliaia di volte più sicuri e reattivi di qualsiasi essere umano, gli incidenti possono sempre avvenire.

Potete dare un contributo voi stessi all’argomento recandovi sul sito del progetto del MIT Moral Machines, e fare un breve test per decidere quale sia l’opzione “moralmente o eticamente migliore” nel caso un’auto a guida autonoma si trovi in una situazione di stallo critico: nel caso davanti alla vostra auto spuntasse all’improvviso una donna con un cane a passeggio, l’auto dovrebbe scegliere di investirla oppure sbandare e ferire gravemente voi e i vostri passeggeri ma risparmiare la donna e il cane?

Queste sono alcune tra le domande di vitale importanza a cui dovremo rispondere nei prossimi anni per dare vita a veicoli sempre più verdi e sicuri, e leggi che le supportino e chiariscano bene la responsabilità in caso di incidenti. La strada davanti a noi è ancora lunga, ma ci porterà per sentieri che ancora non conosciamo e che ci permetteranno di inventare tecnologie rivoluzionarie.

Andrei Florea

Lorenzo Niccoli

L’EUROPA E LA SOVRANITÀ TECNOLOGICA DEI SEMICONDUTTORI

Tempo di lettura: 6 minuti.

C’è un’altra crisi, oltre a quelle sanitaria ed economica che l’Europa sta attualmente attraversando, palesatasi agli Stati membri a dicembre dello scorso anno: la crisi dei semiconduttori. Minuscoli prodotti di silicio, sono letteralmente alla base della vita moderna, essendo parte integrante della maggior parte degli oggetti di cui ci serviamo ogni giorno, a partire dal dispositivo su cui state leggendo questo articolo, passando dalle automobili, fino al vostro tostapane (sì, anche loro ormai contengono microprocessori).

Il responsabile della politica industriale dell’UE, Thierry Breton si è lanciato all’assalto di questa grande debolezza europea, affermando che “nell’industria dei semiconduttori, l’Europa si è lasciata distanziare. La mancanza d’investimenti ha causato un ritardo”. Lo stesso verdetto potrebbe applicarsi a molte altre filiere tecnologiche, ed è il segno di un altro decennio perduto per il Vecchio Mondo di essere leader nella tecnologia.

Cosa sono i microprocessori?

L’invenzione del microprocessore si deve al geniale fisico e imprenditore italiano Federico Faggin, allora dipendente alla Intel negli Stati Uniti, che nel 1971 presentò al mondo l’Intel 4004. Fu una rivoluzione di portata incredibile, grazie a particolari tecnologie da lui inventate (tra cui quella del “contatto sepolto” per il gate), che purtroppo ben pochi conoscono e troppo spesso è stata attribuita ingiustamente ad altri (già nel corso del progetto ci furono frizioni tra Faggin e altri ingegneri, fatto che lo portò a incidere le proprie iniziali sul die del processore, per incastonare per sempre nella storia la prova inconfutabile della sua creazione, come un artista).

Faggin si servì di un’invenzione da pochi anni appara: il transistor. Come spiegato dal professor Carlo Colombo nel corso di Calcolatori di Ingegneria Informatica, i microprocessori e le memorie sono circuiti elettronici composti da transistor, realizzati con materiali semiconduttori, tipicamente il silicio. Un semiconduttore è una sostanza che presenta sia proprietà di conduttore che isolate: a seconda della tensione applicata al semiconduttore esso lascia o meno passare una corrente.

Il funzionamento di un tipico transistor MOSFET è semplice: per effetto del tunnelling quantistico, a seconda della tensione applicata ai capi del substrato sotto al gate, cioè la regione di substrato che collega drain e source, si origina un campo elettrico che amplifica molto la conduttività del gate, che normalmente è isolante. In questo modo il gate è ora “aperto” e una corrente può ora passare tra source e drain, generando un impulso elettrico. (si veda fig. 1).

Così, collegando insieme transistori in modo intelligente, possiamo creare porte logiche per fare le operazioni più semplici (addizione, congiunzione logica, negazione logica), e con queste possiamo far compiere ai microprocessori qualsiasi cosa gli diciamo.

Con i transistor possiamo quindi controllare porte logiche elettricamente, che è il metodo più veloce ed efficiente di farlo. Nessuno vieta di costruire computer con porte logiche realizzate con tessere del domino o ad acqua, ma sarebbero assai inefficienti come calcolatori.

Fig. 1. Transistor bipolare MOSFET PNP.
Fonte: Wikimedia Commons
Fig. 2. L’Intel 4004, il primo microprocessore della storia. In alto a destra, incise sul die, le iniziali di Federico Faggin. © Intel

Le dimensioni contano

Proprio perché è all’efficienza e alla velocità che guardiamo quando progettiamo sistemi di calcolo, gli ingegneri cercano sempre nuovi metodi per rendere i microprocessori più efficienti. Uno di questi è ridurre le dimensioni dei transistor: in questo modo meno energia viene perduta sotto forma di calore, e le operazioni vengono eseguite più velocemente (perché i transistori sono più vicini tra di loro, e perché più piccoli sono più ce ne stanno in una determinata area).

Generalmente nell’industria dei microprocessori, il processo litografico con cui vengono creati i chip ha un nome, legato alla dimensione dei transistor stessi: è la metà della dimensione minima tra tutti i gate presenti nel microprocessore, e si misura in nanometri (nm). Così, quando sentiamo parlare di “processore con litografia a 10nm” ecc. vuol dire che in quel processore il nodo più piccolo ha dimensione 20nm (un capello umano è 2000 volte più spesso)

Purtroppo però, questa estenuante lotta per la supremazia nanometrica, che dura da sessant’anni, sta volgendo al termine. La “legge di Moore”, un’osservazione empirica dell’ingegnere della Intel, secondo la quale il costo dei microprocessori si riduce della metà ogni 18 mesi, sta cominciando a vacillare. Ogni generazione di chip è tecnicamente molto più difficile da produrre rispetto alla precedente e, a causa del crescente costo della costruzione di fonderie (è questo il nome delle fabbriche di microchip), la posta in gioco è aumentata. Il numero di produttori all’avanguardia del settore è sceso da oltre 25 nel 2000 a soli tre oggi.

Fig. 3. Fonderie con tecnologie cutting-edge nel mondo. Credits: Financial Times

La più famosa di questo trio di fonderie, l’americana Intel, è nei guai. Ha licenziato il suo capo, ammettendo che è rimasta indietro tecnologicamente,e potrebbe ritirarsi dalla produzione dei chip più avanzati, la generazione a 3nm, ed esternalizzare la sua produzione, come quasi tutti gli altri progettisti di chip già fanno. Ciò lascerebbe solo due aziende con lo stomaco per i più estremi processi di fabbricazione: Samsung in Corea del Sud e TSMC a Taiwan.

Competizione mondiale

La produzione di semiconduttori si effettua principalmente in Asia, e in particolare a Taiwan. È qui cha ha sede la già citata TSMC (Taiwan Semiconductor Manufacturing Company), la più avanzata fonderia al mondo, che produce circa l’85% dei chip di alta gamma, e che insieme a Samsung detiene un duopolio su di essi. Nel mondo, questo settore economico vale 440 miliardi di dollari di fatturato annuo, è in costante crescita (+7,7% previsto nel 2021), e anche l’UE vuole giustamente la sua parte. Con il piano “Bussola per l’Europa digitale del 2030” l’Europa intende diventare leader nella fabbricazione di chip, riducendo di molto la dipendenza dalle fonderie estere.

Ma potremo competere? Esiste una netta differenza tra la quota delle spese in conto capitale del settore rappresentata dalle imprese europee, 4%, e quella dei concorrenti nell’Asia-Pacifico, 63%. L’azione europea si è quindi concentrata nell’unire fondi e capacità dei diversi Stati membri per poter colmare questo svantaggio competitivo, creando un’alleanza tra le varie piccole aziende produttrici di semiconduttori. L’Europa già ospita aziende di semiconduttori come Infineon, NXP, STMicroelectronics e GlobalFoundries, ma esse non sono al passo con le ultime tecniche di litografia. Gli obiettivi prefissati dall’UE mirano ad ottenere entro il 2030 il 20% della produzione mondiale di semiconduttori, rispetto al 10% di oggi. Nel dicembre 2020, i diciotto Stati membri dell’UE hanno firmato una dichiarazione congiunta per “A European Initiative on Processors and semiconductor technologies”, che punta a raccogliere investimenti sul settore per circa 60 miliardi di dollari, provenienti dal bilancio dell’UE, dai piani nazionali di recupero e resilienza, e dal settore privato. Una cifra ambiziosa.

Ma questo non è ancora abbastanza. TSMC prevede di spendere solo quest’anno tra i 25 e i 28 miliardi di dollari, il 63% in più rispetto al 2020, e più di Intel e Samsung, insieme a un colossale investimento da ben $100 mrd per i prossimi 5 anni. 

Anche gli Stati Uniti e la Cina, ben consci del ruolo geopolitico importantissimo che ha la produzione all’avanguardia di semiconduttori, hanno presentato i loro piani, l’«American Jobs Act» e il «14esimo piano quinquennale cinese» rispettivamente. Entrambi i piani prevedono ingenti investimenti (varie decine di miliardi di dollari) in tempi brevi.

Per questo la competenza e la concorrenza da parte dell’Europa sono necessarie, se non vogliamo rimanere alla mercé di altre superpotenze (senza contare il fatto che Pechino rivendica Taiwan, e per essa la produzione di semiconduttori è di primaria importanza).

Le ambizioni dell’Europa ora come ora sono fuori portata e impallidiscono davanti agli investimenti degli altri attori (soprattutto quello di TSMC). Ci deve quindi essere la volontà da parte di tutti, e soprattutto la consapevolezza dei cittadini riguardo a una questione così tecnica: il consolidamento delle fonderie e delle aziende produttrici di chip sarebbe anche molto redditizio per l’UE, che ne gioverebbe in maniera sostanziale. E renderebbe l’Europa di nuovo una superpotenza scientifica di rilevanza mondiale.

Andrei Florea

UN FUTURO ELETTRIZZANTE: MOBILITÀ ELETTRICA SOSTENIBILE

Tempo di lettura: 8 minuti.

Uno sguardo a Firenze

Firenze sta pian piano diventando una delle capitali della mobilità elettrica e delle città più intelligenti (le cosiddette “smart cities”) d’Italia: è importante l’impegno della città per sviluppare un sistema di mobilità elettrica, con 179 colonnine di ricarica pubbliche con doppia presa di ricarica e più di 4mila veicoli elettrici nell’area metropolitana, e la sperimentazione dei bus elettrici.

Sorge quindi spontaneo domandarsi se valga la pena acquistare già da ora un’automobile elettrica. La risposta è variabile per ogni individuo, ma quasi sempre affermativa, per svariati motivi. Il primo è la già elevata disponibilità di mercato: oggi sono in commercio auto totalmente elettriche (non ibride) di marche che coprono metà dell’alfabeto. Inoltre, siccome esse hanno pochissime parti mobili, non hanno praticamente bisogno di manutenzione, abbassando di molto i costi di gestione durante tutta la vita del veicolo. Grazie agli incentivi statali poi, uniti all’esiguo costo dell’elettricità necessaria per “fare un pieno”, è già ora molto più conveniente acquistare un’auto elettrica rispetto a una tradizionale con motore a combustione.

Eppure, nonostante la loro vasta disponibilità e il loro costo relativamente contenuto, sembrano oggetti futuristici di nuova generazione. A una più attenta analisi però si scopre che la storia delle auto elettriche ha radici molto più antiche.

Una storia elettrizzante

È difficile attribuire l’invenzione dell’auto elettrica a un singolo inventore o paese. Invece, è grazie una serie di scoperte e passi avanti che innovatori in Ungheria, Paesi Bassi e Stati Uniti hanno iniziato a giocare con il concetto di un veicolo alimentato a batteria e hanno creato alcune delle prime auto elettriche su piccola scala.

Le auto elettriche esistevano già intorno al 1830. Sì, avete letto bene: 1830, più di mezzo secolo prima che Karl Benz brevettasse la sua Benz Patent-Motorwagen, la prima automobile con motore a scoppio della storia [1].

Non solo: il primo veicolo nella storia a raggiungere e superare i 100 km/h fu… un’auto elettrica, La Jaimais Contente, ovvero “La mai contenta”, nel 1899 [2].

Fig. 1. L’ingegnere Thomas Parker e l’auto elettrica progettata da lui, foto del 1895. Fonte.

Nel 1910, negli Stati Uniti le vendite di auto elettriche avevano raggiunto il picco: esse rappresentavano il 38% del totale, mentre le auto a benzina solo il 22% (e il restante 40% erano a vapore). Si può dire che gli anni ‘10 del Novecento fossero gli anni d’oro delle auto elettriche. Quell’anno però cambiò completamente le carte in tavola quando Henry Ford introdusse la leggendaria Model T. Costando solo 650$, era in media 3-4 volte più economica di una corrispettiva elettrica, e con il fatto che i benzinai stavano diventando sempre più popolari in tutto il Paese, questo ha permesso agli acquirenti di auto a combustione di viaggiare più a lungo, più velocemente e a un costo relativamente minore. In pochi anni le auto elettriche vennero obliterate dal mercato.

I veicoli elettrici ci hanno persino aiutato a viaggiare sulla Luna! Le missioni Apollo 15, 16 e 17 portarono a bordo ciascuna un Lunar Roving Vehicle (in foto), un rover da 0,25 CV alimentato da un pacco batterie non ricaricabile, progettato per viaggiare alla modesta velocità di 14 km/h. Il 31 luglio 1971, in occasione della missione Apollo 15, diventò il primo veicolo fuoristrada a essere guidato da un umano al di fuori della Terra.

Fig. 2. Il Lunar Roving Vehicle. Crediti: © NASA. Fonte.

Come funziona però un’auto elettrica?

Un veicolo elettrico compie lo stesso tipo di lavoro di qualsiasi altro veicolo a motore, però l’energia per compiere questo lavoro è generata in modo assai diverso. In un’automobile elettrica la spinta viene generata da un motore elettrico, che utilizza l’energia chimica immagazzinata in una batteria (di solito a ioni di litio) convertita in elettricità. Questo garantisce due grandi vantaggi, il primo dei quali è che la coppia è subito disponibile, poiché non c’è bisogno di riscaldare il motore o “portarlo su di giri”, un controllo certosino sul veicolo  talvolta facendo provare al guidatore accelerazioni da capogiro; il secondo vantaggio è l’efficienza: in genere un motore termico ha un’efficienza energetica variabile tra il 25% e 45% (che comunque non supera mai il 60%) [3], mentre i motori elettrici hanno un’efficienza nominale intorno al 73% – 97%. Questo vuol dire che più della metà – se non tre quarti – del carburante che mettete nel serbatoio della vostra auto viene sprecato e convertito in calore, CO2 e altri composti altamente tossici per tutte le forme di vita, invece che aiutarvi ad arrivare più velocemente dai vostri amici!

Atmosfera cupa

È ormai fatto noto che le emissioni provocate dai motori a combustione in città peggiorino di molto la qualità dell’aria, talvolta rendendo letteralmente pericoloso fare una semplice passeggiata a causa dell’abnorme numero di polveri sottili (cioè particelle di diametro tra i 2,5 e 10 micrometri, cioè 40 volte più sottili di un capello umano). Ma cerchiamo di quantificare i danni con dei numeri.

Automobili, SUV e motocicli sono responsabili del 47% di tutte le emissioni complessive legate ai trasporti (che comprendono aerei, treni, navi, camion, autobus, ecc.); queste ultime rappresentano il 16% di tutte le emissioni mondiali di CO2 equivalente, pari a 51 miliardi di tonnellate annue. Il traffico automobilistico è quindi responsabile di più di 8 miliardi di tonnellate di diossido di carbonio emesse nell’atmosfera ogni anno. Non è il settore più inquinante (il triste primato spetta alle industrie pesanti dell’acciaio e del cemento), ma è comunque una porzione cospicua, e sicuramente deve rientrare nei nostri piani di transizione ecologica se vogliamo evitare un disastro climatico.

Fig. 3. Caligine intensa su una strada di Nuova Delhi, 6 dicembre 2018.
Crediti: © Xavier Galiana/AFP via Getty Images

Per la salute umana però ci sono problemi peggiori di questo. Siccome i motori termici sono poco efficienti, durante la combustione non tutto il carburante viene bruciato; durante la combustione incompleta, gli idrocarburi di cui sono fatti benzina e gasolio si legano all’ossigeno e all’azoto e creano ossidi di azoto (i famosi NOx), ossidi di zolfo, composti organici volatili (COV), aldeidi e centinaia di altre sostanze tossiche. Esse non solo vanno poi a formare lo smog fotochimico, causa delle piogge acide e conseguente morte di molti alberi e piante, ma hanno effetti devastanti sulla nostra salute. Queste sostanze sono noti carcinogeni, e le esposizioni a queste sostanze può anche causare effetti di salute non cancerosi ma assai debilitanti, come danni neurologici, cardiovascolari, respiratori, all’apparato riproduttore e al sistema immunitario [4, 5].

L’OMS stima che nella sola Unione Europea 100.000 morti annuali siano causate solo dalla caligine (smog), e il 90% della popolazione urbana viva in zone con i valori raccomandati dall’UE per NO2, CO, benzene e piombo al limite [6]. Recenti studî hanno anche mostrato una forte correlazione tra il maggior numero di morti legate a casi di COVID-19 in Lombardia rispetto ad altre regioni italiane e il notevole inquinamento di quella zona [7].

Morte al motore a combustione?

Sembra quindi che non ci sia motivo per i motori termici di esistere più, date tutte le loro conseguenze spiacevoli. Tuttavia, i motori elettrici hanno anche alcuni svantaggi non trascurabili.

Non potremo mai, ad esempio, elettrificare aerei o navi. Questo perché il peso delle batterie che servirebbe ad alimentarli impedirebbe agli aerei di alzarsi in volo, e lo spazio occupato da esse renderebbe inutili le navi. Per queste, dovremo usare motori che sfruttano carburanti totalmente diversi, come l’idrogeno, oppure carburanti alternativi. Tra questi ultimi troviamo i biocarburanti e i carburanti elettrochimici. Essi non aggiungono diossido di carbonio all’atmosfera, perché reimmettono semplicemente quella usata per crearli. Il problema di questi carburanti è però l’elevato costo di produzione: un biocarburante costa in media il 106% in più della benzina standard, e un elettrocarburante addirittura il 239%.

C’è poi il problema di dover ricaricare le batterie: chi appoggia e sostiene le auto elettriche come risposta a un futuro meno inquinato, deve tenere conto da dove proviene l’energia che le alimenta: se essa proviene da centrali a carbone, lungo la sua intera vita un’auto elettrica inquina e provoca più danni di un’auto a benzina con una marmitta catalitica. Per questo se vogliamo elettrificare i trasporti privati, dobbiamo prima assicurarci di poter produrre sufficiente quantità di energia elettrica in modo pulito, sempre disponibile, ed economico. Per questo è oggi più che mai investire in tecnologie non inquinanti come fotovoltaico, eolico, nucleare e idroelettrico. – Per una panoramica sul mondo dell’energia nucleare e dell’elettrificazione della nostra civiltà, da un’occhiata anche a quest’altro nostro articolo

Le attuali batterie rappresentano un’ulteriore fonte di problemi: esse sono realizzate con la tecnologia a ioni di litio, in cui il litio (uno dei minerali più abbondanti sulla terra) fa da anodo, mentre minerali costosi come il cobalto fungono da catodo. Se non riciclati a dovere (come avviene purtroppo per tante batterie di cellulari), rappresentano rifiuti tossici e altamente inquinanti (ma sono totalmente sicure se invece riciclate a dovere).

Purtroppo la maggior parte dell’estrazione di questi minerali avviene in Africa in zone poverissime, con operai che non sempre lavorano in condizioni di sicurezza, non sono pagati a sufficienza o che non hanno altra scelta. Talvolta sono purtroppo apparse notizie di bambini che venivano sfruttati in codeste miniere, spesso e volentieri controllate da organizzazioni paramilitari senza scrupolo.

Carburiamo la ricerca

Per questo è più che mai necessario investire pesantemente in sviluppo e ricerca per trovare alternative più sostenibili e verdi alle nostre attuali tecnologie di immagazzinamento dell’elettricità. Stiamo ancora cercando di creare la “million-mile battery” (la batteria che permetta di percorrere un milione di miglia, cioè circa due milioni di chilometri, prima che le sue celle si esauriscano del tutto e non sia più ricaricabile), ma già un’azienda cinese e una americana dovrebbero provare a realizzarne una nei prossimi due anni [8].

Dovremo trovare metodi di creazione di bio- ed elettrocarburanti dal costo comparabile, se non inferiore, agli attuali derivati del petrolio che utilizziamo correntemente. E dovremo anche sperimentare molto per trovare nuove tecnologie per batterie più capienti, più resilienti e che si ricarichino più velocemente.

La mobilità elettrica è sicuramente il futuro perché è migliore, più silenziosa, e più verde. Vivremo in città migliori, con aria più pulita, e meno patologie croniche di cui preoccuparci.

Questo però solo se avremo il coraggio di investire pesantemente in ricerca e di ritornare a una tecnologia già usata nel passato per fare un salto nel futuro.

Andrei Florea

1. Benz Patent Motorwagen, Wikipedia.

2. La Jamais Contente, Wikipedia.

3. Scatolini, Daniele, “Appunti del corso di macchine 1. Motori a combustione interna”, Università degli Studi di Roma Tor Vergata, 2007.

4. “ES&T Books: Atmospheric Chemistry and Physics of Air Pollution” Environmental Science & Technology, 1 Sept. 1986, doi.org/10.1021/es00151a602.

5. “Guidelines for exposure assessment.” Federal Register 57.104 (1992): 22888-938. PDF.

6. “What are the effects on health of transport-related air pollution?”

7. https://www.epidata.it/Italia/AQI.html

8. “What the million-mile battery means for electric cars”The Economist. 2020-07-30. ISSN 0013-0613.

ITALIAN INTERNET DAY: IL GIORNO IN CUI L’ITALIA SCOPRÌ INTERNET

Tempo di lettura: 2 minuti.

L’inizio di una nuova era

In Italia Internet è arrivato come per magia. Un segnale elettrico era partito dalla sede dell’ex Istituto CNUCE (Centro nazionale universitario di calcolo elettronico) del CNR in via Santa Maria, a Pisa. Passando per un cavo telefonico della SIP (l’attuale TIM) arrivò alla stazione nazione di Frascati di Italcable, una società di chiamate internazionali, per essere poi dirottato in Abruzzo al Centro spaziale del Fùcino. Qui da un’antenna di Telespazio, ancora oggi in funzione, il segnale fu sparato verso il satellite Intelsat IV, che orbitava sopra l’Atlantico, per poi arrivare oltreoceano, alla stazione satellitare di Roaring Creek, in Pennsylvania. Gli americani ricevettero correttamente il segnale.

Era il 30 aprile 1986 quando l’Italia entrava nella storia, essendo il quarto paese europeo a collegarsi ad Internet insieme a Norvegia, Regno Unito e Germania Ovest. Eravamo all’avanguardia.

Quel giorno però passò in sordina, e nessuno si accorse di cosa fosse appena accaduto. Nessun giornale nazionale riportò la notizia, mentre il Paese era attonito davanti al disastro di Černobyl’, avvenuto quattro giorni prima.

Una storia italiana

L’evento si deve a Antonio Blasco Bonito: fu lui il primo ricercatore italiano a stabilire, per la prima volta, la connessione tra il nostro Paese e la rete ARPANET (progenitrice di Internet) negli Stati Uniti. A quell’epoca lavorava insieme a due altri ricercatori, Nedo Celandroni ed Erina Ferro, sulle reti satellitari. Uno dei loro responsabili, Luciano Lenzini, aveva dei contatti con gli americani della D.A.R.P.A. (Defense Advanced Research Projects Agency) e informò loro che c’era la possibilità di avere un collegamento alla rete ARPANET.

Fu grazie alla sua tenacia che sei anni e mille problemi burocratici dopo aver avuto il primo contatto con questa nuova rete, avvenuto nel 1980 a Londra, portò a termine con successo l’impresa, proiettando l’Italia nel futuro.

Atomi di informazione

Con il collegamento a Internet del 1986, l’Italia entrò in una rete telematica mondiale che, attraverso un unico standard informatico, il protocollo TCP/IP, permette a tutto il mondo di comunicare.

Per avere il Web che conosciamo oggi, però, avremmo dovuto aspettare fino al 1991: fu infatti allora che un brillante fisico inglese del CERN, Tim Berners-Lee, pubblicò e implementò un livello applicativo della rete Internet che permetteva di “dare accesso universale a un vasto universo di documenti” tramite “recupero delle informazioni di ipertesto” [1]. Lo chiamò “World Wide Web”.

La portata di questa invenzione non ha eguali nella storia dell’umanità: nel 1996 i computer connessi nei cinque continenti erano già passati da 10 mila a 10 milioni e i termini “Internet” e “web” erano già entrati a far parte di tutti i principali dizionari di lingua italiana. Oggi esistono circa un miliardo e ottocento milioni di siti web, e quasi cinque miliardi di persone hanno accesso ad essi [2].

Sogni di un futuro passato

Internet e il web sono ormai pervasivi, e nell’ultimo decennio la più grande trasformazione di Internet è stata la possibilità di navigare da mobile ovunque ci troviamo. Il futuro sarà dettato da un’espansione esponenziale di questa rete mondiale, grazie ai nuovi dispositivi connessi intelligenti dell’Internet delle Cose (Internet of Things): automobili che dialogano tra loro per evitare incidenti, il vostro frigo che ordina automaticamente il latte, o le lampade che si accendono automaticamente quando entrate in casa.

Tutto questo però è iniziato 35 anni fa, da un centro di ricerca a Pisa e una manciata di uomini visionari che credevano in ciò che il futuro proponeva loro. Il segnale elettrico inviato da Antonio Blasco Bonito fu una parola, “PING”. Meno di un secondo dopo, da oltreoceano arrivò la conferma di ricezione: un semplice “OK”. Fu la prima delle innumerevoli conversazioni sulla rete che da lì in poi accadranno. Chissà quali meraviglie ci riserveranno i prossimi trentacinque anni.

Andrei Florea

1. Il primo sito Web, pubblicato da Tim Berners-Lee: http://info.cern.ch/hypertext/WWW/TheProject.html

2. https://www.internetlivestats.com/

L’ultima tecnologia sviluppata da Tim Berners-Lee: https://inrupt.com/solid

NUCLEARE E CAMBIAMENTI CLIMATICI: SOGNO INFRANTO O LA NOSTRA SALVEZZA?

Tempo di lettura: 16 minuti.

Sono passati dieci anni dall’incidente alla centrale elettronucleare di Fukushima Dai-ichi e più di cinque dall’Accordo di Parigi riguardo alla riduzione di emissione di gas serra, e le cose stanno peggio che mai: l’approvazione dell’opinione pubblica per il nucleare è molto bassa e il cambiamento climatico sta sempre più accelerando. È ancora possibile cambiare le cose?

Un quadro energetico più chiaro

Attualmente il nucleare produce solo il 4% della fonte di energia primaria mondiale (e il 10% del fabbisogno mondiale di sola energia elettrica). Il 12% proviene da rinnovabili. Il restante 84% di essa viene prodotta da combustibili fossili [1].

Fig. 1

A causa di ciò, produciamo 51 miliardi di tonnellate di CO2 equivalente l’anno [2]. Per evitare una catastrofe climatica dobbiamo portare questo numero a zero il prima possibile. La buona notizia è che possiamo farcela. La cattiva è che non solo la domanda di energia è destinata ad aumentare drasticamente, ma non ci stiamo impegnando neanche lontanamente abbastanza e, anzi, ci stiamo mettendo i bastoni tra le ruote.

Da dove vengono queste 51 miliardi di tonnellate? Di seguito, la percentuale di gas serra emessa dalle nostre attività:

Fig. 2

La nostra società è letteralmente fondata sui combustibili fossili, il che significa che è assai difficile farne a meno. Uno dei motivi è che essi sono molto economici: nel momento in cui scrivo queste righe, un litro di petrolio costa 0,31€. Meno di un’aranciata.

È sorprendente anche vedere come la produzione di elettricità sia responsabile soltanto di poco più di un quarto di tutte le emissioni. La buona notizia è che la produzione di energia elettrica potrebbe rappresentare molto più del 27% della soluzione. Per avere qualche possibilità di sfuggire dai combustibili fossili, evitando di riportare l’intera umanità all’età della pietra, dobbiamo fare il possibile per elettrificare tutto ciò che è elettrificabile, cioè più dei tre quarti delle nostre attività: dalle automobili agli autobus elettrici, al riscaldamento e condizionamento delle nostre case, alle fornaci e motori elettrici per l’industria.

Così, la domanda di energia elettrica è destinata ad aumentare anche di 3 volte entro il 2050. E questa stima non tiene conto del fatto che la popolazione diventerà più ricca, e consumerà più elettricità. Attualmente 860 milioni di persone nel mondo non hanno accesso all’elettricità; la maggior parte di esse vive nell’Africa subsahariana. 

Non possiamo chiedere agli africani o agli indiani di consumare meno energia, perché hanno tutto il diritto di crescere ed avere standard di vita migliori.

L’elettrificazione delle nostre economie la possiamo attuare solo se abbiamo i metodi per produrre energia elettrica in modo ecologico. Il punto quindi non è consumare meno energia, ma consumarla pulita. E per fare ciò è necessario rendere l’energia pulita altrettanto economica ed affidabile di quella ricavata dai combustibili fossili.

Nucleare per negati

In una sola frase l’argomentazione a favore dell’energia atomica: è per ora l’unica fonte a zero emissioni  in grado di fornire affidabilmente e continuativamente corrente elettrica, ovunque ci si trovi nel pianeta. Ad ogni ora, ogni giorno, tutti i giorni.

Secondo uno studio del MIT del 2018, senza una fonte stabile ed affidabile, la transizione energetica costerà molto di più [3].

Le nostre attuali fonti di energia rinnovabile, in particolare eolica e solare (perché di dighe se ne possono costruire solo un tot) possono e devono incidere in modo decisivo sul problema della decarbonizzazione, ma non sono abbastanza. E non potranno mai essere abbastanza. Il vento non soffia sempre, non splende sempre il sole, e a meno di tecnologie assai rivoluzionarie non disponiamo di batterie economiche in grado di immagazzinare le quantità di energia necessarie a far funzionare le nostre società ininterrottamente.

Ricordiamo anche che i Paesi sono tutti diversi. E la maggior parte di essi non è fortunata in termini di vento, sole e bacini idrologici. Generare una grande quantità di energia elettrica dalle rinnovabili non è la regola, è l’eccezione.

Inoltre, c’è un fatto controintuitivo e poco noto: a parità di unità di energia generata, le centrali nucleari sono al primo posto riguardo all’efficienza dell’uso di materiali come acciaio e cemento. Questo vuol dire che si ottiene molta più energia per ogni chilogrammo di materiale richiesto dalla costruzione e dal mantenimento della centrale:

Fig. 3 (Fonte: Dipartimento dell’Energia degli Stati Uniti)

Spero che nessuno pensi sia una buona idea tappezzare i nostri Appennini di pannelli fotovoltaici e pale eoliche per soddisfare il nostro fabbisogno energetico.

Ma come viene generata, dunque, l’energia dall’atomo? Per adesso, tutte le centrali atomiche mai costruite sulla terra sfruttano il principio della fissione nucleare, teorizzata negli anni Trenta dalla chimica Ida Noddak e dai fisici Lise Meitner e Otto Frisch (la prima conferma sperimentale è del 1938 a cura di Otto Hahn e Fritz Strassmann).

Alcuni materiali, come l’uranio e il torio, quando assorbono un neutrone hanno la capacità di fissionare, ovvero scindersi in due nuclei atomici di peso minore. Nel fare ciò, liberano anche una modesta quantità di energia sottoforma di radiazione e calore. È usando quel calore, per esempio immergendo il reattore in una vasca d’acqua, che facciamo bollire dell’acqua. Il vapore prodotto mette poi in moto una turbina che tramite un alternatore genera corrente elettrica.

In due parole, la fissione nucleare è un modo stravagante ed ingegnoso di far bollire l’acqua.

Fig. 4, fonte

È debito inoltre ricordare che possedere tecnologie e materiali per un uso civile dell’energia atomica non implica che gli stessi possano essere usati per costruire armi nucleari: esse infatti vengono costruite impegnando solo uranio o plutonio arricchiti a più del 90%, ben oltre il limite del 3-4% necessario per il combustibile usato nei reattori civili.

Ricordiamo che arricchire il combustibile significa in qualche modo “distillarlo” per avere una quantità di materiale fissile superiore a quello naturale. L’isotopo dell’uranio capace di fissionare, l’uranio-235, in natura è presente solo per lo 0,7%.

Arricchire un combustibile è inoltre un processo complessissimo e costosissimo, che non scala linearmente: è assai più difficile arricchire l’uranio al 90% che al 3-4%, o anche solo al 60% come sta cercando di fare l’Iran.

La geopolitica dell’atomo

La società occidentali avanzate hanno una grandissima opportunità per combattere il cambiamento climatico: dispongono delle migliori menti, tecnologie, risorse e legislazioni per sviluppare tanto il nucleare quanto fonti di energia rinnovabili innovative.

Sappiamo anche che l’energia nucleare può funzionare bene a grande scala, poiché
Paesi come la Francia e la Svezia ne dipendono massicciamente (producendo il 66% e il 30% del fabbisogno energetico nazionale rispettivamente [4, 5]); è quindi un investimento affidabile sul futuro.

Purtroppo però ci stiamo facendo scappare la palla di mano: non solo non investiamo un centesimo nel nucleare e nell’Occidente il numero di centrali attive è in costante declino (la Germania, ad esempio, vuole chiudere tutte quelle sul proprio territorio entro il 2030), ma stiamo dando la torta ai nostri concorrenti dell’Est: Cina, India e Russia. Costruire centrali atomiche è molto costoso, e le nostre legislazioni sono sempre più stringenti.

La Russia è attualmente il più grande costruttore ed esportatore di centrali nucleari al mondo, seguita a breve distanza dalla Cina [6, 7]. Questo per due motivi: le loro tecnologie sono relativamente economiche, e le loro aziende godono del massiccio appoggio dello stato, con legislazioni che permettono un’approvazione dei cantieri in poco tempo.

Non solo quindi ci stiamo facendo sfuggire la grandissima opportunità di fare una montagna di soldi, ma anche la possibilità di controllare tutta questa potenza nucleare, grazie alle preziose e ben strutturate legislazioni ferree dell’Unione Europea in materia.

— Per un approfondimento sulla questione geopolitica dell’energia atomica, leggi il nostro altro articolo, scritto da Angelo Doria.

Nucleare all’italiana

In Italia la situazione è persino più drammatica. Tutte e quattro le centrali elettronucleari costruite e usate solo qualche anno [8], insieme alle due mai completate [19], sono ancora in attesa di dismissione, con un impatto visivo ed ecologico sull’ambiente non indifferente, tutto a carico dei cittadini. I costi infatti sono stati tutti riversati sui cosiddetti “oneri di uscita dal nucleare” ricompresi nella bolletta elettrica dei consumatori italiani.

Un’economia forte, e che comunque desidera esserlo, deve essere autosufficiente dal punto di vista energetico. L’Italia importa l’84% di tutta l’energia (elettrica e non) che usa, ed essa è costituita da uno sconcertante 91% proveniente da combustibili fossili [9]. Tutto ciò ha anche un costo economico, oltre che ambientale, non indifferente. Sostituire almeno in parte queste fonti di energia sporca con centrali atomiche abbasserebbe notevolmente il costo a lungo termine anche della nostra bolletta, oltre che quello delle morti dei nostri cari.

È quindi di fondamentale importanza rimpiazzare il prima possibile con fonti di energia pulita e già facilmente disponibile, come il nucleare. La domanda che si pongono tutti però è: «il nucleare è sicuro?».

Irradiamo luce sulla questione

L’energia nucleare esiste dal 1951, e da allora sono avvenuti solo 30 incidenti (eventi con classificazione maggiore di 2 sulla scala INES, la scala internazionale per classificare gli eventi nucleari e radiologici). Ma la maggior parte di essi sono stati assolutamente innocui per le persone (un incidente può essere anche lo scoppio di una tubatura che trasporta il vapore, cosa che succede anche in altri tipi di centrali elettriche). Solo due incidenti sono stati classificati a livello 7 (rischio massimo) sulla scala INES: i disastri di Černobyl’ del 1986 e di Fukushima Dai-ichi del 2011.

— Per leggere riguardo ai recenti sviluppi sul rilascio dell’acqua proveniente dai reattori di Fukushima, dai un’occhiata anche a quest’altro nostro articolo, scritto da Lorenzo Niccoli

Fig. 5, fonte

I disastri sono rarissimi, e le centrali nucleari sono molto più sicure di quanto si possa immaginare, anche grazie a causa di un pervasiva ignoranza in materia e un nefando e talvolta scadente giornalismo. La maggior parte degli incidenti è avvenuta in reattori nucleari vecchi di decenni, mal progettati o mal costruiti. Come vedremo successivamente, i reattori di nuova generazione sono intrinsecamente sicuri, e per come sono stati progettati, le leggi della fisica impediscono ad essi di esplodere o fondere.

Il numero di persone morte immediatamente a causa del disastro di Černobyl’ è di 31, e 140 hanno sofferto di avvelenamento acuto da radiazioni [22]. Le morti a lungo termine causate dall’incidente sono stimate tra le 4 000 dall’OMS e le 14 000 da Cardis et al. [23] (anche se l’UNSCEAR, un comitato delle Nazioni Unite, ha addirittura indicato la stima dell’OMS come probabilmente troppo alta [24]).

L’incidente ai reattori della centrale di Fukushima Dai-ichi è costato la vita a 2 202 persone. Ma solo ad una a causa di esposizione diretta a radiazioni [10, 11]. È infatti a causa del caos e della mala gestione dell’evacuazione subito dopo l’incidente, oltre che dello stress, suicidî e cure mediche interrotte, che le persone sono morte a Fukushima. Non solo: uno studio del 2019 [12] ha rivelato che 1 280 ulteriori persone sono morte tra il 2011 e 2014, poiché molte persone non potevano più riscaldarsi con stufe elettriche a causa del repentino aumento dei costi dell’energia elettrica, derivato dallo spegnimento di quasi tutte le centrali elettronucleari del Giappone (che producevano circa il 30% del fabbisogno nazionale).

A causa dello tsunami provocato dal terremoto sono morte circa 20 000 persone e andate perdute oltre 100 000 case, il tutto per un costo complessivo dei danni stimato intorno a 200 miliardi USD [13]. Eppure la maggior parte di noi ricorda solo l’incidente alla centrale nucleare.

Morti bianche…

Da quando esiste, il nucleare ha causato quindi meno di 24 000 decessi. Ci si aspetterebbe che gli altri tipi di energie rinnovabili siano a impatto zero anche sulle morti umane. Purtroppo la realtà non è così rosea. La maggior parte delle persone muore per incidenti sul lavoro durante la costruzione (si pensi ad esempio a quelli che si arrampicano sulle pale eoliche per assemblarle e mantenerle).

L’idroelettrico è la fonte di energia rinnovabile più fatale, con centinaia di migliaia di morti causate nell’ultimo mezzo secolo [14]. Ricordiamo solo uno degli incidenti più gravi: Banqiao, Cina, 1975. Quindici miliardi di metri cubi d’acqua si riversarono nelle valli sottostanti la diga, distruggendo migliaia di chilometri quadrati di villaggi e vegetazione. Perirono tra le 85 000 e 240 000 persone.

…e la morte nera

Tutte queste morti sono nulla in confronto alla devastazione prodotta dalle conseguenze dell’inquinamento da combustibili fossili ogni anno.

Quando bruciati, rilasciano nell’atmosfera, oltre alla famosa CO2, anche ozono, diossido di zolfo, monossido di carbonio e diossido di azoto, oltre che una velenosa miscela di particelle solide e goccioline sottilissime, il famoso particolato PM2.5 (particelle di diametro 2,5 micrometri, cioè 40 volte più sottili di un capello umano). Esso penetra a fondo negli alveoli polmonari, con conseguenze nefaste. L’OMS stima che tale inquinamento sia la causa del 29% di tutti cancri ai polmoni, 24% degli ictus, 25% delle cardiopatie ischemiche, 43% dei casi di malattia polmonare ostruttiva cronica [15, 16].

Il numero annuale di morti è stimato a 4,2 milioni. Dagli anni Cinquanta, da quando esiste il nucleare, 100 milioni di uomini, donne e bambini hanno perso la vita a causa dell’inquinamento provocato dal bruciare i combustibili fossili [15, 16].

È anche vero che i combustibili fossili producono l’84% dell’energia elettrica mondiale (si veda il primo grafico). Per poter comparare la mortalità tra tecnologie di produzione diverse, dobbiamo indicare i morti per unità di energia prodotta. Usando come unità di misura il TWh (un terawattora equivale all’incirca al consumo annuo totale di elettricità di 187 000 cittadini europei):

Fig. 6

Come si può osservare, il nucleare è tra le forme di energia più sicure in assoluto. Addirittura, uno studio [20] ha dimostrato come l’uso dell’energia atomica abbia salvato 2 milioni di vite umane tra il 1971 e 2009, sostituendosi all’uso dei combustibili fossili nel mix energetico globale.

L’energia nucleare uccide molte meno persone delle automobili, e degli aerei, del cancro, di un’intossicazione alimentare o di un’overdose. Il nucleare, come il fotovoltaico e l’eolico, sono le fonti di energia che causano di gran lunga il minor numero di morti per terawattora generato. Per questo secondo Gwyneth Cravens, autrice del libro “Il nucleare salverà il mondo”, usare l’energia nucleare è un imperativo etico.

Uno sguardo ai reattori del futuro

C’è un altro argomento che viene messo in campo dai detrattori dell’energia nucleare: i rifiuti e le scorie nucleari. Un’altra volta, l’opinione pubblica contraddice il consenso scientifico: «Innanzitutto, otto intervistati su dieci ritengono erroneamente che tutti i rifiuti radioattivi siano molto pericolosi (79%). Successivamente, il 74% degli intervistati considera molto rischioso lo smaltimento di scorie radioattive di basso livello e il 71% percepisce lo stesso alto livello di rischio per il trasporto di questo tipo di rifiuti» [17].

«Metodi sicuri per lo smaltimento finale dei rifiuti radioattivi ad alto livello sono tecnicamente provati; il consenso internazionale è che lo smaltimento geologico è l’opzione migliore» [18].

Il 97% di tutti i rifiuti nucleari sono rifiuti a basso o medio rischio: rifiuti come oggetti e camici da laboratorio, acciaio e cemento usati per la costruzione di centrali, che hanno livelli di radioattività molto bassi (che decade molto rapidamente nel tempo) e prodotti per lo più da industrie mediche e chimiche.

Solo il 3% è quindi composto da rifiuti altamente radioattivi, generati come sottoprodotto delle reazioni nucleari. Benché, come detto prima, lo smaltimento geologico sia sicuro, disponiamo di un metodo brillante per riusare anche questi rifiuti in maniera assolutamente sicura: i reattori autofertilizzanti!

Già testati nei primi anni Sessanta, per ora realizzati solo su piccola scala e solo per prova, questi sistemi usano i materiali di scarto dei classici reattori nucleari per funzionare. Si chiamano autofertilizzanti proprio perché producono più materiale fissile di quanto ne consumino, “bruciando” isotopi del plutonio, cesio, torio e protoattinio, che per noi sono di difficile smaltimento.

Uno dei più famosi e studiati tipi di reattori autofertilizzanti è quello che sfrutta il ciclo del torio. Esso ha praticamente solo vantaggi rispetto ai convenzionali reattori che consumano uranio, ma per ora non è mai stato preso in considerazione a causa dei pochi studi effettuati, di costi di ricerca e sviluppo molto elevati e del lobbismo. Di seguito solo alcuni dei vantaggi:

  • la densità di energia è assai più densa: il CERN stima che 1 tonnellata di torio produca la stessa quantità di energia di 200 tonnellate di uranio-235, o 3 500 000 tonnellate di carbone.
  • nella crosta terrestre sono presenti 6 300 000 tonnellate di torio-232, che è subito utilizzabile senza bisogno di essere arricchito. Di contro, si stima che di uranio-235 ce ne siano solo 49 000 t. Le riserve di uranio finiranno tra qualche decennio o secolo, quelle di torio dureranno per millenni.
  • è autofertilizzante, quindi brucia isotopi radioattivi per noi scomodi, e la maggior parte delle scorie che produce sono innocue.
  • produce poco plutonio, è quindi più sicuro perché è difficile usarlo per costruire ordigni nucleari

Sono pochissimi gli elementi transuranici che non possono essere “bruciati” in un reattore autofertilizzante, eliminando così la maggior parte di quel 3% di scorie riducendole ad un numero assai trattabile.

La tecnologia forse più promettente è quella dei reattori a sali fusi: essi sono passivamente sicuri, poiché non hanno bisogno né di apporto esterno di energia né di personale umano. Il combustibile di questi reattori è una miscela di sali (tipicamente sali del torio, fluoro o del bario), che rimangono liquidi a una temperatura prestabilita dalla chimica delle loro molecole. Le caratteristiche più strabilianti sono forse i loro livelli di sicurezza.

Siccome lavorano a pressione atmosferica, non vi è rischio di esplosione e, fatto ancora più sorprendente, i reattori si raffreddano da soli: quando un materiale si riscalda, esso si espande, e così anche i sali fusi. Alla loro espansione, la reattività diminuisce, e di conseguenza anche la temperatura, che fa di nuovo contrarre il liquido, la cui reattività aumenta di nuovo, e così via in un circolo vizioso che si regola da solo, a una temperatura prestabilita, senza bisogno di intervento umano o artificiale alcuno.

Inoltre, nell’improbabile caso che la temperatura superi un certo limite di sicurezza, dato che i sali fusi sono liquidi, possono essere stoccati in serbatoi: ad una certa temperatura di soglia, una valvola si scioglie, e fa colare i sali fusi dal reattore in un serbatoio in cui sono presenti barre di controllo che arrestano i neutroni e arrestano immediatamente la reazione. Questa è la potenza del controllo passivo!

Tutti i più gravi incidenti nucleari mai avvenuti (Three Mile Island, Černobyl’ e Fukushima Dai-ichi) sono stati causati in buona parte dal fallimento dei sistemi di raffreddamento attivo. I nuovi reattori, non avendo bisogno di tali sistemi, eliminano il problema alla radice.

Vi sono innumerevoli altre tecnologie affascinanti di reattori, sia a sali fusi, che al torio, che convenzionali. Essi sono tutti intrinsecamente sicuri, impossibilitati ad esplodere o fondere grazie alle leggi della fisica. Un reattore non è in nessun modo paragonabile a un ordigno atomico. Sono anche estremamente puliti, producendo pochissime scorie o, come visto, talvolta addirittura bruciandole.

Non meno importante, essi sono molto più piccoli, poiché autonomi e non necessitano di raffreddamento attivo. Sono quindi installabili perfino in città, oppure in vecchie centrali termoelettriche a combustibili fossili per riconvertirle. Alcuni design sono addirittura dislocabili su mezzi di trasporto.

Altre tecnologie ancora, come la fusione nucleare, che sfruttano un principio totalmente diverso (invece di scendere gli atomi si fanno fondere insieme in un plasma caldissimo; è lo stesso processo che avviene nelle stelle), sono attualmente in fase di studio. Il più grande progetto, frutto di una collaborazione dei 27 stati dell’Unione Europea e altre sei nazioni, sta tentando di costruire un reattore pionieristico di questo tipo in Francia, che però dovrebbe essere in funzione non prima del 2025, e produrre sufficiente energia non prima della fine del decennio successivo.

Le tecnologie quindi esistono, sono trattabili e scalabili. Se solo investissimo di più in esse…

Ciò che si deve e ciò che si dà

Sicuramente il nucleare è una tecnologia non perfetta – nessuna lo è. Ha i suoi difetti, ma non è ignorandolo che si perfezionerà. E anzi, più investiremo e più lo useremo che migliorerà, e noi con esso. Il mondo deve riprendere a dedicarsi seriamente all’energia atomica.

Il problema è politico prima di tutto, non scientifico: se anche la cancelliera tedesca Angela Merkel, che ha un dottorato in chimica quantistica [21], e ben comprende i benefici dell’energia atomica, dal 2011 ha deciso di dire no a una fonte sicura, verde ed economica di energia e di sostituirla con quella più inquinante e funesta, le centrali a carbone, il futuro per il mondo non è roseo. E non a causa del nucleare.

Se vogliamo avere qualche possibilità di sopravvivere alla più grande sfida che l’umanità si sia mai trovata davanti, non dovremmo rinunciare a nessuno degli strumenti a nostra disposizione. Cambiare le cose non solo è possibile, è necessario.

Andrei Florea

Letture/visioni suggerite:

Bill Gates (2020), Clima. Come Evitare Un Disastro

Václav Smil (2010), Energy Myths and Realities

Václav Smil (2010), Energy Transitions: History, Requirements, Prospects

Gwyneth Cravens (2007), Il nucleare salverà il mondo

Hans Rosling (2018), Factfulness

https://ourworldindata.org/energy

Fonti:

1. https://ourworldindata.org/energy-mix#year-to-year-change-how-is-energy-consumption-by-source-changing

2. https://ourworldindata.org/greenhouse-gas-emissions#annual-greenhouse-gas-emissions-how-much-do-we-emit-each-year

3. https://news.mit.edu/2018/mitei-releases-report-future-nuclear-energy-0904

4. https://ourworldindata.org/grapher/elec-fossil-nuclear-renewables?tab=chart&country=~FRA&region=World

5. https://ourworldindata.org/grapher/electricity-prod-source-stacked?tab=chart&stackMode=relative&time=earliest..latest&country=~SWE&region=World

6. https://world-nuclear.org/information-library/country-profiles/countries-o-s/russia-nuclear-power.aspx

7. https://www.economist.com/graphic-detail/2018/08/07/russia-leads-the-world-at-nuclear-reactor-exports

8. https://pris.iaea.org/pris/CountryStatistics/CountryDetails.aspx?current=IT

9. https://www.iea.org/countries/italy

10. https://www.ft.com/content/000f864e-22ba-11e8-add1-0e8958b189ea

11. https://www.reuters.com/article/us-japan-fukushima-radiation-idUSKCN1LL0OA

12. http://ftp.iza.org/dp12687.pdf

13. https://www.economist.com/leaders/2021/03/06/nuclear-power-must-be-well-regulated-not-ditched

14. Sovacool, Benjamin K. et al., https://www.sciencedirect.com/science/article/abs/pii/S0959652615009877

15. https://www.who.int/en/news-room/fact-sheets/detail/ambient-(outdoor)-air-quality-and-health

16. https://www.who.int/teams/environment-climate-change-and-health/air-quality-and-health/ambient-air-pollution

17. https://ec.europa.eu/commfrontoffice/publicopinion/archives/ebs/ebs_227_en.pdf

18. https://www.world-nuclear.org/information-library/nuclear-fuel-cycle/nuclear-wastes/radioactive-waste-management.aspx

19. https://it.wikipedia.org/wiki/Centrale_elettronucleare#Il_nucleare_in_Italia

20. Kharecha, P.A. and J.E. Hansen, https://pubs.giss.nasa.gov/abs/kh05000e.html

21. https://it.wikipedia.org/wiki/Angela_Merkel#Biografia

22. https://www.iaea.org/newscenter/focus/chernobyl/faqs

23. Cardis et al., https://onlinelibrary.wiley.com/doi/epdf/10.1002/ijc.22037

24. https://www.unscear.org/docs/reports/2008/11-80076_Report_2008_Annex_D.pdf