Abbiamo un’altra arma per evitare la catastrofe climatica. Ma funzionerà davvero?

Tempo di lettura: 9 minuti.

Siamo sull’orlo della catastrofe, non c’è più tempo. Secondo il sesto e ultimo rapporto dell’IPCC (Gruppo Intergovernativo sul Cambiamento Climatico) la maggior parte dei cambiamenti già in atto è irreversibile, ed è improbabile che riusciremo a restare entro i parametri dei recenti accordi sul clima se non ci saranno ingenti spese di denaro pubblico (si parla di migliaia di miliardi di dollari di investimenti). Poche decine di gradi in più rispetto alla media globale fanno la differenza per milioni di specie, anche se l’incremento ci sembra insignificante. E fanno la differenza anche per noi.

Gli oceani stanno già morendo, gli animali soffocando, le tempeste e i fenomeni atmosferici rari diventano sempre più estremi e violenti (è stato stimato che solo durante i devastanti incendi in Australia tra la fine 2019 e l’inizio del 2020 siano morti 3 miliardi di animali). Fenomeni che prima accadevano solo una volta ogni 1000 anni, come le ondate di caldo estreme, ora accadono in media ogni 100, ed entro il 2040 potrebbero diventare comuni. Un recente rapporto della NOAA statunitense ha rilevato che il 2021 è stato il quarto anno più caldo per gli Stati Uniti dal 1895, da quando è iniziata la raccolta dati, e sei degli anni più caldi sono stati registrati negli ultimi dieci.

I recenti accordi climatici, da quello di Parigi del 2015 a quello dell’anno scorso a Glasgow impongono che, per mantenere la temperatura globale media ben al di sotto di 2 ℃ sopra i livelli pre-industriali, sia necessario non solo completamente fermare le emissioni di CO2 (il diossido di carbonio, comunemente noto come anidride carbonica) ma addirittura cercare di ottenere «emissioni negative». Secondo studî sempre più numerosi questo bisogno di «emissioni di carbonio negative» è sempre più impellente. Sempre l’IPCC stima che dovremmo rimuovere dall’atmosfera tra 100 e 1 000 Gt («gigatonnellate» = miliardi di tonnellate) di CO2 entro il 2100 per evitare effetti catastrofici (al momento ne emettiamo 51 miliardi ogni anno). Il problema è che nessuno ha una buona idea di come riuscirci esattamente.

Un canguro davanti a una casa in fiamme nel lago Conjola, nel Nuovo Galles del Sud, in Australia, 31 dicembre 2019. Crediti: © Matthew Abbott, The New York Times

La soluzione ovvia sarebbe piantare un sacco di alberi, per convertire la CO2 in legno (è ciò che fanno tutte le piante grazie alla fotosintesi, restituendo come prodotto di scarto il tanto gradito ossigeno). Ma questo significherebbe rimboschire un’area con una dimensione intermedia tra quella dell’India e del Canada (circa 5 milioni di km2), secondo le più recenti stime. Ciò non è chiaramente fattibile.

Si potrebbe anche provare a fertilizzare l’oceano, il più grande «polmone» terrestre (il 50–80% di tutto l’ossigeno che respiriamo sulla Terra proviene dagli oceani!) stimolando la crescita del fitoplancton, che restituisce ossigeno come scarto attraverso la fotosintesi, come le piante. Ma anche in questo caso, la vastità del progetto e i costi da sostenere fermerebbero un tale progetto prima che abbia modo di partire. 

E fino a oggi altre soluzioni alternative sono sempre state prese poco in considerazione a causa dei costi stratosferici, o perché poco efficaci, o per entrambi i motivi. La tecnologia della cattura del carbonio (carbon capture and storage, CCS) promette di rivoluzionare questo paradigma.

Come i vaccini a mRNA contro la COVID-19 e gran parte delle tecnologie avanzate che hanno del fantascientifico, la tecnologia CCS non è saltata fuori dal nulla. È da decenni che gli scienziati parlano di bilanciare le emissioni di gas serra catturando CO2 e immagazzinarla da qualche parte, e di conseguenza sperimentano questo tipo di tecnologia nelle più remote aree del pianeta terra e nei più avanzati progetti di ingegneria.

Un impianto della ClimeWorks per la cattura diretta dall’aria. Crediti: © ClimeWorks

Il primo problema è la cattura del CO2 stesso. Una soluzione, e la più intelligente quando disponibile, è la «cattura diretta dall’aria» (direct air capture, DAC): si installano attrezzature per il filtraggio per la cattura delle emissioni direttamente alla fonte, sulle ciminiere di centrali elettriche o fabbriche. Il vantaggio è che non solo possono lavorare giorno e notte, ma soprattutto non richiedono la conversione dell’intera centrale o fabbrica a un tipo di energia più pulita, abbattendo sensibilmente i costi di transizione energetica per la relativa filiera.

Lo svantaggio è legato principalmente al costo di una tale operazione, sia in termini di denaro, sia in termini di energia spesa per tenere in funzione suddette macchine. Ipotizzando però di riuscire ad alimentarle con energia pulita e a basso costo (sempre più fattibile considerando che il fotovoltaico e l’eolico sono ormai di gran lunga le forme di energia a più basso costo per kWh prodotto, con prezzi intorno a 0,04–0,12€/kWh), i costi potrebbero scendere intorno ai 100–200 dollari a tonnellata. È comunque più del costo schemi di negoziazione delle emissioni, ma non troppo distante dal prezzo di 100$ che la maggior parte degli economisti climatici ritiene sia necessaria per richiedere la transizione a un’economia mondiale più verde (a oggi i prezzi nell’UE sono intorno agli 80€ per tonnellata).

Sono già attivi alcuni impianti di sperimentazione dell’azienda canadese Carbon Engineering e da quest’anno dovrebbe avviare la costruzione del più grande impianto per la DAC in Texas, che prevede di completare nel 2025, e con una capacità di cattura stimata di 1 milione di tonnellate l’anno; l’azienda è confidente di riuscire a catturare carbonio a un costo medio stimato di 300 dollari per tonnellata. ClimeWorks, un’impresa svizzera, ha già aperto un impianto DAC in Islanda nel 2021 chiamato Orca, che seppellisce CO2 catturato in forma minerale a un tasso di 4 000 tonnellate l’anno.

Una volta catturato, il diossido di carbonio dev’essere immagazzinato da qualche parte, e definitivamente: non possiamo permetterci che esso abbia modo di scappare e ritornare nell’atmosfera. Per questo ci viene in aiuto la geologia.

Conoscenza solida

Una delle osservazioni più straordinarie e fondamentali del secolo scorso proviene da alcuni piccoli laboratori universitari di geologia sparsi per il globo e da una valle sperduta tra i monti Al Hajar, in una nazione non molto conosciuta, a est dell’Arabia Saudita: l’Oman. La valle è un deserto brullo, marrone, con solo qualche cespuglio qua e là, formato prevalentemente da una roccia chiamata peridotite, segnata dagli agenti atmosferici. Eppure questo luogo desolato potrebbe custodire un processo chiave per la nostra sopravvivenza.

Jabal Shams, «la montagna del Sole», è la cima più elevata dell’Oman. Crediti: © Wikimedia Commons

Quando piove, l’acqua piovana percola dalle crepe nella roccia, e porta con sé ossigeno e diossido di carbonio disciolti nell’aria. Acqua e gas reagiscono con la roccia formando vene solide di nuovi minerali (carbonati) che, come radici di alberi, scavano sempre più in profondità nella pietra. E come per magia, l’anidride carbonica si trasforma in roccia. Questo processo di carbonatazione è probabilmente il miglior modo di immagazzinare CO2: è un processo che la natura già attua, non occupa spazio in superficie, non c’è bisogno di gestire bombole con CO2 sotto pressione e a temperature criogeniche che rischierebbero di esplodere, e i sottoprodotti sono rocce stabili che possono essere usate anche per altre applicazioni industriali. Ma il punto fondamentale è che non c’è modo per la CO2 di «sfuggire»: il carbonio è chimicamente incastrato nella roccia tra atomi di ossigeno e altri minerali. E l’acqua carbonata iniettata è più densa dell’acqua circostante nella formazione geologica e quindi ha la tendenza ad affondare dopo che è stata iniettata, contribuendo alla permanente fissazione del carbonio senza necessitare ulteriori “tappi”.

Peter Kelemen, geologo della Columbia University, e suoi colleghi, stimano che le rocce in Oman assorbano e pietrifichino ogni anno fino a 100 000 tonnellate di CO2, circa un grammo di gas serra per metro cubo di roccia. Questo avviene in modo del tutto naturale già da milioni di anni! Un piano proposto da Kelemen prevede di accelerare le reazioni naturali trivellando il terreno per alcuni chilometri (fino a 3000 metri di profondità), dove le rocce sono più calde, e pompare acqua di mare satura di CO2 estratta dall’aria con la DAC. A quelle profondità le rocce hanno una temperatura media di 100 ℃, che accelera le reazioni di carbonatazione (anche di migliaia di volte, secondo le simulazioni) e vaporizza l’acqua aiutandola a tornare in superficie senza l’ausilio di pompe artificiali.

Kelemen e un collega studiano i minerali di peridotite sulle montagne di Al Hajar, in Oman. Si notino le vene bianche di carbonati formati in milioni di anni grazi al processo naturale di carbonatazione. Crediti: © Columbia University

Ma è possibile costruire l’infrastruttura necessaria per attuare un simile piano, in tempi brevi e con costi quanto più possibile ridotti?

Una corsa contro il tempo

Il basalto è una roccia grigio-nera e densa, derivata dal mantello, punteggiata di piccole bolle. Contiene meno minerali della roccia dell’Oman, ma comunque più rispetto ad altre rocce della superficie terrestre. Il vantaggio però è che il basalto è uno dei principali componenti della crosta terrestre, coprendo circa il 5% dei continenti e la maggior parte del pavimento oceanico. Per cercare di sfruttarlo, la società islandese Reykjavík Energy ha dato il via a un esperimento di iniezione di CO2, chiamato Carbfix, presso l’impianto geotermico di Hellisheiði. Dal 2012 alcuni macchinari hanno separato CO2 dagli scarichi della centrale e li hanno iniettati nel basalto sottostante attraverso pozzi a una profondità di 400 e 800 metri. Nel corso di due anni, il 95% era stato correttamente immagazzinato nei carbonati. Da allora, il progetto ha permesso di immagazzinare circa 10 000 tonnellate di CO2 all’anno. L’obiettivo della società è riuscire ad accumulare un miliardo di tonnellate entro il 2030. E è stato stimato grazie al solo basalto presente in Islanda, potrebbero essere immagazzinate 400 Gt di CO2.

Un’altra azienda con sede in Oman, la 44.01 (che prende il nome dal peso molecolare medio del CO2) dovrebbe iniziare le operazioni commerciali già da quest’anno. Useranno acqua dolce, o anche acque di scarico trattate, per portare ogni anno 10 000 tonnellate di gas in un singolo pozzo, con l’obiettivo di arrivare fino a 100 000 tonnellate l’anno e 1 Gt complessiva entro il 2030.

Per immagazzinare 1 Gt di CO2 l’anno in Oman, Kelemen e i suoi colleghi hanno calcolato che, sotto opportune condizioni di concentrazione del gas dell’acqua di mare facilmente ottenibili con i macchinari odierni, sarebbero necessari 5 000 pozzi di iniezione. Insieme pomperebbero un totale di 23 km3 d’acqua ogni anno, circa l’1,5% della portata media del Po, o il 21% di quella dell’Arno. Sembra un’operazione di un’entità sconvolgente, ma l’emergenza climatica richiede interventi drastici, e non possiamo permetterci di scartarne nemmeno uno. E il costo dell’inazione potrebbe essere decine di volte più elevato, senza contare quello inestimabile della perdita di vite umane, specie viventi e distruzione ambientale. Solo negli Stati Uniti gli eventi estremi del 2021 (gelo e siccità estremi, incendi boschivi, uragani e cicloni) hanno causato perdite stimate per 145 miliardi di dollari. È stato il terzo anno più costoso nella storia del paese, e il numero di eventi catastrofici da più di 1 miliardo di dollari è cresciuto in maniera sostenuta nell’ultimo decennio.

Un deserto dell’Oman. Crediti: © 44.01

Con i suoi 15 000 metri cubi di roccia il deserto dell’Oman potrebbe diventare uno dei più grandi bacini naturali di immagazzinamento del diossido di carbonio. E dalla superficie terrestre emergono affioramenti simili in Alaska, Canada, California, Islanda, Nuova Zelanda, Giappone. Kelemen stima che in tutto il mondo queste rocce possano immagazzinare da 60 000 a 600 000 Gt di CO2: da 25 a 250 volte la quantità emessa in atmosfera dall’umanità a partire dal 1850.

Il costo del disastro

Come spesso accade nella storia delle azioni umane, i ricchi fanno i disastri e i poveri ne pagano le conseguenze. II paesi con meno risorse hanno meno capacità di quelli più sviluppati di adattarsi al cambiamento dei movimenti meteorologici, e tendono inoltre a essere più vicini all’equatore, dove il clima sta diventando più instabile che da altre parti. Mentre il mondo si scalda, saranno loro a soffrire di più, e ad avere meno risorse per difendersi. Il Programma delle Nazioni Unite per l’Ambiente (UNEP) stima che entro il 2030 i paesi poveri dovranno spendere 140–300 miliardi di dollari all’anno per misure di adattamento, come le difese costiere e i progetti di riforestazione, se vogliono evitare i danni causati dai cambiamenti climatici.

Attualmente, la Carbfix mineralizza CO2 a un costo di circa 25 dollari per tonnellata, in linea con la fascia di prezzo per la riforestazione. Uno studio dell’Università della Pennsylvania ha stimato che i costi complessivi di cattura e immagazzinamento di CO2, inclusi gli stipendi degli operatori e le spese di costruzione e manutenzione delle attrezzature per vent’anni variano tra 120–220 dollari per tonnellata eliminata. Questa però è una stima che non considera l’innovazione: attualmente gli impianti sono di modeste dimensioni, e se questa tecnologia verrà adottata su larga scala, i costi potrebbero abbattersi drasticamente.

Non è necessario però arrivare a mineralizzare gigatonnellate di CO2 entro i prossimi cinque anni però: come per ogni tecnologia all’inizio della sua evoluzione, servono una serie di strutture gradualmente più grandi da cui imparare, per migliorare l’efficienza e i costi. È solo così che riusciremo ad abbattere gradualmente il prezzo e scalare la tecnologia a livello mondiale.

Una proprietà eccezionale della peridotite è la sua potente spinta chimica a reagire con l’anidride carbonica, non disponibile nel suo normale habitat nelle profondità della terra, ma abbondante nell’aria o nelle acque sotterranee vicino alla superficie. La reazione forma carbonato, un minerale che blocca il carbonio in forma solida. Crediti: © Columbia University

Operazione fumo negli occhi

Non dobbiamo però lasciarci abbindolare da una tecnologia al limite del fantascientifico come questa e usarla come scusa per non aumentare i nostri sforzi di riduzione delle emissioni e transizione a un’economia verde e circolare.

ENI ha di recente proposto lo «sviluppo del primo hub [sic] di decarbonizzazione nell’Europa meridionale costruendo a Ravenna un sistema di cattura, trasporto e iniezione del carbonio, prodotto dal distretto industriale di Ravenna-Ferrara-Porto Marghera, nonché dalla produzione di idrogeno decarbonizzato e di energia elettrica, negli esistenti giacimenti esauriti nel mare Adriatico», con un finanziamento da 1,35 miliardi di euro dal PNRR e altri milioni dalla Commissione Europea. 

In Italia, decine di personalità del mondo accademico si oppongono fermamente a questa proposta. In una lettera aperta denunciano la non accettabilità socio-economica e industriale di questi progetti per come sono stati condotti fino a ora. «Proporre lo stoccaggio e l’uso della CO2 rappresenta un alibi straordinario per continuare a produrre anidride carbonica contribuendo all’attuale trend di crescita esponenziale del disastro ambientale. E perseverando scelleratamente a privatizzare utili e socializzare i costi» si legge nell’appello sottoscritto da cinquantatré accademici indirizzato al presidente della Repubblica Mattarella e al presidente del Consiglio Draghi.

In particolare, i firmatari sostengono che la tecnologia CCS si candida a essere una comoda scorciatoia e rischia di compromettere seriamente un percorso di decarbonizzazione del sistema di produzione e consumo che dovrebbe avere invece nella sua razionalizzazione il taglio selettivo dei consumi energetici.

Tra i firmatari c’è anche Ugo Bardi, docente di Chimica Fisica presso l’Università di Firenze. «I risultati sono chiari—commenta Bardi—: per ogni combinazione ragionevole dei parametri, l’energia rinnovabile vince sul “sequestro” del carbonio. Il vantaggio, non solo monetario, suggerisce che dovremmo impegnarci al massimo in questa direzione per combattere i cambiamenti climatici».

E anche Bruxelles ha dato il suo no, sostenendo che per avere un’Unione Europea a emissioni zero nel 2050 si possa e si debba fare a meno della CCS.

Luce (e roccia) in fondo al pozzo

La proposta di ENI è però sostanzialmente diversa da quella esemplificata in questo articolo. Essa prevederebbe, infatti, l’iniezione e l’immagazzinamento del CO2 nei pozzi di idrocarburi in via di esaurimento o già esauriti, e questo darebbe nuova linfa alle attività estrattive di gas e petrolio, contribuendo ulteriormente all’arricchimento di ENI e della cancerogena industria di cui fa parte. Il carbonio così immagazzinato, inoltre, non sarebbe fissato in modo permanente attraverso la carbonatazione, presentando quindi un maggior rischio di fuoriuscite nel tempo.

Per di più ENI è una compagnia petrolifera tra le principali responsabili delle emissioni di gas climalteranti, e un punto di vista morale suggerisce che gli ingenti profitti che una tecnologia come la CCS porterebbe non dovrebbero andare in mano ai soli privati, e per di più a uno dei principali fautori dell’ambiente tossico in cui il Pianeta adesso si trova. E ENI sa perfettamente che questa tecnologia costituisce un’arma formidabile per sviluppare un nuovo mercato, con potenzialità e profittabilità come pochi altri.

Sia l’IEA (Agenzia Internazionale dell’Energia) che l’IPCC sono tuttavia favorevoli in qualche misura all’adozione della tecnologia CCS. Essa non è di certo la soluzione ai problemi enormi e drastici del cambiamento climatico. Né dovremmo investire più risorse in questa tecnologia di quante ne investiamo per la vera produzione di energia pulita, di materie prime pulite (cemento e acciaio in primis), per efficientare le nostre case e per transitare verso una mobilità sostenibile su scala globale.

L’industria delle emissioni negative è appena nata: si trova al punto in cui era il settore petrolifero a metà Ottocento, quando ancora a dominare era l’industria dell’olio di balena. Via via che nuove ricerche e nuovi finanziamenti verranno effettuati, essa migliorerà, e arriverà a poter essere considerata un’arma efficace e pulita per combattere il cambiamento climatico da affiancare a quelle che già abbiamo, soprattutto durante questo primo periodo di transizione a forme di energia più verde. E i deserti dell’Oman e i fondali oceanici potrebbero rivelarsi alcuni tra i nostri migliori alleati.

Andrei Florea

Pubblicità

I 50 anni del microprocessore

Tempo di lettura: 2 minuti.

Il 15 novembre 2021 il microprocessore ha contato 50 anni dal suo primo annuncio ufficiale. Il capostipite di questi dispositivi è l’Intel 4004 e la sua entrata in scena nel 1971 ha dato inizio all’era tecnologica.


Agli addetti ai lavori è ben nota l’importanza di questo avvenimento, ma alla maggior parte delle persone forse non è ben chiaro cosa sia e cosa faccia esattamente un microprocessore (abbreviato µP). Proviamo a fare chiarezza in modo semplice.


Ognuno di noi, alle prese con l’acquisto di un nuovo PC o smartphone, ha sentito nomi come Snapdragon, Intel Pentium, AMD e caratteristiche come dual-core, quad-core e octa-core. Tutto ciò attiene al microprocessore contenuto nel dispositivo.


Gli apparecchi di cui facciamo largo uso sono in generale dei “calcolatori”, sono cioè delle macchine che svolgono una gran quantità di operazioni complesse. Tali operazioni non sono fini a sé stesse (come per la calcolatrice), ma sono volte a far sì che possiamo leggere un documento, ricevere e guardare un video, telefonare ad una persona, giocare ad un videogioco e moltissimo altro. Il “cervello” che gestisce ogni operazione è proprio il µP. Si tratta, fisicamente, di un dispositivo molto piccolo, come suggerisce il nome, che elabora o “processa” segnali elettrici ed esegue istruzioni.


In realtà i calcolatori esistevano ben prima della venuta del microprocessore, ma la novità che il 4004 costituiva era data dal fatto che la CPU (Central Processing Unit, l’unità che svolge i calcoli ed esegue le istruzioni) era realizzata per la prima volta interamente su un’unica piastrina di semiconduttore, anziché essere composta da elementi distinti e poi interconnessi mediante fili o piste metalliche. In un unico chip si aveva un sistema di elaborazione completo, si trattava cioè di un circuito integrato – integrato appunto in un’unica piastrina di silicio -.

L’Intel 4004. In basso a destra si possono notare le iniziali stampate F.F. (Federico Faggin)


Ciò che può sorprendere i più è che l’uomo dietro al 4004 è un italiano, il vicentino Federico Faggin. Classe 1941, laureatosi cum laude in fisica nel 1965 presso l’Università di Padova, si trasferì nella fiorente Silicon Valley nel 1968, dove lavorò dapprima per la Fairchild ed in seguito per la Intel. Qui nel 1970 prese in mano un progetto commissionato dalla giapponese Busicom, che fino ad allora era stato tralasciato. Grazie all’innovativo espediente da lui ideato per implementare su silicio i componenti circuitali e lavorando senza sosta per mesi, Faggin riuscì a compiere l’impresa di realizzare il primo processore in un unico circuito integrato: il microprocessore. Rispetto ai dispositivi esistenti occupava molto meno spazio, era più veloce e consumava meno potenza.


Come egli stesso racconta nella sua autobiografia “Silicio”, edita da Mondadori, i contemporanei non ebbero immediatamente coscienza dell’avanzamento che il µP rappresentava, tant’è che il fisico si decise a lasciare Intel per fondare la propria azienda (Zilog) e dovette combattere una lunga battaglia legale e culturale per ottenere la paternità della sua invenzione.


Tutti noi, soprattutto noi studenti, dobbiamo molto al microprocessore. Senza di esso diremmo addio ai computer, agli smartphone, a tutti quegli strumenti che ci hanno permesso di non fermarci durante la pandemia di COVID-19. Abbiamo visto inoltre come la crisi dei semiconduttori abbia gravi conseguenze sul mercato, proprio perché non si riesce a fornire tanti microprocessori quanto il bisogno richiede.


La storia del microprocessore ci insegna che ogni valida intuizione deve lottare e farsi strada per emergere, ma questo non ci deve impedire di propugnarla, né ci giustifica a rinunciare, perché la rinuncia potrebbe significare una perdita assai più grave di qualsiasi fatica possa essere necessaria.

Lorenzo Luzzo

Robotica e bioingegneria: storia e futuro del nostro cervello

Tempo di lettura: 7 minuti.

Per decenni, gli studiosi di intelligenza artificiale e neuroscienziati hanno cercato di creare una coscienza artificiale, una mente sintetica. Raggiungere questo obiettivo risponderebbe a molte domande filosofiche interessanti su cosa significhi essere umani e su cosa siano la coscienza e il pensiero, oltre che potenzialmente poter risolvere una quantità spropositata di malattie neurodegenerative. È uno dei più antichi e affascinanti interrogativi capire come un chilogrammo e pochi etti di materia eccitabile siano responsabili della visione, del movimento, della sofferenza e dell’amore. Ma ancora non siamo arrivati a quel punto.

Nel frattempo, però, da anni è iniziata una rivoluzione silenziosa nel mondo delle neuroscienze e della bioingegneria. Queste discipline hanno compiuto progressi significativi nella comprensione del funzionamento del cervello, partendo da funzioni di primo livello come pensare, ragionare, ricordare e vedere, e suddividendole in componenti sottostanti. Per fare questo, i ricercatori hanno studiato singole regioni del cervello e sviluppato «protesi cerebrali» e «interfacce neurali». L’obiettivo non è sviluppare una coscienza artificiale (per ora), bensì è più pragmatico: trovare una cura per malattie come il morbo di Parkinson, l’Alzheimer, la sindrome di Tourette, l’epilessia, la paralisi e una miriade di altri disturbi legati al sistema neurvoso.

Per creare un’interfaccia tra la componentistica a base di silicio da un lato e le cellule cerebrali dall’altro, le due entità devono parlare la stessa lingua. I ricercatori hanno fatto grandi progressi nella comprensione del funzionamento a livello neurale della coclea dell’orecchio e della retina dell’occhio, e questi progressi hanno portato a sviluppi come l’impianto cocleare (un dispositivo in grado di restituire una parvenza di udito alle persone gravemente sorde), e una recente interfaccia cervello-macchina fornisce a persone che hanno per la vista una limitata capacità di percepire la luce. Il dispositivo, conosciuto come Orion, è prodotto dalla Sight Medical Products di Los Angeles: una minuscola videocamera, montata sugli occhiali, converte le immagini in impulsi elettrici e li invia in modalità wireless a 60 elettrodi impiantati nella corteccia visiva dei pazienti. Le persone con questo dispositivo sperimentale percepiscono nuvole di puntini luminosi, che permettono loro di orientarsi. «È ancora una meraviglia ogni volta che l’accendo» riferisce un partecipante allo studio.

Poter restituire anche solo parzialmente la vista a chi l’ha persa è un sogno a lungo coltivato: milioni di persone nel mondo vivono con deficit di entrambi gli occhi, causati dalla retinite pigmentosa, dalla degenerazione maculare, glaucomi, infezioni, tumori o traumi.

Per far funzionare queste e altre interfacce future, però, serve una comprensione più profonda del funzionamento dell’intero cervello. E quello che per ora gli scienziati capiscono molto meno bene è come comunica il sistema nervoso centrale.

Elettricità cerebrale

Per quel che sappiamo, i sistemi nervosi funzionano gestendo un flusso di correnti elettriche che attraversano reti ultradense e iperconnesse di neuroni, che fungono da elementi di commutazione, cioè un po’ come interruttori e relè, o come i transistori dei moderni microprocessori. Già il fisico e fisiologo Luigi Galvani, a fine Settecento, fece esperimenti per capire il funzionamento del sistema nervoso: con una rana appena morta, collegando un filo ad una sua zampa e puntando il filo in cielo a mo’ di parafulmine durante una giornata tempestosa, notò che la zampa si contraeva a ogni lampo. Ipotizzò quindi che le fibre nervose trasportassero una qualche specie di «elettricità animale» non tanto diversa dall’elettricità che i fisici cominciavano a studiare in quei decenni. Nel 1802 poi, Giovanni Aldini, nipote di Galvani, durante un evento pubblico stimolò elettricamente il cervello di un prigioniero decapitato: la mascella tremò, e un occhio si aprì. L’evento, come intuibile, generò molto scalpore e inorridimento, e probabilmente contribuì a ispirare Mary Shelley per la scrittura del suo famoso romanzo gotico Frankenstein.

Luigi Galvani, De viribus electricitatis in motu musculari commentarius, 1792. Esperimenti sulle rane. Crediti: © AlessandroVolta.it

Interfacce neurali passate e future

La storia delle protesi e interfacce cerebrali è molto lunga. È emersa una nuova capacità,attraverso cui il cervello umano potesse comunicare direttamente con l’ambiente da quando il medico tedesco Hans Berger (1873 – 1941) inventò, intorno agli anni Venti del Novecento, l’elettroencefalogramma (EEG). Da quel momento, i laboratori statunitensi in primis, in linea con una tendenza che vedeva, e vede tutt’ora, la crescita esponenziale di malattie neurodegenerative, si sono interessati allo sviluppo di sistemi elettroencefalografici in grado di garantire un margine accettabile di autonomia-comunicativa ai soggetti con gravi disabilità. Medici, scienziati e ingegneri si dedicano alle protesi visive fin dagli anni Sessanta. Ed è in quegli anni che venne per la prima volta introdotto il concetto di interfaccia uomo-macchina (brain-computer interface, BCI).

Le prime ricerche sulle BCI sono iniziate negli anni Settanta presso la University of California Los Angeles, e nel giro di pochi decenni sono stati dimostrati metodi e tecnologie di interazioni dirette uomo-macchina prodotte da segnali neurali catturati con metodi prima invasivi (elettrodi impiantati) poi semi-invasivi (elettrodi a contatto), recentemente non invasivi (campi elettromagnetici, ultrasuoni). L’ultima frontiera consiste nell’impianto diretto di elettrodi e circuiti integrati nella corteccia cerebrale, finalizzati alla cattura e all’elaborazione dei segnali neurali generati dalle attività di comunicazione e di formazione del pensiero negli esseri umani. 

E al giorno d’oggi il progresso tecnologico delle interfacce neurali sembra procedere a passo spedito. Ad aprile di quest’anno la Neuralink, una società dell’imprenditore Elon Musk, ha diffuso un incredibile video che mostra una scimmia giocare al videogioco Pong senza alcun controllore o interfaccia fisica. Ci riesce grazie a due circuiti integrati (‘chip’) impiantati nella corteccia motoria sinistra e destra. Ciascun chip ha 1024 elettrodi filiformi che registrano l’attività elettrica (detta “chiacchiericcio”) di singoli neuroni. Collettivamente essi trasmettono l’intenzione di muovere le racchette su o giù per rispedire la pallina dal lato opposto. E tutto ciò avviene in modalità senza fili (‘wireless’): nessun componente elettronico né fili penzolanti protrudono dalla testa della scimmia.

Illustrazione di un progetto concettuale dell’interfaccia neurale di Neuralink. Crediti: © Neuralink.

Storie tricolore

Come in molte grandi scoperte scientifiche e cambi di paradigma, l’Italia ha giocato e gioca tutt’ora un ruolo importante nello sviluppo della bioingegneria, delle neuroscienze e delle interfacce uomo-macchina. Eppure talvolta i nomi di tali innovatori rimangono ignoti ai più o finiscono per essere quasi dimenticati dalla storia. Citiamo, ad esempio, il grande fisico ed imprenditore italiano Federico Faggin, un pioniere delle interfacce uomo-macchina (puntatore, tastiera e schermo tattile sono tutti considerati interfacce uomo-calcolatore, o human-computer interfaces).

Federico Faggin alla Cygnet con il Communication CoSystem, 1984. Crediti: © Federico and Elvia Faggin Foundation.

Oltre ad essere stato l’inventore del primo microprocessore della storia, l’Intel 4004 (proprio il 15 novembre è ricorso il cinquantesimo anniversario di questa straordinaria invenzione: date un’occhiata ai post e alle storie pubblicate sulla nostra pagina Instagram), Faggin ha anche fondato due importanti aziende che hanno avanzato gli studî nel campo delle BCI: la Synaptics e la Cygnet Technologies. Quest’ultima, fondata nel 1980, è nota soprattutto per aver progettato e prodotto il Communication CoSystem, una periferica innovativa che consentiva di collegare calcolatore personale e telefono per la trasmissione di voce e dati, rappresentando un notevole progresso nel campo emergente delle comunicazioni personali. Nel 1986, mentre tutti i colossi dell’informatica si affannano a trovare un degno sostituto del puntatore da utilizzare sui nascenti calcolatori portatili, Faggin fonda Synaptics, che contribuirà, a partire dalla sua messa in commercio nel 1994, alla diffusione del tappetino tattile (‘touch-pad’), tecnologia che costituisce la base per gli schermi tattili (‘touch-screens’) e la rivoluzione dei cellulari intelligenti che sfruttano tale tecnologia.

Una visione ravvicinata del Synaptics i1000, il primo circuito neurale della storia. Crediti: © Federico and Elvia Faggin Foundation.

Ma il prodotto forse più sorprendente della Synaptics fu un circuito integrato visionario, il cui intento fu il nome dell’azienda stessa: il primo circuito sinaptico, una rete neurale sperimentale dotata di una logica interna che riproduce le connessioni del cervello umano: migliaia di processori neurali correlati simulano i neuroni e i collegamenti fra questi ultimi (sinapsi), elaborando non più dati sotto forma di relazioni matematiche, ma esperienze. Si chiamava Synaptics i1000, ed emulava la retina dell’occhio umano per catturare le immagini del carattere e la capacità cerebrale umana di classificare i caratteri scritti a mano: era in grado di riconoscere fino a 20mila caratteri al secondo con un’affidabilità prossima al cento per cento. Correva l’anno 1991, e da solo qualche mese era stata pubblicata la prima pagina sul World Wide Web, effettuata la prima chiamata GSM commerciale in Finlandia e Linus Torvalds aveva appena iniziato a programmare il kernel Linux (il codice che permette al vostro cellulare, tra le altre cose, di farvi vedere questa pagina web e a questo stesso testo di essere presente in rete).

«Godi, Fiorenza, poi che se’ sì grande / che per mare e per terra batti l’ali […]»

Il 3 dicembre ricorre la Giornata internazionale delle persone con disabilità e, oltre a numerose aperture straordinarie di musei e visite guidate, anche Firenze sta dando il suo cospicuo contributo, stavolta però non nel campo delle interfacce neurali o protesi, bensì della bioingegneria della riabilitazione. Il Ring@Lab dell’Università di Firenze è un laboratorio che sperimenta nuove tecnologie come intelligenza artificiale e robotica, con l’obiettivo di migliorare i tempi di recupero dei pazienti e monitorare con precisione le terapie, nell’ambito del progetto “REHub” finanziato dalla Fondazione CR Firenze. Il tutto utilizzando strutture ad alta tecnologia. Il laboratorio è infatti dotato di occhiali per la realtà virtuale ed aumentata, sensori per la rilevazione dei movimenti degli arti, insieme a scansori (o scanditore, dall’inglese ‘scanner’) e stampanti 3D per progettare e produrre esoscheletri robotici.

Un paziente in riabilitazione al Ring@Lab dell’Università di Firenze. Crediti: © Nove da Firenze.

Come possono andare a braccetto ingegneria e medicina? L’esempio arriva da un paziente che, dopo un ictus, deve fare riabilitazione alla mano. Lo scansore 3D rileva l’arto, e successivamente la stampante 3D progetta una specie di scheletro robotico personalizzato che si interfaccia con il paziente per facilitargli i movimenti, mentre un sistema di mappatura nervoso valuta l’andamento della riabilitazione. Il progetto permette di poter eseguire il tutto da casa, senza bisogno di ricovero e con controllo a distanza, con conseguente riduzione generale dei costi e il prolungamento della terapia a beneficio dei risultati.

Se siete interessati al progetto vi potete candidare: sono in arrivo cinque assegni di ricerca biennali per altrettanti ricercatori del Ring@Lab.

Andrei Florea

Verso nuove frontiere del Sistema Solare

Tempo di lettura: 5 minuti.

Probabilmente molti di noi ricorderanno il 2021 come uno dei peggiori anni della storia recente. Ma di sicuro non la comunità mondiale di astronomi, astrofili e appassionati di scienza in generale, poiché quest’anno sarà uno dei più prolifici in termini di esperienze spaziali della storia recente dell’umanità! Ben tre missioni spaziali stanno per essere lanciate o sono già partite per la loro destinazione finale, e due di queste hanno come obiettivo primario lo studio di asteroidi. Avete capito bene: di solito molti di noi pensano agli asteroidi come semplici palle di roccia più o meno grandi poco significativi, e che di tanto in tanto possono causare grossi guai a un pianeta se ci passano troppo vicino, e niente di più – di sicuro non come oggetti astronomici degni di studio scientifico approfondito. Ma vediamo perché è di primaria importanza studiare questi nostri piccoli vicini nel grande condominio del Sistema Solare.

Diamanti nel Cielo

La prima e la più carica di strumentazione scientifica è la missione Lucy della NASA, partita il 16 ottobre scorso dal Complesso di Lancio 41 a Cape Canaveral, in Florida. Lucy viaggerà per 12 anni prima di arrivare al suo obiettivo primario: l’asteroide «Patroclo» (617 Patroclus), un asteroide troiano orbitante intorno al punto di Lagrange L5 di Giove.

Facciamo però un passo indietro. Gli asteroidi troiani sono due famiglie di asteroidi in orbita attorno ai punti di Lagrange L4 ed L5 di Giove, che stanno cioè “davanti” e “dietro” a Giove sulla sua orbita. I punti di Lagrange sono quei punti immaginarî nello spazio che si formano quando due corpi molto massivi orbitano l’uno intorno all’altro: l’interazione gravitazionale reciproca contente di avere dei punti in cui questa interazione è nulla (intuitivamente, in questi punti un corpo “tira” a sé quanto l’altro, e quindi la forza gravitazionale media in quel punto è nulla); di conseguenza, alcuni corpi più piccoli e meno massivi dei due possono restare in orbita intorno a questi punti. Ed è esattamente ciò che fanno gli asteroidi troiani.

Schema dei punti di Lagrange intorno a due corpi generici. Crediti: Wikimedia Commons
Gli asteroidi troiani in orbita “davanti” e “dietro” Giove. Crediti: Wikimedia Commons

L’obiettivo della missione Lucy è fare luce sulla storia della formazione dei pianeti del Sistema Solare, e in ultima analisi del nostro pianeta: gli asteroidi infatti possono essere considerati i “fossili della formazione planetaria”, poiché formati da materiale ammassatosi insieme nella prima storia della formazione del Sistema Solare per formare pianeti e altri corpi.

È questo il motivo del nome della missione: come la scoperta dell’ominide australopiteco Lucy, avvenuta il 24 novembre 1974 da parte del paleoantropologo Donald Johanson e del suo team, fece luce sulla storia e l’evoluzione dell’umanità, la missione Lucy tentare di fare altrettanto. Se non lo sapevate, Lucy si chiama così perché la sera della scoperta essi stavano ascoltando la famosa canzone dei Beatles “Lucy in the Sky with Diamonds”. Tra l’altro, è un fortunato caso: secondo gli studiosi su Giove si verificano le condizioni ideali affinché i diamanti si formino in alta quota, quando i fulmini innescano nel metano cambiamenti chimici che portano i nuclei di carbonio ad assumere la forma cristallina dei diamanti. Secondo una prima stima, si formerebbero circa mille tonnellate di diamanti all’anno. Su Giove quindi potrebbero letteralmente piovere diamanti dal cielo come i Beatles avevano immaginato!

Per realizzare questa promessa, il veicolo stellare farà diversi fly-by di ben otto asteroidi: il primo della serie ad essere raggiunto sarà 52246 Donaldjohanson (chiamato così proprio in onore del paleoantropologo su citato), un asteroide della fascia principale (tra Marte e Giove), il 20 aprile 2025. Gli altri sette asteroidi fanno parte della fascia dei troiani, e sono Eurybates, Polymele, Leucus, Orus, Patroclus e Moenetius. Tra questi ultimi, 627 Patroclus è sicuramente la star: non solo è il più grande, ma è anche il primo asteroide mai scoperto ad avere in orbita a sé un altro asteroide (Menezio, battezzato così in onore dell’argonauta greco padre di Patroclo)!

La sonda spaziale Lucy in scala. Crediti: NASA

Nel corso della sua visita, Lucy percorrerà più di un miliardo di chilometri, e al termine della missione si metterà in orbita stabile tra la Terra e il Sole, servendo da capsula del tempo per le future generazioni (o futuri visitatori interstellari della terra!).

Segnatevi la data del 2033 quindi, quando Lucy inizierà a inviarci spettacolari immagini mai viste prima di questi antichi oggetti.

Una curiosità: data la divisione di questi asteroidi in questi due campi intorno ai punti di Lagrange, i primi scopritori di questi corpi celesti, all’inizio del Novecento, si sono divertiti a chiamarli dopo gli eroi greci e troiani della guerra di Troia rispettivamente quelli in L4 e in L5. Tuttavia, a causa della loro scoperta prima che questa convenzione fosse adottata, gli asteroidi 627 Patroclus (Patroclo) e 624 Hektor (Ettore) si trovano nei campi opposti rispetto a quelli a cui dovrebbero appartenere. Si potrebbe proprio dire che entrambe le famiglie hanno una spia dell’altro fronte in mezzo ai proprî simili!

Giocare a freccette galattiche

Il 24 novembre, anniversario della scoperta di Lucy, dovrebbe seguire un’altra missione statunitense verso alcuni asteroidi: DART acronimo di Double Asteroid Redirection Test («test di redirezionamento di due asteroidi»). La missione, tuttavia, ha uno scopo più pratico di quello di Lucy: essa valuterà la fattibilità di cambiare la traiettoria di un asteroide, nel caso in cui ne venisse scoperto uno che minaccia di scontrarsi con la Terra (“dart” in inglese significa proprio «dardo, freccetta»).

DART, una sonda del peso di 600 kg, è destinata a schiantarsi, nel settembre 2022, su Dimorphos, un minuscolo asteroide in orbita attorno a uno più grande, Didymos, a una velocità di 6,2 km al secondo. L’intenzione è quella di alterare la velocità dell’orbita di Dimorphos di circa mezzo millimetro al secondo, accorciando così il suo periodo orbitale, ora di 11,9 ore, di una decina di minuti.

La missione DART nella NASA in un’illustrazione artistica. Crediti: NASA/Johns Hopkins Applied Physics Lab

La missione è di fondamentale importanza per la salvaguardia del nostro pianeta: Didymos ha un diametro di 780 metri, e se un oggetto di quelle dimensioni colpisse la Terra potrebbe devastare un mezzo continente, provocando tempeste di fuoco e un successivo raffreddamento del clima che potrebbe durare per anni. Sarebbe un disastro di proporzioni mai viste.

Tranquilli però, non c’è motivo di preoccupazione! Nel caso in cui la missione non andasse secondo i piani, non c’è modo che essa modifichi l’orbita del sistema asteroide-luna tanto da metterlo in rotta di collisione con la Terra: la forza dell’impatto è comunque minima, e nel peggiore dei casi può modificare solo di qualche minuto il periodo orbitale di Dydymos, neanche lontanamente abbastanza da curvare la traiettoria tanto da farla puntare verso di noi.


C’è anche una parte di Italia (ed Europa) in questa missione. Poco prima dello schianto, la sonda rilascerà dietro di sé un piccolo satellite, non più grande di una scatola di scarpe: è LICIACube, un cubesat (cioè piccolo satellite a forma cubica) italiano, realizzato a Torino. LICIACube sarà fondamentale per studiare lo schianto della sonda, il cratere e i detriti generati, poiché resterà in orbita a distanza di sicurezza ricavando dati importanti per valutare la deflessione dell’asteroide. Successivamente, nel 2024, l’Agenzia Spaziale Europea lancerà un veicolo di follow-up battezzato Hera, che arriverà al doppio asteroide nel 2026, per un’ispezione più dettagliata. Tutti questi dati verranno quindi elaborati per scoprire quanto sarebbe fattibile una missione di deviazione degli asteroidi.

Andrei Florea

La traiettoria di Lucy da più angolazioni – Crediti: Kel Elkins, Emi Wright, NASA

La nuova corsa allo spazio

Tempo di lettura: 15 minuti

Di esplorazione spaziale oggi si parla molto, o almeno più di qualche anno fa, grazie alla nuova corsa allo spazio a cui stanno prendendo parte le più grandi superpotenze e compagnie mondiali, al punto da farcela ritenere qualcosa di acquisito, o addirittura scontato o secondario. Non è così. Non è affatto così.

L’impresa epocale dell’Apollo 11 si presta a una lettura su molti livelli. Quello politico e ideologico, che conosciamo tutti, con la contrapposizione delle due superpotenze mondiali di allora. Quello storico e antropologico, perché segnava per la prima volta la conquista di un nuovo corpo celeste. Quello ingegneristico e tecnologico, per la miriade di soluzioni nuove inventate, di cui tutt’oggi rimangono le tracce in molti degli oggetti che usiamo quotidianamente. E quello umano, per l’insieme di passioni ed emozioni che hanno convinto non solo gli astronauti e tutto il team di 400 000 tra ingegneri, tecnici, medici, fisici, addetti alle pulizie che lavoravano per e con la NASA, ma anche e soprattutto per tutte le persone che in quelle centodieci ore, dalla partenza dalla piattaforma di lancio 39A del Kennedy Space Center fino al «piccolo passo» di Armstrong, Aldrin e Collins, hanno fatto gioire, piangere, sognare e tenuto col fiato sospeso centinaia di milioni di persone in tutto il mondo.

Piccoli passi e grandi balzi

È assolutamente spettacolare come in poco meno di 66 anni siamo passati dal non saper nemmeno come volare ad arrivare a poggiare piedi sulla Luna. Fate un bel respiro e pensate intensamente a questo fatto. Da non saper nemmeno volare ad arrivare su un corpo celeste al di fuori della Terra. Nessun’altra invenzione umana ha impiegato così poco tempo a manifestarsi in tutta la sua completezza.

Il primo tentativo di volo controllato con un velivolo più leggero dell’aria è stato tentato dai fratelli Willard e Orville Wright il 17 dicembre 1903. Fu in quel giorno ventoso che i due fratelli fecero la storia e il giro delle pagine dei giornali di tutto il mondo. E proprio di quel primo Wright Flyer, Neil Armstrong volle un pezzo di legno dell’elica sinistra da portare con sé sulla Luna, a sottolineare il debito nei confronti di questi pionieri del volo umano.

Subito dopo le invenzioni si susseguirono a passo serrato: nel 1906 Traian Vuia, un ingegnere rumeno, costruirà e volerà sul primo velivolo dotato di ruote in grado di decollare e atterrare senza aiuto esterno. Nella Prima Guerra Mondiale, poco più di dieci anni dalla loro prima apparizione, gli aeroplani venivano già ampiamente utilizzati. Nel primo dopoguerra subirono enormi miglioramenti tecnologici, che culminarono con la realizzazione di nuovi bombardieri e caccia (come i leggendarî Spitfire della RAF e Stuka della Luftwaffe), e infine con Enola Gay (un Boeing B-29 Superfortress), il temibile bombardiere che devastò Hiroshima e Nagasaki.

L’aeroplano di Traian Vuia e il suo ingegnere, maggio 1907.

Il passo successivo però è stato forse il più difficile. Tutto questo sviluppo aeronautico è piccolo in confronto alla spesa materiale e scientifica incredibile che il governo statunitense ha messo in atto negli anni Sessanta del secolo scorso: mentre il velivolo dei fratelli Wright costava meno di mille dollari per essere costruito (circa 29 mila dollari ad oggi), la spesa pubblica per il solo programma Apollo ammonta a circa 200 miliardi di dollari odierni, una spesa che non ha eguali nella storia. In quegli anni gli Stati Uniti stavano cioè dedicando più del 4% della spesa pubblica a un’economia pianificata da 400 000 lavoratori interamente gestita da funzionari governativi, con il solo scopo di arrivare per primi.

Il lettore però non sia indotto erroneamente a pensare che quei soldi siano stati spesi solamente per soddisfare di una superpotenza avida di vincere la conquista allo spazio, e che non siano serviti a nient’altro: delle ingenti spese di denaro pubblico per i programmi spaziali, anche al giorno d’oggi, il vincitore è sempre il cittadino, grazie alla ricaduta benefica che ogni invenzione e scoperta scientifica ha sul benessere dell’umanità. Si calcola infatti che dal solo programma Apollo siano state portate alla luce tra le 5 000 e le 10 000 invenzioni, alcune nemmeno quantificabili, che hanno avuto un impatto positivo su tutta l’umanità. Pensate solo alle nuove leghe metalliche o resine inventate per rendere i veicoli e i velivoli più leggeri, o allo sviluppo immenso dell’informatica, o al miglioramento della qualità del vostro sonno. Sì, perché il cuscino o il materasso in memory che probabilmente utilizzate per dormire bene e serenamente sono un sottoprodotto della ricerca NASA: il memory infatti è un materiale studiato per rendere più confortevole i sedili degli astronauti, ed evitare che abbiano serî problemi alla schiena alla partenza del lanciatore, a causa delle enormi accelerazioni che si manifestano durante l’ascensione.

Si è inoltre calcolato che ogni dollaro speso per il programma americano degli anni Sessanta abbia portato un valore aggiunto di ben cinque dollari all’economia, che in termini odierni vuol dire qualcosa come un ventesimo di tutto il PIL degli Stati Uniti. Non male per aver “solo” messo una dozzina di uomini sulla Luna e aver riportato indietro qualche chilo di roccia lunare.

Ed è andata egregiamente, anche se gli intoppi non sono mancati durante tutto il programma spaziale, con a volte purtroppo esplosioni fatali per alcuni astronauti, come quella dell’Apollo 1 del 27 gennaio 1967, che costò la vita a tre astronauti. Riportiamo forse il più decisivo di tutti: la fase finale dell’Allunaggio.

La giornata del 20 luglio inizia in maniera del tutto normale per l’equipaggio dell’Apollo 11, ora in orbita attorno alla Luna nel modulo Columbia. Ellwin Evans, CAPCOM di turno, dà il buongiorno e mentre l’equipaggio fa colazione, si aggiornano con Houston sullo stato del veicolo e la sua posizione. La giornata procede come previsto e verso sera il modulo lunare Eagle, con a bordo Neil Armstrong e Buzz Aldrin, si separa dal Columbia. Sono le 17:44 UTC del 20 luglio 1969. Osservando l’operazione dei grandi oblò del Columbia, l’eccitazione e la tensione di Collins, rimasto solo a bordo, si sciolgono in un «Beautiful!».

Trascorsa un’ora dal distacco Aldrin e Armstrong si preparano all’accensione dei motori dell’Eagle. A Houston sale l’agitazione, e l’attuale direttore di volo Gene Kranz invita tutti a sedersi e prepararsi, e augura buona fortuna ai due pionieri. La relativa tranquilltà che per ora ha contraddistinto il viaggio dell’Apollo sta però per terminare. Le comunicazioni sono disturbate, e per di più Aldrin si accorge che il veicolo sta superando di diversi chilometri la posizione prevista per l’allunaggio. Nonostante tutto, la situazione non sembra preoccupare Aldrin che si concentra sul radar altimetrico di atterraggio. A dieci chilometri dal suolo però le cose cambiano.

Il capitano comunica la presenza di un errore nell’Apollo Guidance Computer, con il codice 1202. Chiede cosa significhi, non avendolo mai visto prima d’ora nelle simulazioni effettuate, mentre la notizia fa sussultare gli animi al centro di controllo. Si valuta ogni possibilità, anche quella di annullare lo sbarco. L’errore seganla che il radar di bordo, che rileva il terreno lunare, ha mandato in sovraccarico il computer di bordo. La comunicazione risolutiva spetta a Steve Bales, guidance officer (GUIDO). Il giovane ingegnere invita quindi ad Aldrin e Armstrong a ignorare l’errore e continuare la discesa. L’errore però non sparisce. Bales è costretto a ribadire per ben dieci volte all’equipaggio di continuare, mentre a terra gli ingengeri e il personale CAPCOM si stanno mangiando le mani. A poca distanza dal primo si presenta un secondo allarme, il 1201, e con il diminuire delle riserve di carburante, l’Eagle diventa sempre più difficile da manovrare. Questo causò lo sbattere incontrollato contro le pareti del propellente nel serbatoio, e fece scattare l’allarme di basso livello di combustibile 30-45 secondi prima del dovuto, mettendo ancora più pressione ai due astronauti per il poco tempo che avevano a disposizione.

Neil Armstrong (1930 – 2012) mentre si esercita nel simulatore del Modulo Lunare al Kennedy Space Center, 19 giugno 1969. © NASA

A novecento metri da suolo sul Modulo Lunare viene effettuato un breve test sui comandi, una prova per ciò che sta per accadere. Qualche minuto più tardi, mentre Houston concede il «GO» per l’atterraggio, Armstrong si rende conto che nella zona di atterraggio prevista, a ridosso del cratere ovest nel Mare della Tranquillità, si trovano molte rocce di grandi dimensioni che avrebbero potuto compromettere lo scafo del lander. Il Controllo Missione a Houston con i dati radar in diretta “vede” una situazione regolare. Sull’Eagle però si vivono momenti critici: la manovra di ricerca di un nuovo punto di allunaggio rischia di consumare troppo carburante. La spia luminosa indica che quello a disposizione è già solo il 5,6% del totale. A un minuto e quaranta secondi dall’allunaggio il radar, probabilmente in sovraccarico, perde contatto, provocando il lampeggiamento di un’altra spia d’allarme. A Houston inizia un conto alla rovescia di 94 secondi, al termine del quale la decisione deve essere presa subito: allunare in venti secondi o annullare la missione.

Armstrong guarda fuori dai finestrini, e vede la polvere del cratere lunare Little West alzarsi vigorosamente. Mancano 85 secondi. La spia del carburante continua a urlare, e ora è sotto il 5%. Lo scarico del motore solleva enormi quantità di polvere. Armstrong capisce che non c’è combustibile a sufficienza per annullare la missione. A meno di 30 secondi dalla fine del countdown ordina lo «shutdown» dei motori, ma lo spegnimento arriva solo qualche secondo dopo, garantendo un atterraggio più morbido del previsto, a oltre sei chilometri dal punto originariamente individuato.

Restano venti secondi alla deadline. Si accendono le spie di contatto. I motori sono fermi. Da Houston c’è un silenzio tombale, carico di timori e speranze. Sui loro computer appare che il propulsore è stato disattivato, ma ancora nessuno conosce l’esito della missione. È ancora presto per cantare vittoria. Armstrong si fa coraggio e accende il microfono. Alle 20:17 UTC del 20 luglio 1969, queste sono le parole che si scambiano:

– «Houston, qui Base della Tranquillità. L’Eagle è atterrato». Un boato fragoroso si alza in sala. La voce di Charles Duke del CAPCOM, rotta dall’emozione, risponde: «Ricevuto, Tranquillità, vi leggiamo da Terra. Qui un bel po’ di persone stavano diventando cianotiche. Ora stiamo tornando a respirare. Grazie mille». Wernher von Braun, il padre del Saturn V e del programma Apollo, insieme a centinaia di altre persone scoppia a piangere. Eagle è veramente atterrato!

L’equipaggio dell’Apollo 11 (in ordine da sinistra: Armstrong, Collins, Aldrin) nella Mobile Quarantine Facility, in quarantena per 21 giorni dopo essere atterrati sani e salvi. © NASA

“Più le cose cambiano più rimangono uguali”

Lassù, purtroppo, non ci siamo più tornati. Dopo quelle sei missioni Apollo, svolte tra il 1969 e il 1972 – da Apollo 11 a Apollo 17 – nessuno ha più mandato equipaggi umani sulla Luna, soprattutto a causa dei costi ingenti. Eppure una nuova allo spazio è già iniziata, e si potrebbe scommettere che sarà altrettanto intensa ed emozionante, e piena similarità in comune con la prima.

Nel gennaio 2019 la Cina ha fatto atterrare la sua sonda Chang’e 4 sulla faccia oscura della Luna, per la prima volta nella storia, e gli Stati Uniti contano di tornarci entro il 2024 come prova generale per il primo viaggio di un equipaggio umano su Marte.

La Cina è inoltre in grado di lanciare regolarmente satelliti di tutte le dimensioni che utilizza per i propri servizî di comunicazione, ricognizione e intelligence, e che mette a disposizione anche di paesi terzi. L’anno scorso ha completato un nuovo sistema di navigazione satellitare, Beidou, rivale globale del sistema GPS originariamente messo in campo dagli Stati Uniti negli anni Ottanta, e dei più recenti sistemi GLONASS e Galileo sviluppati rispettivamente dalla Russia e dall’Europa. La sua pressione nello scacchiere geopolitico dello spazio si fa sempre più intensa e sentita, non solo nel Nuovo Continente, ma anche in Europa, dove anche qui un’accelerazione dei programmi spaziali europei è – per fortuna – in atto.

Un fatto sicuramente rimane invariato. Il programma Artemis, il nuovo programma spaziale della NASA per portare di nuovo uomini (e per la prima volta anche donne) sulla Luna, come Apollo è modellato dalla geopolitica della rivalità tra le grandi potenze, allora tra Stati Uniti e Unione Sovietica, ora tra Stati Uniti e Cina. Esso non è da meno, e la rivalità non è puramente di prestigio, ma anche e soprattutto economica e militare. Battere la Cina è una proposta semplice e popolare, come lo era allora battere l’URSS. Il programma Artemis elaborato sotto l’amministrazione Trump è stato accolto dall’amministrazione di Biden e sembra godere di un solido sostegno bipartitico al Congresso statunitense, poiché è un approccio per “far tornare grande l’America”.

Lo Space Launch System come dovrebbe apparire una volta finalizzato, in un render della NASA. © NASA

Artemis serve anche altri obiettivi politici. Gli americani messi sulla Luna da Apollo erano tutti uomini bianchi e questo non passò di certo inosservato neanche all’epoca: una delle opere più famose del poeta e musicista nero Gil Scott-Heron inizia con “A rat done bit my sister Nell (con Whitey on the Moon)”. Di recente è stato fatto molto per pubblicizzare il contributo che le donne e le persone di colore hanno dato al programma dietro le quinte: quest’anno il quartier generale della NASA a Washington, DC è stato ribattezzato in onore di Mary W. Jackson, la prima donna ingegnere nera dell’agenzia – il vostro corrispondente dell’Alfiere vi consiglia in merito di guardare il film “Il diritto di contare” (Hidden Figures). Inoltre, Wally Funk, un’aviatrice che negli anni Sessanta, al reclutamento di candidati astronauti per il programma Mercury 13, soddisfò tutti i criterî per essere un’astronauta, tranne che per il suo sesso, è stata ospite nello spazio insieme Jeff Bezos il 20 luglio, a ben 82 anni. Artemide, dal nome della sorella di Apollo, sarà il mezzo con cui anche le donne e i non bianchi raggiungeranno per la prima volta la Luna.

La privatizzazione dell’esplorazione spaziale

Come già anticipato, il 20 luglio appena trascorso, in occasione de 52esimo anniversario del primo Allunaggio, il multimiliardario Jeffrey Bezos, fondatore di Amazon e proprietario del Washington Post, con il suo lanciatore New Shepard è riuscito ad andare nello spazio (più precisamente, sopra la cosiddetta “linea di von Kármán”, cioè quella linea immaginaria a 100 km sopra il livello del mare che demarca la fine dell’atmosfera terrestre con lo spazio vero e proprio). Lo ha fatto grazie alla sua compagnia privata di esplorazione spaziale, Blue Origin, che come la Virgin Galactic e la SpaceX ingegnerizza, produce e testa i proprî lanciatori spaziali riutilizzabili e capsule per il trasporto umano nello spazio. Per la compagnia è stato un punto di svolta, non solo perché era la prima volta che un equipaggio umano volava con uno dei suoi lanciatori, ma anche perché hanno preso parte al volo contemporaneamente sia la persona di più anziana ad arrivare nello spazio (Wally Funk, che ha così coronato il suo sogno di una vita) sia la più giovane, il diciottenne Olivier Daemen.

Il lander lunare Blue Moon presentato da Jeff Bezos. Egli, con la sua compagnia Blue Origin, ha intenzione di prendere parte al sogno americano di tornare sulla Luna entro il 2024. © Dave Mosher

Bezos però si è dovuto accontentare di arrivare secondo in questo nuovo inizio della corsa allo spazio privata. L’11 luglio infatti un altro miliardario americano, Richard Branson, forse noto ai più per la sua compagnia di palestre Virgin, è stato il primo insieme ad altre 5 persone ad arrivare vicino alla linea di von Kármán (ha toccato i 90 km s.l.m.) con il lanciatore VSS Unity VF-1, progettato e costruito dalla sua Virgin Galactic. Tuttavia, esso non è un razzo vero e proprio come quelli della Blue Origin o SpaceX, bensì una sorta di “spazioplano” con motori a razzo, specificatamente studiato per voli suborbitali per il turismo, e non è quindi in grado di portare payload, come ad esempio satelliti, in orbita bassa.

Il miliardario Elon Musk però, benché non abbia ancora raggiunto lo spazio, è quello che per ora ha le ambizioni più grandi e le tecnologie migliori. I prototipi dell’elegante Starship, con scafo in acciaio inossidabile (materiale assai inusuale per un lanciatore spaziale, che ha però l’enorme vantaggio di costare pochissimo ed essere facilmente modellabile nelle forme desiderate) sono stati lanciati, atterrati e talvolta esplosi nello stabilimento di SpaceX in Texas per mesi mentre l’azienda testava i loro nuovi motori e la loro capacità di cambiare il loro orientamento a mezz’aria, con manovre molto difficili che non erano mai state tentate prima d’ora. Il prossimo volo di prova sarà il più ambizioso di sempre per l’azienda: vedrà il primo utilizzo del booster “Super Heavy” (il primo stadio del lanciatore) per lanciare la Starship quasi in orbita. L’obiettivo finale è che i lanciatori Super Heavy, come i primi stadi dei booster Falcon 9, ritornino e facciano un atterraggio verticale dopo aver mandato in orbita le Starship. Da lì esse lanceranno i satelliti e torneranno sulla Terra o attenderanno un successivo lancio per rifornite prima di partire verso destinazioni più lontane, come Marte.

Il lanciatore Starship della SpaceX, il secondo stadio del lanciatore composto da Super Heavy e Starhip insieme. © Startmag

Questo piano ambizioso è però pieno di idee innovative a partire dalle fondamenta. I motori Raptor che alimentano i lanciatori Super Heavy e Starship usano una tecnologia per ora unica nel mondo, anche se già prototipa in passato dalla NASA: sono infatti motori a razzo alimentati a metano e ossigeno liquidi. Potrà sembra un’innovazione da poco, eppure è di fondamentale importanza per missioni umane future che si spingeranno non solo alla Luna, ma anche oltre, verso Marte. A differenza dei combustibili solidi o liquidi tipicamente utilizzati per i motori a razzo, come il kerosene, il metano è molto più economico e sopratutto è ottenibile facilmente tramite una reazione chimica molto semplice, nota come reazione di Sabatier. È un fatto di fondamentale importanza poiché in viaggi molto lunghi sarebbe proibito usare la maggior parte dello spazio cargo per trasportare con sé carburante da utilizzare nelle fasi di allunaggio o ammartaggio e successivo decollo. Sulla Luna, ma soprattutto su Marte dove l’acqua solida e il diossido di carbonio (CO2) sono facilmente disponibili, il metano e l’ossigeno sono facilmenti ottenibile tramite la reazione di Sabatier, che non necessita di apparecchiature complicate.

Inoltre, nel design finale è previsto che il Super Heavy sia spinto da ben 33 motori Raptor, che in totale genereranno il doppio della spinta rispetto al primo stadio di un Saturn V, il leggendario lanciatore progettato da Wernher von Braun che permise lo svolgimento delle missioni Apollo, e che tutt’oggi rimane il più grande e potente lanciatore mai costruito dall’umanità.

Anche piani di Blue Origin per un booster molto più grande di quello con cui Bezos si è issato fino allo spazio il 20 luglio scorso non sono ancora così lontani, ed è previsto che anch’esso utilizzi motori alimentati a metano. Il signor Bezos ha anche al suo fianco soldi e determinazione, così come amici nelle cerchia di Washington.

L’approccio competitivo e privato è quindi quello giusto. Quando la NASA costruisce i propri veicoli spaziali, i prezzi salgono alle stelle (letteralmente), non ultimo perché ai politici piace vedere i soldi federali spesi nei loro stati d’origine. Il loro nuovo lanciatore spaziale “Space Launch System” (SLS) del programma Artemis è un esempio calzante: i suoi costi di sviluppo sono stati enormi, ed è troppo costoso per i voli frequenti perché non è riutilizzabile. Un’azienda privata avrebbe potuto svolgere il lavoro molto meglio, come dimostra SpaceX con lo sviluppo del suo sistema di lancio Starship, simile per capacità all’SLS ma tecnicamente più ambizioso, e pensato per essere completamente riutilizzabile, così come i lanciatori di Blue Origin.

Gli Stati Uniti potrebbero quindi avere a breve tre lanciatori in grado di supportare le missioni umane sulla Luna, due privati e uno pubblico, prima che la Cina ne abbia anche solo uno.

That’s one small step for [a] man, one giant leap for Mankind.

Neil armstrong, 02:56:15 UTC del 21 luglio 1969

“Guarda alle stelle, guarda come brillano per noi”

Questa volta, è possibile che l’America arrivi invece sulla Luna sostenendo le aspirazioni di imprenditori brillanti e determinati, anche se a volte meschini, e sfruttando le capacità che forniscono, promettendo di essere una modalità di esplorazione più efficace. Potrebbe anche essere l’inizio di qualcosa di più di una semplice corsa ai secondi primi. Mentre Musk sogna che le sue astronavi portino i coloni su Marte, Bezos parla di utilizzare le risorse della Luna per costruire nuove industrie nello spazio (come la generazione di energia, l’estrazione di asteroidi o la produzione di nuovi materiali esotici). È una visione condivisa da entusiasti dello spazio cinesi come il Tenente Generale Zhang Yulin, che lavora in una parte dell’esercito di liberazione popolare dedicata alle operazioni spaziali e cibernetiche.

«Here men from the planet Earth first set foot upon the Moon – July 1969, A. D.
We came in peace for all Mankind». © NASA.

Questa volta potrebbe davvero essere una vera nuova corsa allo spazio, qualcosa che farà sognare di nuovo milioni di persone in tutto il mondo, le farà emozionare e unire come pochi altri eventi riescono. L’umanità intera si trova davanti alla sfida del prossimo piccolo grande passo, che vedrà forse anche determinare quale sarà l’ideologia politica trionfante, com’è già successo cinquant’anni addietro. Gioite quindi e supportate i nuovi programmi spaziali, siate fieri di cosa l’umanità riesce a compiere se si ritrova unita e in cooperazione. Ne trarrete beneficio spirituale ed emotivo, ma anche materiale ed economico. E chissà, magari sarete voi i prossimi astronauti che ci faranno sognare, o una delle vostre prossime vacanze potrebbe essere non più al mare, ma sul nostro bel satellite naturale osservato in dettaglio per la prima volta da Galileo e alle quali tante poesie sono state dedicate nel corso dei secoli. E su cui, appena cinquant’anni, fa siamo riusciti a mettere piede “in pace e a nome di tutta l’Umanità”.

Andrei Florea

Siamo stati sulla Luna, ma non tutti ne sono convinti.

Tempo di lettura: 3 minuti

Nel luglio del 1969 l’Eagle, il modulo lunare dell’Apollo 11, toccava per la prima volta la superficie lunare. Eppure, nonostante le prove e le spiegazioni fornite nel corso degli anni, quell’avventura (e le successive) sarebbe, secondo alcuni, una mera messa in scena per pura propaganda politica. Fra le teorie del complotto quella dell’Allunaggio è forse quella con maggior impatto mediatico, forse superiore a quella dell’assassinio di JFK. Negli anni, per ogni controprova portata dai sostenitori della teoria del complotto gli esperti hanno ribattuto con evidenze scientifiche, e fake news come la letalità della fasce di Van Allen o le impronte “impossibili” di Armstrong sono state confutate più e più volte nei minimi dettagli.

Ma com’è nato il complotto dell’allunaggio? Come si è diffuso? L’idea di “non siamo mai andati sulla luna” circolava già nei momenti successivi alla passeggiata lunare: Bill Clinton nella sua biografia racconta di come il suo falegname non credesse allo sbarco sulla luna «perché quei tizi della televisione potevano far sembrare reali cose che non lo erano».

Quindi, ben prima di Internet, il complotto era ben diffuso e i media più tradizionali hanno contribuito a renderlo endemico. “Non siamo mai stati sulla Luna. Una truffa da 30 miliardi di dollari”, di Bill Kaysing, uscì autopubblicato nel 1974. Per la prima volta veniva data una forma definita alla teoria del complotto, in un libro che raccoglieva speculazioni sui motivi del complotto e le argomentazioni più diffusione all’epoca. Fra le teorie da lui esposte, c’è quella secondo cui, l’incaricato a girare i filmati delle missioni sarebbe stato il regista Stanley Kubrick, già famoso per gli effetti speciali nel suo film 2001: Odissea nello spazio. L’incarico gli sarebbe stato assegnato sotto la minaccia di rendere pubblico il coinvolgimento di un suo fratello “Raul” col partito comunista. Queste affermazioni contrastano però con il fatto che Kubrick non ha mai avuto alcun fratello, ma solo una sorella minore. 

Anche il cinema ha giocato un ruolo decisivo nella diffusione della teoria del falso allunaggio. Per esempio nel 1971, prima del libro di Kaysing, uscì Agente 007 – Una cascata di diamanti. In una scena James Bond si trova in un grande laboratorio privato nel Nevada, e cercando di sfuggire ai suoi inseguitori entra su un set cinematografico dove è ricreato l’allunaggio. Nel 1978 invece uscì Capricorn One, di Peter Hyams, e qui il complotto è ben più esplicito. L’atterraggio falsificato dalla Nasa questa volta è su Marte, e prevede l’assassinio degli inconsapevoli astronauti che non volessero cooperare alla messinscena. Lo spunto di partenza per Hyams era il fatto che non si poteva credere né ai giornali, né alla televisione, e nella fantasia ha portato il tutto a conseguenze estreme. Da segnalare come Hyams conoscesse la teoria del complotto dello sbarco lunare per sentito dire: non aveva mai letto un libro dei sostenitori della teoria perché da lui giudicati come “completamente ridicoli”.

In Italia, eclatante è il caso del documentario “Apollo 11 – il lato oscuro della Luna” di Willy Brunner e Gerhard Wisnewski andato in onda nel 2006 su Rai2 nel programma “La storia siamo noi”. Nel corso della trasmissione, oltre ad essere mostrare immagini di una missione diversa dall’Apollo 11, Giovanni Minoli, il presentatore, parlava di una presunta serie di dubbi inquietanti circa l’Allunaggio.

La maggior responsabilità della diffusione del complotto lunare forse spetta proprio ai mezzi di informazione. Nel 2001 la Fox mandò in onda Conspiracy Theory: Did We Land on the Moon? (ora disponibile su Netflix!). La voce narrante era Mitch Pileggi (Skinner di X-Files) e tra i tanti pseudo esperti intervistati spiccava proprio Kaysing. L’impostazione del documentario è una che ora è molto familiare a noi: lasciar decidere lo spettatore cosa credere ma senza un contraddittorio che bilanci le tesi degli intervistati.

Lorenzo Niccoli

La sicurezza di Internet: le nuove frontiere del cibercrimine e come difendersi

Tempo di lettura: 5 minuti.

All’inizio di maggio i cibercriminali hanno messo in ginocchio l’oleodotto che fornisce quasi la metà del combustibile necessario alla costa orientale degli Stati Uniti per cinque giorni. Per riaverne il controllo, la Colonial Pipeline Company, l’azienda che gestisce l’oleodotto, ha dovuto pagare un riscatto da $4,3 milioni in Bitcoin.

Qualche giorno dopo, un secondo “attacco ransomware” ha messo in ginocchio la maggior parte degli ospedali in Irlanda, con la minaccia di divulgare informazioni riservate delle cartelle cliniche dei pazienti nel caso in cui il governo irlandese avesse deciso di non pagare il riscatto da $20 milioni. Lo staff è passato ad utilizzare carta e penna, causando molti ritardi e inconvenienze per i pazienti. Al 14 giugno, la situazioni non è ancora rientrata nella norma.

Ancora, agli inizi di giugno, la più grande azienda di processamento carni del mondo, JBS, ha visto i suoi sistemi del Nord America e dell’Australia andare in tilt a causa di un altro “attacco ransomware”. L’azienda ha dovuto pagare $11 milioni di riscatto per continuare a far lavorare i suoi 150.000 dipendenti che forniscono un quinto della carne a livello mondiale. Cosa sta succedendo nel mondo?

Ciberguerra e deterrenza digitale

“Ransomware” è una parola composta da “ransom” che vuol dire riscatto e “malware” che vuol dire software malevolo. Un ransomware è quindi un virus informatico che blocca il sistema di un utente, di solito criptandolo, e chiede un riscatto per riottenere il controllo dei file.

Essi non sono nulla di nuovo: già nel 1989 il cavallo di troia “AIDS” si diffondeva tramite floppy disk, criptava i file sul disco dell’utente e chiedeva un riscatto di 189 dollari per riaverli indietro. Altri importanti attacchi perpetrati grazie all’utilizzo di ransomware sono quelli eseguiti tramite il famigerato WannaCry, di matrice nordcoreana, che nel maggio 2017 ha iniziato a diffondersi sfruttando una falla scoperta dall’NSA trapelata sul mercato nero: WannaCry ha infettato oltre 230.000 computer in 150 paesi, e l’Europol l’ha definito «il più grande attacco ransomware di sempre». Anche Petya, un altro ransomware di matrice russa a larghissima diffusione nel 2016-2017 usava lo stesso exploit di WannaCry (chiamato EternalBlue), e secondo la Casa Bianca ha recato danni per più di $10 miliardi a livello mondiale.

Gli attacchi ransomware stanno sempre più incrementando. Secondo la rete di analisi di Kaspersky Lab, un’azienda di cibersicurezza, ogni giorno 80.000 infezioni da ransomware vengono scoperte nel mondo. Secondo un’analisi di The Economist però, gli attacchi si sono spostati dall’avere come target principale i piccoli privati alle grandi corporazioni, per avere riscatti molto più grossi e sicuri. Chainalysis, una società di sicurezza informatica, afferma che nel 2020 l’importo pagato in riscatti Bitcoin è aumentato del 311% rispetto al 2019, a circa 350 milioni di dollari. Le vittime sono di solito le imprese, ma sempre più spesso includono i governi e i loro dipartimenti, compresa la polizia.

Il ransomware WannaCry avverte che i file sono stati crittati e chiede un riscatto per riaverli. © Wikimedia Commons

Gli attacchi informatici non sono però perpetrati solo tramite ransomware. L’attacco del 2014 da parte della Corea del Nord ai danni di Sony, che si era permessa di criticare il dittatore di Pyongyang, quello a Equifax nel 2017 quando i dati di 147 milioni di persone sono stati rubati, o il recentissimo scandalo di SolarWinds, portati a termine tramite altri mezzi sofisticati di attacco informatico, dimostrano che l’infrastruttura a livello mondiale poggi su basi poco solide, e che gli attacchi vengono effettuati sia da gang criminali sia, spesso e volentieri, da Stati esteri, con l’obiettivo di sabotare o rubare dati di un’altra nazione, in una violenta e continua guerra cibernetica.

Le capacità informatiche offensive sono ora diffuse tra gli Stati e comunemente utilizzate nelle campagne militari. Nella loro guerra contro lo Stato Islamico, Gran Bretagna e America hanno usato attacchi informatici per sopprimere la propaganda del gruppo terroristico, interrompere i suoi droni e seminare confusione nei suoi ranghi. Sono anche usati per fare danni fisici in tempi in cui nessuna guerra è ufficialmente in corso. Considerate il pionieristico worm Stuxnet americano-israeliano, che ha indotto le centrifughe iraniane a disintegrarsi un decennio fa, o il riuscito sabotaggio della rete elettrica ucraina da parte della Russia nel 2015 e 2016.

L’era dell’insicurezza informatica

La nostra infrastruttura digitale non è costruita pensando alla sicurezza. Questo perché gran parte del sistema dipende da componenti vecchie, ma anche perché sono mancati gli incentivi a privilegiare la sicurezza. Né Internet, né il Web, né la maggior parte delle applicazioni sono progettate avendola in mente come priorità. Ed è molto difficile migliorare la solidità di un sistema che è già completo e che è stato costruito senza tenere conto della sicurezza. Inoltre siamo circondati da “debito tecnico”, programmi cioè che funzionano ma sono stati creati frettolosamente, spesso decenni fa, e non avrebbero mai dovuto operare ai livelli in cui operano (ad esempio come database sanitarî critici).

La rete non ha mai avuto la solidità di cui oggi avrebbe bisogno. In realtà, se si pensa a quanto siano diffusi questi problemi, è sorprendente che gli attacchi informatici siano così poco frequenti. Mentre gli utenti di internet sono passati da poche migliaia a più di quattro miliardi, i tentativi di migliorare la sicurezza sono stati ostacolati dai costi, dalla scarsa lungimiranza e dai diversi interessi in conflitto tra loro.

I ransomware non sono l’unico problema, sebbene siano uno dei più annosi. Alla fine, comunque, tutto si ripercuote sull’utente finale, sul cittadino, che esso stesso sia vittima di un attacco informatico, o che un’azienda detentrice dei suoi dati sia vittima di un attacco.

Riguardo quest’ultima istanza, forse il caso più eclatante è Facebook: azienda nota per le sue ripetute violazioni della privacy a danno dei suoi utenti, negli anni è stata vittima di alcuni tra i più gravi scandali informatici di mala gestione. Ricordiamo lo scandalo “Cambridge Analytica” nel 2016, quando tale azienda usò illegalmente dati di 80 milioni di cittadini americani per creare un profilo psicologico completo di essi (circa 5000 diversi tratti) per bombardarli con pubblicità mirata e favorire la vincita di Donald Trump. Più di recente, i dati personali completi (nome, cognome, data e luogo di nascita, numero di cellulare, professione, ecc.) di 500 milioni di persone nel mondo, compresi 36 milioni di italiani (la quasi totalità degli utilizzatori italiani di Facebook) sono stati rubati e messi a disposizione gratuitamente sul mercato nero di Internet. I vostri dati probabilmente sono lì, per tutti da visionare, e soprattutto per i malintenzionati da sfruttare, per furto di identità, di dati bancari, ecc.

Analogamente, innumerevoli altri scandali di sicurezza di Facebook si sono susseguiti negli anni, mostrando come anche una delle più grandi aziende di informatica al mondo possa essere vittima della negligenza e della mala gestione.

Come Facebook però, tante altre grandi aziende, e persino Nazioni, hanno subito una perdita di dati privati (“leak” in gergo). Quasi un sistema informatico sensibile alla settimana è violato, e queste sono solo i database di cui siamo a conoscenza. Molto probabilmente anche qualche vostra email, password, o numero di cellulare è lì. Ma allora dobbiamo rassegnarci? La sicurezza e la privacy non sono possibili in nessun modo sul web? No, e ora vediamo alcuni semplici consigli per migliorare drasticamente la nostra sicurezza e riprendere in mano la nostra privacy.

Se ti affascina la sicurezza informatica, e sogni una carriera in questo ambito, puoi dare un’occhiata al corso magistrale di Informatica dell’UNIFI, che tra gli insegnamenti contiene anche quello di sistemi ciber-fisici sicuri. L’esperto di sicurezza informatica è uno dei lavori più richiesti e meglio pagati attualmente nel mondo.

Piccolo prontuario di sicurezza informatica

Nella comunità di esperti informatici, un acronimo ricorrente quando si parla di problemi di sicurezza è “PEBKAC”,  “Problem Exists Between Keyboard And Chair”, ossia “Il problema sta fra tastiera e sedia”; l’utente è il problema. Questo è vero per quasi tutti gli incidenti informatici. La maggior parte delle volte, i criminali informatici sfruttano bias e debolezze della nostra mente per farci cliccare su un’email malevola, o andare su un sito che scarica malware, o semplicemente sfruttano la nostra negligenza con la tecnologia per infiltrarsi nei nostri sistemi.

Il primo passo per risolvere un problema è accorgersi di esso e capirlo. Teniamo quindi a mente che nessuno di noi è infallibile, e nessuno si deve ritenere tale. Al contrario, dobbiamo costantemente chiederci se l’azione che stiamo per compiere o abbiamo compiuto rappresenta un rischio. Poi, per meglio capire la nostra situazione attuale, facciamo un giro sul sito HaveIBeenPwned, che nel gergo informatico significa “sono stato violato?”. È il più grande e autorevole sito di raccolta di data breach (cioè database di dati personali rubati) al mondo. Potete immettere la/le vostra/e e-mail per vedere se appaiono in qualche violazione, e se sì, quando è successa. Facciamo così anche per le nostre password e numero di cellulare (tranquilli, nessuna informazione in chiaro viaggia sul web: il controllo viene fatto “in locale”, generando un hash da ciò che scrivete. Non c’è alcun modo che il sito o qualsiasi altra persona possa in qualche modo intercettare la vostra password e il vostro cellulare). Se a tutte e tre i test risultare positivi, mettetevi le mani nei capelli, e riflettete sul fatto che è un miracolo che non siate ancora stati vittime di un furto di identità o di account importanti.

A questo punto però potreste chiedervi che importanza abbia se la vostra password o il numero di cellulare sono a giro per il web. A parte per il fatto che questa è una violazione della privacy intrinseca e rappresenta un problema grave di per sé (penso che nessuno scriverebbe su fogli di carta il proprio indirizzo e cellulare, per poi sventolarli e regalarli a giro per la città), la sventura maggiore è la negligenza umana della gestione delle password. La maggior parte degli utenti usa password simili, se non uguali, per tutti i servizi web (molto probabilmente lo fate anche voi). Quando ciò succede, un pirata informatico che abbia rubato le vostre credenziali dal sito A può tranquillamente accedere ai siti B, C, e D e rubarvi l’accesso anche a questi. Fatto ciò, avendo accesso alla vostra email, il criminale cambia le password alla vostra casella postale e a tutti i siti, impedendovi di accedere più ad essi.

E questo processo è automatizzabile al 100%: il pirata programma un software che, prendendo tutte le coppie di email e password dal database rubato, le prova automaticamente sugli X siti più popolari (Amazon, eBay, iCloud, fascicolo sanitario). Se il software trova un accesso, lo comunica la pirata, che ora ha il pieno controllo del vostro account, e tutte le informazioni contenute in esso (dati della carta di credito, indirizzo, dati sanitarî, ecc.).

Gli umani hanno poca fantasia e una cattiva memoria. È assai difficile usare una password diversa per ogni servizio. Per questo le password sono uno dei più grandi fallimenti dell’ingegneria informatica: sono difficili per gli umani da ricordare e facilissime per i computer da indovinare. Come difendersi?

Regola 1: Utilizzare password diverse per ogni sito.

Il trucco ovviamente non è ricordarsele tutte, crearle tutte simili, o peggio ancora, appuntarsele da qualche parte, ma usare un gestore di password. Probabilmente li avrete già sentiti nominare. Il loro funzionamento è semplice: usando una sola password chiamata master password (che si presuppone sia forte) sbloccate un database criptato in cui il programma vi genere una password totalmente casuale e sicura (del tipo “rCZ_(Qn?=^]0K9g+c$v#”) diversa per ogni servizio. Così se mai il sito A dovesse essere violato, i criminali informatici non potranno accedere ai siti B, C e D, perché le password sono tutte diverse tra loro e senza alcuna correlazione.

I gestori di password sono estremamente efficaci per un semplice motivo: invece di ricordare tante password mediocri e insicure, dovete ricordare un’unica password molto sicura. E questo per sempre: non dovrete mai più memorizzare una password in vita vostra.

Non solo, ma l’esperienza sul web diventerà anche molto più comoda: non dovrete mai più scrivere una password in vita vostra, perché la maggior parte dei gestori di password, una volta che vi siete autenticati con la master password, vi autocompila i campi di login.

Potreste a questo punto avere qualche dubbio: «non è meno sicuro mettere tutte le password in un unico posto? Se mi rubano o violano il database mi rubano tutte le password!». Ottima domanda. La risposta è no.

Il database è criptato, cioè solo e solamente avendo la master password è possibile accedervi, e non in nessun altro modo (se la master password è molto forte, altrimenti il criminale potrebbe tentare di crackarla), perché gli algoritmi di crittografia usati sono inviolabili, letteralmente.

Non prendete però le parole di uno sconosciuto sul web per buone: come in ogni scienza che si rispetti, ogni affermazione va provata (regola bonus per voi: assumete che qualsiasi persona con cui interagite sul web sia malevola e cerchi di recarvi danno in qualche modo o voglia darvi notizie false; così farete molta più attenzione nelle vostre interazioni). Se avete delle basi di matematica del liceo, e vi va di addentrarvi nei bellissimi meandri della crittografia, date un’occhiata all’Appendice 1, per capire esattamente come e perché gli algoritmi moderni di crittografia sono matematicamente inviolabili, e convincetevi voi stessi.

Gestori di password gratuiti e open-source che potete iniziare a usare da questo momento (facilità estrema di utilizzo):

  • Bitwarden: semplicissimo da usare, tutto online, si sincronizza su tutti i dispositivi a cui lo connettete; se siete fanatici della privacy il database potete crearlo da voi in locale con Docker; algoritmo di crittografia molto sicuro; tanto supporto e manuali online; interfaccia moderna molto carina.
  • KeePassXC: software derivato dal più famoso KeePass, migliorato in sicurezza, da scaricare in locale sul dispositivo (per Android potete usare Keepass2Android, per iOS Strongbox). Per i fan più puri della privacy: il database rimane criptato in locale, e lo potete sincronizzare sui dispositivi tramite USB o con un cloud a vostra scelta; sicurezza estrema, personalizzazione infinita. Open-source, testato indipendentemente. Una cassaforte di adamantio per i vostri dati.

Corollario 1: Come costruire una master password sicura.

Come visto in precedenza, la debolezza di un sistema sta nel suo anello più fragile: se la vostra master password non è sicura, l’intero database non lo sarà. Per iniziare a creare una master password inviolabile, cominciate con scordarvi tutto ciò che sapete di password: è inutile usare come password qualcosa come “7R#]SI|lT@” perché è assai difficile per noi umani da ricordare e facile per un computer da calcolare.

La sicurezza di una password si misura con la sua “entropia”. Senza entrare nel dettaglio, essa aumenta esponenzialmente con la lunghezza di una password. Dovete quindi puntare quindi a una password formata da tante parole: non più una pass-word, ma una pass-phrase.

  • Unite insieme più parole: TopoHulkAstronautaGenoveffo è già una buona password. Usate almeno quattro parole, sei meglio. Cercate di usare parole che abbiano un significato per voi, così che vi sia più facile da ricordare. Se sapete più lingue, usate parole di più lingue, o inventate, se per voi è facile da ricordare. Le passphrase sono facili da ricordare, poiché potete crearvi un’immagine mentale della frase senza senso: in questo caso, un topo che ha le sembianze di Hulk uccide un astronauta di nome Genoveffo. L’avete già imparata, e nel caso la scordiate, vi basterà ricordare l’immagine mentale.

Attenzione però: non usate il vostro nome, o quello di un vostro parente, o qualcosa che tutti sanno vi piace. Nessuno dovrebbe poter risalire alla vostra password conoscendovi.

  • Aggiungete qualche numero in fondo o all’inizio della passphrase, per aumentare l’entropia.
  • Se volete, aggiungete uno o due caratteri, ma non è strettamente necessario (es: @stronauta invece di Astronauta). La vostra master password è già sicura con i passi precedenti.

Prendetevi il vostro tempo, e pensate a una passphrase veramente sicura. Se avete poca fantasia, potete usare un servizio online che genera passphrase sicure per voi come questo. Fatto ciò avete una passphrase nuova di zecca. Ripetetela come un mantra trenta volte finché non vi si stampa in mente, e per nessun motivo non scrivetela mai da nessuna parte, né ditela a nessuno, neanche al vostro migliore amico: ricordate, chi ha la master password ha tutte le vostre password.

Regola 2: Abilitare l’autenticazione a due fattori (2FA) su ogni servizio che la supporta.

Come visto in precedenza, i criminali informatici usano sistemi automatizzati per provare ad accedere agli account con combinazioni di e-mail e password rubate. Per ovviare a questo problema, è stata inventata l’autenticazione a due fattori. Probabilmente già la usate per accedere al vostro conto bancario.

L’autenticazione a due fattori permette di usare un codice temporaneo della durata di 30 secondi insieme alla password: anche se qualcuno sa le vostre credenziali, ma non ha accesso al vostro cellulare o token dove viene generato il codice, non potrà in alcun modo accedere all’account.

Attivate quindi 2FA su tutti gli account che lo permettono (tutti le maggiori compagnie come Google, Microsoft, Apple, Adobe, ecc. la supportano; andate nelle impostazioni dell’account e attivatela da lì).

Regola 3: Capire la provenienza delle e-mail e dei siti web per proteggersi dal phishing

L’attacco di phishing (pronunciato come “fishing” che vuol dire “pescare”) funziona così: arriva una email o un messaggio da una fonte apparentemente affidabile che invita l’utente a compiere un’azione come l’apertura di link o di file allegati. Il messaggio di solito segnala una mancata fatturazione, l’imminente rinnovo di un servizio, la chiusura di un conto bancario o, in altri casi, annuncia la vincita di un premio.

I tipi di attacchi e di messaggi sono sempre più sofisticati e credibili, per questo sempre più difficili da riconoscere, ma tutti hanno in comune una richiesta, fornire uno o più dati personali: username, password, codice fiscale, data di nascita, fino alle coordinate bancarie. Tutti però hanno una caratteristica comune: un senso di urgenza. Se un’email vi chiede di cambiare subito i vostri dettagli bancari, o di un account, o di inviare subito soldi per verificare una transazione, probabilmente si tratta di phishing o scam. Nessuna compagnia autorevole vi metterà mai pressione e o senso urgenza nel compiere un’azione.

Come riconoscere il phishing o lo scamming:

  • Occhio agli errori. Nei casi di phishing più grossolano le email contengono errori ortografici, o piccole storpiature, nel nome del presunto mittente, ma in ogni caso il reale indirizzo da cui provengono queste email è differente da quello ufficiale. Controllate SEMPRE l’indirizzo del mittente.
  • Non credere alle urgenze. È uno dei fattori sui quali il phishing fa maggiormente leva: un pagamento in sospeso da saldare immediatamente, un premio da ritirare a breve o il rischio di perdere un account se non si paga subito. Quando una email punta a mettere fretta, il rischio che sia una truffa è alto.
  • Controllare le richieste di rinnovo. Un dominio in scadenza o il termine di un abbonamento: se si riceve l’avviso dell’imminente rinnovo di un servizio, è meglio non farsi prendere dall’ansia. Prima di aprire qualsiasi link, o fornire i propri dati al sito sbagliato, è meglio controllare sul sito del servizio in questione se effettivamente c’è un rinnovo in corso.
  • Attenzione agli allegati. Quando sono presenti allegati con estensione dei file inusuale bisogna prestare molta attenzione. In questo caso, oltre al semplice phishing, potrebbero nascondersi virus dietro quei file.
  • Nessuno regala niente. Le email che annunciano vincite di denaro, o di qualsiasi tipo di premi, sono quasi sempre fasulle. Uno smartphone in regalo, l’eredità di un lontano parente (o il famoso principe Nigeriano) o la vincita alla lotteria dovrebbero suonare sempre come campanelli d’allarme.
  • Onestà con voi stessi. Come già ripetuto, siete facilmente manipolabili, soprattutto quando sotto stress, o arrabbiati, o avete una cattiva giornata. Basta un nonnulla per cadere in trappola. Se non siete sicuri, sempre meglio lasciar stare. Ricontrollerete l’e-mail o il sito web quando sarete più freschi. Se succede alle grandi aziende, può senz’altro succedere anche a voi.

Inoltre, controllate sempre la barra degli indirizzi del vostro browser: se un’e-mail vi chiede di autenticarvi su PayPal (e già qui c’è puzza di phishing), e la pagina a cui vi rimanda è del tipo “paypal.be1253i12y3.com”, il sito è un phishing: è un sito fasullo, di proprietà del criminale informatico, e quando metterete i vostri dati ve li ruberà. Questo perché l’URL del sito non è “ufficiale”: ha quei caratteri strani in mezzo, che nessun sito ufficiale ha (PayPal ha come URL solo e solamente paypal.com).

Icona HTTPS che indica una connessione sicura verso il sito. © Wikimedia Commons

Se inoltre fate acquisti, fate attenzione che il sito sia fidato, ben recensito, e soprattutto abbia il lucchetto accanto all’URL: il lucchetto significa che la connessione al sito è criptata, e se ci cliccate sopra potete vedere chi è l’autorità che certifica la connessione. Se è un’autorità conosciuta, come il sito stesso, o qualche provider famoso come GlobalSign, Digisign, Aruba, ecc. il sito è affidabile. Altrimenti potrebbe non esserlo.

Regola 4: Avere sempre un backup dei dati che ritenete importanti

Colonia Pipeline, JBS, HSE, e tante altre compagnie vittime di ransomware hanno dovuto pagare il riscatto. Questo perché non erano pronte. Non avevano un sistema di backup per l’infrastruttura critica. Se siete vittima di infezione da ransomware, e non avete un backup dei dati importanti, siete fritti.

Pagare un riscatto, oltre che illegale perché finanzia i criminali informatici, non garantisce il ripristino del sistema: i pirati potrebbero semplicemente non volervi dare la chiave di decrittazione, oppure potrebbe non esistere, come nel caso del ransomware NotPetya, che critta i vostri file con una chiave temporanea irrecuperabile.

Per non perdere tutto ciò che è di valore dovete innanzitutto seguire tutte le regole precedenti: un malware non si scarica da solo, non è senziente. È sempre colpa dell’utente se un’infezione avviene (ricordate “PEBKAC”). Siate quindi molto attenti nella vostra attività sul web.

Poi, dotatevi di un buon antivirus a pagamento, come Kaspersky (costa pochi euro l’anno). Infine, fate assolutamente un backup dei vostri dati. È fondamentale! Non solo per proteggervi dai malware, ma dalla fallacia della tecnologia: i componenti si usurano con i tempo, e il vostro disco rigido o smartphone potrebbe smettere di funzionare improvvisamente domani, e perdereste tutti i dati. Al sottoscritto è successo e non è una piacevole esperienza.

Fate una veloce ricerca sul web per capire quale sia per voi il modo migliore di eseguire un backup. Il vostro corrispondente usa Cobian Backup, un software gratuito e resiliente. Potete fare backup su dischi rigidi in locale (dischi della WD o Seagate esterni da diversi terabyte oggi costano solo qualche decina di euro) oppure usare servizi cloud sicuri, che rispettino la vostra privacy, come pCloud, Mega, ProtonDrive o SpiderOak.

Il futuro della rete

Affrontare la ciber-insicurezza è difficile perché sfoca i confini tra gli attori statali e privati e tra geopolitica e criminalità. Le vittime di cyber-attacchi includono aziende e enti pubblici. I perpetratori includono gli stati che conducono spionaggio e testare la loro capacità di infliggere danni in guerra, ma anche bande criminali in Russia, Iran e Cina la cui presenza è tollerata perché sono un irritante per l’ovest. Tali attacchi sono la prova di un’epoca dell’insicurezza che inciderà tutti, dalle imprese tecnologiche a scuole e eserciti. 

È un problema legato alla concentrazione della ricchezza globale e all’assenza di controlli efficaci sulle sue conseguenze. Tutto questo per dire che, esattamente come succede con il debito tecnico, le soluzioni improvvisate per risolvere una crisi immediata non risolvono i problemi di fondo. E una nuvola di segretezza e vergogna che circonda gli attacchi informatici amplifica le difficoltà. Molte aziende trascurano le basi, come l’autenticazione a due fattori. Colonial Pipeline non aveva preso neanche le precauzioni più semplici.Trovare un rimedio all’insicurezza digitale significherebbe anche creare regole migliori nel settore tecnologico, in modo che le problematiche di sicurezza diventino interne e intrinseche delle diverse aziende, a cui spetterebbe la responsabilità di trovare soluzioni ai problemi che hanno creato.

E soprattutto, la soluzione inizia con l’educazione. L’8 giugno scorso alcuni tra i più grandi siti web del mondo hanno smesso di funzionare per un’ora, a causa di una piccola azienda, Fasty, che la maggior parte delle persone non ha mai sentito neanche nominare, e che fornisce un servizio altrettanto oscuro ai più quanto fondamentale (essa fa da Content Delivery Network, fornendo i dati multimediali dei siti web più velocemente e in modo decentralizzato).

L’informatica e i dati sono alla base del mondo moderno. La digitalizzazione permetterà di aumentare la produttività e l’efficienza dei processi, rivoluzionare l’assistenza sanitaria e salvare molte vite negli anni a venire. Ma più il mondo è plagiato dall’insicurezza informatica e dall’ignoranza, più le persone si allontaneranno dalla rivoluzione, rischiando di ottenere l’effetto opposto. Immaginate se la vostra auto connessa fosse infettata da un ransomware e vi chiedesse: “pagaci 5.000 euro, o le porte rimarranno bloccate per sempre”.

Il cibercrimine impedisce la digitalizzazione di molte industrie, ostacolando una rivoluzione che promette di aumentare gli standard viventi in tutto il mondo. Ora più che mai è necessario diventare persone più informate, per costruire tecnologie migliori, che ci aprano la porta su un mondo migliore.

Andrei Florea

Appendice 1: “Come funzionano gli algoritmi di crittografia?” (ancora non pubblicata. Per iniziare, potete dare un’occhiata qui e qui)

I Big Data

Tempo di lettura: 1 minuto.

Fino a qualche anno fa era impossibile non trovare un panel sui Big Data nella maggior parte delle conferenze di tecnologia. Al giorno d’oggi si parla più di algoritmi e intelligenza artificiale, ma alla base restano, in ogni caso, i Big Data.

Con questa locuzione si intende l’accumulo di una grande mole di dati (fino all’ordine di miliardi di terabyte, dove 1 TB = 1 miliardo di byte), che per essere utilizzabili necessitano di tecnologie specifiche o particolari metodi analitici. In altre parole, questi dati sono di per sé inutilizzabili senza un mezzo con cui analizzarli nel modo opportuno. Tale mezzi sono per esempio algoritmi di intelligenza artificiale.

Cosa manca ai Big Data?

Gli ingegneri e gli scienziati sostengono la validità del loro campione solo perché costituito da milioni di dati. Ma grandezza del campione non significa completezza, né tantomeno autorevolezza.

Secondo Kate Crawford della University of Southern California, i Big Data soffrono di una serie di problemi:

  • Bias (distorsione o errore di valutazione): è necessario verificare da dove vengono i dati e quale sia il contesto perché essi abbiano un valore;
  • Rappresentanza (signal): nella rappresentazione dei Big Data mancano sempre delle categorie,  che si ripercuotono nell’utilizzo dei dati;
  • Scala: nell’enorme quantità dei dati i fenomeni piccoli non emergono.

Per capire come utilizzare i Big Data, è necessario aver in mente uno scopo perché, di per sé, i dati non parlano, ma è necessario porre loro le giuste domande per ottenere delle risposte.

Ma non tutti i sistemi sono quantificabili allo stesso modo. Una rete elettrica o un genoma lo sono, ma, com’è intuibile, tutta la sfera del comportamento umano non è soggetta a precise regole matematiche.

Per fare un esempio, Netflix ha sempre usato i Big Data che rivelano informazioni sugli spettacoli e le preferenze degli spettatori, ma dicono poco sul comportamento dello spettatore. Per questo decise di aggiungere i dati qualitativi, quelli che sono noti come Thick Data. Netflix ha iniziato a fornire intere stagioni di episodi tutti insieme, piuttosto che rilasciare un episodio alla settimana. In questo modo, ha capitalizzato la consapevolezza che i suoi abbonati preferiscono guardare più episodi di una serie in un breve lasso di tempo. Una scelta premiata dai consumatori e dagli investitori.

Quindi, per concludere, se i Big Data dicono dove e quando gli utenti utilizzano un certo prodotto i Thick Data rispondo a domande come “cosa fanno di quel prodotto gli utenti?”. I Big Data sono un potente strumento per dedurre le correlazioni tra eventi ma non certo un modo per capire la causalità.

Lorenzo Niccoli

Il futuro delle automobili: autonome, elettriche, ecosostenibili ed aerodinamiche

Tempo di lettura: 3 minuti.

Il futuro del trasporto su strada ha molte sfaccettature, alcune molto innovative, altre che sono il prodotto dei perfezionamenti di tecniche usate da più di cent’anni. Vediamo di dare una veloce panoramica su alcuni aspetti delle auto elettriche e sull’aerodinamica delle auto. 

Auto elettriche: la materia grezza del futuro

Nel 2020, secondo IHS Markit, nonostante quasi ovunque le vendite di auto siano crollate anche di doppie cifre percentuali, sono state vendute quasi 2,5 milioni di auto elettriche a livello mondiale. La domanda è destinata ad aumentare esponenzialmente nei prossimi anni, sia per i limiti che saranno imposti sia a livello europeo sulla circolazione di auto diesel, sia per gli investimenti delle principali compagnie automobilistiche nella produzione e nella ricerca sui veicoli elettrici. Verosimilmente, in futuro non saranno vendute solo più automobili elettriche, ma anche camion, autobus, motocicli, biciclette e forse anche navi elettriche. E quando la loro vita utile sarà a termine, verrà il momento di riciclarle a dovere, e non sarà un compito facile.

Quando un’auto con motore termico è rottamata, quasi il 95% di essa viene riciclata, ed il processo è facile, poiché esse sono costituite principalmente da materie plastiche facilmente rimovibili, e tanta materia ferrosa che è duttile e riciclabile; senza contare che il processo per il riciclo delle auto è ormai qualcosa di perfezionato nel corso di decenni  di esperienza in questo settore.

A differenza delle auto tradizionali, i veicoli elettrici contengono un numero molto maggiore di componenti non ferrosi difficili da riciclare (si veda il grafico). Separare questi componenti è assai complicato, richiede molta energia, e non sempre è possibile recuperarli tutti, soprattutto perché la maggior parti di questi materiali si trova rinchiusa all’interno di componenti elettrici complessi.

Composizione delle auto elettriche (in alto) e di quelle con motore a combustione (in basso).©The Economist

Per le batterie al litio, ci sono attualmente due processi di riciclo attuabili su grande scala: l’approccio pirometallurgico e quello idrometallurgico.

Il primo consiste nel comprimere tutte le componenti della batteria in un unico agglomerato detto “massa nera”, che in seguito è posto  a in una fornace, portando il composto ad alte temperature, da cui poi colano metalli preziosi come il cobalto o nichel. Il principali inconvenienti  di questo metodo sono la grande quantità di energia per far funzionare le fornaci, e l’impossibilità di recuperare molti componenti di interesse dalla massa nera: infatti materiali preziosi come la grafite vengono permanentemente bruciati o resi irrecuperabili.

L’approccio idrometallurgico, più innovativo e recente, inizia come il precedente dalla massa nera di materiali compressi, ma usa acidi e solventi per separare i varî metalli. Questo approccio richiede molta meno energia termica rispetto al primo, e permette di recuperare i materiali non metallici come la grafite. Il problema principale però è il necessario trattamento delle acque reflue contenenti gli acidi, che sono tossiche, per evitare danni ambientali, anche ingenti.

Come è intuibile quindi, se non vogliamo prescindere dall’uso dei veicoli elettrici per un futuro sostenibile, dobbiamo far in modo di migliorare i nostri procedimenti di riciclo, e soprattutto spronare i produttori a progettare componenti più standardizzati e facilmente disassemblabili, per favorire il riciclo e il massimo recupero dei materiali.

dai un’occhiata anche a questo nostro recente articolo sulle automobili elettriche e sul loro funzionamento.

Auto aerodinamiche: un argomento viscoso

Un altro fattore di vitale importanza per avere auto efficienti dal punto di vista del consumo, e con un impatto acustico ridotto (puoi leggere il nostro articolo sui danni provocati dall’inquinamento acustico nel nostro articolo qui) è il coefficiente aerodinamico: esso dà una misura della resistenza all’aria di un automobile. Questo poiché la resistenza aerodinamica riduce la velocità del corpo in moto e impone una dissipazione energetica, rendendo il veicolo meno efficiente.

L’ingegnere rumeno Aurel Persu (1890 – 1977) fu tra i primi uomini a capire l’importanza dell’aerodinamica e a costruire un prototipo di veicolo aerodinamico, intuendo che la forma più aerodinamica possibile è quella di una goccia d’acqua in caduta libera, e che per ridurre al minimo il coefficiente aerodinamico era necessario inserire gli pneumatici a filo con la carrozzeria, piuttosto che lasciarli fuori come era prassi quegli anni. Questa sua idea è contenuta nel brevetto depositato in Germania il 13 novembre 1922 dal titolo “Automobile di forma aerodinamica con quattro ruote montate nella carrozzeria aerodinamica”.

L’automobile di Aurel Persu ha un coefficiente aerodinamico di 0,22 uno dei più bassi ancora oggi, considerando che la più aerodinamica auto commerciale attualmente in vendita, la Lucid Air, ha un coefficiente di 0,21, e la maggior parte delle auto non di lusso attualmente in vendita hanno coefficienti ben al di sopra di 0,30. Questa innovazione permise al prototipo di Persu di consumare 4-5 volte meno carburante delle auto d’epoca in produzione, e di affrontare le curve su strada a ben 60 km/h.

La creazione di Persu, donata da lui stesso, è oggi visibile al Museo Nazionale della Tecnica «Dimitrie Leonida» di Bucarest.

Nelle competizioni, controintuitivamente a quanto si potrebbe pensare, il coefficiente aerodinamico non è di fondamentale importanza, e anzi di solito è molto elevato (intorno a 0,8-1): è la deportanza ad essere più importante. La deportanza è la forza aerodinamica che spinge il veicolo verso il suolo, aumentandone l’aderenza e la stabilità. Alle velocità delle competizioni, è di fondamentale importanze tenere il veicolo quanto più attaccato al suolo, per avere maggiore controllabilità. È il carico verticale provocato dagli alettoni di una “Formula 1” che genera questa deportanza, e di conseguenza riduce notevolmente la forma aerodinamica del veicolo.

Una foto dell’auto aerodinamica di Persu. Da notare le ruote a filo con la carrozzeria. Berlino, 1923. ©Wikimedia Commons

Il coefficiente di attrito del veicolo di Persu è di 0,22, uno dei più bassi ancora oggi. ©Dimitrie Leonida Technical Museum archive

Auto connesse: sempre più intelligenti

L’altra frontiera della tecnologia che va di pari passo con lo sviluppo delle auto elettriche è lo studio dei sistemi a guida autonoma. Anch’essi non sono certo una novità: già negli anni Sessanta del secolo scorso ingegneri statunitensi provarono a includere magneti permanenti nel cofano delle auto oltre che nel manto stradale con polarità opposta. Questo faceva sì che le automobili si allineassero semplicemente per il fatto che magneti con polarità opposta si attraggono. È un sistema estremamente efficace, soprattutto se pensiamo a quanto rudimentale fosse. Certamente però esso non è scalabile, poiché richiederebbe che tutte le strade in tutto il mondo siano tappezzate di magneti permanenti, cosa non fattibile da nessun punto di vista economico, logistico, o di buon senso.

Da allora numerose generazioni di scienziati e ingegneri hanno creato e innovato sistemi di guida autonoma basati su visione artificiale per il riconoscimento dei cartelli stradali, delle linee spartitraffico, e degli ostacoli intorno all’auto, oltre che sull’uso di sistemi GPS.

Per quanto sorprendenti siano gli avanzamenti della tecnica in questo campo, e per quando ovvio sia che i sistemi a guida autonoma siano il futuro data la loro resilienza, velocità di risposta e sicurezza, rimangono la strada per arrivare a sistemi completi di guida autonoma è ancora accidentata. Rimangono ancora da testare questi sistemi su ogni tipo di veicolo, ogni tipo di terreno, e in ogni tipo di condizione atmosferica, per assicurarsi che in tutti i casi sia in grado di rispondere correttamente.

Inoltre, è ancora da definire l’annosa questione riguardo ai possibili incidenti e a chi andrebbe accollata la responsabilità nel caso uno di esse succeda – poiché, benché i sistemi di guida autonoma siano migliaia di volte più sicuri e reattivi di qualsiasi essere umano, gli incidenti possono sempre avvenire.

Potete dare un contributo voi stessi all’argomento recandovi sul sito del progetto del MIT Moral Machines, e fare un breve test per decidere quale sia l’opzione “moralmente o eticamente migliore” nel caso un’auto a guida autonoma si trovi in una situazione di stallo critico: nel caso davanti alla vostra auto spuntasse all’improvviso una donna con un cane a passeggio, l’auto dovrebbe scegliere di investirla oppure sbandare e ferire gravemente voi e i vostri passeggeri ma risparmiare la donna e il cane?

Queste sono alcune tra le domande di vitale importanza a cui dovremo rispondere nei prossimi anni per dare vita a veicoli sempre più verdi e sicuri, e leggi che le supportino e chiariscano bene la responsabilità in caso di incidenti. La strada davanti a noi è ancora lunga, ma ci porterà per sentieri che ancora non conosciamo e che ci permetteranno di inventare tecnologie rivoluzionarie.

Andrei Florea

Lorenzo Niccoli

GIORNATA INTERNAZIONALE DELLA LUCE

Tempo di lettura: 4 minuti.

Il 16 maggio si celebra la Giornata Internazionale della luce, istituita dall’UNESCO per sensibilizzare sull’importanza della luce e sul ruolo che essa svolge nella scienza, arte e cultura e in campi molto diversi come medicina, comunicazione ed energia. La data è stata scelta per commemorare l’accensione del primo laser ad opera di Theodore Maiman, fisico ed ingegnere,  nel 1960.

L’iniziativa si propone di migliorare la consapevolezza del vasto pubblico su come la luce e le tecnologie ad essa legate tocchino la vita di tutti i giorni di ciascuno di noi: da internet alla corrente elettrica, passando per apparecchi medicali come la risonanza magnetica fino alla fotosintesi delle piante. Inoltre, l’evento cerca di enfatizzare l’importanza della ricerca di base (non applicativa) sulla luce, sul bisogno di investire in tecnologie basate sulla luce, come i pannelli solari, e la necessità di promuovere carriere sia in ambito scientifico che ingegneristico in questo campo.

Anche il legame fra arte e tecnologie basate sulla luce non è da trascurare: tecniche spettroscopiche (come la spettroscopia Raman), hanno permesso l’analisi non distruttiva di opere d’arte come l’Ultima Cena di Leonardo, permettendo di risalire all’origine geografica dei pigmenti utilizzati. Nel corso della storia lo studio della luce ha portato a innumerevoli sviluppi storici e applicativi, alcuni dei quali hanno, come la meccanica quantistica, hanno portato a delle vere e proprie rivoluzioni nella scienza.

Facciamo luce sulla luce

Spiegare cos’è la luce è un problema antico che ha interessato gli studiosi fin dall’antica Grecia, passando per pensatori indiani, fino in epoca più recente scienziati come Isaac Newton, Christiaan Huygens e Albert Einstein.

Fu proprio Newton a formulare un primo modello corpuscolare della luce, in cui essa era vista come composta da piccole particelle di materia (corpuscoli) emessi in ogni direzione. Era una teoria che spiegava molti fenomeni sperimentali associati alla luce: la riflessione era vista come dovuta all’urto dei corpuscoli di luce contro una superficie, mentre un fenomeno più complicato come la rifrazione era visto come dato dall’azione di forze perpendicolari alla direzione di propagazione dei corpuscoli.

Ma quest’ultima teoria aveva qualche problema a spiegare il fenomeno di rifrazione forse più famoso: la scomposizione della luce da parte di un prisma nei colori dell’arcobaleno.

Poco più tard, Huygens formulò una teoria che donava alla luce una natura opposta a quella di Newton: la luce non è altro che un’onda che si propaga nello spazio. Benché fosse una teoria più complicata rispetto a quella corpuscolare, il modello di Huygens riuscì a spiegare, oltre ai fenomeni di riflessione anche quelli di rifrazione in modo più accurato e anche la doppia rifrangenza dei cristalli di calcite. Per tutto il Novecento la teoria ondulatoria ebbe molto successo. Ad esempio, Young dimostrò come solo la teoria ondulatoria potesse spiegare i fenomeni di interferenza e diffrazione.

Fu James Maxwell a fine XIX un modello che rispetto inquadra la luce in un contesto più ampio ai precedenti secondo cui la luce non è altro che una radiazione elettromagnetica, il cui comportamento può essere descritto da una serie di equazioni note come Equazioni di Maxwell. Si è trattato di un cambiamento importante perché permetteva di suddividere la luce a seconda della sua frequenza in varie “tipologie”, che vanno dalle onde radio ai raggi gamma.

Ma proprio nel momento in cui la questione della natura della luce sembrava risolta, nuovi interrogativi arrivarono. Nel 1900 Max Planck stava studiando l’emissione di luce da parte di un oggetto ideale noto come corpo nero, che è capace di emettere qualsiasi tipo di luce. Per superare un problema teorico, ideò quello che all’inizio era un semplice artificio matematico: suppose che l’energia associata ad un’onda elettromagnetica fosse discreta e non continua, vale a dire che tale energia potesse assumere solo certi valori.

Quello che sembrò un escamotage matematico si rivelò qualcosa di più profondo. Nel 1905 Albert Einstein scrisse l’articolo che gli sarebbe valso il premio Nobel nel 1921 riguardante l’effetto fotoelettrico, cioè il fenomeno per cui si ha emissione di elettroni da una superficie quando questa è colpita da una radiazione elettromagnetica. Nell’articolo Einstein suppose l’esistenza di particelle dette allora “quanti di luce”, particelle formate da “pacchetti” indivisibili e discreti di energia che nel 1926 prenderanno il nome di fotoni.

Tale lavoro è interessante perché identifica in un ente fisico (quanto di luce), il concetto puramente teorico di Plank (quanto di energia). Ma quindi, la luce è un onda o un insieme di corpuscoli? La risposta definitiva, se così si può dire, arrivò nel 1927 quando Niels Bohr annunciò al Congresso Internazionale dei fisici quello che ora è noto come Principio di Complementarietà. Questo afferma che la luce ha intrinsicamente una doppia natura, quella di onda e quella di particella e che essa prenda l’una o l’altra forma a seconda delle condizioni sperimentali con cui si osserva.

Era innegabile che la diffrazione di elettroni si potesse spiegare solo con una teoria ondulatoria, mentre al fenomeni, come l’effetto Compton solo con l’altro modello. Il principio di complementarietà riveste tutt’ora un ruolo chiave in meccanica quantistica, dato che comprende altri diversi dualismi come energia e tempo o quantità di moto e posizione.

Le scoperte teorie legante alla luce non si sono certo fermate agli anni 20 del secolo scorso ma sono continuate: nel 2018 è stata scoperta un nuovo “tipo di luce”, legata ad una quasi particella detta polaritone, che potrebbe essere fondamentale nello sviluppo di computer quantistici.

Lorenzo Niccoli