Appunti e riassunti più ordinati che mai con LaTeχ

Tempo di lettura: 3 minuti.

Gli appunti, i riassunti e le annotazioni sono praticamente un’estensione del corpo di ogni studente universitario, un bene imprescindibile e, a ragion veduta, conservato con estrema gelosia. 

Ogni tendenza maniacale all’ordine e al rigore trova la massima espressione negli elaborati personali: suddivisioni in capitoli, paragrafi e capoversi, disegni fatti con riga e compasso, utilizzo degli evidenziatori e dei colori a seconda del contesto e dell’importanza della frase, variazioni di carattere, dal corsivo al grassetto passando per lo stampatello, e sottolineature. Sono tutte tecniche consolidate di cui ognuno di noi si serve sistematicamente per far sì che il nostro demone interiore tragga soddisfazione dalle nostre opere.

Tutti noi studenti ossessivo-compulsivi abbiamo lo stesso cruccio: “Qual è il modo migliore di tutti per scrivere testi che raggiungano la perfezione, l’armonia, il rigore formale e la massima eleganza?”

Al terzo anno di università ho trovato una risposta più che soddisfacente: LaTeχ (pronunciato “Làtec”, poiché l’ultima lettera è una chi greca minuscola). 

LaTeχ è un formattatore di testi che offre innumerevoli possibilità e permette di redigere documenti di eccellente qualità. È universalmente adottato da professori e ricercatori in ambito STEM (Science, Technology, Engineering & Mathematics) per scrivere dispense, testi di esame e altro, grazie alla facilità con cui è possibile scrivere espressioni matematiche.

In figura sono riportati due screenshot di un documento scritto con LaTeχ.

Come potete vedere, è possibile creare tabelle, espressioni, inserire figure, riquadrare delle parti del testo e molto altro. Vi chiederete, a questo punto, quale sia la differenza con Word.Immagine che contiene testo

Descrizione generata automaticamenteImmagine che contiene testo

Descrizione generata automaticamente

I vantaggi principali sono la gestione delle espressioni matematiche e dell’impaginazione, la possibilità di realizzare con un solo comando l’indice e/o l’indice analitico, la grande flessibilità e la capacità di estensione. Un’altra notevole comodità è data dal fatto che le figure, i paragrafi, i capitoli e le tabelle vengono numerati automaticamente.

La differenza sostanziale rispetto a un programma di videoscrittura (come Word) è che LaTeχ è, ripetiamo, un formattatore di testi. Ciò significa che il documento non si vedrà così come viene visualizzato mentre lo si scrive. Per fare chiarezza, nella prossima figura si riporta ciò che concretamente bisogna scrivere per ottenere le due pagine della figura precedente. Si dice quindi che LaTeχ non è WYSIWYG (What You See Is What You Get), contrariamente a Word. Ciò implica che è necessaria una certa capacità di astrazione.

Immagine che contiene testo

Descrizione generata automaticamente
Immagine che contiene testo

Descrizione generata automaticamente

È chiaro, dunque, che lo svantaggio principale è la difficoltà di dover imparare un vero e proprio linguaggio. Ma è esattamente questo che fa di LaTeχ uno strumento così potente e raffinato: il testo non verrà fuori così come lo si vede, bensì come lo si pensa! 

Se studiate matematica, fisica o ingegneria, molto probabilmente dovrete imparare a usarlo per scrivere la tesi e le relazioni di laboratorio, volenti o nolenti. Per il primo approccio vi consigliamo una guida molto agevole reperibile su internet: “Impara LaTeχ e mettilo da parte”. Vi basterà leggere l’introduzione e la parte sulle caratteristiche generali, dopodiché potrete consultare all’occorrenza le varie sezioni in cui viene spiegato come fare le tabelle, inserire le figure, espressioni matematiche ecc. Inoltre, in rete potete trovare innumerevoli siti e corsi al riguardo e, soprattutto, infiniti (utilissimi) forum.

Per quanto all’inizio possa sembrare difficile, scrivere con LaTeχ è un’arte: infatti “Teχ” sta per “τεχνη” (“tecne”), da cui la parola “tecnica”, ma che tradotta letteralmente significa, appunto, arte.

Lorenzo Luzzo

Pubblicità

Nove cose che non sapevi la tua calcolatrice potesse fare

Tempo di lettura: 4 minuti.

La calcolatrice è una compagna di viaggio fondamentale nella vita di tutti gli studenti, dalle scuole medie all’università.

Ne esistono di molti tipi: da quelle che svolgono solo le operazioni basilari alle ben più sofisticate calcolatrici grafiche e scientifiche. Queste ultime sono necessarie per chiunque studi in ambito STEM (Science, Technology, Engineering & Mathematics), in cui se ne fa uso costantemente. Tuttavia, abbiamo veramente idea di quanto vaste siano le potenzialità di una calcolatrice scientifica?

Ebbene, con questa guida si intendono mettere in luce nove funzionalità che forse vi erano ignote e che potrebbero risultare estremamente utili e agevolanti per qualsiasi studente STEM (e non). Per i dettagli operativi, recuperate il manuale del vostro modello; lo troverete anche in rete. La calcolatrice scientifica a cui si fa riferimento in quest’articolo è una comunissima Casio, acquistata nel 2018 al prezzo di una ventina di euro. Esistono molti modelli, sostanzialmente equivalenti. Di seguito è riportata una fotografia.

Immagine che contiene testo, elettronico, calcolatrice

Descrizione generata automaticamente
Figura 1: La calcolatrice utilizzata come riferimento.

  1. Costanti scientifiche

Avete sempre fatto una fatica immane a memorizzare i valori della carica dell’elettrone, della massa del protone e della costante di Boltzmann? Nessun problema! Come potete notare dall’immagine precedente, sul retro della custodia è presente una tabella con i simboli delle costanti fisiche, a ciascuna delle quali è associato un numero. Attraverso la modalità “CONST”, potete selezionare la costante di vostro interesse e il valore verrà stampato sullo schermo. Attenzione alle unità di misura: vengono usate quelle del Sistema Internazionale. Ad esempio, la velocità della luce è espressa in metri al secondo e non in km/h.

  1. Conversione metrica

Questa funzione è analoga alla precedente, semplicemente consiste nel convertire un valore dal sistema di misurazione metrico a quello statunitense o viceversa. Si fa riferimento alla seconda tabella riportata sulla custodia rigida.

  1. Calcoli statistici

Altra modalità molto interessante è quella “STAT”, che consente di effettuare calcoli statistici. Sostanzialmente, è possibile introdurre dei dati numerici in una tabella (vedi immagine) per poi calcolare coefficienti di regressione, indici statistici (media, varianza, mediana etc.) e molte altre quantità. Nella tabella è possibile inserire una o due variabili con opzione di un’ulteriore colonna per la frequenza. Attenzione: più colonne si utilizzano, minore sarà il numero di righe disponibili, a causa della memoria limitata. Un’altra caratteristica di questa modalità è la possibilità effettuare calcoli con la distribuzione normale standard, grazie al fatto che le funzioni integrali P, Q e R sono predefinite.

Figura 2: Introduzione dei dati in una tabella.

  1. Calcoli matriciali

Incredibile ma vero, la calcolatrice scientifica è in grado di gestire anche le matrici. In particolare, è possibile memorizzare fino a tre matrici 3×3, calcolarne il determinante, l’inversa, la trasposta e infine effettuare prodotti e somme fra matrici. I risultati saranno memorizzati in una ulteriore matrice denominata “MatAns”.

  1. Calcoli con i numeri complessi

I numeri complessi, degni del loro nome, richiedono calcoli particolari e spesso tediosi, soprattutto quando si tratta di divisioni. Fortunatamente la nostra calcolatrice scientifica, grazie alla modalità “CMPLX”, è in grado di gestire ogni operazione con i numeri complessi, sia in forma cartesiana che in forma polare.

  1. Risoluzione di equazioni e di sistemi lineari

Con la modalità “EQN” è possibile risolvere sistemi lineari a due o tre incognite, equazioni quadratiche, equazioni cubiche, mentre con la funzione “SOLVE” viene utilizzato il metodo di Newton per risolvere in modo approssimato delle equazioni generiche, contenenti logaritmi, funzioni trigonometriche, frazioni, esponenziali e quant’altro.

  1. Calcoli in base-n

La base decimale non è l’unica esistente e quindi, giustamente, è possibile effettuare calcoli utilizzando valori esadecimali, binari o ottali, tramite la modalità “BASE-N”. È disponibile anche una funzione di conversione da una base all’altra. Molto utile per informatici ed elettronici.

  1. Calcoli vettoriali

Con la modalità “VECTOR” è possibile definire fino a tre vettori bi- o tri-dimensionali ed effettuare prodotti scalari, vettoriali, calcolo della norma e quant’altro.

  1. Supporto per il gioco dell’oca

Volete divertirvi con un gioco di società ma avete smarrito i dadi? Nessun problema, la calcolatrice è in grado di generare numeri casuali compresi fra due estremi da specificare, grazie al comando “RanInt”. Quindi, per ottenere un classico dado a sei facce, basta specificare di generare numeri casuali tra 0 e 6! Qualora occorressero due dadi allora bisognerà specificare 0 e 12. Il comando “Ran#” è simile, ma genera numeri casuali con tre cifre decimali compresi fra 0 e 1.

Può darsi che alcuni si rammarichino di non essersi mai avvalsi di queste funzionalità e di averne ignorato l’esistenza. Non disperate: esservi sempre affidati alla vostra mente nel fare i conti vi ha certamente sviluppato una certa abilità di calcolo. Per le matricole invece: nei vostri studi, non affidatevi troppo ai supporti tecnologici. Esercitatevi, tenetevi in allenamento, sappiate come si svolgono i calcoli a mano. Altrimenti, chi potrà progettare le calcolatrici future?

Lorenzo Luzzo

I 50 anni del microprocessore

Tempo di lettura: 2 minuti.

Il 15 novembre 2021 il microprocessore ha contato 50 anni dal suo primo annuncio ufficiale. Il capostipite di questi dispositivi è l’Intel 4004 e la sua entrata in scena nel 1971 ha dato inizio all’era tecnologica.


Agli addetti ai lavori è ben nota l’importanza di questo avvenimento, ma alla maggior parte delle persone forse non è ben chiaro cosa sia e cosa faccia esattamente un microprocessore (abbreviato µP). Proviamo a fare chiarezza in modo semplice.


Ognuno di noi, alle prese con l’acquisto di un nuovo PC o smartphone, ha sentito nomi come Snapdragon, Intel Pentium, AMD e caratteristiche come dual-core, quad-core e octa-core. Tutto ciò attiene al microprocessore contenuto nel dispositivo.


Gli apparecchi di cui facciamo largo uso sono in generale dei “calcolatori”, sono cioè delle macchine che svolgono una gran quantità di operazioni complesse. Tali operazioni non sono fini a sé stesse (come per la calcolatrice), ma sono volte a far sì che possiamo leggere un documento, ricevere e guardare un video, telefonare ad una persona, giocare ad un videogioco e moltissimo altro. Il “cervello” che gestisce ogni operazione è proprio il µP. Si tratta, fisicamente, di un dispositivo molto piccolo, come suggerisce il nome, che elabora o “processa” segnali elettrici ed esegue istruzioni.


In realtà i calcolatori esistevano ben prima della venuta del microprocessore, ma la novità che il 4004 costituiva era data dal fatto che la CPU (Central Processing Unit, l’unità che svolge i calcoli ed esegue le istruzioni) era realizzata per la prima volta interamente su un’unica piastrina di semiconduttore, anziché essere composta da elementi distinti e poi interconnessi mediante fili o piste metalliche. In un unico chip si aveva un sistema di elaborazione completo, si trattava cioè di un circuito integrato – integrato appunto in un’unica piastrina di silicio -.

L’Intel 4004. In basso a destra si possono notare le iniziali stampate F.F. (Federico Faggin)


Ciò che può sorprendere i più è che l’uomo dietro al 4004 è un italiano, il vicentino Federico Faggin. Classe 1941, laureatosi cum laude in fisica nel 1965 presso l’Università di Padova, si trasferì nella fiorente Silicon Valley nel 1968, dove lavorò dapprima per la Fairchild ed in seguito per la Intel. Qui nel 1970 prese in mano un progetto commissionato dalla giapponese Busicom, che fino ad allora era stato tralasciato. Grazie all’innovativo espediente da lui ideato per implementare su silicio i componenti circuitali e lavorando senza sosta per mesi, Faggin riuscì a compiere l’impresa di realizzare il primo processore in un unico circuito integrato: il microprocessore. Rispetto ai dispositivi esistenti occupava molto meno spazio, era più veloce e consumava meno potenza.


Come egli stesso racconta nella sua autobiografia “Silicio”, edita da Mondadori, i contemporanei non ebbero immediatamente coscienza dell’avanzamento che il µP rappresentava, tant’è che il fisico si decise a lasciare Intel per fondare la propria azienda (Zilog) e dovette combattere una lunga battaglia legale e culturale per ottenere la paternità della sua invenzione.


Tutti noi, soprattutto noi studenti, dobbiamo molto al microprocessore. Senza di esso diremmo addio ai computer, agli smartphone, a tutti quegli strumenti che ci hanno permesso di non fermarci durante la pandemia di COVID-19. Abbiamo visto inoltre come la crisi dei semiconduttori abbia gravi conseguenze sul mercato, proprio perché non si riesce a fornire tanti microprocessori quanto il bisogno richiede.


La storia del microprocessore ci insegna che ogni valida intuizione deve lottare e farsi strada per emergere, ma questo non ci deve impedire di propugnarla, né ci giustifica a rinunciare, perché la rinuncia potrebbe significare una perdita assai più grave di qualsiasi fatica possa essere necessaria.

Lorenzo Luzzo

La sicurezza di Internet: le nuove frontiere del cibercrimine e come difendersi

Tempo di lettura: 5 minuti.

All’inizio di maggio i cibercriminali hanno messo in ginocchio l’oleodotto che fornisce quasi la metà del combustibile necessario alla costa orientale degli Stati Uniti per cinque giorni. Per riaverne il controllo, la Colonial Pipeline Company, l’azienda che gestisce l’oleodotto, ha dovuto pagare un riscatto da $4,3 milioni in Bitcoin.

Qualche giorno dopo, un secondo “attacco ransomware” ha messo in ginocchio la maggior parte degli ospedali in Irlanda, con la minaccia di divulgare informazioni riservate delle cartelle cliniche dei pazienti nel caso in cui il governo irlandese avesse deciso di non pagare il riscatto da $20 milioni. Lo staff è passato ad utilizzare carta e penna, causando molti ritardi e inconvenienze per i pazienti. Al 14 giugno, la situazioni non è ancora rientrata nella norma.

Ancora, agli inizi di giugno, la più grande azienda di processamento carni del mondo, JBS, ha visto i suoi sistemi del Nord America e dell’Australia andare in tilt a causa di un altro “attacco ransomware”. L’azienda ha dovuto pagare $11 milioni di riscatto per continuare a far lavorare i suoi 150.000 dipendenti che forniscono un quinto della carne a livello mondiale. Cosa sta succedendo nel mondo?

Ciberguerra e deterrenza digitale

“Ransomware” è una parola composta da “ransom” che vuol dire riscatto e “malware” che vuol dire software malevolo. Un ransomware è quindi un virus informatico che blocca il sistema di un utente, di solito criptandolo, e chiede un riscatto per riottenere il controllo dei file.

Essi non sono nulla di nuovo: già nel 1989 il cavallo di troia “AIDS” si diffondeva tramite floppy disk, criptava i file sul disco dell’utente e chiedeva un riscatto di 189 dollari per riaverli indietro. Altri importanti attacchi perpetrati grazie all’utilizzo di ransomware sono quelli eseguiti tramite il famigerato WannaCry, di matrice nordcoreana, che nel maggio 2017 ha iniziato a diffondersi sfruttando una falla scoperta dall’NSA trapelata sul mercato nero: WannaCry ha infettato oltre 230.000 computer in 150 paesi, e l’Europol l’ha definito «il più grande attacco ransomware di sempre». Anche Petya, un altro ransomware di matrice russa a larghissima diffusione nel 2016-2017 usava lo stesso exploit di WannaCry (chiamato EternalBlue), e secondo la Casa Bianca ha recato danni per più di $10 miliardi a livello mondiale.

Gli attacchi ransomware stanno sempre più incrementando. Secondo la rete di analisi di Kaspersky Lab, un’azienda di cibersicurezza, ogni giorno 80.000 infezioni da ransomware vengono scoperte nel mondo. Secondo un’analisi di The Economist però, gli attacchi si sono spostati dall’avere come target principale i piccoli privati alle grandi corporazioni, per avere riscatti molto più grossi e sicuri. Chainalysis, una società di sicurezza informatica, afferma che nel 2020 l’importo pagato in riscatti Bitcoin è aumentato del 311% rispetto al 2019, a circa 350 milioni di dollari. Le vittime sono di solito le imprese, ma sempre più spesso includono i governi e i loro dipartimenti, compresa la polizia.

Il ransomware WannaCry avverte che i file sono stati crittati e chiede un riscatto per riaverli. © Wikimedia Commons

Gli attacchi informatici non sono però perpetrati solo tramite ransomware. L’attacco del 2014 da parte della Corea del Nord ai danni di Sony, che si era permessa di criticare il dittatore di Pyongyang, quello a Equifax nel 2017 quando i dati di 147 milioni di persone sono stati rubati, o il recentissimo scandalo di SolarWinds, portati a termine tramite altri mezzi sofisticati di attacco informatico, dimostrano che l’infrastruttura a livello mondiale poggi su basi poco solide, e che gli attacchi vengono effettuati sia da gang criminali sia, spesso e volentieri, da Stati esteri, con l’obiettivo di sabotare o rubare dati di un’altra nazione, in una violenta e continua guerra cibernetica.

Le capacità informatiche offensive sono ora diffuse tra gli Stati e comunemente utilizzate nelle campagne militari. Nella loro guerra contro lo Stato Islamico, Gran Bretagna e America hanno usato attacchi informatici per sopprimere la propaganda del gruppo terroristico, interrompere i suoi droni e seminare confusione nei suoi ranghi. Sono anche usati per fare danni fisici in tempi in cui nessuna guerra è ufficialmente in corso. Considerate il pionieristico worm Stuxnet americano-israeliano, che ha indotto le centrifughe iraniane a disintegrarsi un decennio fa, o il riuscito sabotaggio della rete elettrica ucraina da parte della Russia nel 2015 e 2016.

L’era dell’insicurezza informatica

La nostra infrastruttura digitale non è costruita pensando alla sicurezza. Questo perché gran parte del sistema dipende da componenti vecchie, ma anche perché sono mancati gli incentivi a privilegiare la sicurezza. Né Internet, né il Web, né la maggior parte delle applicazioni sono progettate avendola in mente come priorità. Ed è molto difficile migliorare la solidità di un sistema che è già completo e che è stato costruito senza tenere conto della sicurezza. Inoltre siamo circondati da “debito tecnico”, programmi cioè che funzionano ma sono stati creati frettolosamente, spesso decenni fa, e non avrebbero mai dovuto operare ai livelli in cui operano (ad esempio come database sanitarî critici).

La rete non ha mai avuto la solidità di cui oggi avrebbe bisogno. In realtà, se si pensa a quanto siano diffusi questi problemi, è sorprendente che gli attacchi informatici siano così poco frequenti. Mentre gli utenti di internet sono passati da poche migliaia a più di quattro miliardi, i tentativi di migliorare la sicurezza sono stati ostacolati dai costi, dalla scarsa lungimiranza e dai diversi interessi in conflitto tra loro.

I ransomware non sono l’unico problema, sebbene siano uno dei più annosi. Alla fine, comunque, tutto si ripercuote sull’utente finale, sul cittadino, che esso stesso sia vittima di un attacco informatico, o che un’azienda detentrice dei suoi dati sia vittima di un attacco.

Riguardo quest’ultima istanza, forse il caso più eclatante è Facebook: azienda nota per le sue ripetute violazioni della privacy a danno dei suoi utenti, negli anni è stata vittima di alcuni tra i più gravi scandali informatici di mala gestione. Ricordiamo lo scandalo “Cambridge Analytica” nel 2016, quando tale azienda usò illegalmente dati di 80 milioni di cittadini americani per creare un profilo psicologico completo di essi (circa 5000 diversi tratti) per bombardarli con pubblicità mirata e favorire la vincita di Donald Trump. Più di recente, i dati personali completi (nome, cognome, data e luogo di nascita, numero di cellulare, professione, ecc.) di 500 milioni di persone nel mondo, compresi 36 milioni di italiani (la quasi totalità degli utilizzatori italiani di Facebook) sono stati rubati e messi a disposizione gratuitamente sul mercato nero di Internet. I vostri dati probabilmente sono lì, per tutti da visionare, e soprattutto per i malintenzionati da sfruttare, per furto di identità, di dati bancari, ecc.

Analogamente, innumerevoli altri scandali di sicurezza di Facebook si sono susseguiti negli anni, mostrando come anche una delle più grandi aziende di informatica al mondo possa essere vittima della negligenza e della mala gestione.

Come Facebook però, tante altre grandi aziende, e persino Nazioni, hanno subito una perdita di dati privati (“leak” in gergo). Quasi un sistema informatico sensibile alla settimana è violato, e queste sono solo i database di cui siamo a conoscenza. Molto probabilmente anche qualche vostra email, password, o numero di cellulare è lì. Ma allora dobbiamo rassegnarci? La sicurezza e la privacy non sono possibili in nessun modo sul web? No, e ora vediamo alcuni semplici consigli per migliorare drasticamente la nostra sicurezza e riprendere in mano la nostra privacy.

Se ti affascina la sicurezza informatica, e sogni una carriera in questo ambito, puoi dare un’occhiata al corso magistrale di Informatica dell’UNIFI, che tra gli insegnamenti contiene anche quello di sistemi ciber-fisici sicuri. L’esperto di sicurezza informatica è uno dei lavori più richiesti e meglio pagati attualmente nel mondo.

Piccolo prontuario di sicurezza informatica

Nella comunità di esperti informatici, un acronimo ricorrente quando si parla di problemi di sicurezza è “PEBKAC”,  “Problem Exists Between Keyboard And Chair”, ossia “Il problema sta fra tastiera e sedia”; l’utente è il problema. Questo è vero per quasi tutti gli incidenti informatici. La maggior parte delle volte, i criminali informatici sfruttano bias e debolezze della nostra mente per farci cliccare su un’email malevola, o andare su un sito che scarica malware, o semplicemente sfruttano la nostra negligenza con la tecnologia per infiltrarsi nei nostri sistemi.

Il primo passo per risolvere un problema è accorgersi di esso e capirlo. Teniamo quindi a mente che nessuno di noi è infallibile, e nessuno si deve ritenere tale. Al contrario, dobbiamo costantemente chiederci se l’azione che stiamo per compiere o abbiamo compiuto rappresenta un rischio. Poi, per meglio capire la nostra situazione attuale, facciamo un giro sul sito HaveIBeenPwned, che nel gergo informatico significa “sono stato violato?”. È il più grande e autorevole sito di raccolta di data breach (cioè database di dati personali rubati) al mondo. Potete immettere la/le vostra/e e-mail per vedere se appaiono in qualche violazione, e se sì, quando è successa. Facciamo così anche per le nostre password e numero di cellulare (tranquilli, nessuna informazione in chiaro viaggia sul web: il controllo viene fatto “in locale”, generando un hash da ciò che scrivete. Non c’è alcun modo che il sito o qualsiasi altra persona possa in qualche modo intercettare la vostra password e il vostro cellulare). Se a tutte e tre i test risultare positivi, mettetevi le mani nei capelli, e riflettete sul fatto che è un miracolo che non siate ancora stati vittime di un furto di identità o di account importanti.

A questo punto però potreste chiedervi che importanza abbia se la vostra password o il numero di cellulare sono a giro per il web. A parte per il fatto che questa è una violazione della privacy intrinseca e rappresenta un problema grave di per sé (penso che nessuno scriverebbe su fogli di carta il proprio indirizzo e cellulare, per poi sventolarli e regalarli a giro per la città), la sventura maggiore è la negligenza umana della gestione delle password. La maggior parte degli utenti usa password simili, se non uguali, per tutti i servizi web (molto probabilmente lo fate anche voi). Quando ciò succede, un pirata informatico che abbia rubato le vostre credenziali dal sito A può tranquillamente accedere ai siti B, C, e D e rubarvi l’accesso anche a questi. Fatto ciò, avendo accesso alla vostra email, il criminale cambia le password alla vostra casella postale e a tutti i siti, impedendovi di accedere più ad essi.

E questo processo è automatizzabile al 100%: il pirata programma un software che, prendendo tutte le coppie di email e password dal database rubato, le prova automaticamente sugli X siti più popolari (Amazon, eBay, iCloud, fascicolo sanitario). Se il software trova un accesso, lo comunica la pirata, che ora ha il pieno controllo del vostro account, e tutte le informazioni contenute in esso (dati della carta di credito, indirizzo, dati sanitarî, ecc.).

Gli umani hanno poca fantasia e una cattiva memoria. È assai difficile usare una password diversa per ogni servizio. Per questo le password sono uno dei più grandi fallimenti dell’ingegneria informatica: sono difficili per gli umani da ricordare e facilissime per i computer da indovinare. Come difendersi?

Regola 1: Utilizzare password diverse per ogni sito.

Il trucco ovviamente non è ricordarsele tutte, crearle tutte simili, o peggio ancora, appuntarsele da qualche parte, ma usare un gestore di password. Probabilmente li avrete già sentiti nominare. Il loro funzionamento è semplice: usando una sola password chiamata master password (che si presuppone sia forte) sbloccate un database criptato in cui il programma vi genere una password totalmente casuale e sicura (del tipo “rCZ_(Qn?=^]0K9g+c$v#”) diversa per ogni servizio. Così se mai il sito A dovesse essere violato, i criminali informatici non potranno accedere ai siti B, C e D, perché le password sono tutte diverse tra loro e senza alcuna correlazione.

I gestori di password sono estremamente efficaci per un semplice motivo: invece di ricordare tante password mediocri e insicure, dovete ricordare un’unica password molto sicura. E questo per sempre: non dovrete mai più memorizzare una password in vita vostra.

Non solo, ma l’esperienza sul web diventerà anche molto più comoda: non dovrete mai più scrivere una password in vita vostra, perché la maggior parte dei gestori di password, una volta che vi siete autenticati con la master password, vi autocompila i campi di login.

Potreste a questo punto avere qualche dubbio: «non è meno sicuro mettere tutte le password in un unico posto? Se mi rubano o violano il database mi rubano tutte le password!». Ottima domanda. La risposta è no.

Il database è criptato, cioè solo e solamente avendo la master password è possibile accedervi, e non in nessun altro modo (se la master password è molto forte, altrimenti il criminale potrebbe tentare di crackarla), perché gli algoritmi di crittografia usati sono inviolabili, letteralmente.

Non prendete però le parole di uno sconosciuto sul web per buone: come in ogni scienza che si rispetti, ogni affermazione va provata (regola bonus per voi: assumete che qualsiasi persona con cui interagite sul web sia malevola e cerchi di recarvi danno in qualche modo o voglia darvi notizie false; così farete molta più attenzione nelle vostre interazioni). Se avete delle basi di matematica del liceo, e vi va di addentrarvi nei bellissimi meandri della crittografia, date un’occhiata all’Appendice 1, per capire esattamente come e perché gli algoritmi moderni di crittografia sono matematicamente inviolabili, e convincetevi voi stessi.

Gestori di password gratuiti e open-source che potete iniziare a usare da questo momento (facilità estrema di utilizzo):

  • Bitwarden: semplicissimo da usare, tutto online, si sincronizza su tutti i dispositivi a cui lo connettete; se siete fanatici della privacy il database potete crearlo da voi in locale con Docker; algoritmo di crittografia molto sicuro; tanto supporto e manuali online; interfaccia moderna molto carina.
  • KeePassXC: software derivato dal più famoso KeePass, migliorato in sicurezza, da scaricare in locale sul dispositivo (per Android potete usare Keepass2Android, per iOS Strongbox). Per i fan più puri della privacy: il database rimane criptato in locale, e lo potete sincronizzare sui dispositivi tramite USB o con un cloud a vostra scelta; sicurezza estrema, personalizzazione infinita. Open-source, testato indipendentemente. Una cassaforte di adamantio per i vostri dati.

Corollario 1: Come costruire una master password sicura.

Come visto in precedenza, la debolezza di un sistema sta nel suo anello più fragile: se la vostra master password non è sicura, l’intero database non lo sarà. Per iniziare a creare una master password inviolabile, cominciate con scordarvi tutto ciò che sapete di password: è inutile usare come password qualcosa come “7R#]SI|lT@” perché è assai difficile per noi umani da ricordare e facile per un computer da calcolare.

La sicurezza di una password si misura con la sua “entropia”. Senza entrare nel dettaglio, essa aumenta esponenzialmente con la lunghezza di una password. Dovete quindi puntare quindi a una password formata da tante parole: non più una pass-word, ma una pass-phrase.

  • Unite insieme più parole: TopoHulkAstronautaGenoveffo è già una buona password. Usate almeno quattro parole, sei meglio. Cercate di usare parole che abbiano un significato per voi, così che vi sia più facile da ricordare. Se sapete più lingue, usate parole di più lingue, o inventate, se per voi è facile da ricordare. Le passphrase sono facili da ricordare, poiché potete crearvi un’immagine mentale della frase senza senso: in questo caso, un topo che ha le sembianze di Hulk uccide un astronauta di nome Genoveffo. L’avete già imparata, e nel caso la scordiate, vi basterà ricordare l’immagine mentale.

Attenzione però: non usate il vostro nome, o quello di un vostro parente, o qualcosa che tutti sanno vi piace. Nessuno dovrebbe poter risalire alla vostra password conoscendovi.

  • Aggiungete qualche numero in fondo o all’inizio della passphrase, per aumentare l’entropia.
  • Se volete, aggiungete uno o due caratteri, ma non è strettamente necessario (es: @stronauta invece di Astronauta). La vostra master password è già sicura con i passi precedenti.

Prendetevi il vostro tempo, e pensate a una passphrase veramente sicura. Se avete poca fantasia, potete usare un servizio online che genera passphrase sicure per voi come questo. Fatto ciò avete una passphrase nuova di zecca. Ripetetela come un mantra trenta volte finché non vi si stampa in mente, e per nessun motivo non scrivetela mai da nessuna parte, né ditela a nessuno, neanche al vostro migliore amico: ricordate, chi ha la master password ha tutte le vostre password.

Regola 2: Abilitare l’autenticazione a due fattori (2FA) su ogni servizio che la supporta.

Come visto in precedenza, i criminali informatici usano sistemi automatizzati per provare ad accedere agli account con combinazioni di e-mail e password rubate. Per ovviare a questo problema, è stata inventata l’autenticazione a due fattori. Probabilmente già la usate per accedere al vostro conto bancario.

L’autenticazione a due fattori permette di usare un codice temporaneo della durata di 30 secondi insieme alla password: anche se qualcuno sa le vostre credenziali, ma non ha accesso al vostro cellulare o token dove viene generato il codice, non potrà in alcun modo accedere all’account.

Attivate quindi 2FA su tutti gli account che lo permettono (tutti le maggiori compagnie come Google, Microsoft, Apple, Adobe, ecc. la supportano; andate nelle impostazioni dell’account e attivatela da lì).

Regola 3: Capire la provenienza delle e-mail e dei siti web per proteggersi dal phishing

L’attacco di phishing (pronunciato come “fishing” che vuol dire “pescare”) funziona così: arriva una email o un messaggio da una fonte apparentemente affidabile che invita l’utente a compiere un’azione come l’apertura di link o di file allegati. Il messaggio di solito segnala una mancata fatturazione, l’imminente rinnovo di un servizio, la chiusura di un conto bancario o, in altri casi, annuncia la vincita di un premio.

I tipi di attacchi e di messaggi sono sempre più sofisticati e credibili, per questo sempre più difficili da riconoscere, ma tutti hanno in comune una richiesta, fornire uno o più dati personali: username, password, codice fiscale, data di nascita, fino alle coordinate bancarie. Tutti però hanno una caratteristica comune: un senso di urgenza. Se un’email vi chiede di cambiare subito i vostri dettagli bancari, o di un account, o di inviare subito soldi per verificare una transazione, probabilmente si tratta di phishing o scam. Nessuna compagnia autorevole vi metterà mai pressione e o senso urgenza nel compiere un’azione.

Come riconoscere il phishing o lo scamming:

  • Occhio agli errori. Nei casi di phishing più grossolano le email contengono errori ortografici, o piccole storpiature, nel nome del presunto mittente, ma in ogni caso il reale indirizzo da cui provengono queste email è differente da quello ufficiale. Controllate SEMPRE l’indirizzo del mittente.
  • Non credere alle urgenze. È uno dei fattori sui quali il phishing fa maggiormente leva: un pagamento in sospeso da saldare immediatamente, un premio da ritirare a breve o il rischio di perdere un account se non si paga subito. Quando una email punta a mettere fretta, il rischio che sia una truffa è alto.
  • Controllare le richieste di rinnovo. Un dominio in scadenza o il termine di un abbonamento: se si riceve l’avviso dell’imminente rinnovo di un servizio, è meglio non farsi prendere dall’ansia. Prima di aprire qualsiasi link, o fornire i propri dati al sito sbagliato, è meglio controllare sul sito del servizio in questione se effettivamente c’è un rinnovo in corso.
  • Attenzione agli allegati. Quando sono presenti allegati con estensione dei file inusuale bisogna prestare molta attenzione. In questo caso, oltre al semplice phishing, potrebbero nascondersi virus dietro quei file.
  • Nessuno regala niente. Le email che annunciano vincite di denaro, o di qualsiasi tipo di premi, sono quasi sempre fasulle. Uno smartphone in regalo, l’eredità di un lontano parente (o il famoso principe Nigeriano) o la vincita alla lotteria dovrebbero suonare sempre come campanelli d’allarme.
  • Onestà con voi stessi. Come già ripetuto, siete facilmente manipolabili, soprattutto quando sotto stress, o arrabbiati, o avete una cattiva giornata. Basta un nonnulla per cadere in trappola. Se non siete sicuri, sempre meglio lasciar stare. Ricontrollerete l’e-mail o il sito web quando sarete più freschi. Se succede alle grandi aziende, può senz’altro succedere anche a voi.

Inoltre, controllate sempre la barra degli indirizzi del vostro browser: se un’e-mail vi chiede di autenticarvi su PayPal (e già qui c’è puzza di phishing), e la pagina a cui vi rimanda è del tipo “paypal.be1253i12y3.com”, il sito è un phishing: è un sito fasullo, di proprietà del criminale informatico, e quando metterete i vostri dati ve li ruberà. Questo perché l’URL del sito non è “ufficiale”: ha quei caratteri strani in mezzo, che nessun sito ufficiale ha (PayPal ha come URL solo e solamente paypal.com).

Icona HTTPS che indica una connessione sicura verso il sito. © Wikimedia Commons

Se inoltre fate acquisti, fate attenzione che il sito sia fidato, ben recensito, e soprattutto abbia il lucchetto accanto all’URL: il lucchetto significa che la connessione al sito è criptata, e se ci cliccate sopra potete vedere chi è l’autorità che certifica la connessione. Se è un’autorità conosciuta, come il sito stesso, o qualche provider famoso come GlobalSign, Digisign, Aruba, ecc. il sito è affidabile. Altrimenti potrebbe non esserlo.

Regola 4: Avere sempre un backup dei dati che ritenete importanti

Colonia Pipeline, JBS, HSE, e tante altre compagnie vittime di ransomware hanno dovuto pagare il riscatto. Questo perché non erano pronte. Non avevano un sistema di backup per l’infrastruttura critica. Se siete vittima di infezione da ransomware, e non avete un backup dei dati importanti, siete fritti.

Pagare un riscatto, oltre che illegale perché finanzia i criminali informatici, non garantisce il ripristino del sistema: i pirati potrebbero semplicemente non volervi dare la chiave di decrittazione, oppure potrebbe non esistere, come nel caso del ransomware NotPetya, che critta i vostri file con una chiave temporanea irrecuperabile.

Per non perdere tutto ciò che è di valore dovete innanzitutto seguire tutte le regole precedenti: un malware non si scarica da solo, non è senziente. È sempre colpa dell’utente se un’infezione avviene (ricordate “PEBKAC”). Siate quindi molto attenti nella vostra attività sul web.

Poi, dotatevi di un buon antivirus a pagamento, come Kaspersky (costa pochi euro l’anno). Infine, fate assolutamente un backup dei vostri dati. È fondamentale! Non solo per proteggervi dai malware, ma dalla fallacia della tecnologia: i componenti si usurano con i tempo, e il vostro disco rigido o smartphone potrebbe smettere di funzionare improvvisamente domani, e perdereste tutti i dati. Al sottoscritto è successo e non è una piacevole esperienza.

Fate una veloce ricerca sul web per capire quale sia per voi il modo migliore di eseguire un backup. Il vostro corrispondente usa Cobian Backup, un software gratuito e resiliente. Potete fare backup su dischi rigidi in locale (dischi della WD o Seagate esterni da diversi terabyte oggi costano solo qualche decina di euro) oppure usare servizi cloud sicuri, che rispettino la vostra privacy, come pCloud, Mega, ProtonDrive o SpiderOak.

Il futuro della rete

Affrontare la ciber-insicurezza è difficile perché sfoca i confini tra gli attori statali e privati e tra geopolitica e criminalità. Le vittime di cyber-attacchi includono aziende e enti pubblici. I perpetratori includono gli stati che conducono spionaggio e testare la loro capacità di infliggere danni in guerra, ma anche bande criminali in Russia, Iran e Cina la cui presenza è tollerata perché sono un irritante per l’ovest. Tali attacchi sono la prova di un’epoca dell’insicurezza che inciderà tutti, dalle imprese tecnologiche a scuole e eserciti. 

È un problema legato alla concentrazione della ricchezza globale e all’assenza di controlli efficaci sulle sue conseguenze. Tutto questo per dire che, esattamente come succede con il debito tecnico, le soluzioni improvvisate per risolvere una crisi immediata non risolvono i problemi di fondo. E una nuvola di segretezza e vergogna che circonda gli attacchi informatici amplifica le difficoltà. Molte aziende trascurano le basi, come l’autenticazione a due fattori. Colonial Pipeline non aveva preso neanche le precauzioni più semplici.Trovare un rimedio all’insicurezza digitale significherebbe anche creare regole migliori nel settore tecnologico, in modo che le problematiche di sicurezza diventino interne e intrinseche delle diverse aziende, a cui spetterebbe la responsabilità di trovare soluzioni ai problemi che hanno creato.

E soprattutto, la soluzione inizia con l’educazione. L’8 giugno scorso alcuni tra i più grandi siti web del mondo hanno smesso di funzionare per un’ora, a causa di una piccola azienda, Fasty, che la maggior parte delle persone non ha mai sentito neanche nominare, e che fornisce un servizio altrettanto oscuro ai più quanto fondamentale (essa fa da Content Delivery Network, fornendo i dati multimediali dei siti web più velocemente e in modo decentralizzato).

L’informatica e i dati sono alla base del mondo moderno. La digitalizzazione permetterà di aumentare la produttività e l’efficienza dei processi, rivoluzionare l’assistenza sanitaria e salvare molte vite negli anni a venire. Ma più il mondo è plagiato dall’insicurezza informatica e dall’ignoranza, più le persone si allontaneranno dalla rivoluzione, rischiando di ottenere l’effetto opposto. Immaginate se la vostra auto connessa fosse infettata da un ransomware e vi chiedesse: “pagaci 5.000 euro, o le porte rimarranno bloccate per sempre”.

Il cibercrimine impedisce la digitalizzazione di molte industrie, ostacolando una rivoluzione che promette di aumentare gli standard viventi in tutto il mondo. Ora più che mai è necessario diventare persone più informate, per costruire tecnologie migliori, che ci aprano la porta su un mondo migliore.

Andrei Florea

Appendice 1: “Come funzionano gli algoritmi di crittografia?” (ancora non pubblicata. Per iniziare, potete dare un’occhiata qui e qui)

I Big Data

Tempo di lettura: 1 minuto.

Fino a qualche anno fa era impossibile non trovare un panel sui Big Data nella maggior parte delle conferenze di tecnologia. Al giorno d’oggi si parla più di algoritmi e intelligenza artificiale, ma alla base restano, in ogni caso, i Big Data.

Con questa locuzione si intende l’accumulo di una grande mole di dati (fino all’ordine di miliardi di terabyte, dove 1 TB = 1 miliardo di byte), che per essere utilizzabili necessitano di tecnologie specifiche o particolari metodi analitici. In altre parole, questi dati sono di per sé inutilizzabili senza un mezzo con cui analizzarli nel modo opportuno. Tale mezzi sono per esempio algoritmi di intelligenza artificiale.

Cosa manca ai Big Data?

Gli ingegneri e gli scienziati sostengono la validità del loro campione solo perché costituito da milioni di dati. Ma grandezza del campione non significa completezza, né tantomeno autorevolezza.

Secondo Kate Crawford della University of Southern California, i Big Data soffrono di una serie di problemi:

  • Bias (distorsione o errore di valutazione): è necessario verificare da dove vengono i dati e quale sia il contesto perché essi abbiano un valore;
  • Rappresentanza (signal): nella rappresentazione dei Big Data mancano sempre delle categorie,  che si ripercuotono nell’utilizzo dei dati;
  • Scala: nell’enorme quantità dei dati i fenomeni piccoli non emergono.

Per capire come utilizzare i Big Data, è necessario aver in mente uno scopo perché, di per sé, i dati non parlano, ma è necessario porre loro le giuste domande per ottenere delle risposte.

Ma non tutti i sistemi sono quantificabili allo stesso modo. Una rete elettrica o un genoma lo sono, ma, com’è intuibile, tutta la sfera del comportamento umano non è soggetta a precise regole matematiche.

Per fare un esempio, Netflix ha sempre usato i Big Data che rivelano informazioni sugli spettacoli e le preferenze degli spettatori, ma dicono poco sul comportamento dello spettatore. Per questo decise di aggiungere i dati qualitativi, quelli che sono noti come Thick Data. Netflix ha iniziato a fornire intere stagioni di episodi tutti insieme, piuttosto che rilasciare un episodio alla settimana. In questo modo, ha capitalizzato la consapevolezza che i suoi abbonati preferiscono guardare più episodi di una serie in un breve lasso di tempo. Una scelta premiata dai consumatori e dagli investitori.

Quindi, per concludere, se i Big Data dicono dove e quando gli utenti utilizzano un certo prodotto i Thick Data rispondo a domande come “cosa fanno di quel prodotto gli utenti?”. I Big Data sono un potente strumento per dedurre le correlazioni tra eventi ma non certo un modo per capire la causalità.

Lorenzo Niccoli

LA DEMOCRAZIA COMPUTERIZZATA

Tempo di lettura: 2 minuti.

E-democracy: democrazia elettronica o computerizzata. In questi ultimi anni questo argomento è un vero trending topic e in occasione delle elezioni studentesche dell’Università degli studi di Firenze, che sono avvenute attraverso una apposita piattaforma online, l’11 e il 12 maggio 2021, non possiamo non parlare di questo tema e di come la differenza tra una democrazia “offline” e online sia più grande di quanto si pensi. 

 Ma cosa è esattamente la E-democracy? E quali sono i principi su cui si fonda? 

La E-democracy si contraddistingue per l’utilizzo di sistemi digitali ed informatici allo scopo di creare una vera e propria democrazia orizzontale, paritaria, libera e diretta. Nella sua teorizzazione più pura, mediante gli strumenti elettronici, come il computer o il cellulare, e una connessione internet, il cittadino è in grado di prendere direttamente le decisioni politiche più rilevanti bypassando la classe politica e azzerando la distanza, sempre più abissale, con la classe dirigente al potere. Dunque, risulta riprendere, in parte, l’antico istituto della democrazia diretta.  

La democrazia diretta 

La democrazia diretta si contraddistingue per concentrare il potere sovrano nella mani del popolo senza nessuna intermediazione: il popolo è l’unico detentore del potere legislativo che non può essere delegato a nessuna carica o funzionario dello Stato. Quindi, tutti i cittadini possono partecipare direttamente alla vita politica su base volontaria, promuovendo iniziative nel rispetto delle regole fissate e sui temi di loro scelta.  La democrazia diretta è stata tra le prime forme di governo democratico, essendo il regime che si è sviluppato durante il V secolo a.C. nella polis di Atene: è importante ricordare, però, che a quel tempo non tutti i cittadini avevano il diritto di voto, ovvero né le donne né specifiche fasce di cittadini potevano partecipare alla presa della decisioni pubbliche, quindi non c’era una vera e propria democrazia come la intendiamo oggi. 

Il tema della democrazia diretta, dopo millenni di silenzio, riapparve durante l’illuminismo con Jean-Jacques Rousseau: secondo il filosofo la democrazia diretta è l’unico strumento attraverso il quale il popolo può davvero esprimere la volontà generale, la verità oggettivamente presente in ognuno di noi, che ciascuno deve scoprire e seguire onestamente, ovvero ciò che ci porta ad agire nel rispetto di noi e degli altri. Rousseau non accettava la presenza di rappresentanti del popolo eletti attraverso il voto, in quanto sosteneva che essi non rispettassero la reale volontà popolare, finendo per degradare l’intero concetto di democrazia. 

La democrazia rappresentativa e la sua crisi 

Per quanto l’ideale della democrazia diretta sia sempre rimasto nel cuore del cittadino medio, l’estensione geografica degli Stati, la numerosità della popolazione, la complessità e l’eterogeneità dei Paesi rendono praticamente impossibile applicare questa forma di governo. Per questo nel corso dei secoli abbiamo optato per la democrazia rappresentativa o indiretta: una forma di governo dove il corpo elettorale, che ha diritto di voto, elegge direttamente i propri rappresentanti. In questi ultimi decenni, però, stiamo assistendo ad un vero paradosso: per quanto sia ovvio e palese che uno Stato democratico sia nettamente migliore di uno Stato autoritario o dittatoriale, le democrazie dei Paesi Occidentali sono in profonda crisi

La principale causa è di natura politica-rappresentativa, poiché i partiti di massa sono sempre meno legati ad ideologie forti e, al fine di raggiungere il potere, sono disposti ad allargare il proprio bacino di elettori diventando catch-all parties, ovvero partiti piglia tutto: associazioni private che si svuotano di valori ideologici per conquistare più elettorato possibile. L’altra causa è legata al rapporto, sempre più stretto, tra finanza e politica e la presa di decisioni che spesso sono solo legate a interessi “alti” che sono ben distanti dalle necessità popolari. Un altro fattore rilevante ha che vedere con il passaggio da una preminenza del potere legislativo a quello esecutivo e la conseguente formazione di un apparato amministrativo più forte dello stesso Parlamento. Infine, la globalizzazione e la nascita di enti intergovernativi volti alla regolazione del mercato come la Banca Mondiale, il G8 o il G20, stanno lentamente erodendo il potere legittimo degli Stati, facendo sì che sia il diritto a seguire il mercato e non viceversa: non sono più le Nazioni a regolare l’economia mondiale, ma è quest’ultima che detta le regole. 

La nascita della democrazia elettronica 

Proprio tale crisi generale ha spinto molti a chiedersi se la democrazia fosse ad una sua fine o se, in qualche modo, fosse possibile un rimedio à questa lenta degenerazione. La nascita degli strumenti digitali è stata vista come un possibile mezzo per ridurre quel gap tra cittadini e politici o, addirittura, per eliminare completamente la classe politica. Pensare di votare stando comodamente sul divano della propria casa o prendere una decisione di rilevanza collettiva in pausa pranzo può sembrare allettante, ma quanto tutto questo può essere veramente buono per la nostra democrazia? 

Rischi della E-democracy 

Il primo grande rischio della democrazia elettronica è la manipolazione dei dati online a causa di possibili hackeraggi: sarebbe, dunque, necessario istituire un organismo esterno al sistema che controllasse e sorvegliasse sul giusto rispetto delle regole, un po’ come il Consiglio Superiore della Magistratura. Il voto potrebbe non essere più segreto, dato la possibilità di non poter garantire il rispetto della privacy durante la votazione. Inoltre, chi ci dice che a votare è proprio quel cittadino? Nessuno ci dà una certezza. Un ultimo elemento di rischio, ma non per importanza, è il digital divide, ovvero il divario tecnologico tra chi può accedere alla rete e chi non è in grado di farlo, non solo per problemi economici legati all’impossibilità nell’acquisto di un dispositivo tecnologico o di un abbonamento a internet, ma perché presenta un’età o un handicap che gli impedisce di votare tramite una piattaforma online. 

Le applicazioni attuali della E-democracy 

La E-democracy può essere anche letta al di fuori di una visione dogmatica: può essere utilizzata limitatamente al miglioramento dell’apparato burocratico o per unire ancora di più il legame tra partiti e militanti. Infatti, è possibile distinguere entro due tipo di democrazia digitale: la democrazia digitale diretta dove i cittadini partecipano al processo legislativo al posto dei rappresentanti politici, attraverso l’espressione del proprio assenso o dissenso  tramite un’apposita piattaforma digitale, e  la democrazia digitale partecipata, che consiste nell’incremento della partecipazione di tutti i cittadini allo sviluppo e all’indirizzo generale della politica, senza l’eliminazione della classe dirigente al potere.

Molti partiti si stanno dotando di una propria piattaforma virtuale che possa costituire un’assemblea permanente, dove tutte le iniziative vengono sviluppate e messe al voto tra tutti gli iscritti al partito. L’esempio più conosciuto in Italia è il blog di Beppe Grillo, ma anche la piattaforma del Partito Pirata Tedesco che, attraverso il software LiquidFeedback si fa carico delle richieste dei cittadini. L’Islanda stava portando avanti il progetto più complesso e ambizioso: riscrivere la Costituzione grazie al sostegno dei cittadini tramite specifiche piattaforme online, anche se a causa delle ultime elezioni politiche, tale obiettivo sembra essere fallito. 

Conclusioni 

Come si può ben dedurre, la E-democracy potrebbe essere la chiave di svolta per un cambiamento epocale, ma basare tutto su piattaforme online potrebbe non essere la scelta giusta. Internet è ancora troppo debole e poco sicuro per eliminare la democrazia rappresentativa così come l’abbiamo istituita nel corso dei secoli. Sicuramente possiamo trarre il buono da Internet e iniziare ad utilizzare piattaforme sicure come strumenti di confronto fra i cittadini. Circa il voto, trasformare un momento così importante in un semplice click dal telefono in qualsiasi momento della giornata o luogo in cui ci troviamo, nel letto prima di dormire, sul bus per andare all’università o in pausa caffè, andrebbe a svilire completamente un atto che concentra in sé il cardine della democrazia. 


Martina Marradi

ITALIAN INTERNET DAY: IL GIORNO IN CUI L’ITALIA SCOPRÌ INTERNET

Tempo di lettura: 2 minuti.

L’inizio di una nuova era

In Italia Internet è arrivato come per magia. Un segnale elettrico era partito dalla sede dell’ex Istituto CNUCE (Centro nazionale universitario di calcolo elettronico) del CNR in via Santa Maria, a Pisa. Passando per un cavo telefonico della SIP (l’attuale TIM) arrivò alla stazione nazione di Frascati di Italcable, una società di chiamate internazionali, per essere poi dirottato in Abruzzo al Centro spaziale del Fùcino. Qui da un’antenna di Telespazio, ancora oggi in funzione, il segnale fu sparato verso il satellite Intelsat IV, che orbitava sopra l’Atlantico, per poi arrivare oltreoceano, alla stazione satellitare di Roaring Creek, in Pennsylvania. Gli americani ricevettero correttamente il segnale.

Era il 30 aprile 1986 quando l’Italia entrava nella storia, essendo il quarto paese europeo a collegarsi ad Internet insieme a Norvegia, Regno Unito e Germania Ovest. Eravamo all’avanguardia.

Quel giorno però passò in sordina, e nessuno si accorse di cosa fosse appena accaduto. Nessun giornale nazionale riportò la notizia, mentre il Paese era attonito davanti al disastro di Černobyl’, avvenuto quattro giorni prima.

Una storia italiana

L’evento si deve a Antonio Blasco Bonito: fu lui il primo ricercatore italiano a stabilire, per la prima volta, la connessione tra il nostro Paese e la rete ARPANET (progenitrice di Internet) negli Stati Uniti. A quell’epoca lavorava insieme a due altri ricercatori, Nedo Celandroni ed Erina Ferro, sulle reti satellitari. Uno dei loro responsabili, Luciano Lenzini, aveva dei contatti con gli americani della D.A.R.P.A. (Defense Advanced Research Projects Agency) e informò loro che c’era la possibilità di avere un collegamento alla rete ARPANET.

Fu grazie alla sua tenacia che sei anni e mille problemi burocratici dopo aver avuto il primo contatto con questa nuova rete, avvenuto nel 1980 a Londra, portò a termine con successo l’impresa, proiettando l’Italia nel futuro.

Atomi di informazione

Con il collegamento a Internet del 1986, l’Italia entrò in una rete telematica mondiale che, attraverso un unico standard informatico, il protocollo TCP/IP, permette a tutto il mondo di comunicare.

Per avere il Web che conosciamo oggi, però, avremmo dovuto aspettare fino al 1991: fu infatti allora che un brillante fisico inglese del CERN, Tim Berners-Lee, pubblicò e implementò un livello applicativo della rete Internet che permetteva di “dare accesso universale a un vasto universo di documenti” tramite “recupero delle informazioni di ipertesto” [1]. Lo chiamò “World Wide Web”.

La portata di questa invenzione non ha eguali nella storia dell’umanità: nel 1996 i computer connessi nei cinque continenti erano già passati da 10 mila a 10 milioni e i termini “Internet” e “web” erano già entrati a far parte di tutti i principali dizionari di lingua italiana. Oggi esistono circa un miliardo e ottocento milioni di siti web, e quasi cinque miliardi di persone hanno accesso ad essi [2].

Sogni di un futuro passato

Internet e il web sono ormai pervasivi, e nell’ultimo decennio la più grande trasformazione di Internet è stata la possibilità di navigare da mobile ovunque ci troviamo. Il futuro sarà dettato da un’espansione esponenziale di questa rete mondiale, grazie ai nuovi dispositivi connessi intelligenti dell’Internet delle Cose (Internet of Things): automobili che dialogano tra loro per evitare incidenti, il vostro frigo che ordina automaticamente il latte, o le lampade che si accendono automaticamente quando entrate in casa.

Tutto questo però è iniziato 35 anni fa, da un centro di ricerca a Pisa e una manciata di uomini visionari che credevano in ciò che il futuro proponeva loro. Il segnale elettrico inviato da Antonio Blasco Bonito fu una parola, “PING”. Meno di un secondo dopo, da oltreoceano arrivò la conferma di ricezione: un semplice “OK”. Fu la prima delle innumerevoli conversazioni sulla rete che da lì in poi accadranno. Chissà quali meraviglie ci riserveranno i prossimi trentacinque anni.

Andrei Florea

1. Il primo sito Web, pubblicato da Tim Berners-Lee: http://info.cern.ch/hypertext/WWW/TheProject.html

2. https://www.internetlivestats.com/

L’ultima tecnologia sviluppata da Tim Berners-Lee: https://inrupt.com/solid

UNIFI: MASTER IN BIOINFORMATICA

Tempo di lettura: 60 secondi.

Se pensiamo alle discipline di informatica e medicina non penseremmo di certo che abbiano qualcosa in comune: la prima si occupa dell’elaborazione elettronica di ingenti somme di dati, mentre la seconda studia le malattie del corpo umano per garantire la salute della persona.

Cosa può, allora unire entrambi?

La ricerca, o meglio, il grande desiderio di conoscere e scoprire ciò che nel campo della medicina risulta essere ignoto, attraverso computer e macchine di calcolo e questo perché l’applicazione dell’informatica all’analisi di materiale biologico, come DNA o cellule tumorali, ha permesso, negli ultimi anni, l’attenta osservazione delle origini e dei possibili sviluppi di malattie ereditarie ed oncologiche: ciò ha avuto come effetto diretto la produzione di medicinali che andassero a combattere direttamente il problema con una precisione mai vista prima. 

E proprio da ciò nasce la Bioinformatica, un termine che sembra tanto fantascientifico quanto improbabile e che, invece, in questi ultimi anni, risulta essere essenziale per comprendere come il settore della medicina stia cambiando, ma soprattutto, come il mondo delle cure mediche si evolverà di qui a qualche anno. La medicina computazionale diventerà il vero grande settore di punta dei prossimi decenni ed è per questo che l’Università degli Studi di Firenze ha deciso di creare un percorso formativo adatto a nuove figure professionali. Unendo alcuni corsi del Dipartimento di ‘Ingegneria dell’informazione con il Dipartimento di Medicina Sperimentale, l’Università di Firenze ha creato il connubio perfetto: un corso di alta formazione che punta sull’utilizzo di metodi statistici e computazionali per la medicina di precisione.

Come sostiene il coordinatore del corso Alberto Magi, ricercatore di Bioingegneria elettronica e informatica, è fondamentale creare lavoratori che, in questo settore, siano in grado “di utilizzare strumenti matematici, statistici e computazionali  per l’analisi e l’interpretazione, sia in senso numerico che biologico, dei big data in medicina. Si tratta di un settore di fondamentale importanza per l’area scientifica e biomedica: per questo abbiamo deciso di offrire formazione qualificata a due diversi livelli”. Lo specialista che uscirà da questi corsi professionali è una figura estremamente innovativa, dotata di “una spiccata interdisciplinarità“, molto allettante per il mercato pronta a gestire qualsiasi tipo di analisi, sia sotto il profilo biologico che informatico.

Ma una domanda, tanto semplice, quanto rilevante può essere posta: come si accede a questo Master?

I posti disponibili ogni anni sono 20 e il bando è aperto per i seguenti tipi di laureati: biologia, biotecnologie, farmacia, fisica, informatica, ingegneria, matematica, medicina e chirurgia, scienze chimiche e scienze statistiche. Sono disponibili borse di studio e materiale didattico in supporto economico allo studente.

 Siete pronti ad iscrivervi al prossimo bando?

Martina Marradi