Robotica e bioingegneria: storia e futuro del nostro cervello

Tempo di lettura: 7 minuti.

Per decenni, gli studiosi di intelligenza artificiale e neuroscienziati hanno cercato di creare una coscienza artificiale, una mente sintetica. Raggiungere questo obiettivo risponderebbe a molte domande filosofiche interessanti su cosa significhi essere umani e su cosa siano la coscienza e il pensiero, oltre che potenzialmente poter risolvere una quantità spropositata di malattie neurodegenerative. È uno dei più antichi e affascinanti interrogativi capire come un chilogrammo e pochi etti di materia eccitabile siano responsabili della visione, del movimento, della sofferenza e dell’amore. Ma ancora non siamo arrivati a quel punto.

Nel frattempo, però, da anni è iniziata una rivoluzione silenziosa nel mondo delle neuroscienze e della bioingegneria. Queste discipline hanno compiuto progressi significativi nella comprensione del funzionamento del cervello, partendo da funzioni di primo livello come pensare, ragionare, ricordare e vedere, e suddividendole in componenti sottostanti. Per fare questo, i ricercatori hanno studiato singole regioni del cervello e sviluppato «protesi cerebrali» e «interfacce neurali». L’obiettivo non è sviluppare una coscienza artificiale (per ora), bensì è più pragmatico: trovare una cura per malattie come il morbo di Parkinson, l’Alzheimer, la sindrome di Tourette, l’epilessia, la paralisi e una miriade di altri disturbi legati al sistema neurvoso.

Per creare un’interfaccia tra la componentistica a base di silicio da un lato e le cellule cerebrali dall’altro, le due entità devono parlare la stessa lingua. I ricercatori hanno fatto grandi progressi nella comprensione del funzionamento a livello neurale della coclea dell’orecchio e della retina dell’occhio, e questi progressi hanno portato a sviluppi come l’impianto cocleare (un dispositivo in grado di restituire una parvenza di udito alle persone gravemente sorde), e una recente interfaccia cervello-macchina fornisce a persone che hanno per la vista una limitata capacità di percepire la luce. Il dispositivo, conosciuto come Orion, è prodotto dalla Sight Medical Products di Los Angeles: una minuscola videocamera, montata sugli occhiali, converte le immagini in impulsi elettrici e li invia in modalità wireless a 60 elettrodi impiantati nella corteccia visiva dei pazienti. Le persone con questo dispositivo sperimentale percepiscono nuvole di puntini luminosi, che permettono loro di orientarsi. «È ancora una meraviglia ogni volta che l’accendo» riferisce un partecipante allo studio.

Poter restituire anche solo parzialmente la vista a chi l’ha persa è un sogno a lungo coltivato: milioni di persone nel mondo vivono con deficit di entrambi gli occhi, causati dalla retinite pigmentosa, dalla degenerazione maculare, glaucomi, infezioni, tumori o traumi.

Per far funzionare queste e altre interfacce future, però, serve una comprensione più profonda del funzionamento dell’intero cervello. E quello che per ora gli scienziati capiscono molto meno bene è come comunica il sistema nervoso centrale.

Elettricità cerebrale

Per quel che sappiamo, i sistemi nervosi funzionano gestendo un flusso di correnti elettriche che attraversano reti ultradense e iperconnesse di neuroni, che fungono da elementi di commutazione, cioè un po’ come interruttori e relè, o come i transistori dei moderni microprocessori. Già il fisico e fisiologo Luigi Galvani, a fine Settecento, fece esperimenti per capire il funzionamento del sistema nervoso: con una rana appena morta, collegando un filo ad una sua zampa e puntando il filo in cielo a mo’ di parafulmine durante una giornata tempestosa, notò che la zampa si contraeva a ogni lampo. Ipotizzò quindi che le fibre nervose trasportassero una qualche specie di «elettricità animale» non tanto diversa dall’elettricità che i fisici cominciavano a studiare in quei decenni. Nel 1802 poi, Giovanni Aldini, nipote di Galvani, durante un evento pubblico stimolò elettricamente il cervello di un prigioniero decapitato: la mascella tremò, e un occhio si aprì. L’evento, come intuibile, generò molto scalpore e inorridimento, e probabilmente contribuì a ispirare Mary Shelley per la scrittura del suo famoso romanzo gotico Frankenstein.

Luigi Galvani, De viribus electricitatis in motu musculari commentarius, 1792. Esperimenti sulle rane. Crediti: © AlessandroVolta.it

Interfacce neurali passate e future

La storia delle protesi e interfacce cerebrali è molto lunga. È emersa una nuova capacità,attraverso cui il cervello umano potesse comunicare direttamente con l’ambiente da quando il medico tedesco Hans Berger (1873 – 1941) inventò, intorno agli anni Venti del Novecento, l’elettroencefalogramma (EEG). Da quel momento, i laboratori statunitensi in primis, in linea con una tendenza che vedeva, e vede tutt’ora, la crescita esponenziale di malattie neurodegenerative, si sono interessati allo sviluppo di sistemi elettroencefalografici in grado di garantire un margine accettabile di autonomia-comunicativa ai soggetti con gravi disabilità. Medici, scienziati e ingegneri si dedicano alle protesi visive fin dagli anni Sessanta. Ed è in quegli anni che venne per la prima volta introdotto il concetto di interfaccia uomo-macchina (brain-computer interface, BCI).

Le prime ricerche sulle BCI sono iniziate negli anni Settanta presso la University of California Los Angeles, e nel giro di pochi decenni sono stati dimostrati metodi e tecnologie di interazioni dirette uomo-macchina prodotte da segnali neurali catturati con metodi prima invasivi (elettrodi impiantati) poi semi-invasivi (elettrodi a contatto), recentemente non invasivi (campi elettromagnetici, ultrasuoni). L’ultima frontiera consiste nell’impianto diretto di elettrodi e circuiti integrati nella corteccia cerebrale, finalizzati alla cattura e all’elaborazione dei segnali neurali generati dalle attività di comunicazione e di formazione del pensiero negli esseri umani. 

E al giorno d’oggi il progresso tecnologico delle interfacce neurali sembra procedere a passo spedito. Ad aprile di quest’anno la Neuralink, una società dell’imprenditore Elon Musk, ha diffuso un incredibile video che mostra una scimmia giocare al videogioco Pong senza alcun controllore o interfaccia fisica. Ci riesce grazie a due circuiti integrati (‘chip’) impiantati nella corteccia motoria sinistra e destra. Ciascun chip ha 1024 elettrodi filiformi che registrano l’attività elettrica (detta “chiacchiericcio”) di singoli neuroni. Collettivamente essi trasmettono l’intenzione di muovere le racchette su o giù per rispedire la pallina dal lato opposto. E tutto ciò avviene in modalità senza fili (‘wireless’): nessun componente elettronico né fili penzolanti protrudono dalla testa della scimmia.

Illustrazione di un progetto concettuale dell’interfaccia neurale di Neuralink. Crediti: © Neuralink.

Storie tricolore

Come in molte grandi scoperte scientifiche e cambi di paradigma, l’Italia ha giocato e gioca tutt’ora un ruolo importante nello sviluppo della bioingegneria, delle neuroscienze e delle interfacce uomo-macchina. Eppure talvolta i nomi di tali innovatori rimangono ignoti ai più o finiscono per essere quasi dimenticati dalla storia. Citiamo, ad esempio, il grande fisico ed imprenditore italiano Federico Faggin, un pioniere delle interfacce uomo-macchina (puntatore, tastiera e schermo tattile sono tutti considerati interfacce uomo-calcolatore, o human-computer interfaces).

Federico Faggin alla Cygnet con il Communication CoSystem, 1984. Crediti: © Federico and Elvia Faggin Foundation.

Oltre ad essere stato l’inventore del primo microprocessore della storia, l’Intel 4004 (proprio il 15 novembre è ricorso il cinquantesimo anniversario di questa straordinaria invenzione: date un’occhiata ai post e alle storie pubblicate sulla nostra pagina Instagram), Faggin ha anche fondato due importanti aziende che hanno avanzato gli studî nel campo delle BCI: la Synaptics e la Cygnet Technologies. Quest’ultima, fondata nel 1980, è nota soprattutto per aver progettato e prodotto il Communication CoSystem, una periferica innovativa che consentiva di collegare calcolatore personale e telefono per la trasmissione di voce e dati, rappresentando un notevole progresso nel campo emergente delle comunicazioni personali. Nel 1986, mentre tutti i colossi dell’informatica si affannano a trovare un degno sostituto del puntatore da utilizzare sui nascenti calcolatori portatili, Faggin fonda Synaptics, che contribuirà, a partire dalla sua messa in commercio nel 1994, alla diffusione del tappetino tattile (‘touch-pad’), tecnologia che costituisce la base per gli schermi tattili (‘touch-screens’) e la rivoluzione dei cellulari intelligenti che sfruttano tale tecnologia.

Una visione ravvicinata del Synaptics i1000, il primo circuito neurale della storia. Crediti: © Federico and Elvia Faggin Foundation.

Ma il prodotto forse più sorprendente della Synaptics fu un circuito integrato visionario, il cui intento fu il nome dell’azienda stessa: il primo circuito sinaptico, una rete neurale sperimentale dotata di una logica interna che riproduce le connessioni del cervello umano: migliaia di processori neurali correlati simulano i neuroni e i collegamenti fra questi ultimi (sinapsi), elaborando non più dati sotto forma di relazioni matematiche, ma esperienze. Si chiamava Synaptics i1000, ed emulava la retina dell’occhio umano per catturare le immagini del carattere e la capacità cerebrale umana di classificare i caratteri scritti a mano: era in grado di riconoscere fino a 20mila caratteri al secondo con un’affidabilità prossima al cento per cento. Correva l’anno 1991, e da solo qualche mese era stata pubblicata la prima pagina sul World Wide Web, effettuata la prima chiamata GSM commerciale in Finlandia e Linus Torvalds aveva appena iniziato a programmare il kernel Linux (il codice che permette al vostro cellulare, tra le altre cose, di farvi vedere questa pagina web e a questo stesso testo di essere presente in rete).

«Godi, Fiorenza, poi che se’ sì grande / che per mare e per terra batti l’ali […]»

Il 3 dicembre ricorre la Giornata internazionale delle persone con disabilità e, oltre a numerose aperture straordinarie di musei e visite guidate, anche Firenze sta dando il suo cospicuo contributo, stavolta però non nel campo delle interfacce neurali o protesi, bensì della bioingegneria della riabilitazione. Il Ring@Lab dell’Università di Firenze è un laboratorio che sperimenta nuove tecnologie come intelligenza artificiale e robotica, con l’obiettivo di migliorare i tempi di recupero dei pazienti e monitorare con precisione le terapie, nell’ambito del progetto “REHub” finanziato dalla Fondazione CR Firenze. Il tutto utilizzando strutture ad alta tecnologia. Il laboratorio è infatti dotato di occhiali per la realtà virtuale ed aumentata, sensori per la rilevazione dei movimenti degli arti, insieme a scansori (o scanditore, dall’inglese ‘scanner’) e stampanti 3D per progettare e produrre esoscheletri robotici.

Un paziente in riabilitazione al Ring@Lab dell’Università di Firenze. Crediti: © Nove da Firenze.

Come possono andare a braccetto ingegneria e medicina? L’esempio arriva da un paziente che, dopo un ictus, deve fare riabilitazione alla mano. Lo scansore 3D rileva l’arto, e successivamente la stampante 3D progetta una specie di scheletro robotico personalizzato che si interfaccia con il paziente per facilitargli i movimenti, mentre un sistema di mappatura nervoso valuta l’andamento della riabilitazione. Il progetto permette di poter eseguire il tutto da casa, senza bisogno di ricovero e con controllo a distanza, con conseguente riduzione generale dei costi e il prolungamento della terapia a beneficio dei risultati.

Se siete interessati al progetto vi potete candidare: sono in arrivo cinque assegni di ricerca biennali per altrettanti ricercatori del Ring@Lab.

Andrei Florea

Pubblicità

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...