Il «pensiero»? È a rischio. Lo sviluppo delle neurotecnologie tra privacy e scienza

di Silvia Camisasca

Lo sviluppo delle bioingegnerie ha aperto un dibattito globale. I pericoli per i diritti rendono necessaria un’alleanza su regole e leggi. Gli studi della Bicocca con l’apporto dei massimi esperti mondiali

desc img

Quanto vale la nostra «privacy mentale»? In un contesto in cui la neurotecnologia può leggere pensieri ed influenzare comportamenti, modificare emozioni e ricordi, come riformulare il concetto di identità, libero arbitrio e azione? Come garantire il diritto a un accesso giusto alle neurotecnologie che agiscono sulle facoltà mentali? Di fronte ad interrogativi di tale portata che certo non si esauriscono nello spazio di un articolo, è fondamentale attivare un dialogo costruttivo, a livello internazionale, tra esperti di bioingegneria, neuroscienza e scienze computazionali, da una parte, e filosofi, bioeticisti e giuristi, dall’altra, per mettere a confronto esperienze in corso e far emergere rischi e limiti normativi. Carla Gullotta, professoressa ordinaria di Diritto Internazionale dell’Università Bicocca di Milano, e la ricercatrice Marta Sosa Navarro, insieme a Salvador Dura Bernal, professore di Neuroscienza alla State University of New York (Suny) Downstate, ne hanno parlato durante un recente workshop interdisciplinare per analizzare le risposte ad ora fornite dai regolatori giuridici, a livello locale e sovranazionale, perché, come sottolineato dalla vicedirettrice generale per Scienze Sociali e Umane dell’Unesco, Gabriela Ramos, «il carattere globale di questa sfida richiede l’adozione di un quadro di governance internazionale che tuteli i neuro-diritti».

A che punto siamo?

Ma quale è lo stato dell’arte dal punto di vista scientifico-tecnologico? L’attuale sviluppo delle interfacce cervello-computer (Brain Computer Interfaces-Bci) consente la comunicazione bidirezionale tra cervello e computer/dispositivo e possono essere invasive (all’interno del cranio di una persona) o non invasive (ad esempio, indossate come una fascia). Il loro potenziale per la cura di malattie mentali e disturbi neurologici è stato illustrato sia da una prospettiva teorica, dal professor Nima Mesgarini, dello Zuckerman Mind Brain Behavior Institute della Columbia University, che da una prospettiva applicata, attraverso la testimonianza di Nathan Copeland, quadriplegico da 18 anni a seguito di un incidente stradale: il giovane ha aderito a una ricerca pionieristica che gli ha permesso di controllare un braccio robotico attraverso un impianto cerebrale fissato nella corteccia motoria.

A richiedere attenzione e cautela, sotto il profilo etico, oltre allo sviluppo dei Bci e al loro utilizzo non medico, è anche una scoperta che da 50 anni ha rivoluzionato la comprensione della neurologia: il nostro cervello è plastico e continuamente modificabile in conseguenza delle sue interazioni con l’ambiente. Questo rende imprevedibili i cambiamenti e le reazioni determinate dalla neurotecnologia, un modo di interazione artificiale mai sperimentato. «Adottando la prospettiva della libertà cognitiva, è vero che le neurotecnologie ci consentono di accedere alle informazioni del nostro cervello, ma è altrettanto vero che aprono l’accesso agli stessi dati di altri soggetti, come imprese e istituzioni, espressione di sistemi autoritari o meno. E questo pone dilemmi etici, politici e giuridici complessi: basti pensare all’uso dei dati mentali ai fini commerciali, la biometrica e le neurosignatures impiegate come tecniche di identificazione dei cittadini da parte degli Stati» spiega Marta Sosa Navarro.

Come garantire il diritto alla privacy mentale, alla integrità mentale o alla continuità psicologica è un nodo attorno al quale se ne aggiungono altri di natura etica e giuridica, legati al potenziamento cognitivo o morale attraverso la neurotecnologia e al suo accesso equo e non discriminatorio. Ci si interroga, a questo punto, su come sia più opportuno aggiornare il quadro internazionale di protezione dei diritti umani: «Per stabilirlo - prosegue Sosa - occorre prima definire il ruolo dell’impianto sovranazionale dei diritti umani nella regolamentazione di uso/sviluppo/commercio dei dispositivi tesi alla lettura e manipolazione della mente. Analogamente è bene prima concordare il contenuto e la portata della proposta relativa all’introduzione di nuovi diritti (neurorights) in difesa dell’umanità dai rischi connessi alle tecnologie Bci».

E l’umanità ha senza dubbio bisogno di tutele rispetto a tali tecnologie, perché, come sottolineato dal senatore cileno Guido Girardi, promotore della prima legge mondiale sui neurodiritti e della riforma costituzionale che ha portato il Cile ad essere Paese pioniere nella tutela dei diritti minacciati dall’utilizzo sregolato delle neurotecnologie, «la battaglia geopolitica del 21° secolo è per il controllo dei cervelli e dei dati, anche a fini commerciali». Quali, dunque, le prospettive, tenendo presente che, a livello scientifico, la lettura del cervello, anche se non dei pensieri complessi, è già possibile?

Intervenire sul cervello

Le più recenti ricerche neurologiche stimano che nell’arco di 5-10 anni sarà possibile modificare pensieri, ricordi e azioni, sfruttando le neurotecnologie per intervenire direttamente sul cervello: «In questa fase i rischi maggiori attengono alla privacy mentale e alle conseguenze della applicazione della Intelligenza Artificiale attraverso consumer devices» conclude Marta Sosa Navarro.

La sfida è globale, affrontabile solo nell’alveo della cooperazione internazionale: gli Stati hanno sicuramente un ruolo fondamentale nell’impedire che le applicazioni non terapeutiche delle neurotecnologie non minaccino i diritti alla privacy, alla integrità o alla libertà di espressione e di pensiero; ma per raggiungere questo scopo anche imprese, multinazionali, istituti finanziari, organizzazioni internazionali, comunità scientifiche e cittadini sono chiamati a contribuire. Perché la tecnologia è neutra, ma non altrettanto l’uso che ne possiamo fare.

30 gennaio 2022 (modifica il 30 gennaio 2022 | 18:18)