Il Cile vuole regolamentare tecnologie che non esistono ancora

L’idea del paese sudamericano è quella di diventare il primo stato al mondo a proteggere legalmente i “neuro-diritti” dei cittadini, garantendo la loro privacy mentale in un futuro non troppo lontano

(foto: Tomasz Frankowski/Unsplash)

4 luglio 2021. 155 rappresentanti, eletti dalle più disparate estrazioni sociali – studenti e professori, medici e disoccupati, attori e casalinghe, assistenti sociali e giornalisti – si riuniscono per cominciare un lavoro immenso: scrivere la nuova costituzione del Cile, spedendo nell’oblio quella entrata in vigore nel 1980, durante la dittatura di Augusto Pinochet. Gran parte di loro è molto più a sinistra del presidente Sebastián Piñera, eletto un anno prima che milioni di cileni scendessero in piazza contro le lampanti diseguaglianze economiche e sociali che squartano il Cile, e intende riaffermare diritti che da decenni vengono messi da parte. Qualcuno, però, ha delle idee molto più ambiziose.

Stiamo lavorando insieme alle università e all’Accademia delle scienze per elaborare un progetto di riforma costituzionale che faccia sì che nessuno possa intervenire nel tuo cervello senza il tuo consenso e che nessuno possa attaccare la tua privacy”, ha annunciato Guido Girardi, medico e senatore del partito di centrosinistra Partido por la Democracia che ha spinto per la creazione di un ministero per la Scienza, la tecnologia, la conoscenza e l’innovazione nel paese sudamericano. Anticipando di anni una battaglia che si troverà senza dubbio al centro della discussione politica in futuro, Girardi è il volto pubblico della campagna per inserire nella nuova costituzione cilena una nuovissima categoria di diritti: quelli alla privacy mentale.

Proteggere l’integrità mentale

L’idea è quella di diventare il primo stato al mondo a proteggere legalmente i neuro-diritti dei cittadini, regolamentando fin da subito tecnologie che sono ancora in fase di sviluppo ma che “aumenterebbero, diminuirebbero o disturberebbero” l’integrità mentale delle persone senza il loro consenso.

Oltre al dibattito in corso nell’ambito dell’assemblea costituente, in questa direzione si sta muovendo anche un disegno di legge ordinario che va a toccare quattro campi: la tutela dei dati contenuti nella mente umana; la definizione dei limiti oltre cui non si possono spingere le tecnologie di lettura (e, soprattutto, scrittura) del cervello;  la regolamentazione dell’accesso a queste tecnologie e la protezione contro i pregiudizi algoritmici. 

Al centro sta un’interpretazione innovativa del concetto di privacy che si concentra sui dati neurali e sulle informazioni riguardanti i nostri processi e stati mentali che possono essere ottenute analizzandoli. Come spiega Abel Wajnerman Paz su Rest of World, il disegno di legge “propone di trattare i dati neurali come un tipo speciale di informazione che è intimamente correlata a chi siamo e che definisce in parte la nostra identità”. Facendo sì che i dati neurali vengano considerati legalmente alla stregua di un tessuto organico, la legge richiederebbe l’esplicita autorizzazione dei cittadini prima di poter ottenere i loro dati cerebrali. Come nel caso di un organo qualsiasi, i dati non potrebbero essere venduti, ma soltanto donati per scopi altruistici.

Il futuro è già qui

Non si tratta di leggi basate sulla fantascienza: alcune neurotecnologie capaci di leggere e interpretare gli stati psichici delle persones sono già qui. In alcuni casi, stanno venendo sviluppate per ragioni nobili, come alleviare i sintomi per chi soffre di morbo di Parkinson o di depressione stimolando il cervello con degli elettrodi, o permettere alle persone sorde di sentire stimolando il nervo acustico. Si vedono però già i primi abusi: basti pensare agli SmartCaps, copricapi intelligenti che monitorano le onde cerebrali per misurare la fatica e prevenire gli infortuni sul lavoro che possono essere però utilizzati anche per controllare il ritmo lavorativo dei propri dipendenti ed eventualmente punirli. 

Anche nel caso della neurotecnologia più famosa tra i non addetti al lavoro del mondo – Neuralink di quella macchina dell’hype che è Elon Musk – è possibile immaginare delle applicazioni non esattamente lodevoli. Se infatti da un a parte le tecnologie di lettura del cervello potrebbero individuare eventuali patologie, è difficile pensare che senza una robusta regolamentazione non verrebbe sfruttata a fini commerciali – o peggio, militari.

Si tratta di tecnologie che mettono in pericolo l’essenza stessa dell’essere umano, la loro autonomia, la loro libertà, il loro libero arbitrio”, ha commentato Guido Girardi in un’intervista. “Se riescono a leggere la tua mente ancora prima che tu sia consapevole di cosa stai pensando, potrebbe impiantare emozioni o memorie che non hai davvero vissuto nel tuo cervello: non saremo in grado di distinguere tra pensieri che sono nostri e quelli che sono frutto di designer esterni”.

L’opinione di Girardi è legata a doppio filo con quella di Rafael Yuste, professore della Columbia University tra i più rispettati neurobiologi al mondo. Conscio del fatto che entro un decennio alcune delle neurotecnologie che oggi ci sembrano fantascienza saranno largamente diffuse, Yuste ritiene che, se non agiamo già da ora per arginare le possibili derive, queste tecnologie possano essere utilizzate per alterare i pensieri delle persone e dettare i loro interessi, ma anche per creare esseri umani con abilità cognitive potenziate artificialmente. 

Per evitare una situazione a due velocità con alcuni umani potenziati e altri che non lo sono, queste neuro-tecnologie devono essere regolate secondo principi di giustizia universale, riconoscendo lo spirito della Dichiarazione universale dei diritti umani”, sostiene Yuste, che a marzo ha chiesto alle Nazioni Unite di creare una commissione internazionale di esperti che lavori sui neurodiritti in vista di un trattato internazionale. Un passo fondamentale per evitare la nascita di paradisi dei neurodiritti dove i dati neurali dei cittadini sono alla mercè di qualsiasi compagnia senza scrupoli.

Leggi anche

loading...

Lascia un commento