Ora anche i minori possono chiedere al Garante della privacy il blocco preventivo di contenuti intimi

Una nuova norma abbassa l’età di chi può chiedere di prevenire la diffusione senza consenso di foto o video intimi a Facebook e Instagram. Ma ci sono alcune lacune da colmare perché tutto funzioni

cyberbullismo
(foto: Unsplash)

Ora anche i minori (dai 14 anni in su) potranno segnalare al Garante della privacy contenuti intimi personali che temono possano essere divulgati senza il loro consenso, prima ancora che avvenga l’eventuale pubblicazione. Lo stabilisce una norma inserita nel decreto legge Riaperture approvato lo scorso 7 ottobre dal Consiglio dei ministri. Un importante passo avanti nella lotta contro la diffusione non consensuale di immagini intime (erroneamente detto revenge porn, perché la parola vendetta suggerisce che ci sia stato un torto all’origine). Importante sia perché il fenomeno ormai riguarda sempre più anche i minori, sia perché rafforza, con una legge, ciò che prima era un semplice un progetto pilota frutto della collaborazione tra il Garante della privacy e i social della galassia Facebook. Ma che presenta alcune lacune.

Un segnale decisivo

Dall’8 marzo il Garante permette a qualunque maggiorenne che abbia paura di essere vittima di diffusione non consensuale di immagini o video intimi di agire preventivamente. Tramite un apposito modulo può segnalare il contenuto e l’Autorità per la protezione dei dati personali ne blocca la diffusione, anche preventivamente, su Facebook e Instagram. Ora il decreto legge 139 estende la possibilità di usufruire di questo strumento agli over 14 (prima potevano avvalersene tramite i genitori, possibilità che comunque rimane).

Un segnale che ci dimostra che piano piano si va costruendo un sistema di contrasto a questo tipo di reati strutturato per legge e che denota il desiderio di tutelare sempre più la vittima, che non deve sentirsi in colpa, ma anzi sollevata dal poter agire in via preventiva – spiega a Wired Marisa Marraffino, avvocata esperta di reati informatici -. Consiglierei questo strumento a chi, per tanti motivi, non vuole denunciare, per esempio per paura o perché dipendente affettivə dall’ex parter; a chi non riuscirebbe ad affrontare un procedimento penale perché ha problemi di ansia o depressione; infine a chi non conosce l’identità della persona con cui ha scambiato foto o video (pensiamo ai casi di chat su piattaforme di gioco, ndr)”.

Come funziona l’alleanza Garante-Facebook

Il progetto pilota che vede coinvolti il Garante e i social di Zuckerberg si basa sull’uso di codici hash, ovvero sequenze numeriche che identificano in modo univoco la foto o il video. Il Garante riceve la segnalazione, abilita l’utente a caricare in maniera autonoma il suo contenuto su un server dedicato, dove viene “hashato”, cioè abbinato al suo codice. Il percorso non può essere fatto al contrario: dal codice hash non si può tornare alla foto o al video originari, né risalire al profilo social della persona interessata.

Questi hash vengono poi aggiunti a una black list (a cui può accedere solo un gruppo ristretto di membri del team di Facebook) e, quando qualcuno cerca di pubblicare o condividere i contenuti segnalati, viene bloccato. I contenuti originali caricati dall’utente vengono distrutti automaticamente dopo sette giorni. Veloce, infallibile e anonimo, questo meccanismo sembrerebbe perfetto. Ma non è così. Un primo limite balza subito all’occhio: per potersi tutelare, la potenziale vittima deve avere la foto o il video sul proprio dispositivo. Sappiamo che questo non succede sempre. Ma ci sono altri due punti deboli.

Gli altri social

Cosa succede con gli altri social network? – fa notare a Wired Marisa Marraffino – E con i numerosi siti dedicati alla diffusione non consensuale di immagini intime, dove spesso finiscono i video incriminati? E con le app di messagistica, tra cui anche Telegram, che pullula di canali dedicati a questo tipo di contenuti? Tutte queste piattaforme non collaborano e questo rende la legge poco efficace a livello pratico”.

Un limite che in parte si potrebbe superare in futuro, ci spiega Guido Scorza, dell’Autorità garante per la privacy: “Un passo successivo, dopo questa legge, potrebbe essere obbligare tutti gli host di contenuti di una certa grandezza, non solo i social, a dotarsi di una tecnologia che consenta anche a loro di bloccare preventivamente la pubblicazione di un contenuto, su segnalazione dell’Autorità. Del resto con Facebook e Instagram abbiamo potuto attivare il progetto pilota perché loro utilizzavano già la tecnologia hash”.

Con le app di messaggistica, invece, il tema è più delicato: “Non so quanto potremo spingerci lì, perché ci sono in ballo questioni non solo tecnologiche, ma anche etiche – prosegue Scorza -. Quale compromesso vogliamo tra la repressione di questo genere di illeciti e la privacy? Se apriamo una porta per combattere reati a sfondo sessuale, cosa su cui possiamo essere tutti d’accordo, poi chi ci dice che questa porta non venga aperta per altri scopi?”. Il riferimento è alle polemiche scatenate dal recente annuncio di Apple di voler introdurre sui suoi dispositivi il software Neural Match per ricercare materiale pedopornografico.

Ogni intervento sul file modifica il codice hash

Il secondo limite della tecnologia hash è che anche una minima modifica al file (tagli, applicazione di filtri, aggiunta di sottotitoli o effetti, per citarne alcuni), o l’invio sulle app di messaggistica tramite crittografia end-to-end, che lo comprime, modificano automaticamente il codice. “L’hash è una tecnologia che esiste da tantissimi anni, ma viene usata in modo diverso, per applicativi gestionali, non di sicurezza, perché è facilmente aggirabile – fa notare Andrea Barchiesi, ingegnere elettronico, amministratore delegato e fondatore di Reputation Manager -. Una soluzione potrebbe essere quella di ‘spezzare’ i video in tanti hash e quindi capire in ognuno dei singoli segmenti se c’è una manipolazione: ma questa è potenzialmente infinita, sarebbe un processo complicatissimo. Come prevedere tutte le possibili modifiche a un determinato file?

Anche i sistemi di intelligenza artificiale oggi in uso non sono ancora sufficientemente addestrati. “Con alcune tecnologie si potrebbero identificare dei contenuti sospetti, poi farli vagliare da una batteria di analisti che insegnino progressivamente alla macchina perché un determinato contenuto è dannoso – spiega Barchiesi – .Dopo migliaia di video il computer potrebbe cominciare a riconoscere delle similarità. Ma anche lì non potrebbe stabilire con certezza alcune informazioni, per esempio se il protagonista del video è minorenne”.

Servono regole condivise – sottolinea Marisa Marraffino -. Così come esistono le convenzioni per i diritti del fanciullo, ci vorrebbero convenzioni internazionali sui diritti degli utenti della rete, in modo da aggirare anche limiti territoriali e imporre alle piattaforme online regole e strumenti processuali condivisi”. Sia lei che Barchiesi e Scorza sono concordi nel dire che se vogliamo tutelare tutti, tutti gli attori di questo sistema devono collaborare. “Credo che niente, al giorno d’oggi, possa distruggere la vita di una persona, senza toccarla, come la diffusione non consensuale di immagini intime – conclude Scorza -. Mi piacerebbe molto guardare a questo progetto tra qualche anno, vederlo sempre più migliorato e sapere che ci sono persone che sono riuscite a risparmiarsi un lungo calvario di angoscia, paura e vergogna. Vorrà dire che avremo tutti fatto la nostra parte”.

Leggi anche

loading...

Lascia un commento