L’allarme diramato dall’F.B.I. e da ricercatori inglesi mette in guardia su sextortion e ghostbot e sul pericoloso uso che può farne l’IA
Cosa sono le sextortion e i ghostbot e come mai l’Intelligenza Artificiale (IA) è sempre più un pericolo per la nostra privacy? Negli ultimi giorni, specialmente negli Stati Uniti, non si fa che parlare di false immagini a luci rosse generate dall’IA a scopo di ricatto o di morti che “resuscitano” sul web. A prendere sul serio la questione ci ha pensato senza mezzi termini l’F.B.I. consigliando gli utenti a proteggere i propri dati finiti su social e web in generale.
Questo per via delle sempre più avanzate capacità dell’Intelligenza Artificiale che in mani sbagliate portano a una gran quantità di abusi e ricatti. Attraverso sextortion e ghostbot. Entrambe sono pratiche, purtroppo, già diffuse da tempo in rete. E la prima, con il recente ausilio dell’IA, sta diventando piuttosto pericolosa per la qualità di realismo che ne implica e, soprattutto, perché tra le vittime ci sono anche minori.
Cos’è la sextortion?
La sextortion consiste nell’inviare alla vittima foto di nudi modificate e generate dall’IA degli stessi malcapitati con lo scopo di estorcergli denaro. Nonostante le immagini, per quanto realistiche, siano false, la minaccia di vederle diffuse in rete fa sì che la maggior parte delle vittime cadano nel ricatto degli estorsori. Quello, tuttavia, che ha messo più in allerta le autorità è che in molti casi ci siano di mezzo bambini e minori. Così, come riportato sull’agenzia di stampa britannica Reuters, il Federal Bureau of Investigation ha avvertito gli utenti americani di prendere sul serio la minaccia. In un avviso diffuso in questi giorni, l’agenzia governativa statunitense ha fatto notare che il numero degli abusi sta aumentato vertiginosamente e quelli presi di mira sono sempre più i minori.
“Le foto poi vengono direttamente inviate alle vittime dai criminali per estorsioni e molestie. E una volta circolate,” – continua il comunicato – “le vittime sono costrette ad affrontare le difficili sfide nel prevenire la condivisione continua dei contenuti modificati o la rimozione da Internet.”
Malgrado l’F.B.I. non abbia fornito ulteriori dettagli sui programmi utilizzati dai criminali per concepire questi falsi, condividono alcuni consigli per evitare di incappare in situazioni del genere. Come, ad esempio, il suggerimento di condividere il meno possibile in contenuti privati e non pubblicare mai in rete foto dei propri figli o di bambini. Di oscurare il viso dei minori così da eludere il tentativo dei ricattatori di scovare, attraverso deepfake, qualsiasi tipo di materiale della vittima. Anche solo con normalissime foto delle vittime, infatti, servendosi della tecnologia dell’Intelligenza Artificiale si possono immagini a luci rosse manipolando gli originali. Tra gli avvertimenti c’è anche quello di non far circolare sul web impronte digitali con cui i ghostbot potrebbero Informazioni che sono utilizzate specialmente per i ghostbot.
Cosa sono i ghostbot?
Il termine “ghostbot” è utilizzato generalmente nel mondo anglosassone per descrivere il nuovo fenomeno dell’uso di alcuni programmi, con il supporto della IA, per creare reincarnazioni digitali di persone decedute. Sebbene l’utilizzo dei ghostbot riguardi oggigiorno una nutrita porzione di utenti, che se ne servono per scopi prettamente memoriali, non esistono delle vere e proprie leggi che riguardano la protezione di dati di persone decedute. Una ricerca condotta dalla dottoressa Marisa McVey, del dipartimento di legge della Queen’s University di Belfast, rileva che è necessaria una maggiore consapevolezza in questo campo. Al fine di proteggere la nostra privacy e i nostri dati post-mortem dalla pericolosità dell’Intelligenza Artificiale.
“Con gran parte della nostra vita sulle piattaforme di social media,” – ha dichiarato la dottoressa su un documento pubblicato nella Computer Law & Security Review – “i dati raccolti da questi siti potrebbero anche essere utilizzati per imitare come parliamo, come agiamo e come guardiamo, anche dopo che siamo passati a miglior vita. A causa della crescente commercializzazione della tecnologia deepfake finalizzata alla reincarnazione digitale, la ricerca ha esaminato i modi per proteggere la nostra privacy (compresa la privacy post-mortem), la proprietà, i dati personali e la reputazione.”
Secondo la McVey resta, dunque, una mancanza di protezione di dati sensibili, di privacy e addirittura di dignità del defunto dopo la sua morte. Con particolare menzione alle leggi per la privacy e sulla protezione dei dati che nel Regno Unito non si estendono agli eredi dopo il decesso.
Assenza di leggi sulla protezione dei dati post-mortem
“Mentre non si considera che i “ghostbot” possano causare danni fisici, la probabilità è che possano causare disagio emotivo e danni economici, con un impatto particolare suI familiari e sugli eredi del defunto. [..] Attualmente, in assenza di una legislazione specifica nel Regno Unito e oltre, non è chiaro chi potrebbe avere il potere di riportare la nostra persona digitale dopo la nostra morte”.
La ricercatrice si sofferma, inoltre, sui recenti sviluppi che hanno messo Stati Uniti e Unione Europea che in allarme su ulteriori, doverose, regolamentazioni nel campo dei ghostbot.
“In assenza di legislazione nel Regno Unito, – aggiunge la dottoressa McVey – “un modo per proteggere il noi stessi post-mortem potrebbe essere attraverso la stesura di una clausola “Do not bot me” legalmente vincolante che potrebbe essere inserita in volontà e altri contratti mentre le persone sono ancora vive. Questo, combinato con un database di ricerca globale di tali richieste, può rivelarsi una soluzione piuttosto utile.” Suggeriamo inoltre” – prosegue la ricercatrice – “che oltre alle protezioni legali, una maggiore consapevolezza sociale del fenomeno dei “ghostbot”, l’educazione alle eredità digitali e la protezione coesa tra le diverse giurisdizioni siano fondamentali per garantire che ciò non accada senza il nostro permesso”.
Ghostbot, IA e celebrità
Recentemente si sono imposti all’attenzione del pubblico esempi di ghostbot da parte di alcune celebrità dello spettacolo. Come, ad esempio, l’ologramma di Tupac Shakur al Coachella Valley Music and Arts Festival del 2012 o quello del defunto Robert Kardashian. L’immagine tridimensionale di quest’ultimo è stata riprodotta da Kanye West utilizzando la tecnologia deepfake per “donare” all’allora moglie Kim Kardashian un ricordo del padre ancora, digitalmente, in vita.
I numerosi segnali di pericolo sulle possibili minacce riguardanti l’uso nocivo ed efferato dell’Intelligenza Artificiale, stanno dunque preoccupando seriamente le autorità mondiali. E nella speranza che la legislazione possa essere modificata è bene considerare questo tipo di avvertimenti con estrema serietà. Specialmente se, come nel caso di una sextortion, possono essere coinvolti minori.