DeepMedia, società di comunicazione basata sull’intelligenza artificiale (AI), prevede che solo quest’anno saranno condivisi sui social media 500.000 video e voci false e si prevede che tale numero aumenterà più volte nei prossimi anni.
“Anche all’inizio dell’anno scorso, per clonare la voce di una certa persona, avresti dovuto pagare circa 10.000 euro per la capacità del server necessaria e gli algoritmi AI. Oggi diverse startup offrono questo servizio per pochi euro, quindi a lungo termine dovremo accettare l’esistenza di falsi profondi e imparare a non cadere nella trappola. Le grandi aziende mirano a utilizzare la scansione dei vasi sanguigni e altri metodi avanzati per identificarli, ma per ora possiamo individuare falsi ancora peggiori prestando attenzione ai dettagli diffusi, ai movimenti innaturali delle labbra e alla fonte che li propaga”, afferma il professore. Paulius Pakutinskas.
La contraffazione non è affatto un fenomeno nuovo; possono essere visti come una nuova espressione di una tecnologia più vecchia. La tecnologia deepfake ha gravi implicazioni per la credibilità di tutto il materiale audiovisivo, portando a un’ampia gamma di potenziali perdite sociali e finanziarie, nonché alla manipolazione dei processi democratici e dei sistemi finanziari, giudiziari e scientifici. Le prove audio e grafiche dovranno quindi essere viste con maggiore scetticismo e soddisfare standard più elevati.
Dal ricatto alle carriere rovinate
P. Pakutinskas sottolinea che i deep fake possono avere un impatto anche sulla vita quotidiana delle persone. I truffatori li stanno già utilizzando per estorcere denaro ai propri cari che potrebbero essere rimasti feriti in un incidente. Per provare a dimostrare la frode, i criminali falsificano i video della scena o ricattano foto compromesse con i volti delle persone.
“Man mano che i deep fake entrano nella nostra vita quotidiana, le persone potrebbero ritrovarsi in situazioni in cui davvero non vorrebbero trovarsi”. Ad esempio, le foto pornografiche utilizzano un volto umano e, degradandone deliberatamente la qualità, è quasi impossibile distinguere se è falso. È così che le persone vengono ricattate per ottenere guadagni finanziari o altri incentivi egoistici”, rivela Pakutinskas.
Tali falsi possono anche avere un impatto negativo sulla carriera delle persone, soprattutto nei luoghi di lavoro dove è richiesta una reputazione impeccabile. Una volta che le foto diventano virali, possono essere viste sia dai datori di lavoro che dai clienti, il che può causare danni irreparabili e rovinare la vita di una persona.
Un esperto del Center for Digital Progress sottolinea che quanto più bassa è la qualità di una foto o di un video falso, tanto più difficile può essere identificarli. Le persone devono quindi essere estremamente vigili in tali situazioni e non fidarsi ciecamente di tutte le informazioni visibili nel mondo digitale. spazio. È importante verificarlo costantemente più volte e con diverse fonti attendibili.
Dona la circolazione sanguigna e gli occhi
I deep fake prendono il nome dalla tecnologia di deep learning utilizzata nella loro creazione, che, utilizzando algoritmi di intelligenza artificiale e enormi quantità di dati, “impara” qual è il volto della persona di cui abbiamo bisogno da diverse angolazioni e lo trasforma in una sorta di maschera digitale . Ciò permette di “imporre” quest’ultimo a una persona ripresa in un altro video, completando l’inganno con la voce del protagonista appresa anche dall’IA.
Finché tutto questo viene utilizzato in modo amatoriale per sostituire alcuni attori famosi in altre scene di film popolari o per clip satirici di Tom Cruise, in cui quest’ultimo interpreta se stesso come addetto alle pulizie, non c’è grande pericolo. Sfortunatamente, gli analisti temono che queste soluzioni tecnologiche possano essere utilizzate, ad esempio, nelle elezioni presidenziali americane del prossimo anno, come mezzo per diffondere disinformazione sui candidati. Tali misure possono essere utilizzate in altre situazioni in cui si vuole distorcere, falsificare la realtà, disinformare le persone.
“Per eliminare queste contraffazioni dai social network il più rapidamente possibile, sta diventando sempre più importante riconoscerle in modo rapido e affidabile. Il colosso dell’ingegneria informatica Intel intende facilitare questo processo utilizzando la tecnologia della fotopletismografia, che rileverà il flusso sanguigno sul volto dei la persona mostrata nel video. I ricercatori dell’azienda hanno notato che, a differenza delle persone che parlano in clip autentiche, i vasi sanguigni di fronte alle “maschere” di intelligenza artificiale non si contraggono “Inoltre, questo sistema è aiutato dal fatto che la Gli occhi “deepfake” non hanno lo sguardo concentrato e si muovono separatamente gli uni dagli altri”, rivela P. Pakutinskas.
Secondo Intel, il sistema chiamato “FakeCatcher” è caratterizzato fino al 96%. l’efficacia nell’identificazione dei falsi, ma dopo averlo testato, i rappresentanti della BBC hanno notato che risultati così eccellenti possono essere raggiunti solo con video di qualità sufficientemente buona.
Per ora basta osservare.
Sebbene i test del sistema Intel mostrino un grande potenziale, secondo l’esperto, finora è possibile distinguere la maggior parte dei falsi profondi mediante osservazioni di base. Se noti un video sospetto nello spazio social, dovresti prima valutare se non è pubblicato da un profilo sospetto che non contiene altre informazioni personali. Di solito vengono creati appositamente per diffondere disinformazione. Quindi, quando li rilevi, una luce rossa dovrebbe immediatamente accendersi nella tua mente.
“Dopodiché dovresti prestare attenzione a chi parla. L’intelligenza artificiale non è ancora in grado di riprodurre perfettamente il rilievo della pelle, quindi è consigliabile verificare se l’età della pelle sulle guance e sulla fronte non differisce – se la pelle non è troppo rugosa, o forse semplicemente troppo liscia, se coincide con la pelle di altre parti del corpo. Gli algoritmi hanno difficoltà anche con nei, barbe e altri dettagli più piccoli, che possono far apparire i video sfocati e sfocati. Tuttavia, i contraffattori di solito sono scoraggiati dal linguaggio del corpo innaturale, dalla frequenza delle palpebre insolita per una persona e, naturalmente, dai movimenti delle labbra che spesso sembrano ancora inventati da un’altra persona”, – l’intervistatore menziona i metodi per identificare i deep fake.
Tuttavia, lo specialista prevede che questi semplici metodi potrebbero non funzionare più tra qualche anno. Gli individui malintenzionati sono ben consapevoli dei limiti della tecnologia attuale, motivo per cui investono nello sviluppo di algoritmi di intelligenza artificiale e cercano di colmare eventuali lacune.
La regolamentazione è inevitabile in futuro
Secondo l’esperto, osservando il rapido sviluppo delle tecnologie di intelligenza artificiale, non si può escludere che entro tre o quattro anni le contraffazioni, indistinguibili dalla realtà, possano diffondersi nello spazio pubblico, rappresentando un grosso pericolo anche per la sicurezza nazionale e i processi in corso nella società. . Non sorprende che il mondo si stia muovendo sempre più verso una regolamentazione legale più rigorosa dei deepfake.
“La Cina è stata la prima a intraprendere questa strada, richiedendo alle aziende che forniscono servizi di contraffazione profonda di ottenere l’identità degli utenti all’inizio di quest’anno. Questo paese ha inoltre deciso di imporre l’etichettatura di tutti i contenuti relativi a questa tecnologia. “Anche il Canada ha deciso di non ignorare le minacce dei deepfake. Oltre a sensibilizzare l’opinione pubblica e a investire in soluzioni per il rilevamento dei deepfake, ha deciso di creare una legislazione che vieti la distribuzione di prodotti contraffatti per scopi dannosi”, condivide l’esperto di pratiche straniere.
Anche l’Unione Europea affronta la questione dei rischi posti dal “Deepfake” in diversi importanti atti giuridici; sono stati adottati un codice di condotta europeo separato per combattere la disinformazione e la legge sui servizi digitali, che potranno avere un’influenza significativa sulle più grandi aziende tecnologiche e sulle piattaforme di social media da loro gestite.
L’Unione Europea mira a regolamentare e gestire sistematicamente i potenziali rischi dell’intelligenza artificiale classificando le soluzioni di intelligenza artificiale in base ai loro potenziali rischi. Le decisioni contrarie ai valori dell’UE e che violano i diritti umani dovrebbero essere completamente vietate, e le decisioni ad alto rischio dovrebbero essere rigorosamente regolamentate e lottare non solo contro le conseguenze, ma anche contro la regolamentazione preventiva, quindi dopo l’adozione dell’intelligenza artificiale. Act, possiamo aspettarci nuove e rigorose misure legali anche per combattere il “deepfake”.
“Ninja di Twitter. Esploratore devoto. Fanatico del web. Secchione della birra. Difensore di Internet amante degli hipster.”