Episode Transcript
Available transcripts are automatically generated. Complete accuracy is not guaranteed.
(00:00):
Benvenuto o ben tornato.
(00:08):
Io sono Alessandro Camagne e stai scoltando la quinta stagione di Techno Reflessioni, il podcast
dove ti parlo di tecnologia come lo faccio, con mamma e papà .
In una delle ultime puntate dell'anno scorso ho cennato i deep fake e al fatto che avessi
in bozza da tempo una puntata per parlare.
Ho deciso però di riscriverla totalmente per attualizzare il discorso con gli eventi degli
(00:29):
ultimi mesi.
La faccio semplice, un deep fake è quello che una volta potete essere chiamato foto o video
montaggio.
Le differenze sostanziali sono la velocità e la precisione con i quali oggi possono
essere creati.
Ma la cosa preoccupante, o meglio la più preoccupante, sta nella facilità di realizzazione.
(00:50):
Servono davvero poche competenze tecniche per creare un qualcosa di acettabile e credibile
ad un occhio distratto.
E l' occhio distratto è proprio quello che abbiamo più o meno tutti quando scrolliamo i
video sui vari social.
E proprio quello occhio distratto è quello che condivide e spaccia per vero ciò che non
lo è.
Questo vale per i deep fake, ma anche per le sempre presenti fake news.
(01:12):
Ma torniamo in tema.
Ti sarà capitato di guardare striscia la notizia e avrai visto i nostri stimati politici che
cantano.
Bene, quello è un facile esempio di deep fake, in noco, ma per esempio non deep fake, e
non c'è nulla di male in tutto questo, ci mancherebbe.
(01:33):
Ora, proviamo a fare un gioco.
Immagina di prendere il tuo bel faccione e di metterlo al posto di quello di Harrison Ford
in Indiana Jones.
Sarrebbe divertente e palesamente falso.
Oppure è metti il viso del tuo bambino, su un personaggio qualsiasi di Harry Potter.
Ne sarebbe felicissimo e lo farebbe sicuramente vedere a tutti i suoi amichetti e magari
te ne chiederà anche altri.
(01:54):
Pure per gli amichetti.
E perché no?
Immagina due politici avversari mentre giocano insieme a briscola
Usi innocenti, ma soprattutto palesemente falsi.
Ora però facciamo un gioco diverso.
Immagina il tuo faccione e la tua voce inserite in un contesto scabroso e lontano dal tuo
(02:16):
modo di vivere.
Oppure il tuo bambino inserito in un video pedopornografico.
E i due politici di prima che fanno una chiamata alle armi e alla violenza.
Non è più così divertente vero?
Queste esempi mi servono per dir una cosa molto semplice e allo stesso tempo banale.
La tecnologia non è buona o cattiva.
(02:38):
Dipende sempre l'uso che ne fai.
È un po' come la macchina che usi tutti i giorni.
Può essere un mezzo di trasporto, come può anche essere un'armalitale se lanciata sulla
folla.
La cronaca purtroppo è sempre più ricca di notizie sull'uso distorto e criminale di
queste tecnologie.
Passiamo dal recente caso della signora francese truffata dal falso Brad Pit che le mandava
(03:00):
foto e video.
Ai falso i nudi della cantante Rose Villain.
Oppure al presidente Mattarella che consiglia di investire in crypto valute.
Come ti ho già raccontato in uno scorso episodio.
Ti rubo qualche secondo prima di continuare.
Ti piace questo podcast.
Ma sappi che puoi supportarlo con un semplice click.
(03:21):
Basta premere segui su Spotify o Apple Podcast oppure al pulsante equivalente sulla piatta
forma che usi per ascoltarmi.
In breve non perderai più in episodio.
Aiuterai TecnoRiflessioni a crescere.
E soprattutto è completamente gratuito.
Il tuo supporto significa davvero molto per me.
E per questo io ti ringrazio.
Ma ora ributtiamoci nell'argomento di oggi.
(03:41):
Ma oggi voglio riportarti anche un esempio, anzi più esempi, di Deepfake difensivi.
Uno è quello di Sika Moon che è una creatrice di contenuti per adulti.
Voluntariamente scambi al suo viso con un generato al computer per proteggere la sua privacy
ed evitare stalker.
(04:03):
Questo per rimarccare che la bontà di un strumento dipende tutto da come lo usi.
Un altro uso lecito e soprattutto redditizio, dei Deepfake è quello fatto per creare
Aitana Lopez.
Aitana è un influencer che non esiste.
Generata totalmente tramite intelligenza artificiali generative, ma che muove migliaia di
dollare al mese, attraverso sponsorizzazioni su Instagram.
(04:25):
Dietro di lei c'è una agenzia che la crea, la dirige e la vende con successo.
In Italia la prima è stata Francesca Giovelli.
L'influencer virtuale creata un paio di anni fa che sta addirittura tentando una carriera politica,
ma anche anna Luce d'amico ci sta provando come candidata sindaco di Taranto.
Ora, io non sono pratico di pubblica amministrazione e partiti polici, ma immagino che il candidato
(04:48):
debba esistere per candidarsi.
Quindi mi chiedo queste iniziative, cosa possono avere di concreto, al di là di una
provocazione che fatico a capire sinceramente.
Ma se ti interessa approfondire la tematica delle influencer artificiali nostrane, fam
melo sapere e cercherò di farne un episodio dedicato.
Ma c'è un modo difendersi preventivamente dall'uso della propria immagine in deep fake?
(05:13):
Purtroppo no.
Seminiamo nostre foto e video ovunque sui social, e questo materiale può essere preso e
utilizzato senza consenso.
O meglio, il consenso dovrebbe essere chiesto, ma è chiaro che un malintenzionato non lo
farà mai.
Da qualche anno la mia voce è in questo podcast.
Ed è tutto materiale con un malintenzionato potrebbe utilizzare per farmi dire cose scomode.
(05:35):
Magari abbinata ad un video cucinato a puntino partendo dalle mio foto su Instagram o su Facebook.
Perché, se è vero che bastano pochi minuti di registrazioni per fare un audio credibile,
nel caso dei creatori di contenuti si può raggiungere la perfezione, con le ore di registrazione
pubblicate.
Quindi, se mi trovi in qualche spot strano avvisami, magari mi sono venduto di proposito.
(05:58):
O magari no.
Scherzi a parte, non ci resta che mantenere sempre alta la guardia e allenarci, a guardare
tutto con più attenzione.
A volte possono esserci dei dettagli piccoli ma rivelatori.
Nei contenuti generati interamente dal computer per essere sempre attenzione alle dita
delle mani e dei piedi, alle scritte e alla messa forco.
(06:21):
Per quanto sia tutto in continuo miglioramento, questi tre punti sono ancora un piccolo
ostacolo per l'intelligenza artificiale generative.
Dita e unghie spesso hanno forme anomale, a volte sono addirittura più di cinque per arto.
Le scritte sugli oggetti sono spesso poco mugene e confuse, e alla messa forco delle foto
e poco convincente.
Questi dettagli sono sempre più precisi, ma spesso sono ancora rivelatori.
(06:44):
Mentre Aitana rasenta la perfezione, la stessa cosa non si può dire per foto generata
in casa, tranno appuntate l'altari in una serie televisiva.
Per quanto riguare il dip fake video totalmente generati poteresti trovare invece dei movimenti
scattosi, oppure in qualche frangente la comparsa di arti che svaniscono il fotogramma dopo.
Guarda bene anche la synchronia, audio e video, perché difficilmente l'abbiale corrisponderÃ
(07:09):
la voce.
Spesso anche la durata un campanello di alarm, una clip di pochissimi secondi può essere
veramente sospetta.
Questo ovviamente vale soprattutto per le creazioni casaliglie.
Le foto i video delle influencer artificiali che ti ho citato prima sono praticamente perfette.
Ottime risorse informatiche di partenza e una post-produzione di livello sono in grado di
(07:29):
creare questi piccoli miracoli artificiali.
Ma vale sempre un regola d'oro.
Se quello che vedi o sentiti sembra totalmente assurdo, forse forse perché lo è davvero.
E spesso una veloce ricerca potrà confermare che ti trovi davanti a un falso.
E mi raccomando, il consiglio sulla ricerca vale anche per renotize che vorresti condividere
sui social.
(07:50):
Per questa puntata vi fermo qui.
Prima della citazione del giorno ti ricordo che su tecnoreflessioni.com troverai link di approfondimento
per questo episodio.
Se hai domande suggerimenti, precisazioni o quant'altro scrivi su telegram.
O manda mi una email alle chiocciola.
Tecnoreflessioni.com.
La verità esiste.
(08:14):
Solo la falsità deve essere inventata.
George Brack.
Ciao.
[Musica]