Episode Transcript
Available transcripts are automatically generated. Complete accuracy is not guaranteed.
Daniele Di Veroli (00:00):
Benvenuto su
Innovation Stories, il podcast
che parla di innovazione, growthmindset e intelligenza
artificiale.
Vorrei innanzitutto che tiintroducessi ai nostri
ascoltatori, ci raccontassi unpo' chi sei e cosa fai, in
particolare nel settore delcinema, e poi inizieremo a
(00:20):
parlare un po' di come staiutilizzando o utilizzerai l'AI,
l'intelligenza artificiale.
Riccardo Marchegiani (00:27):
Ciao
Daniele, grazie intanto di
avermi invitato.
Ho visto la prima puntata congrande, grande attenzione.
Mi è piaciuta molto.
Io sono un produttore esecutivosoprattutto e faccio anche il
produttore cinematograficosoprattutto e faccio anche il
(00:48):
produttore cinematografico.
Però quello che volevo dire èche ho un background molto più
legato alla fabbricazione delprodotto che non al
finanziamento.
Per spiegare che cos'è unproduttore, vengo appunto dalla
tecnica.
Ho cominciato relativamentemolto giovane a lavorare alla
camera, poi sono passato almontaggio e infine sono passato
(01:10):
alla parte logistica dellaproduzione e lì ho ampliato il
mio sguardo sulla gestione deiworkflow, perché poi alla fine
nel cinema è un grande incastrodi tanti tipi di workflow, cioè
c'è quello della fabbricazione,ognuno dei quali poi è un grande
diagramma di Gantt come siincastrano i vari pezzi che sono
(01:34):
legati alla camera e dopo allagestione dell'immagine.
Ma lo è anche la parte diproduzione, perché comunque io
adesso mi occupo spessissimo dicash flow.
Quindi significa, come dire, ilworkflow dei soldi è sempre la
stessa cosa, sono tutte quantegrandi pipeline che devi fare in
(01:57):
modo che non si intasino.
Questo è per cominciare efinire praticamente il prodotto.
Come cambia il mio rapporto conl'intelligenza artificiale?
Intanto penso che il cambio siastato molto graduale, solo che
noi cominciamo ad utilizzare dadue anni e mezzo, insomma,
(02:18):
dall'annuncio di CharGPT,cominciamo ad utilizzare il
termine intelligenza artificialeC'è sempre stata, nel senso che
io le mie prime reti neurali leho studiate 25 anni fa e grosso
modo dal punto di vista teoriconon mi sembra che ci siano
(02:40):
state delle rivoluzioniincredibili.
Dico dal punto di vista teorico, cioè dal punto di vista
pratico.
Invece ci siamo trovati conquesto connubio di masse di dati
incredibili.
Con l'arrivo della rete, quindichiaramente diciamo con
internet perché io ti parloappunto delle prime reti neurali
, non c'era ancora il protocolloGouffer, quando mi ricordo che
(03:04):
ho sentito la parola reteneurale Abbiamo cominciato ad
avere grandi masse di dati egrande potenza di calcolo.
Grande potenza di calcolo Ledue cose insieme hanno creato,
diciamo, la possibilità di averechat GPT, che dalla settimana
scorsa ci parla come computer diStar Trek.
L'algoritmo invece invece c'è datanto tempo.
(03:27):
Però voglio dire che quando noiutilizziamo i programmi, cioè
nel senso comunque, quando noiutilizziamo qualsiasi tipo di
software, gli algoritmi, dentroil software ce n'è da tanto.
Quindi l'intelligenzaartificiale ha un cammino lungo
che viene da lontano e di cuiimprovvisamente adesso si parla
nel lagone pubblico.
(03:48):
Però, ecco, la differenza èsolo quella.
Nel cinema che cosa succede?
abbiamo fatto tantissimerivoluzioni tecnologiche,
l'abbandono della pellicolasicuramente è stata la cosa più
marcante.
Ancora oggi diciamo la pellicper antonomasia, per dire il
(04:08):
film, quindi insomma il stessofilm.
La parola in inglese vuol direpellicola.
Quindi voglio dire, è propriola sua natura tecnologica che lo
definisce il cinema, e quellal'abbiamo scavalcata.
Lo possiamo fare oggi, ma non ènecessario, non è più così
(04:28):
importante.
Quello comincia da che, ti devodire, comincia il grande
processo di trasformazione.
Comincia appunto con l'arrivodel digital intermediate, del DI
, cioè quando abbiamo cominciatoa fare le scansioni della
pellicola e abbiamocompletamente cambiato il
processo di color grading, cioètutto quello che prima era una
stampa molto simile a quellavecchia fotografica, cioè i
(04:53):
principi chimici sonoesattamente gli stessi e quindi
si andava a ritoccare qualchepunto di colore nelle scale
importanti.
Però insomma, il grande lavorosi doveva fare sul set,
sostanzialmente, e poi dopoc'era la possibilità di
recuperare un pochino,riequilibrare, ma insomma i
direttori della fotografiavedevano i giornalieri, cioè
(05:15):
giorno per giorno siproiettavano quello che avevano
visto.
Quindi io ho cominciato alavorare.
Noi eravamo obbligatiperchéunto conciata la camera,
quindi ero più piccolo dellacamera tutta l'equipe doveva
seguire il direttore fotografia.
Andavamo tutti al laboratorio eci vedevamo tutti quello che
avevamo fatto, tipo due giorniprima che era il tempo tecnico
praticamente dello sviluppo, lastampa per proiettarlo qui, ciò
(05:39):
da regionale, infinite, molto,molto lunghe, quindi pochissimo
sonno, perché poi appunto lascala gerarchica prevedeva
sempre che tu eri quello chechiudeva il camion, eri pure
quello che l'apriva e quindiinsomma dovevi fare queste cose.
Oggi è molto più facile perché,per esempio, la proiezione non
esiste più, cioè la proiezionedei girati, salvo casi specifici
(06:00):
in cui ci sia il regista che ladomanda non si fa più.
Quindi non c'è più proprioquesto.
Anche rito, perché comunque eraun momento in cui poi magari
una volta a settimana prima, ilregista arrivava con la
segretaria di edizione, con icapi reparto, quindi il
costumista, il truccatore, lacostumista, le truccatrici,
(06:20):
insomma tutti a vedere quelloche avevamo fatto.
Era un lavoro molto, molto piùamalgamato, diciamo così.
Grazie a questi momenti oggiinvece hai la possibilità di
vederti direttamente sultelefonino e guardi quello che è
stato girato magari il giornoprima.
Quindi hai pure accorciatodirettamente tantissimo questi
(06:42):
tempi.
Quindi ci sono dei cambi con latecnologia.
Quello che succede conl'intelligenza artificiale è che
ti posso dire che fra pocopenso non veramente molto potrai
vedere quello che hai giratopoche ore prima, cioè durante la
stessa giornata, sul tuotelefonino, grazie al fatto che
(07:03):
in realtà, probabilmente ilpercorso del video assist sarà
sostituito da un algoritmo cherisponde direttamente a quello
che gli chiedi e quindi gli diciscusa, mi fai rivedere le scene
di tre ore fa.
E quello ce l'ha sull'hard disk.
Daniele Di Veroli (07:19):
C'ha anche
magari un suo wifi personale,
per cui lo vedi direttamente sultelefonino, sul set,
chiedendolo al telefoninosecondo te, come l'intelligenza
artificiale sta cambiando ilprocesso creativo del cinema e
anche quello produttivo, cioèdammi due esempi, secondo te, di
come questa cosa si staimplementando allora guarda dal
(07:41):
punto di vista creativo.
Riccardo Marchegiani (07:42):
Ti dico,
per esempio, in Francia passo la
gran parte del mio tempo negliultimi anni, ma io sono sempre
dalla Roma a Parigi hanno creatoun'intelligenza artificiale per
la scrittura che si chiamaGennario.
Esiste già da qualche anno.
È stata pensata da uno deicreatori di Bracco, che è una
serie televisiva che qui haavuto molto successo, un
(08:03):
poliziesco e che sostanzialmenteha una struttura da prima che
arrivasse a Antropic.
Ha una cosa molto simile aCloud, che è la gestione della
Project Knowledge, cioè il fattoche tu possa addestrare
minimamente il tuo, il tuoalgoritmo su i personaggi, la
(08:27):
storia che stai scrivendo, ilworld setting che hai costruito,
quindi su una serie poiaddirittura ancora più
interessante.
Quindi questo aiuta molto nellaparte, diciamo, di scrittura,
per individuare i buchi disceneggiatura.
Quindi in questo sta diventandomolto più efficace.
(08:51):
E Gennario ha proprioall'inizio di settembre 2024
chiuso un accordo con la CACD,che sarebbe l'equivalente della
CIAE francese, per unaridistribuzione dei diritti
d'autore sulle sceneggiature cheutilizza per l'addestramento,
(09:16):
visto che diventaun'intelligenza artificiale che
si alimenta di storie disceneggiature, di storie di
sceneggiature, ridistribuisceuna parte del denaro che ottiene
, visto che poi è la comunitàstessa e gli iscrittori che la
utilizza invece, rispetto altext to video e all'image to
video, cioè alla possibilità chel'intelligenza artificiale
(09:37):
generi direttamente video.
Come la vedi, beh, siamo ancoraun po' lontani, cioè nel senso
tutto è embrionale.
In questo momento non ci sono,a parte degli esperimenti, non
ci sono dei veri equivalenti dimercato.
Non abbiamo ancora in sala ilfilm fatto con il text to video
(10:00):
o l'image to video.
Quando ci sarà quello,chiaramente avremo un nuovo
standard, diciamo.
Nel settore però è il discorsosempre tra il dilettante e il
professionista, cioè ildilettante, per quanto possa
essere anche più bravo delprofessionista, però lo fa per
diletto.
Diciamo che qui siamo ancora onel diletto o nell'R&D.
(10:21):
Quindi diciamo comunque nellaricerca però non siamo
all'interno di circuitiprofessionali, per cui
guadagniamo del denaro.
Capito, tutto qua.
Quindi non è possibileconsiderarlo ancora fonte di.
Però stiamo andando in questadirezione perché per esempio uno
(10:43):
dei tre, uno dei più grossiplayer del settore del textliono
(11:19):
utilizzare.
Runaway Lionsgate ha detto inogni caso dobbiamo integrare le
intelligenze artificialiall'interno dei nostri workflow.
Però ancora questa cosa faabbastanza ridere.
Io non so se tu hai visto laserie prodotta da Disney, tra
l'altro per la sua piattaformaDisney+, di Boris.
L'ultima stagione di Boris è unacosa che parla molto alla bolla
(11:49):
dell'audiovisivo italiano.
Infatti credo che gliinteressanti incassi del film
siano stati solo dentro ilraccordo anulare di Roma.
Però ti dico la quarta stagioneè molto interessante perché
prende in considerazione lapiattaforma, cioè il fatto che
Boris dà una cosa che dovevaessere proprio segna il passo,
(12:13):
diciamo anche, del cambio delnostro rapporto con
l'audiovisivo e quindi loro chestavano facendo la telenovela
diciamo così, cioè comunque laclassica, il classico prodotto
per televisione di flusso, cheimprovvisamente si ritrovava a
fare la serie per la piattaformae quindi dovevano sviluppare
tutta la serie per lapiattaforma e ogni volta c'era
(12:35):
questo ritorno anchedell'executive che parlava
dell'algoritmo.
Quindi c'era sempre questa cosa, insomma un po' il dio
algoritmo, ragazzi, quella èl'intelligenza artificiale,
comunque.
Quindi, in ogni caso, già datanti anni con l'arrivo delle
piattaforme siamo molto, moltoinfluenzati dall'intelligenza
artificiale perché addiritturadal punto di vista editoriale ci
(12:59):
dice cosa dobbiamo scrivereprima ancora di fabbricarlo.
Siamo toccati già da tempo,dopodiché non abbiamo ancora
l'algoritmo per dire ok, facciquesta cosa e arriva la
sceneggiatura, arrival'audiovisivo.
Daniele Di Veroli (13:13):
Questa magia
non c'è invece in termini di
post produzione.
Per quanto riguarda la postproduzione, tu utilizzi già dei
tool di intelligenza artificiale, tra le altre cose.
Riccardo Marchegiani (13:23):
Se non
erro, hai anche prodotto alcuni
film recentemente dove haiutilizzato queste tecnologie io
in questo momento sono in postproduzione di un film che si
chiama MacTube My Love, canto 2,che abbiamo girato nel 2017.
È passato un po' di tempo, peròabbiamo girato, diciamo, in due
(13:51):
momenti differenti cinque mesidi riprese a cavallo del 2016 e
del 2017, quindi Canto 2 terminaverso fine febbraio 2018 le sue
riprese.
Il processo è stato piuttostolungo perché poi c'è stata la
creazione di un terzo film nonprevisto data la massa di girato
(14:15):
che abbiamo avuto, e quindi ilsuo regista ha deciso di andare
prima con questo inaspettatofilm che è diventato Make True
My Love, intermezzo passato inconcorso a Cannes del 2019, e da
quel momento, viste lerecezioni, con un mixed feelings
(14:36):
sul film, il regista si è presoun grande momento di
riflessione nel rifare,ricostruire quel film e poi
passare a Canto 2.
Quindi Canto 2 adesso è infinale di post-produzione, visto
(14:59):
la circolarità che abbiamo nelworkflow con questo regista.
La circolarità che abbiamo nelworkflow con questo regista è
che ha bisogno molto diraffinare le immagini e il suono
durante la fase di montaggio,perché noi di solito abbiamo un
workflow piuttosto semplice, maquando si gira c'è un
trattamento del girato in marinatale che venga ridotto a dei
(15:22):
file più leggeri e quindi piùgestibili.
Con questi si monta.
Una volta che si è montato tuttoil film, si fa l'online, cioè
si recupera la parte di giratooriginale con la sua qualità
originale e si ricostruisce Inqualche modo.
(15:43):
È una tradizione che abbiamoripreso dal fatto che noi
giravamo il negativo e poitagliavamo, montando pezzi di
negativo per fare quella che sichiamava la copia lavoro, cioè
che era una prima copia di tuttoil negativo.
Quando abbiamo introdotto ilmontaggio non lineare che
comunque risale a fine anni 80,inizio anni 90, a quel momento
(16:05):
lì abbiamo cominciato adutilizzare appunto dei file,
solo che non avevamo le macchine.
E anche oggi difficilmenteabbiamo delle macchine che
riescano a gestire un'enormequantità di dati prodotta dalle
camere E quindi siamo costrettia una fase di downscaling che ci
(16:27):
permette di lavorare almontaggio per poi rifare invece
la costruzione della copiaoriginale.
Questo processo, in realtà èstato molto aiutato grazie a
delle nuove tecnologie come film, ai o Color Lab.
(16:47):
In particolare è quello piùinteressante per noi ci hanno
permesso di avere delle LUT,cioè delle Lookup Table, come
dire matrici da mettere sopral'immagine grezza in maniera
tale che noi possiamo vederel'immagine con dei colori
differenti.
Il color grading, cioè la partedi correzione del colore,
(17:15):
comincia attraverso praticamentequesto tipo di lavoro con le
loot e noi abbiamo avuto lapossibilità, anche fortunati,
lavorando su un film che è unsequel, che poi sono stati più o
meno pensati insieme, hanno glistessi personaggi, gli stessi
attori, le stesse situazioni,quindi gli stessi luoghi e
(17:40):
quindi ci ha permesso di poterrecuperare già tutte le still
del primo film, cioè prenderedirettamente dal primo film la
color correction che era statafatta all'epoca e rimetterla
direttamente sul secondo.
Mentre stavamo lavorando, senzascomodare, già il direttore
(18:00):
della fotografia e il colorist,che hanno cominciato a lavorare
dopo, hanno ripreso quello chenoi gli abbiamo dato al
montaggio e hanno cominciato alavorare rifacendo tutto da capo
, però sapendo già come avevamopreso delle decisioni.
È stato abbastanza interessanteperché quanto meno guadagnato
(18:22):
un tempo rispetto al regista insala di color.
Ti voglio dire sicuramente faràancora delle modifiche perché
stiamo facendo ora le colorcorrection, però è stato un
(18:44):
processo più fluido.
Temo che sarà sempre più così,nel senso che la cosa che è
interessante è che quandofacciamo la color correction
esistono due momenti veri epropri, anche al mix audio, per
esempio.
Un primo momento è quello dellatecnica, cioè quello di cercare
(19:07):
di rendere tutto allo stessolivello, in maniera tale che sia
poi lavorabile.
Mi sembra una cavolata, peròtante volte tu non hai la
continuità di luce.
Cioè magari hai girato unascena, l'hai girata alle 9 del
mattino e poi alle 7 di sera percercare di recuperare più o
meno lo stesso, però non è dettoche sia la stessa cosa e poi
(19:29):
c'è la famosa nuvola che passa,quella per cui tante volte ci
fermiamo e siamo lì 5 minuti aaspettare che recuperiamo lo
stesso sole.
Cioè quando si gira in generalec'è una continuità di luce.
Questa continuità di luce non èdetto che oggi, soprattutto
quando si va veloce e che siutilizzano tante macchine, non è
(19:50):
detto che si possa avere sempreun controllo incredibile, in
particolar modo il nostro filmche è stato in questo senso
particolarmente sperimentale.
Quindi c'è bisogno direcuperare questa continuità
alla fase finale della posta.
La stessa cosa per l'audio, cioècercare di avere tutti i suoi
stessi ideali.
Una volta che hai fatto tuttoquesto, comincia la parte
(20:12):
artistica, cioè quella dove tidiverti e cominci a dire
veramente no, però voglio chearrivi da destra più in alto,
perché così posso ridisegnaremeglio lo zigom, insomma, tutte
a destra più in alto, perchécosì posso ridisegnare meglio lo
zigom, insomma tutte questecose qui.
Ecco, noi paradossalmenteabbiamo, mentre montavamo,
grazie a ColorLab abbiamo avutola possibilità di dare al
(20:32):
regista già l'idea di come farequeste cose, salvo poi però
mollare tutto al Colorist e direadesso però vedetela tu, come
rimettere a posto le cose?
Invece, credo che nel giro diqualche anno sarà esattamente il
contrario, cioè l'intelligenzaartificiale e gli algoritmi ci
permetteranno veramente, conpoco calcolo, di riequalizzare
(20:54):
tutto.
Daremo presente direttamente ilfilm conformato all'intelligenza
artificiale, li dire a giusta epoi, una volta che tutto è
esteso, entriamo e cominciamo alavorare e cominciamo a fare
tutta la parte artistica dellaluce.
Quindi questo, paradossalmente,in un'industria che produce
sempre di più e che quindiaccorcia anche i tempi dedicati
(21:19):
a questo tipo di riflessioni,l'intelligenza artificiale può
arrivare a ridarci, arestituirci quel tipo di tempo
per la riflessione che nonabbiamo più, soprattutto nel
cinema.
Poi c'è la grande differenza diquello che dobbiamo fruire
(21:41):
prima in sala, che comunque èuna che utilizza dispositivi
diversi, cioè quindi proprioappunto, noi di solito facciamo
i color grading o i mix pensandoal fatto che venga proiettato
dentro una sala.
Quindi devi calcolare lagrandezza dello schermo, com'è
(22:01):
l'impianto dell'audio, e poitutto questo piano piano si sta
riducendo.
Entriamo nel computer fino adarrivare agli iPad e ai
telefonini, ai tablet e aitelefonini.
Ecco, questa cosa credo che ciha portato via tanto tempo che
(22:24):
dedicavamo prima alla creazioneartistica per avere invece degli
standard tecnici, e soprattuttoperché poi ci sono sempre meno
soldi, diciamo così, perchéproduciamo molto di più e quindi
poi alla fine dobbiamoinvestire in molti più prodotti.
(22:45):
Però il cinema io penso sempre,faccio sempre questa metafora
automobilistica e dico il cinema, per quanto sia un grande
mercato, rimane sempre un po' laFormula 1 dell'automotive, cioè
, mentre la televisione e forseoggi le piattaforme mischiano un
(23:06):
po' questa cosa a rendi, lo fainella formula 1 piuttosto e poi
dopo applichi tutto quello chescopri lì, lo applichi
direttamente ancheall'automotive.
Non che non si facciano lericerche anche nell'automotive,
però se ne fanno un po' di menoe in termini, diciamo di
contaminazione fra tecnologia elinguaggio che sono la base del
(23:30):
cinema, cioè il cinema comunqueè una di quelle arti in cui c'è
sempre stato questo doppiobinario del, del costo, perché
comunque è quella che più ditutti ha bisogno dell'equip, ha
bisogno comunque di avere piùpersone che sono dietro il
(23:51):
regista, per l'appunto, quindiil director è quindi qualcuno
che gestisce, come il direttored'orchestra.
Ecco, quindi significa che deviavere tanti strumenti, solo che
questi strumenti cambiano anchecon la tecnica, da Melies che
facciamo degli esperimentisempre sull'immagine, e poi ogni
(24:13):
volta si integrano e diventanolinguaggio.
Tu pensi all'arrivodell'estetica, che è stato
rivoluzionario nell'uso dellacamera, cioè.
Tu pensi all'arrivo dellaSteadicam, per esempio, che è
stato rivoluzionario nell'usodella camera, anche prima scusa
dal punto di vista dellafotografia.
Ecco uno ripensa allaprofondità di campo.
Poi c'era questo direttoredella fotografia americano, greg
(24:35):
Tollab.
Aveva già cominciato a farequalche film in cui decideva di
lavorare molto sui campi, eOrson Welles lo vede e dice
cavolo, però questo è veramenteinteressante.
E con lui fa Citizen Kane, chediventa una di quelle milestone
nel cinema per, appunto, comecambia il linguaggio, la
(24:57):
grammatica del linguaggiorispetto proprio anche
semplicemente alla tecnica.
Quindi, con l'arrivodell'intelligenza artificiale,
la grammatica del linguaggiorispetto anche alla tecnica.
Quindi, con l'arrivodell'intelligenza artificiale ci
troviamo sicuramente a questo,e poi ci sarà probabilmente
anche il cambio del gusto.
Non so se faremo prima noiadattarci all'immagine sintetica
(25:20):
o l'immagine sinteticadiventerà indistinguibile da
quella reale.
Non so quale delle due cosearriverà prima.
Però un esempio c'è, perché poi, appunto, il fatto di avere nel
cinema tutte queste componentitecnologiche fa sì che in realtà
queste tecnologie sonosviluppate in altri campi.
(25:41):
Prima quindi, per esempio,l'autotune nella musica.
L'autotune nella musica haaggiustato appunto il tono,
quindi insomma il fatto che fadiventare tutti quanti intonati
già da tanti anni, talmentetanti anni che ci siamo talmente
abituati ad ascoltare cantanticon l'autotune che oggi, quando
(26:03):
senti la voce sintetica diun'intelligenza artificiale tipo
Suno, che ti crea la musica,non ti fa mica fastidio.
Anzi, passa così.
Dunque, questa cosa anchedipende da quanto ci abituiamo
noi all'utilizzodell'intelligenza artificiale.
(26:27):
Per esempio, sempre la musicache è più facile, cioè adesso i
text to song, nel senso creareveramente subito una canzone già
dall'anno scorso mi sembraparticolarmente facile.
Non mi sembra che abbiamo vistoquesta scalata delle
(26:49):
classifiche in giro per il mondodi canzoni sintetiche.
Io la prima che ho visto èstata a luglio del 2024, di una
nella scaletta dal luglio del2024 nella top ten tedesca, ma
comunque fatta da un produttoremusicale che quindi conosce
(27:11):
esattamente tutti i meccanismi enon è una persona che si è
svegliata una mattina, ha spintoun pulsante su su uno e
improvvisamente è uscita lanonna di Beethoven a questo
proposito volevo chiederti comevedi l'avvento degli attori
digitali e dei deepfake, cioètutto questo tipo di tecnologie
(27:34):
che vengono utilizzate per lasostituzione degli attori.
Daniele Di Veroli (27:37):
Io penso
all'ultimo film di Indiana Jones
, ma mi potresti anche fare tutantissimi esempi.
Come vedi questa cosa?
Riccardo Marchegiani (27:45):
quello di
Indiana Jones è sicuramente
quello più famoso per ora inmaniera positiva, diciamo così,
probabilmente ti direi diIrishman, quello che non ha
usato i deepfake e che è passatoinvece in maniera negativa,
cioè che è stato proprio ilmomento spartiacco in cui ci
(28:06):
siamo detti ma perché i deepfake?
no, perché utilizzava invece unatecnologia più classica di CGI
guarda, io sono un grandefautore, cioè proprio quelli che
chiamo i beauty shot, il fattodi comunque anche solo
semplicemente cercare diringiovanire.
Sono un grande, un grande fandel deep fake.
(28:31):
Penso che ci farà appuntoguadagnare tempo rispetto a
prostetici, rispetto a trucco,parrucco, cioè il fatto in
generale di poter lavorare cosìnormalmente e poter ritoccare
dopo in post-produzione.
È sempre una questione di tempi.
È sempre una questione di tempie costi, chiaramente, di quante
persone tu quindi staimobilizzando nella fabbricazione
(28:59):
di un film.
Sono il momento delle riprese,perché è il momento in cui
aggreghi tutti e quindi tu haitantissimi reparti che devono
lavorare tutti insieme.
E parliamo di piccoli filmindipendenti che si fanno quelli
che lo fanno, 1, 2, 3, percarità, però diciamo che
normalmente c'è sempre quelminimo di 15-20 persone e
arriviamo ai grandi colossal.
(29:22):
Vi parlo proprio il blockbustero le serie importanti, che sui
momenti di azione, per esempio,possa avere anche i pd 500
persone più tutto quello chemuove intorno, perché io ti sto
parlando di tecnici, cioè quandocominciamo a mettere anche le
comparse che, per esempio, sonouna delle cose che è stata prima
(29:44):
toccata dall'utilizzo dei VFX,cioè la moltiplicazione.
Ti ricordi Forrest Gump, lagrande scena del lago, come si
chiama la cosa, washington, dovesono stati moltiplicati la
battaglia di Algeria e di PonteCorbo, quelli erano tutti liberi
(30:05):
.
Questa cosa oggi diventa moltopiù facile, cioè il fatto che i
VFX sono la cosa che sicuramenteè più impattata e sarà sempre
meglio e saranno sempre ridotti,però ci tornerà sempre poi il
(30:26):
controllo creativo di tuttoquesto.
Quindi io ti dico secondo meabbiamo finito con le rotoscopie
in India, però avremo semprebisogno di più bravi VFX
supervisor, e questa cosa siintegrerà sempre di più anche
con con gli attori, che ci portaa un problema più etico.
(30:47):
Diciamo che anche la scoperta dinuovi talenti, cioè indiana
jones per esempio, è chiaramentel'occasione mancata di lanciare
un nuovo attore che avrebbepotuto prendere il ruolo di
(31:07):
Harrison Ford da giovane, comeabbiamo fatto prima, come
facevamo, come abbiamo semprefatto in generale, quando ci
sono i passaggi di età e tuprendi degli attori che a volte
poi non sono nemmeno cosìsomiglianti, ma proprio perché
sono dei bravi attori, siprendono la stessa smorfia, lo
stesso sguardo, le stesse cose erecuperando quella roba creano
(31:28):
praticamente una una, unacontinuità.
Questo, come dire, c'è il benee il male.
Il fatto che abbiamo lapossibilità di recuperare lo
stesso attore è sicuramenteinteressante.
Il fatto che non potremmoutilizzare dei nuovi volti,
ormai sono diversi anni.
(31:51):
Abbiamo proprio una guerradell'attenzione e quindi il
meccanismo dei divi all'internodi un mercato del genere è già
molto anacquato.
Oggi il divo di Hollywoodall'interno di un mercato del
genere è già molto anacquato.
Oggi il divo di Hollywood famolta fatica a stare dietro
l'influencer di YouTube o diInstagram.
Mr Beast pesa moltissimo comeun attore hollywoodiano e lo
(32:14):
vedi dal fatto che c'è Amazonche va a fargli il contrattone,
esattamente come farebbe per unproduttore barra attore su una
serie, poter replicare questotipo di attenzione.
Però non sono così sicuro che ipro saranno più importanti dei
(32:35):
contro.
Daniele Di Veroli (32:35):
Certo,
parlando sempre di questo, le
tecnologie oggi permettono diavere, per esempio, delle camere
che hanno delle feature e unaqualità che magari 5 anni fa o
10 anni fa costava 10 voltetanto, e questo quindi è un
aspetto, e quindi vorrei cheintanto toccassi questo aspetto
qua.
e l'altra domanda è legata aquesto il fatto che con le AI
(32:59):
democratizzi la produzione deicontenuti non porta anche al
rischio, come dicevi tu prima,di una generazione notevole di
contenuti e quindi tanticontenuti ma con poca qualità?
Quindi vorrei che toccassiquesti due temi.
Riccardo Marchegiani (33:17):
Allora.
No, io invece sono indisaccordo su questa cosa, nel
senso che penso che lademocratizzazione delle
tecnologie sia arrivata primadelle AI, almeno nel cinema, e
che quindi questo processo diabbassamento della qualità sia
già avvenuto.
Molto semplicemente, adessoabbiamo YouTube per dire il
(33:41):
fatto che comunque c'è unagrandissima piattaforma video
dove puoi mettere i contenutifatti direttamente con il
telefonino, subito, senzadoverci lavorare.
Questa cosa ha abbassato laqualità.
Guarda come per esempio latelevisione, che aveva degli
standard molto alti, quindi ilfatto che dovessi venire in
(34:03):
studio, c'erano le persone cheti facevano il controllo dei
microfoni, c'era la camera conle luci, le cose, quello e
quell'altro, e poi con Zoom,durante la pandemia, è diventato
tutto valido e improvvisamenteci siamo ritrovati a vedere
(34:24):
delle, delle trasmissioni sulleammiraglie, che però poi
arrivava il tipo con lecuffiettine su skype e faceva la
sua intervista.
Ecco, quindi la qualità si èabbassata, cioè perché anche là,
dove c'era toper fare, abbiamodeciso di abbassare la qualità.
(34:47):
Allo stesso tempo ti dicol'intelligenza artificiale
secondo me eliminerà lamediocrità, perché già la
produce lei.
Quindi la mediocrità, nel sensola parte media, quindi tutto
quello che è basso fino al medio, te lo fa l'intelligenza
artificiale E quindi significache a quel punto nella
(35:08):
democratizzazione del contenuto.
Sì, certo, ci può essere più,però ritorniamo lì alla guerra
di attenzione.
Quindi ci può essere più undiscorso legato alle sfere di
prossimità.
Se faccio io una cosa mediocre,però poi mio cugino se la vede
perché è mio cugino, gli amiciperò insomma, diciamo che rimani
(35:28):
nei tuoi gradi di separazionedel reso, non ha più l'impatto
virale, mentre quello lo puoifare tranquillamente con
l'intelligenza artificiale.
Poi dico virale, basso, invececosa potrai fare con
l'intelligenza artificiale?
poi dico virale e basso, invececosa potrai fare è andare a
recuperarti tutta la parte altadella scaletta.
(35:49):
Quindi, secondo mel'intelligenza artificiale sta
entrando a risolvere un problemache abbiamo già creato prima e
la democratizzazione delletecnologie arriva già, ma arriva
già, ma arriva già negli anni.
Per il cinema ti potrei dire giàdagli anni 80 e ancora sempre
(36:12):
studiare il porno per letecnologie, perché il porno è
sempre quello che utilizza letecnologie per primo come
settore.
Quindi, quando comincia ilcinema in 35 mm, il porno da 35
mm vede a un certo puntoun'opportunità incredibile.
Diciamo possiamo abbassare icosti, c'è il super 8 e si
(36:33):
gettano sul super 8 e lìcomincia il primo cinema
indipendente del super 8.
Quindi tu vai a vederti, iosono un autarchico di Nanni
Moretti, girato il Super 8 traamici, quello che oggi potremmo
fare con i telefonini, però giàall'epoca prevedeva il fatto che
dovessi avere una camera, chedovessi avere la pellicola.
Cioè c'era una barriera diingresso particolarmente
(36:55):
complicata data dalla tecnologia, non ti dico dallo sfruttamento
dopo proprio nellafabbricazione.
Oggi questa barriera diingresso non c'è più nella
fabbricazione, c'è solo sedecidi che puoi mettere degli
standard particolarmente alti didistribuzione.
Quindi, quando ti dici voglioandare su Netflix, la
piattaforma ti dice ah, peròdevi girare almeno in 4K con
(37:16):
l'HDR, perché dopo tutte questecose qui ti danno loro però di
fatto non esistono.
Perché poi l'HDR?
ci sono i direttori dellafotografia, che mi sono molto
divertito negli anni in cui èpartita questa cosa, che
mandavano i setting deltelevisore su Instagram dicendo
oh, mi raccomando, se doveteguardarlo, mettete il televisore
(37:37):
così, perché altrimenti nonvedete la stessa cosa che voglio
io.
Quindi figurati a che livellosiamo arrivati sì, c'è il famoso
filmmaking mode.
Daniele Di Veroli (37:45):
Io guardavo
recentemente una televisione da
acquistare che è il filmmakingmode dei televisori di brand
tipo LG e Samsung, che di basetoglie tutte le feature aggiunte
e praticamente ti dà il videoflat, perché è quella
l'esperienza del direttore dellafotografia.
Questo per dirti poi chel'intelligenza artificiale viene
utilizzata in questi strumenti.
(38:07):
Quindi, scusami, quello che hocapito, l'intelligenza
artificiale ti ha permesso anchedi fare una serie di savings in
termini di costi, cioè dirisparmiare in termini di
produzione.
Però, dall'altra parte tifaccio una domanda provocatoria
secondo te, per esempio,pensando al mercato
dell'advertising, dellapubblicità, per quanto le
(38:29):
aziende saranno disposte, iclienti saranno disposti a
pagare per qualcosa chel'intelligenza artificiale fa in
maniera semplice, veloce?
in che cosa si fa la differenzanella produzione?
Riccardo Marchegiani (38:43):
allora
devo dire intanto che devo fare
una prepessa, che io nonfrequento più il mondo delle
pubblicità, dell'advertisingdalla fine degli anni 90, quindi
figurati insomma quanto sonolontano, proprio perché mi
ricordo il BPM, come si chiamavle riunioni che facevamo, le
(39:08):
discussioni c'è talmente tantafuffa che non stiamo vendendo la
fabbricazione.
Comunque è il solito discorsodel vendere il somio e quindi
quello lì comunque non te lovende la macchina.
Quindi non penso chel'intelligenza artificiale possa
arrivare a sostituirsi.
(39:31):
Ancora una volta è l'oggettoche ti dicevo della mediocrità,
cioè se devi fare qualcosa che èuna battuta da bar, non c'hai
più bisogno, non hai bisognosicuramente dei creativi
dell'agenzia.
Quindi tutta quella parte lìnon hai neanche più bisogno di
girarla.
(39:51):
Probabilmente cioè veramente faitext to video e può anche
funzionare, ma ci sarà semprecomunque un elemento creativo
che è quello che sceglie tuttaquesta roba qui dentro, il
cliente.
Quindi quello che ti posso direè che si accorciano forse un
po' le filiere, cioè iproduttori cominceranno a essere
(40:12):
un po' più agenzia, le agenziecominceranno a essere più
produttori, quindi scompariràquella roba lì.
Credo che sia già succedendoquesta cosa, cioè nel senso che
già produttori puri dipubblicità, che sono chiamati da
agenzie pure di pubblicità,cominciano a non esserci più
(40:34):
cominciano a fondersi o comunqueallargarsi da un lato o
dall'altro, da un lato odall'altro Questa cosa può
portare a dei reparti marketingdentro le aziende più corposi
che fanno tutto questo, cioè chediventano loro stessi agenzia e
produttori del contenuto.
Quindi questo può succedereeventualmente, però significa
che trasli quelle competenze daun vaso ad un altro, cioè il
(40:59):
copywriter non lavorerà piùdentro l'agenzia, lavorerà
dentro l'ufficio marketingdell'azienda.
Però uno che ci pensa con latesta ci deve stare per forza.
Daniele Di Veroli (41:10):
Quindi tu
vedi l'applicazione di queste
tecnologie soprattutto nellaparte di preproduzione.
Penso ad esempio a tools tipoLTX Studio, cioè che ti
permettono di storyboardare.
Riccardo Marchegiani (41:24):
Allora LTX
l'ho usato proprio proprio in
beta.
Tra l'altro sono entrato subitocome beta tester, quindi mi
sono particolarmente divertito edevo dire che è estremamente
interessante.
Sì, perché ti dà la possibilitàdi previsualizzare delle scene,
ti anche i breakdowndirettamente delle scene.
Fa tante proposte.
Ma in generale l'intelligenzaartificiale dal punto di vista
creativo è sempre moltointeressante, quantomeno da un
(41:45):
punto di vista.
Diciamo, i processi dicreazione possono essere sempre
o per impulso o per reazione.
Ok, i bravi creativi ingenerale sono tutti per impulso,
cioè tutti i visionari, gliartisti lavorano sempre con il
loro impulso interno.
E poi io, per esempio, invecelavoro per reazione, cioè io
(42:08):
sono uno, per esempio, che dalpunto di vista editoriale mi dai
una sceneggiatura, la leggo eti faccio tutti i commenti.
Se mi dici vuoi scrivere unasceneggiatura, io non saprei da
dove cominciare, avrei subito ilblocco della pagina bianca.
Con un'intelligenza artificiale, invece, posso trovarmi
esattamente nella mia comfortzone di reazione.
(42:30):
X ti permette, per esempio, difare una cosa del genere senza
nemmeno andarla a cercare,perché ti fa già i breakdown, ti
mette già le sue inquadrature,addirittura tu hai la
possibilità di creare deicaratteri consistenti che lui ti
riporta in giro nelle varie.
Poi però ti dico la resagrafica, ecco, va bene per la
(42:51):
preproduzione, ma quando comincia generare i video con LTX
sembrano non so se ti ricordi leanimazioni degli anni 60,
quando si muovevano le bocchesiamo più o meno a quel livello.
Questo non significa che poinon diventerà uno strumento
estremamente interessante,perché ti permette già di
(43:12):
ordinare il caos, mentre conRunaway, per esempio, tutti
questi strumenti che secondo mestanno cominciando ad avanzare
sono quelli che già mettonoordine.
Tu vedi Cloud che ti fa iproject con la Project Knowledge
, ltx, come dici te, che faqueste cose.
Così Cloud non è differente poida ChatGPT.
(43:32):
Però già il fatto che tu hai lapossibilità di mettere in
ordine le tue dentro un progetto, le tue conversazioni, è tanto
rispetto a recuperarti le cosedentro chat GPT, perché se lo
usi tanto chat GPT, poi allafine hai una lista lunghissima
di conversazioni dove ti perdi.
La stessa cosa è il TX, cioèrunaway.
(43:54):
Tu devi andare lì e farti latua per ogni singolo, per ogni
singola immagine.
Invece questi sono che poi sonocose stupide da implementare,
quindi poi ci arriveranno tuttiquanti.
Però è per dirti come siamoancora molto presi dall'idea di
appunto creare e tanto che nonci mettiamo a pensare a come
(44:17):
gestire poi il caos di questacreazione.
Quindi ti dico sì, questosicuramente, sicuramente aiuterà
moltissimo nei processi dipreproduzione.
Però, ancora una volta, pensoche il rasoio di Occam è quello
della mediocrità, cioè tieliminerà tutta quella roba lì e
(44:38):
ti porterà quindi a potersfruttare al meglio le cose
sopra.
Se tu consideri che ancora oggi, con le tecnologie che abbiamo,
investiamo milioni di dollariper fare pubblicità del profumo
ok, dove non c'è niente ti seirisposto gli investimenti
(44:58):
continueranno ad esserci perchélì dobbiamo vendere
l'intangibile e quindi dobbiamoanche il solo fatto di poter
fare quell'investimento e dirtiio sono in grado di mettere 5
milioni su una pubblicità diintelligenza artificiale.
Non è importante il risultato,ma il processo, cioè il fatto
(45:21):
che io posso farti fare quellacosa lì e che la faccio già.
Questo è pubblicità, perché èil solito discorso che il mezzo
è il messaggio.
Quindi già la costruzione delmessaggio è un messaggio.
Quindi già la costruzione delmessaggio è un messaggio e
questo secondo me non cambia.
Daniele Di Veroli (45:36):
Ok, molto
interessante.
Un altro aspetto volevochiederti tra le varie
piattaforme e tecnologie cheoggi sono presenti penso a Pika,
penso a Adobe Firefly, penso aStable Diffusion, confui,
insomma varie quale secondo te èquella destinata a rimanere?
Riccardo Marchegian (45:58):
onestamente
, è un momento talmente caotico
che ci sono proposte, offerte avolte anche molto similari.
Ieri a un certo punto ho fattoun esperimento volevo vedere
come poter togliere un watermarkda un'immagine per rendermi
(46:19):
conto se ha ancora senso cheinviamo i film con la skin not
for commercial use, per esempio.
Ci sono tantissimi tool.
Credo di aver incontrato almenomezza dozzina di siti che
offrivano questo tipo dipossibilità e poi ho trovato
(46:43):
quattro modelli su github chefanno esattamente la stessa cosa
, uno in locale, uno lo metti sucollab, quindi con approcci
differenti, e credo che i sitiche ho visto prima utilizzare i
modelli comunque sono stati giàsviluppati.
(47:04):
Dipende veramente chi mette ilvestito migliore su queste cose
qui e poi invece quelli chefanno la ricerca per davvero,
cioè quelli che tu dici tipoPika, tipo Stable Diffusion ha
appena fatto una partnership conJames Cameron che entra in
(47:24):
Stability per portare appunto ilsuo know-how sui VFX che, come
ti ho detto, sono la prima cosache scomparirà, diciamo, dai
nostri computer per essere fattadalle intelligenze artificiali.
Quindi, quando entra un pesomassimo, come James Cameron che,
ti ripeto, è una persona che haobbligato tutti i cinema del
(47:46):
mondo a passare alla proiezione3D, quindi sa quello che fa e ti
dici ok, questi sonosicuramente gli attori che
rimangono, perché sono quelliche fanno la ricerca pura.
Siamo tutti aspettando ormai daun anno sora, quindi sarà il
tiro di dati che ci permetteràdi capire tutti gli altri se
(48:07):
veramente stanno solo ricorrendoo se hanno cominciato ad
anticipare.
Però credo che stanno soloricorrendo o se hanno cominciato
ad anticipare.
Però credo che quelli cherimarranno di più sono quelli
che fanno, da un lato, laricerca migliore e, dall'altro,
quelli che offrirannol'interfaccia con la user
experience più facile, che cipermetteranno quindi di
(48:28):
organizzare meglio il caos.
Il solito discorso, quello chedicevamo prima.
Daniele Di Veroli (48:33):
Prima hai
toccato il tema della
distribuzione.
Vorrei tornarci un attimochiedendoti, da un lato, come
l'intelligenza artificialecambia la distribuzione dei
contenuti in parte l'hai toccato, ma vorrei che l'approfondissi
e anche sull'aspetto dellalocalizzazione, cioè di come,
per esempio, nel dubbing, neldoppiaggio, l'intelligenza
artificiale sta entrando proprioa gamba tesa no, è già proprio
(48:56):
entrata.
Riccardo Marchegiani (48:57):
Il
doppiaggio, è proprio la cosa su
cui già siamo arrivati.
I VFX ancora stiamo discutendosu che tipo di VFX andrà.
Appunto il deepfake loconsideriamo AI o no?
perché c'era pure prima.
Quindi col no e poi no, ma nonpossiamo ancora gestire.
(49:19):
Io ricordo che il primodeepfake, quando parlavo cinque
anni fa di utilizzarli nellametodologia utilizzata per
Harrison Ford, la risposta deiVFX supervisor era no.
Però sai, siamo ancora che nonpossiamo andare a più di 1024,
(49:39):
come facciamo, se dobbiamo farepoi in 4k, quando comunque lo
standard di distribuzione alcinema rimane ancora in 2k.
Te lo dico per rimettere inordine, diciamo le cose.
Vfx ci siamo entrati, stasuccedendo lentamente ed è più
uno strumento che ancorautilizzano i compositor.
(50:05):
Stessa cosa per il colorgrading Al suono.
Non te lo dico, nemmmmeno laquantità di plugin che esiste
oggi e che possono essereutilizzati.
Però il suono rimane ancora una.
Non voglio dire una cosa aparte, però è una setta
(50:31):
differente rispetto a quelli chelavorano l'immagine in generale
.
Tutti quelli che si occupano difabbricazione al limite sono un
po più preparati sull'immagine,che comunque rimane centrale, e
quindi sul suono è sempre vabbèfa, lui funziona.
Però ti posso dire che invece,quando entri realmente al
montaggio del suono, che è unacosa in cui non va mai nessuno.
(50:54):
Ti rendi conto che la loro vitaper certi versi è diventata
molto più facile grazie a tuttii plugin che sono inseriti e che
sono intelligenze artificiali,per cui oggi tu lo puoi vedere
molto più facilmente con unatecnologia tipo Adobe Podcast,
cioè puoi andare sul sitointernet di Adobe Podcast, lo
puoi usare anche gratuitamente,e tu gli dai un file qualunque,
(51:18):
audio o video, e lui tiripulisce completamente lo
sfondo e ti tira fuori un suonoestremamente pulito.
Questa cosa ce l'abbiamo già datanto tempo.
Sono dei filtri passo a bassoche comunque tagliano le
frequenze, ricostruiscono anchealtre cose.
Il passo successivo è questo,invece del doppiaggio che stiamo
avendo.
(51:39):
Io ricordo che ebbi a che farecon questa società ucraina che
aveva sviluppato un modello diaddestramento della voce che
permetteva erano riusciti arifare la voce di Carrie Fisher
dopo che era morta, su uno StarWars, per esempio, e quindi
dicevano avete la possibilitàeventualmente di sviluppare il
(52:03):
vostro modello per il vostrofilm, cioè noi vi facciamo
l'addestramento del modello perogni vostro film con le voci dei
vostri attori, e così dopo,quando vendete il film
all'internazionale, sai che noifacciamo una ricostruzione della
banda sonora.
Quando si fa un film esistequella che chiamiamo VO, la
(52:27):
versione originale, e quindidove ci sono tutte le voci, e
poi c'è una ricostruzionecompleta della versione
internazionale.
La versione internazionale èuna versione dove non ci sono i
dialoghi e quindi tu vedi tuttoil film con tutti gli attori che
parlano muti e sotto ci sonotutti i suoni.
E questo passaggio si fa unavolta che hai completiamo il
(52:51):
montaggio del suono del film eil mix del film.
Mentre fai il montaggio delsuono, costruisci anche questa
versione internazionale e unavolta che, finito il mix del
film, di solito dedichi l'ultimagiornata a fare il mix della
versione internazionale, che èla versione che tu vendi
all'estero in maniera tale chequando devono doppiare
appoggiano le voci sopra aquello che però è una base già
(53:15):
mixata, già fatta di tutto ilresto del film, che quindi ti
permette di essere molto piùefficace.
Questa versione internazionalediventerà sempre più facile
farla grazie alle AI e ora giàfacciamo il doppiaggio grazie
(53:35):
all'AI.
Prendiamo un modello che vieneaddestrato, dopodiché
registriamo una qualunquepersona che parla dicendo nella
sua lingua qualunque altra cosa,e utilizziamo la voce come
filtro, diciamo così,trasformando quindi la voce
registrata nella vocedell'attore.
Queste sono le due cose.
(53:56):
Ora stiamo andando ancora piùavanti, cioè ora generiamo
direttamente una voce che haquesto filtro applicato sopra e
che quindi viene generatadirettamente la voce dell'attore
nella lingua però didestinazione, il video.
Ci sono queste due, queste duedinamiche.
La cosa, che cosa?
che cosa succede?
(54:17):
che netflix sta mettendo, peresempio, in piedi la sua
piattaforma per autodoppiarsitutti i contenuti e quindi il
grande lavoro sarà quello ditirare fuori direttamente il
modello che il giorno dopo sullapiattaforma tu scegli la lingua
(54:41):
e l'intelligenza artificiale faautomaticamente il doppiaggio
questo significa anche cheun'intera parte dell'industria
perde il lavoro ho capito.
Sì, è vero, ma questo succede adogni rivoluzione tecnologica.
Quando abbiamo inventatol'autovettura, dopo che abbiamo
fatto gli stallieri, è evidenteche a un certo punto devi
(55:05):
traslare delle competenze.
Però ti dico, un'intera partescompare, però compariranno
tutti quelli che devono gestirequesta roba qui, perché non è
che funziona da sola.
Questo è il solito discorso.
Il problema è, se tu sei, faiparte di quel sotto insieme che
scompare, che chiaramente tipreoccupi perché dici però certo
(55:27):
, a me è capitato propriorecentemente.
Ti dico c'è incontrato unregista a marzo che mi ha detto
ah, vai, mio figlio sta andandoalla scuola, ha deciso di fare
la scuola per doppiatori.
Io ho guardato no, vai acambiare scuola, semplicemente
perché, voglio dire, diventa unlavoro in salita.
Ma anche lì ribadiscomediocrità.
(55:51):
Cioè se devi pensare a lavorosemplicemente per pagarti le
bollette, ok, forse non è ilcaso.
Non dimentichiamoci che idoppiatori sono anche dei grandi
attori e che tanti hannoportato al successo dei
(56:14):
personaggi stranieri o degliattori stranieri grazie al fatto
che la gente poi si abituava aidentificarli con quella voce.
Lì.
Il caso di Amendola in Italia èabbastanza clamoroso.
Quindi questa cosa non ci saràpiù.
Quindi perderemo quella cosa lì, quindi perderemo i picchi di
(56:34):
eccellenza.
Non so se a un certo puntointerverremo per difenderli e
per cui diremo ok, la categorianon ha più bisogno di essere
così grande, però ha bisognoinvece che ci siano delle vere,
(56:55):
come dire, punte di diamante.
Non lo so, è perché io insommapreferisco molto vedere, per
esempio oggi, un filmsottotitolato, per apprezzare la
recitazione di un attore apieno e quindi sentirlo nella
sua voce originale, nel momentoin cui tu mi dai il traduttore
(57:16):
universale di Star Trek e possosentire la sua voce originale,
con la sua interpretazione, chemantenga le sfumature della sua
interpretazione, e, allo stessotempo, in una lingua che io
posso comprendere, forse, forseè meglio quindi tu non pensi che
questo tipo di tecnologiasnaturi un po', diciamo,
(57:38):
un'interpretazione, perché ormaila qualità, come possiamo
vedere, è esattamente la stessa,cioè non noti la differenza da
un dubil problema è che lì facciamo un
passo indietro che riguardapiuttosto invece il linguaggio,
che comunque è uno strumentopure quello.
Però la difficoltà in termini dilinguaggio è la cadenza in
(58:03):
generale, perché comunque ognilingua ha un po' la sua.
Quindi io credo chel'interpretazione alla fine sia
anche data dall'utilizzo diquesto strumento e questo
purtroppo sfugge un po' in più.
Ora, per esempio, questoservizio fa una modifica anche
(58:25):
sulle labbra per permetterti diavere il lip sync capito.
Quindi comincia a esserci lamodifica non solo della voce ma
anche dell'immagine per farlematchare, e questa cosa quindi
io non so esattamente comeimpatterà sul lungo periodo
(58:52):
nella nostra percezione, nelsenso non sono sicurissimo che
vedere degli attori cheamericani che al posto di
recitare in inglese ci recitanoin italiano, ci darà la
possibilità di apprezzarli dipiù.
Non sono convintissimo, peròalmeno avremo con questo tipo di
(59:14):
tecnologia, però avremo lapossibilità di salvaguardare la
loro voce poi nel futuro, perchécomunque sono tutte NPL più le
fai, più l'algoritmo apprende,più la sua abilità aumenta.
Quindi probabilmente nel girodi pochissimo, perché quando ci
(59:38):
sarà un uso così su scala, cosìimportante, imparerà subito a
fare bene anche la cadenza el'intonazione.
Daniele Di Veroli (59:45):
Allora a quel
punto sarà indistinguibile
dall'originale e allora saràmeglio del doppiaggio se dovessi
consigliare ai nostriascoltatori un libro, un film su
questi temi, qua cioè perapprofondire questi temi, qua
dei contenuti che le personepossono trovare online o appunto
(01:00:06):
in libreria, su questi temi,cosa ti viene in mente, cosa
suggeriresti su questi temi?
cosa ti viene in mente?
cosa suggeriresti?
Riccardo Marchegiani (01:00:13):
io
ritornerei un po' a base di
tutti quanti leggere esseredigitali di necroponte.
La differenza che faceva frainfopoveri e inforicchi negli
anni 90 oggi sta diventandoancora più importante.
Lo vedo quando comunquecomincio a discutere con dei
colleghi di intelligenzaartificiale mi fanno no, no, io
(01:00:35):
non voglio si parlare di questecose, non vanno via esatto.
Daniele Di Veroli (01:00:43):
Io sostengo
sempre che è una tecnologia che
è al pari della ruota del fuocodella stampa a carattere mobile.
Riccardo Marchegiani (01:00:50):
Quantomeno
allora un po' meno nel senso
che comunque è data della stampaa carattere mobile, quantomeno
allora un po' meno nel senso checomunque è data da una
dipendenza, cioè nel senso checi sono un paio di grandissime
scoperte, prima che ti ricordicom'era Civilization, cioè la
mappa delle scoperte, per cuic'era, c'erano i collegamenti
l'una con l'altra.
Se non ci fosse stata internet,probabilmente non arrivavamo
(01:01:14):
così velocemente a questo tipodi di singolarità, che poi non è
neancora quella che stiamoaspettando tutti, dell'arrivo
dell'intelligenza artificialegenerale e su tutti, che oddio
arriva Skynet, moriremo tutti.
Però la questione èimpressionante il tipo di
(01:01:38):
automatizzazione che possiamoottenere nei processi da
colletto bianco, diciamo così,che stanno diventando al pari di
quelli che abbiamo avuto quandoc'è stata la rivoluzione
industriale per i colletti blu.
La cosa interessante sarà checomunque tutto questo, per
esempio gli LLM di cui noidiscutiamo tanto, sono i futuri
(01:02:04):
cervelli dei robot E quindiquando avremo le due cose
insieme e ci avremo quello chepuò fare i lavori da colletto
bianco e da colletto blu, quindidipenderà semplicemente da
quanto costa fabbricare emantenere il robot.
Daniele Di Veroli (01:02:17):
Insomma,
altre cose che vorresti
aggiungere.
Riccardo Marchegiani (01:02:19):
La cosa
interessante, diciamo adesso, a
parte tutto del del cinema,diciamo così, nello storytelling
, è l'idea che possiamo andare acrearci dei mondi completamente
autonomi.
Cioè voglio dire oggi,incredibilmente, io potrei
(01:02:40):
provare a dire a Chad GPT miracconti una favola, e lui la
farebbe probabilmente, e quellafavola esisterebbe solo per me.
Non ci sarebbero altre personeche l'avrebbero.
Quindi la cosa interessante èche in un mondo dove c'è la
lotta incredibile perl'attenzione e che massifica
(01:03:04):
tantissimo il prodotto percercare di arrivare a tutti, ci
ritroviamo che possiamo andare acreare dei prodotti su misura,
che sono solo per noi e che nonsaranno mai usufruiti da altri.
E diventa un po' complicato,messo in relazione al fatto che
(01:03:31):
non abbiamo poi più unacondivisione, già con le
piattaforme abbiamo perso ilpalinzesto, quindi l'idea di una
verticalità temporale che erauguale per tutti.
Quindi oggi che cosa succede?
che stabiliamo delle regole,per esempio quando ci sono gli
(01:03:51):
youtuber o comunque in generalei recensori della serie che
dicono tutti quanti, comunquebisognerebbe aspettare almeno
tre giorni prima di fare larecensione della serie che è
appena uscita, perché devo darea tutti il tempo di vederla.
O allora l'episodio nuovo, sicreano delle regole per dire non
posso fare gli spoiler troppopresto E quindi è interessante
(01:04:15):
questa cosa di dire quando puoifare gli spoiler o no?
Allora, tu pensa adesso cheabbiamo la possibilità di
crearci delle cose che cistaccano completamente dalla
comunione.
Quindi capito, da un latofacciamo di tutto per integrarci
sempre di più e poi peròcreiamo degli strumenti che ci
(01:04:38):
danno la possibilità dicompletamente separarci mi è
venuto in mente lo spot di Apple, dell'apple Vision Pro, cioè
del papà che sta alla festa deibambini con il caschetto e li
riprende.
Daniele Di Veroli (01:04:51):
Ok, dei
bambini con il caschetto, e li
riprende.
Riccardo Marchegiani (01:04:53):
Come vedi
la tecnologia VR applicata al
cinema e poi, più in generale,all'entertainment per me la VR è
l'ultima forma di audiovisivo,però insomma, io diciamo sono
cresciuto con, con Journal,ciberspazio, insomma, quindi
(01:05:17):
sono cresciuti libri, gibson,ecco, quindi per me la la vr
diventa l'elemento divisualizzazione della propria
navigazione di internet, èquella roba che ci dà l'accesso
al ciberspazio.
Con la VR arriviamo finalmenteal ciberspazio o al cyberspace,
(01:05:41):
come lo preferisci.
Questa cosa non ci avrei maicreduto di vederla nella mia
vita fino all'avvento deglialgoritmi generativi text to
video.
Quando vedo una roba del generemi dico forse fra poco ci
arriviamo.
Significa che, paradossalmente,zuckerberg per anni abbiamo
(01:06:03):
detto questo è troppo visionario, questa cosa di meta non andrà
da nessuna parte.
E invece no, ora si ha ragionelui, perché avremo la
possibilità di generare moltorapidamente le immagini e di
poterle vivere e quindichiaramente avremo la
possibilità di integrare.
(01:06:25):
Cioè, secondo me più facile larealtà virtuale che la realtà
aumentata oggi, mentre tre annifa diciamo il contrario.
Perché se andiamo con questotipo di scalabilità e di
velocità sul text to video, saràfacilissimo cominciare a creare
dei mondi diversivi in cuistare con direttamente il nostro
(01:06:48):
casco, dopodiché è chiaro chel'interazione con gli altri sarà
sempre dovuta a quanti caschiabbiamo previsto.
Anche lì meta, fatto la scorsasettimana la presentazione, i
prezzi sono estremamente piùvantaggiosi.
(01:07:09):
Oggi la partnership conluxottica per i Ray-Ban stanno
andando in una direzione moltointeressante, più di Apple,
paradossalmente, e questa cosaprobabilmente ci darà la
possibilità di avere questo tipodi incontro del ciberspazio
(01:07:34):
molto più rapidamente di quantonon credessi invece in termini
di produzione vera e propria,per esempio Venezia ha una
sezione immersiva, anche Cannesesiste un mercato già, come lo
vedi tu qua ci sono diversesocietà.
Io ho appena finito di lavorare,per esempio, una serie ho fatto
(01:07:56):
per una società di produzioneche fa parte di un conglomerato
dove la sua più interessanteazienda in realtà fa VR e hanno
vinto già diversi premi aVenezia, per esempio sul VR.
E hanno vinto già diversi premia Venezia, per esempio sul VR.
Però sono ancora moltospecifici, cioè è più per il B2B
(01:08:24):
che non per il B2C, quindi nonabbiamo ancora delle cose che
sono realmente per ilconsumatore finale.
Gli investimenti diventanosempre più importanti, però
ancora una volta, come ti avevodetto prima, il porno cominciamo
a vedere se prende nelladirezione della VR, perché se
(01:08:50):
funziona poi seguono tutte lealtre tecnologie.
Per riassumere molto brevemente, noi abbiamo tre grandi momenti
, che sono la preparazione, leriprese e la post-produzione.
Ti dico in riprese non ancoratanto, però nei due estremi,
cioè nella preparazione e nellapost-produzione, sta entrando
(01:09:11):
pesantemente sopra tutto questo,però c'è ancora prima e nella
post-produzione sta entrandopesantemente Sopra tutto questo,
però c'è ancora prima la parteeditoriale, cioè la scelta del
contenuto.
E ti dico lì paradossalmente ègià entrata da tanto, perché
quando cominciamo a fare dellescelte di contenuto che ci
(01:09:33):
vengono dettate da, lapercezione che si ha di come il
contenuto sarà ricevuto.
E tutto questo è fatto grazienon semplicemente a degli studi,
ma a delle analisi tramitealgoritmi, tale per cui, tutto
sommato, per esempio con idecisori più importanti, cioè
con Netflix o con Amazon, chesono le più grosse piattaforme
(01:09:56):
Paramount, sono tutti gli altri,però le due più grandi sono
quelle e tu ti deviriconfrontare circa ogni sei
mesi per capire qual è la lineaeditoriale.
Cioè non è più una lineaeditoriale che per dieci anni è
quella cosa, più o meno come èsempre stato prima, con certe
(01:10:17):
con certi produttori dicontenuti.
Hbo, tu sai che fa delle serietelevisive solo di un certo
livello, con un certo tipo dicostruzione, quindi non gli vai
nemmeno a presentare la sitcom,non so come dire.
Pate, per esempio, comedistributore, che comunque è un
grande creatore di contenuti inFrancia, ha due linee molto
(01:10:39):
semplici che sono film d'autoredi grande impatto sul pubblico o
grandi commedie di grandeimpatto sul pubblico.
Cioè c'è proprio queste duecose.
Quindi, se tu gli dici vogliofare un film di fantascienza,
loro ti dicono sì, ma perché seiun autore o perché fa ridere.
Non è nel senso dellafantascienza la cosa
interessante.
Hanno comunque un mercato molto, molto grande, quindi
(01:11:01):
chiaramente hanno flussi dacontrollare e quindi magari
stanno producendo tanto crime inuna parte del mondo che dicono
no, basta, lo stiamo facendotroppo lì, quindi ora cerchiamo
di fare i period di qua.
Ecco, questo è il discorso, siaper come sono appunto
apprezzati i contenuti e quindianalizzati questi apprezzamenti
(01:11:27):
e ti dicono guarda, adesso ciserve.
Questo quindi è moltocomplicato perché devi
semplicemente anticipare delletendenze che cambiano
costantemente.
Tutto qui.
Daniele Di Veroli (01:11:39):
Riccardo, io
ti ringrazio moltissimo del
tempo che ci hai dedicato.
Credo che anche per i nostriascoltatori sia stata una
chiacchierata estremamenteinteressante e ti ringrazio
ancora e vi do appuntamento allaprossima volta, al prossimo
episodio.
Grazie mille, grazie a tutti.