Episode Transcript
Available transcripts are automatically generated. Complete accuracy is not guaranteed.
Speaker 1 (00:06):
Ciao, sono Kevin, il
tuo ospite per il Disruptive
Talks.
Noi parliamo di tecnologiaemergente e disetetica.
L'episodio che vi stai perascoltare è una versione audio
di una live che abbiamo fattosui nostri canali.
Per rimanere aggiornato,partecipare ai live e, nel caso
lo vuoi, prendere la parola, tibasta abbonarti al canale
(00:55):
YouTube Disruptive Talks Podcasto ai altri social per rimanere
aggiorn.
Buon ascolto.
Io non faccio fast news, quindiil mio obiettivo non è di
raccontarvi le notizie, maandiamo a fare qualcosa di
simpatico.
Primo, vi faccio un elenco diqueste notizie perché secondo me
stanno configurando il futurodell'IA e di attori chiave.
(01:16):
Quindi questo sarà un focus suChargpt 4.0, il 4.0, non so come
si dice il nuovo modello diOpenAI, ma andiamo comunque a
iniziare proprio, vi dicevo, conquesta settimana.
Allora, questa settimana cosa èsuccesso?
E' folle, perché queste duesocietà, google e OpenAI, hanno
lanciato proprio degli annunciche stanno configurando una
(01:39):
guerra tra queste due.
E prima di andare su GPT 4.0,vedere le notizie e fare un test
insieme, andiamo a vederequalche novità.
Vi racconto le notizie diGoogle, che stanno configurando
proprio una guerra frontale.
Cosa hanno detto Google?
hanno fatto un evento.
Condividero, se lo richiedete,qualche video sul nostro Twitter
(02:02):
, sui nostri social.
Primo, il modello base.
Gemini 1.5 pro diventa piùperformante.
Vi avevo spiegato la finestradi token.
La finestra di token passa daun milione a due milioni, è
duplicato, quindi questo èl'aumento della quantità di dati
che possono essere elaborati.
Un punto chiave èl'integrazione proprio
(02:25):
dell'intelligenza artificiale sututti i prodotti Google, che
sia anche nel motore di ricercaGoogle Search, o su tutte le
Google Gmail Drive, sheets, docse tutto quanti.
E lì arriviamo sui servizi, iprodotti.
Hanno presentato Astra, chesarà il concorrente del GPT
Vision, quindi permette diinteragire in tempo reale con
(02:46):
l'IA attraverso la video.
Hanno presentato Imagen 3, ilconcorrente di DALI 3, per la
generazione di immagini ultrarealistiche.
Hanno presentato Veo, ilconcorrente di Sora, per la
generazione di video realistiche.
Hanno presentato MusicFX, unstrumento di generazione di
musica.
Hanno presentato GEMS percreare i bot AI, un po' come i
(03:10):
GPT personalizzati.
Hanno mostrato come Gemini saràanche integrato nei telefoni
Android e mi fermo qui perché fatanto.
Ma hanno anche mostrato,presentato LearnLM, che è un IA
per automatizzare l'istruzione ela scolarità.
Quindi questo era tutto.
Questa settimana, in parallela,in inizio di settimana OpenAI
(03:34):
ha presentato il suo nuovomodello GPT-4O.
Quindi, in fronte dei notizi diGoogle, cosa propone questo
nuovo modello?
Allora una cosa davvero ègratuito per tutto.
Quindi aveva creato un modelloun po' ibrido, all'inizio
(03:54):
gratuito, dopo con un modellodove tu devi pagare e se superi
una certa quota quantità devipagare di più all'uso.
Quindi adesso 80-90% dellefunzionalità sono disponibili
gratuitamente a tutti.
Certo, avete sempre un quota.
Se supera questo quota dovraiandare sulla versione plus e
questa versione plus rimane perle nuove funzionalità.
(04:18):
Quindi ogni volta adesso cheOpenAI va a rilasciare una nuova
funzionalità, sarà disponibilein primis per gli utenti plus.
Grande novità che vi presentodopo in live testing
l'iterazione audio e video intempo reale.
Questo è per la gestione diconversazioni in tempo reale
attraverso la modalità audio evideo con rilevazione e
(04:40):
interpretazione delleespressioni facciali.
Rilevazione e interpretazionedelle espressioni facciali.
Allora lì vi mostro unavideopromo che hanno fatto
durante il loro evento di OpenAI.
Su questa cosa vediamo.
Speaker 2 (04:53):
Quindi la prossima è
da BurritoJohn78 che chiede puoi
dire cosa stai sentendo sologuardando il tuo viso?
Speaker 3 (05:04):
Barrett, vuoi provare
questa?
Assolutamente proviamola.
Ciao, ChatGPT.
Speaker 2 (05:10):
Ciao, cosa succede?
Come posso raffreddare il tuogiorno?
Speaker 3 (05:13):
Ok, sì, quindi vi
mostrerò una foto di come mi
vedo e poi vorrei che provassi avedere che emozioni sento.
Una foto di come mi vedo e poivorrei che vi vedessero vedere
le emozioni che mi sento a base,di come mi vedo, suona come un
gioco divertente.
Speaker 2 (05:23):
Andate a mostrarmi
quella foto e io metterò il mio
capo di detectivo emozionale.
Speaker 3 (05:27):
Ok, quindi qui sono
io.
Quindi che tipo di emozionipensate che mi sento?
Hmm, sembra che stia guardandouna foto di una superficie di
luce.
Oh, hmm, sembra che stiaguardando una foto di una
superficie di forno.
Oh, sai cosa?
Quella è la cosa che ti homesso prima.
Non preoccuparti, non sonodavvero una tavola.
Ok, quindi prendi un altro look.
Speaker 2 (05:45):
Ah, questo fa più
senso.
Ah, ecco, sembra che stiasentendo un po' felice e felice,
con un grande smile e forseanche un tocco di entusiasmo,
cosa che sta succedendo.
Sembra che tu stia in un buonmood.
Vuoi condividere la sede diqueste buone pippe.
Speaker 3 (06:02):
Sì, no, la ragione
per cui sono in un buon mood è
perché stiamo facendo unapresentazione che mostra quanto
sei utile e incredibile.
Speaker 1 (06:09):
Oh, stop it, stai
facendo mi bloccare allora
questo chiaramente è uno deivideo che mi ha il più
impressionato.
Quindi vi mostro una delleultime.
Non solo che queste interazionisono umane e lei risponde in
modo fluente e vai, come l'avetevisto sull'ultima risposta.
Non solo quello, ma anche ingrado di riconoscere
(06:31):
l'espressione fasciale, quindidice tu sembri api perché lui
sta sorridendo.
Quindi ecco queste interazionifaciali, video molto, molto,
molto sviluppate.
E non c'entra niente con Siri ocon Alexa, ad esempio per Mac,
(06:53):
e proprio andiamo a usare questodopo per parlare insieme.
Andiamo a fare un test diquesta nuova funzionalità video.
C'è un tempo di rispostamigliorato.
Sulla video che avete visto nonce ne sono editing.
Allora ho fatto qualche test,dipende un po' di ogni tanto
(07:15):
rimane comunque il tempo che larichiesta va sul cloud, ritorna.
Mette un po' di tempo, quindidipende, ma davvero si nota
sulla versione testo, davvero ladifferenza è abbastanza
importante.
C'è anche un supportomultilingue esteso, quindi
adesso fino a 50 lingue sonocoperte da chat, gpt e copre
circa 97% della popolazione,quindi.
(07:36):
E servizi API le ultimeversioni non disponibili tramite
API, lì anche questa versione èdisponibile per creare i
servizi e oltre.
E così si conclude questapillola.
Come te lo dicevo all'inizio,c'è il nostro canale youtube sul
(07:58):
quale ritroverai tutte questepillole e la newsletter per una
versione pulita, senza accentodi francese.
Ti ricordo, noi parliamo ditecnologie, loro effetto sulla
società, e anche di seteticaspirito critico, scepticismo
scientifico.
Siamo live una volta a duevolte a settimane.
E anche disetetica spiritocritico, scepticismo scientifico
(08:19):
.
Siamo live una volta a duevolte a settimana e speriamo di
avere un po' di interazione perle persone che ci seguono in
live.
Quindi, non esitare, abbonati asocial per vedere prima di
essere in live.
Mettiamo un post, generalmentela mattina, per dirti a che ora
siamo in live, e l'obiettivo diquesti live è anche raccogliere
(08:39):
domande o spunti, aprire altrediscussioni.
Io avrò sempre dei temi daraccontare, ma anche tu li puoi
condividere, correggermi quandoci sono degli errori,
approfondire o dare il tuo puntodi vista.
Ecco, c'è anche un spazio perte se tutte queste cose ti
(09:05):
piacciono.
Blockchain, intelligenzaartificiale, fantascienza, film,
serie.
Sei curioso?
Vieni e ne parliamo.
Dai un abbraccio a tutti.
Ciao, ciao, ciao.
Grazie a tutti.