fbpx

ChatGPT diventa più umano grazie al nuovo modello GPT-4o: ora vede, sente e parla!

Dialogare con ChatGPT diventa molto più veloce e naturale grazie al nuovo modello GPT-4o, capace di elaborare testo, immagini/video e audio in un tempo simile a quello di risposta umana in una conversazione.

gpt-4o

Ieri, lunedì 13 maggio, OpenAI ha lanciato GPT-4o, una nuova versione del famoso modello che alimenta ChatGPT.

Il modello aggiornato, che sarà disponibile anche per gli utenti non abbonati, è “notevolmente più rapido“, oltre che più capace ed “empatico”.

Con GPT-4o, il chatbot ha tratti più umani

Mira Murati, CTO di OpenAI, ha spiegato come la “o” del nome stia per “omni“, indicando i progressi nel campo multimodale e le migliorate “abilità nel trattare testi, video e audio”. In sostanza, il nuovo modello integra più modalità di input per elaborare e generare informazioni.

Con GPT-4o la Modalità Voce di ChatGPT, che consente di dialogare con l’assistente, è affidata a un unico nuovo sottomodello multimodale capace di gestire testo, immagini/video e audio. Quindi tutti gli input e gli output sono elaborati dalla stessa rete neurale, al contrario delle GPT precedenti dove la Modalità era composta da tre modelli separati ed un processo molto meno immediato di generazione di risposta.

Nello specifico il chatbot è in grado di rispondere agli input audio in appena 232 millisecondi, con una media di 320 millisecondi, un tempo simile a quello di risposta umana in una conversazione.

Ma non è tutto, con GPT-4o ChatGPT riesce ad acquisire tratti più umani, riuscendo ad esempio a modificare a comando l’espressività e l’enfasi nella propria voce o a descrivere ciò che vede oppure a risolvere calcoli matematici. Inoltre, ora la Modalità Voce può essere interrotta mentre il chatbot sta parlando, per esempio integrando la precedente richiesta con nuove informazioni o cambiando completamente argomento.

Ulteriori novità ChatGPT

Nel corso dell’evento Springs Update di ieri, sono state presentate anche un’inedita app per MacOS del chatbot e un’interfaccia grafica rinnovata per l’applicazione web.

La nuova app sarà disponibile inizialmente solo per gli utenti Plus e permetterà di condividere con ChatGPT anche parte dello schermo del PC per effettuare un’analisi dei dati mostrati, o incollare il testo per permettere al chatbot di elaborare informazioni al riguardo.

Quanto alle API di GPT-4o, queste sono state descritte come 2 volte più veloci, il 50% più economiche, e con un limite di richieste 5 volte superiore rispetto a GPT-4 Turbo.

GPT-4o distribuzione e funzioni gratuite

Le funzionalità di testo e immagini di GPT-4o sono già in fase di distribuzione. Il rilascio della nuova Modalità Voce con GPT-4o arriverà nelle prossime settimane con una versione alfa solo per ChatGPT Plus, quindi riservata agli utenti a pagamento.

Tuttavia, anche se usi ChatGPT gratuitamente, potrai utilizzare il modello GPT-4o, con la possibilità di accedere a Internet tramite la funzionalità “Browse with Bing”.

In sostanza, senza sborsare un euro, potrai:

  • analizzare dati e grafici in documenti allegati come PDF, txt, ppt, doc, xlx e csv;
  • inviare immagini al chatbot come input; 
  • caricare file per elaborarli;
  • accedere alla Memoria di ChatGPT, che quindi ricorderà gli argomenti affrontati con l’utente.

E per finire, c’è un’ottima novità sul GPT Store, ovvero il negozio online degli assistenti digitali basati su ChatGPT dove trovare gli Agenti GPT realizzati da altri utenti per scopi specifici. Ebbene, non è più un’esclusiva degli utenti Plus, ma è aperto a tutti!



Da non perdere

0 0 voti
Valuta l'articolo
Iscriviti
Notificami
guest
0 Commenti
Inline Feedbacks
Mostra tutti i commenti

Seguici sui nostri social

358,866FansLike
52,045FollowersFollow
23,935FollowersFollow

Ricevi le offerte in anteprima

Novità

0
Facci sapere che cosa ne pensi!x