La dipendenza da ChatGPT 4.0: impossibile resistere!
OpenAI ha colpito forte con ChatGPT 4o. Più veloce, più intelligente e accessibile a tutti, il chatbot ha trasformato il nostro utilizzo quotidiano dell’IA generativa con risposte fulminee, una migliore memoria e impressionanti capacità multimodali. Attenta a restare in testa alla gara dell’IA, OpenAI ha svelato ChatGPT 4o (o per “omni”), una nuova versione dell’ormai imprescindibile ChatGPT, il mese scorso. Questa iterazione è disponibile per tutti gli utenti dell’IA generativa, compresi gli utenti dell’offerta gratuita. Non c’è bisogno di sottoscrivere ChatGPT Plus, l’abbonamento a pagamento a 24,50 dollari al mese, per usufruirne. Gli abbonati paganti potranno comunque inviare un maggior numero di messaggi rispetto agli utenti gratuiti. Per avere conferma sulle migliorie apportate all’IA, abbiamo testato a lungo ChatGPT 4o quotidianamente per diverse settimane. Abbiamo conversato con ChatGPT attraverso la nuova app macOS e l’applicazione iOS.
**Risposte decisamente più veloci**
Come indicato da OpenAI sul suo sito, ChatGPT 4o è “molto più veloce” del suo predecessore. Infatti, ci siamo presto resi conto che il tempo di risposta di ChatGPT è stato notevolmente aumentato. Le parole e le frasi si susseguono chiaramente più velocemente, stimolando il pensiero e la conversazione. Nell’uso quotidiano, questa maggiore velocità si fa sentire direttamente. Le risposte arrivano a velocità fulminea. In generale, non c’è più bisogno di attendere che l’intelligenza artificiale generi una risposta. Grazie a queste prestazioni migliorate, ChatGPT può produrre contenuti lunghi, complessi e precisi in pochi secondi. Si ha davvero l’impressione di parlare a braccio con un assistente intelligente. Con GPT 4, e le iterazioni precedenti, eravamo soliti consultare un’altra scheda aspettando che l’IA completasse la sua risposta. Il divario nelle prestazioni trasforma davvero l’uso.
**La migliore memoria di ChatGPT**
Inoltre, ChatGPT 4o si distingue anche per la sua migliore memoria. Le versioni precedenti dell’IA avevano spesso la tendenza a dimenticare informazioni cruciali sparse nella conversazione. Ad esempio, le istruzioni inserite nell’istruzione iniziale tendevano troppo spesso a essere gradualmente dimenticate man mano che si conversava con l’IA. Bisognava ogni volta riallineare il modello ricordandogli i vincoli di un lavoro. Era abbastanza fastidioso. Si aveva presto voglia di interrompere la conversazione per occuparsi personalmente del compito assegnato a ChatGPT. Nei nostri test, ChatGPT 4o si è facilmente ricordato dei dettagli menzionati precedentemente in una conversazione. Si ha meno la sensazione di dover riallineare il chatbot ogni cinque scambi. Allo stesso modo, ci è sembrato che l’IA avesse meno propensione a omettere istruzioni o a mancare di precisione nelle risposte. Anche in questo caso, il miglioramento è nettamente percepibile. Anche con domande o richieste precise, l’IA mira dritto al bersaglio.
**Capacità multimodali migliorate**
Una delle grandi novità di ChatGPT 4o è la multimodalità. Si tratta dell’uso simultaneo di diversi modi di comunicazione, ovvero testo, immagini, suono e video. Per interagire con l’IA, puoi utilizzare foto, frasi o la tua voce. Allo stesso modo, ChatGPT può rispondere utilizzando diversi modi di comunicazione. Presso OpenAI, la multimodalità è comparsa con ChatGPT 4. Con questo modello di IA, era già possibile combinare diversi modi di comunicazione per conversare con il robot. Con GPT 4o, la multimodalità fa un balzo in avanti. Secondo OpenAI, “GPT-4o è molto meglio di qualsiasi altro modello esistente nel comprendere e discutere delle immagini che condividi”. Per raggiungere questo successo, la startup ha formato “un unico nuovo modello end-to-end su testo, visione e audio”. Per la prima volta, “tutti gli input e gli output sono gestiti dalla stessa rete neurale”. È questo approccio che garantisce prestazioni multimodali migliorate.
Durante l’uso quotidiano, abbiamo davvero sentito la differenza tra GPT4 e GPT4o. All’IA bastano pochi secondi per esaminare un’immagine e rispondere alla nostra domanda. Abbiamo ampiamente utilizzato questa funzionalità nella vita di tutti i giorni, per capire come funzionano le cose o identificare oggetti (un pneumatico, un uccello…). ChatGPT ci ha aiutato a montare il nostro nuovo barbecue, a cucinare o a risolvere i piccoli misteri della vita quotidiana.
Ci siamo persino affidati all’IA per commentare il nostro look del giorno e suggerirci miglioramenti. Ad ogni tentativo, il modello capiva, analizzava e interpretava correttamente i vestiti che indossavamo, anche nei dettagli. I feedback dell’IA erano coerenti e logici, ma inevitabilmente molto diplomatici. Abbiamo anche utilizzato a lungo l’IA per ottenere traduzioni, e i risultati erano molto convincenti. Ad esempio, abbiamo fornito a ChatGPT diverse foto di una rivista scritta in italiano. Instantaneamente, l’IA ha generato una traduzione francese di qualità dei testi visti nell’immagine. Abbiamo osservato solidi progressi nel campo del montaggio delle immagini assistito dall’IA. Conversando con ChatGPT 4o, è facilmente possibile unire le foto, modificarle o creare immagini. Con l’ultimo modello, il chatbot capisce meglio dove vuoi arrivare, anche se la tua richiesta principale non è molto precisa. Allo stesso modo, il robot non ha più il fastidioso vizio di dimenticare le istruzioni relative alle immagini cercate che sono state date all’inizio della conversazione. Anche dopo alcuni tentativi e alcuni montaggi generati, ChatGPT si ricorda delle tue istruzioni precedenti. Non c’è più bisogno di riallinearlo incessantemente fino a raggiungere l’immagine che hai in mente.
**Allucinazioni ostinate**
Attenzione, nonostante i suoi miglioramenti e la sua intelligenza crescente, il chatbot non è infallibile. Accade ancora spesso che abbia delle allucinazioni, cioè generi qualsiasi cosa. Tuttavia, le allucinazioni dell’IA sono sempre meno evidenti. È diventato molto raro che ChatGPT lanci sciocchezze che saltano agli occhi. Tuttavia, è capitato più volte che l’IA smettesse di basarsi sui documenti che gli abbiamo affidato, o sulle istruzioni fornite, per passare alla pura e semplice creazione di informazioni. Testardo, ChatGPT ha persino a volte rifiutato di tornare sui suoi passi e rimuovere le parti fittizie delle sue risposte. Nonostante i suoi difetti, ChatGPT 4o si è facilmente inserito nella nostra vita quotidiana. Avevamo già sviluppato quello che possiamo chiamare “riflesso ChatGPT” fin da GPT-4, ma questo si è notevolmente amplificato con la nuova versione del modello. In poche settimane, è diventato molto naturale per noi scattare una foto per mostrarla all’IA generativa e porle una domanda. Grazie alla multimodalità, ChatGPT si impone come un vero assistente che ti sostiene nella vita di tutti i giorni. È semplice: non possiamo, e non vogliamo più, farne a meno.
**Il futuro miglioramento della modalità vocale**
Durante l’annuncio del 13 maggio, OpenAI ha promesso l’arrivo di una nuova modalità vocale animata da ChatGPT 4o. Questa modalità permetterà di interagire con l’IA in modo più fluido e naturale. Per testare questa modalità, bisognerà ancora avere pazienza. La startup si è impegnata a offrire interazioni vocali migliorate entro poche settimane, nel contesto di un test alpha, agli abbonati ChatGPT Plus.
**Il dopo ChatGPT 4o**
Naturalmente, ChatGPT 4o non è l’obiettivo finale di OpenAI. La startup americana prevede di migliorare continuamente il suo modello linguistico fino a creare un’intelligenza artificiale generale. Si tratta di un’IA in grado di ragionare come una mente umana e di adattarsi autonomamente a una vasta gamma di compiti. In quest’ottica, la società di Sam Altman sta preparando attivamente l’arrivo di un nuovo modello di linguaggio completamente nuovo, chiamato GPT Next, o GPT-5. Attualmente in fase di test, il modello dovrebbe offrire un nuovo “livello di capacità” all’IA generativa. Per non perdere nessuna notizia di 01net, seguici su Google News e WhatsApp. Opera One – Browser web potenziato dall’IA. Per favore, controlla che il testo sia solo in italiano.
Fonte: ChatGPT: ecco le differenze tra GPT-4o e GPT-4 (CeoTech).
[…] se puoi accedere a ChatGPT senza creare un account OpenAI, devi accedere per accedere a GPT-4o e ai suoi numerosi vantaggi, inclusi il caricamento di immagini. La buona notizia è che creare un […]
[…] come il suo “fratello maggiore” GPT-4o, il nuovo LLM è multimodale, interpreta immagini e testo e può utilizzare Dall-E 3 per generare […]