Le 5 migliori nuove funzionalità GPT-4

da | Siti web e servizi online

OpenAI ha finalmente lanciato il suo tanto atteso aggiornamento GPT, GPT-4. Il Large Language Model (LLM) viene fornito con alcune nuove potenti funzionalità e capacità che hanno già scioccato gli utenti di tutto il mondo.

Oltre ad essere significativamente migliore di GPT-3.5, l’LLM esistente che alimenta il chatbot virale ChatGPT di OpenAI, GPT-4 può comprendere input più complessi, ha un limite di input di caratteri molto più ampio, ha capacità multimodali ed è riferito, è più sicuro da usare.

GPT-4 può comprendere input più complessi

Una delle più grandi nuove funzionalità di GPT-4 è la sua capacità di comprendere prompt più complessi e sfumati. Secondo OpenAI , GPT-4 “mostra prestazioni a livello umano su vari benchmark professionali e accademici”.

Ciò è stato dimostrato sottoponendo GPT-4 a diversi esami a livello umano e test standardizzati, come SAT, BAR e GRE, senza una formazione specifica. Non solo GTP-4 ha compreso e risolto questi test con un punteggio relativamente alto su tutta la linea, ma ha anche battuto ogni volta il suo predecessore, GPT-3.5.

La capacità di comprendere richieste di input più sfumate è anche aiutata dal fatto che GPT-4 ha un limite di parole molto più ampio. Il nuovo modello può gestire richieste di input fino a 25.000 parole (per il contesto, GPT-3.5 era limitato a 8.000 parole). Ciò influenzerà direttamente i dettagli che gli utenti possono inserire nei loro prompt, fornendo quindi al modello molte più informazioni con cui lavorare e producendo output più lunghi.

GPT-4 supporta anche oltre 26 lingue, incluse lingue con poche risorse come lettone, gallese e swahili. Se confrontato con la precisione a tre colpi sul benchmark MMLU, GPT-4 ha battuto GPT-3.5 e altri importanti LLM come PaLM e Chinchilla in termini di prestazioni in lingua inglese in 24 lingue.

Capacità multimodali

La versione precedente di ChatGPT era limitata ai soli messaggi di testo . Al contrario, una delle funzionalità più recenti di GPT-4 sono le sue capacità multimodali. Il modello può accettare messaggi di testo e immagini.

Ciò significa che l’intelligenza artificiale può accettare un’immagine come input e interpretarla e comprenderla proprio come un messaggio di testo. Questa funzionalità copre tutte le dimensioni e i tipi di immagini e testo, inclusi documenti che combinano i due, schizzi disegnati a mano e persino schermate.

Maggiore manovrabilità

OpenAI afferma inoltre che GPT-4 ha un alto grado di manovrabilità. Ha anche reso più difficile per l’IA rompere il personaggio, il che significa che è meno probabile che fallisca se implementato in un’app per interpretare un determinato personaggio.

Gli sviluppatori possono prescrivere lo stile e il compito della loro intelligenza artificiale descrivendo la direzione nel messaggio “sistema”. Questi messaggi consentono agli utenti dell’API di personalizzare pesantemente l’esperienza utente entro determinati limiti. Poiché questi messaggi sono anche il modo più semplice per eseguire il “jailbreak” del modello, stanno anche lavorando per renderli più sicuri. La demo per GPT-4 ha centrato questo punto convincendo un utente a cercare di impedire a GPT-4 di essere un tutor socratico e rispondere alla sua domanda. Tuttavia, il modello ha rifiutato di rompere il personaggio.

Sicurezza

OpenAI ha impiegato sei mesi per rendere GPT-4 più sicuro e allineato . La società afferma che è l’82% in meno di probabilità di rispondere a richieste di contenuti inappropriati o altrimenti non consentiti, il 29% in più di probabilità di rispondere in conformità con le politiche di OpenAI a richieste sensibili e il 40% in più di probabilità di produrre risposte fattuali rispetto a GPT-3.5 .

Non è perfetto e puoi ancora aspettarti che di tanto in tanto “abbia allucinazioni” e puoi sbagliare nelle sue previsioni. Certo, GPT-4 ha percezioni e potere di previsione migliori, ma non dovresti comunque fidarti ciecamente dell’IA.

Miglioramenti delle prestazioni

Oltre a valutare le prestazioni del modello sugli esami umani, OpenAI ha anche valutato il bot su benchmark tradizionali progettati per modelli di machine learning.

Afferma che GPT-4 “supera notevolmente” gli LLM esistenti e “la maggior parte dei modelli all’avanguardia”. Questi benchmark includono il già citato MMLU, AI2 Reasoning Challenge (ARC), WinoGrande, HumanEval e Drop, che mettono tutti alla prova le capacità individuali.

Troverai risultati simili confrontando le prestazioni sui benchmark della visione accademica. I test eseguiti includono VQAv2, TextVQA, ChartQA, AI2 Diagram (AI2D), DocVQA, Infographic VQA, TVQA e LSMDC, tutti con GPT-4 in cima. Tuttavia, OpenAI ha affermato che i risultati di GPT-4 in questi test “non rappresentano appieno l’estensione delle sue capacità” poiché i ricercatori continuano a trovare cose nuove e più impegnative che il modello può affrontare.

Conclusioni

Con maggiore precisione, sicurezza d’uso e funzionalità avanzate, GPT-4 è stato rilasciato al pubblico tramite il piano di abbonamento mensile ChatGPT+. Inoltre, OpenAI ha collaborato con diverse organizzazioni per iniziare a creare prodotti rivolti ai consumatori con GPT-4. Microsoft Bing, Duolingo, Stripe, Be My Eyes e Khan Academy, tra gli altri, hanno già implementato GPT-4 nei loro prodotti.

GPT-4 potrebbe essere un aggiornamento incrementale rispetto a GPT-3.5, ma è una grande vittoria per l’IA in generale. Man mano che il modello diventa più accessibile, sia per l’utente medio che per gli sviluppatori attraverso la sua API, sembra che sarà un buon caso per le implementazioni LLM in tutti i campi.

Seguici su Facebook

Segui la nostra pagina ufficiale su Facebook per rimanere sempre informato sui nostri ultimi articoli pubblicati.

Seguici su Telegram

Ricevi su Telegram aggiornamenti sui nostri nuovi articoli sul mondo della tecnologia.

Segui il nostro canale Whatsapp.

Continua a rimanere informato sul mondo della tecnologia seguendo in nostro canale Whatsapp.