Economia Digitale

OpenAi Dev Day, ecco tutto quello che c’è da sapere

Annunciati quattro strumenti per gli sviluppatori. Nessun nuovo chatbot.

di Luca Tremolada

FILE PHOTO: A keyboard is placed in front of a displayed OpenAI logo in this illustration taken February 21, 2023. REUTERS/Dado Ruvic/Illustration/File Photo

3' di lettura

3' di lettura

OpenAI in occasione del suo evento dedicato agli sviluppatori ha annunciato alcuni nuovi tool studiati per per semplificare la creazione di app AI avanzate. Nessun nuovo LLM come invece ci si attendeva ma strumenti che aggiornano funzionalità esistenti. Quattro i tool presentati, andiamo in ordine. API Realtime consente di integrare esperienze multimodali a bassa latenza nelle app, con conversazioni speech-to-speech. Poi viene offerta una modalità fine-tuning di GPT-4o con immagini e testo. In pratica si aprono nuove possibilità per la ricerca visiva, il rilevamento di oggetti e l’analisi di immagini biomediche. Prompt Caching riduce costi e latenza del 50% per gli sviluppatori. E Model Distillation Suite che aiuta a creare modelli più piccoli ed efficienti, eguagliando le prestazioni di modelli più grandi a costi inferiori. Vediamo come funzionano.

Loading...

Api Realtime per i servizi voce.

E’ pensato per la modalità vocale. In precedenza, per creare un’esperienza di assistente vocale simile, gli sviluppatori dovevano trascrivere l’audio con un modello di riconoscimento vocale automatico come Whisper , passare il testo a un modello di testo per l’inferenza o il ragionamento e quindi riprodurre l’output del modello utilizzando un testo in voce. Secondo OpenAi la Realtime API migliora questo processo trasmettendo direttamente input e output audio, consentendo esperienze di conversazione più naturali. Può anche gestire automaticamente le interruzioni, proprio come la modalità Advanced Voice in ChatGPT.

Loading...

I prezzi per usare Gpt-40

Modalità Fine Tuning per Gpt-4o

In pratica gli sviluppatori possono ottimizzare Gpt 4o con immagini e testo. Vediamo cosa cambia per le immagini. La messa a punto della visione segue un processo simile alla messa a punto del testo: gli sviluppatori possono preparare i loro set di dati di immagini in modo che seguano il formato corretto e quindi caricare quel set di dati sulla nostra piattaforma. Secondo OpenAi ora gli sviluppatori possono migliorare le prestazioni di GPT-4o per le attività visive con appena 100 immagini e ottenere prestazioni ancora più elevate con volumi maggiori di dati di testo e immagini.

I prezzi di 01-Preview

Prompt Caching, sconti automatici sulle domande

Si offrono sconti automatici sugli input che il modello ha visto di recente. Molti sviluppatori, si legge nel sito, usano ripetutamente lo stesso contesto su più chiamate API quando creano applicazioni AI, come quando apportano modifiche a una base di codice o hanno lunghe conversazioni multi-turn con un chatbot. Con Prompt Caching promettono di ridurre costi e latenza. Riutilizzando i token di input visti di recente, gli sviluppatori possono ottenere uno sconto del 50% e tempi di elaborazione dei prompt più rapidi.

Cosa è la distillazione del modello?

Model Distillation Suite ottimizza un modello conveniente con gli output di un modello di frontiera di grandi dimensioni, tutto sulla piattaforma OpenAI. Detto in altre parole, aiuta a creare modelli più piccoli ed efficienti, eguagliando le prestazioni di modelli più grandi a costi inferiori. Vuole dire potere utilizzare facilmente gli output di modelli di frontiera come o1-preview e GPT-4o per ottimizzare e migliorare le prestazioni di modelli più convenienti come GPT-4o mini. OpenAi ha anche dichiarato che sta offrendo 2 milioni di token di formazione gratuiti al giorno su GPT-4o mini e 1 milione di token di formazione gratuiti al giorno su GPT-4o fino al 31 ottobre per aiutare gli sviluppatori a iniziare con la distillazione. Oltre tale limite, il costo di formazione ed esecuzione di un modello distillato è lo stesso dei nostri prezzi di fine-tuning standard, che puoi trovare sulla pagina dei prezzi API .

Riproduzione riservata ©
  • Luca Tremolada

    Luca TremoladaGiornalista

    Luogo: Milano via Monte Rosa 91

    Lingue parlate: Inglese, Francese

    Argomenti: Tecnologia, scienza, finanza, startup, dati

    Premi: Premio Gabriele Lanfredini sull’informazione; Premio giornalistico State Street, categoria "Innovation"; DStars 2019, categoria journalism

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti