Spanish English French German Italian Portuguese
Social marketing
CasaTecnologiaIntelligenza artificialeOpenAI lancia un'API per ChatGPT e una capacità dedicata per le aziende

OpenAI lancia un'API per ChatGPT e una capacità dedicata per le aziende

Chiamare ChatGPT, l'intelligenza artificiale generatrice di testo gratuita sviluppata dalla startup OpenAI con sede a San Francisco, un successo è un eufemismo.

A dicembre, ChatGPT ha avuto un stima più di 100 milioni di utenti attivi mensili. Ha attirato l'attenzione dei media mainstream e ha generato innumerevoli meme sui social media. è stato utilizzato per scrivere centinaia di e-book nel Kindle Store di Amazon. Ed è accreditato almeno come coautore un articolo scientifico.

Ma OpenAI, essendo un'azienda, anche se con profitti limitati, ha dovuto monetizzare ChatGPT in qualche modo, in modo che gli investitori non si innervosissero. Ha compiuto un passo in questa direzione con il lancio di un servizio premium, ChatGPT Plus, a febbraio. Con l'introduzione di un'API che consentirà a qualsiasi azienda di incorporare la tecnologia ChatGPT nelle proprie app, siti Web, prodotti e servizi, è diventata molto più grande.

Un'API era sempre il piano. Questo secondo Greg Brockman, presidente e presidente di OpenAI (e anche uno dei co-fondatori).

"Ci vuole un po' di tempo per portare queste API a un certo livello di qualità", ha detto Brockman. "Penso che sia un po' come essere in grado di soddisfare la domanda e le dimensioni".

Brockman afferma che l'API ChatGPT è alimentata dallo stesso modello di intelligenza artificiale dietro il popolare ChatGPT di OpenAI, soprannominato "gpt-3.5-turbo". GPT-3.5 è il modello di generazione di testo più potente che OpenAI offre oggi attraverso il suo set di API; il soprannome "turbo" si riferisce a a modello più ottimizzato e più reattivo da GPT-3.5 che OpenAI ha tranquillamente testato per ChatGPT.

Con un prezzo di $ 0.002 per 1000 token, o circa 750 parole, Brockman afferma che l'API può alimentare una varietà di esperienze, comprese le app "non chat". Snap, Quizlet, Instacart e Shopify sono tra i primi ad adottare.

La motivazione iniziale alla base dello sviluppo di gpt-3.5-turbo potrebbe essere stata quella di ridurre gli enormi costi di elaborazione di ChatGPT. Il CEO di OpenAI Sam Altman una volta ha definito la spesa di ChatGPT "sbalorditiva" stimandoli a pochi centesimi per chat in costi informatici. (Con oltre un milione di utenti, presumibilmente ciò si somma rapidamente.)

Ma Brockman afferma che gpt-3.5-turbo è migliorato in altri modi.

“Se stai costruendo un tutor basato sull'intelligenza artificiale, non vuoi mai che il tutor dia solo una risposta allo studente. Vuoi che lo spieghi sempre e li aiuti a imparare: questo è un esempio del tipo di sistema che dovresti essere in grado di costruire [con l'API] ", ha detto Brockman. "Pensiamo che questo sarà qualcosa che renderà l'API molto più utile e accessibile."

L'API ChatGPT è la base di My AI, il chatbot recentemente annunciato da Snap per gli abbonati Snapchat+ e la nuova funzione di tutor virtuale Q-Chat di Quizlet. Shopify ha utilizzato l'API ChatGPT per creare un assistente personalizzato per i consigli sugli acquisti, mentre Instacart l'ha sfruttata per creare Ask Instacart, uno strumento imminente che consentirà ai clienti Instacart di chiedere informazioni sul cibo e ottenere risposte "acquistabili" informate dai dati del prodotto. negozio. partner.

"Fare la spesa può essere piuttosto impegnativo dal punto di vista mentale, con molti fattori in gioco, tra cui budget, salute e alimentazione, gusti personali, stagionalità, abilità culinarie, tempo di preparazione e ispirazione per le ricette", ha affermato JJ Zhuang, capo architetto di Instacart. “E se l'intelligenza artificiale potesse assumersi quel carico cerebrale e potessimo aiutare i capifamiglia che sono comunemente responsabili della spesa, della pianificazione dei pasti e della messa del cibo in tavola, e in realtà fare la spesa, sono davvero divertenti? Il sistema AI di Instacart, se integrato con ChatGPT di OpenAI, ci consentirà di fare esattamente questo e siamo entusiasti di iniziare a sperimentare ciò che è possibile fare con l'app Instacart".

Chiedi a Instacart OpenAI ChatGPT

Crediti immagine: Instacart

Tuttavia, coloro che hanno seguito da vicino la saga di ChatGPT potrebbero chiedersi se sia pronto per il rilascio, e con buone ragioni.

All'inizio, gli utenti potevano chiedere a ChatGPT di rispondere a domande distorte razzista e sessista, un riflesso dei dati su cui ChatGPT è stato inizialmente addestrato. (I dati di addestramento di ChatGPT includono un'ampia gamma di contenuti Internet, vale a dire eBook, post di Reddit e articoli di Wikipedia.) ChatGPT inventa anche fatti senza rivelare cosa sta facendo, un fenomeno nell'IA noto come allucinazione.

ChatGPT e sistemi simili sono anche suscettibili di attacchi basati su pubblicità o annunci contraddittori dannosi che li costringono a eseguire attività che non facevano parte dei loro obiettivi originali. intere comunità su Reddit si sono formati cercando modi per eseguire il jailbreak di ChatGPT e aggirare qualsiasi protezione implementata da OpenAI. In uno degli esempi meno offensivi, un membro dello staff della startup Scale AI è stato in grado di creare ChatGPT divulgare informazioni sul suo funzionamento tecnico interno.

I marchi di certo non vorrebbero essere presi nel mirino. Brockman è convinto che non lo saranno. Perché? Uno dei motivi, afferma, sono i continui miglioramenti del back-end, in alcuni casi a spese dei lavoratori a contratto kenioti. Ma Brockman ha enfatizzato un approccio nuovo (e decisamente meno controverso) che OpenAI chiama Chat Markup Language, o ChatML. ChatML invia il testo all'API ChatGPT come flusso di messaggi insieme ai metadati. Questo è l'opposto di ChatGPT standard, che consuma testo non elaborato rappresentato come una serie di token. (La parola "fantastico" sarebbe suddivisa in "fan", "tas" e "tico", per esempio.)

Ad esempio, alla domanda "Quali sono alcune fantastiche idee per le feste per il mio trentesimo compleanno?" uno sviluppatore può scegliere di aggiungere quel messaggio con un messaggio aggiuntivo come "Sei un divertente chatbot conversazionale progettato per aiutare gli utenti con le domande che pongono. Devi rispondere onestamente e in modo divertente!” o "Sei un bot" prima che l'API ChatGPT lo elabori. Queste istruzioni aiutano a personalizzare e filtrare meglio le risposte dal modello ChatGPT, secondo Brockman.

“Stiamo passando a un'API di livello superiore. Se hai un modo più strutturato di rappresentare l'input, dove dice "questo è dello sviluppatore" o "questo è dell'utente". Devo sperare che come sviluppatore possa effettivamente essere più robusto. [utilizzando ChatML] contro questi tipi di attacchi rapidi", ha affermato Brockman.

Un altro cambiamento che (si spera) impedirà il comportamento indesiderato di ChatGPT sono gli aggiornamenti del modello più frequenti. Con il rilascio di gpt-3.5-turbo, gli sviluppatori eseguiranno automaticamente l'aggiornamento all'ultimo modello stabile OpenAI per impostazione predefinita, afferma Brockman, a partire da gpt-3.5-turbo-0301 (rilasciato oggi). Tuttavia, gli sviluppatori avranno la possibilità di attenersi a un modello precedente se lo desiderano, il che potrebbe annullare un po' il vantaggio.

Indipendentemente dal fatto che scelgano di passare al modello più recente o meno, Brockman osserva che alcuni clienti, principalmente grandi aziende con budget altrettanto elevati, avranno un controllo più approfondito sulle prestazioni del sistema con l'introduzione di piani di capacità dedicati. Dettagliato per la prima volta nella documentazione trapelata all'inizio di questo mese, i piani di capacità dedicata OpenAI, rilasciati oggi, consentono ai clienti di pagare un'indennità di infrastruttura di calcolo per eseguire un modello OpenAI, ad esempio gpt-3.5-Turbo. (A proposito, è Azure sul back-end.)

Oltre al "controllo completo" sul carico dell'istanza (le chiamate API OpenAI vengono in genere effettuate su risorse di calcolo condivise), la capacità dedicata offre ai clienti la possibilità di abilitare funzionalità come limiti di contesto più lunghi. I limiti di contesto si riferiscono al testo che il modello considera prima di generare testo aggiuntivo; confini di contesto più lunghi consentono al modello di "ricordare" essenzialmente più testo. Sebbene limiti di contesto più elevati potrebbero non risolvere tutti i problemi di distorsione e tossicità, potrebbero portare modelli come gpt-3.5-turbo a avere meno allucinazioni.

Brockman afferma che i clienti con capacità dedicata possono aspettarsi modelli gpt-3.5-turbo con una finestra di contesto fino a 16k, il che significa che possono accettare un numero di token quattro volte superiore rispetto al modello ChatGPT standard. Che potrebbe consentire a qualcuno di incollare pagine e pagine di codice fiscale e ottenere risposte ragionevoli dal modello, diciamo così, impresa oggi non possibile.

Brockman ha accennato a un rilascio generale in futuro, ma non presto.

"Le finestre di contesto stanno iniziando a diventare più grandi e parte del motivo per cui ora siamo solo clienti di capacità dedicata è perché ci sono molti compromessi in termini di prestazioni dalla nostra parte", ha affermato Brockman. "Alla fine potremmo offrire una versione su richiesta della stessa cosa."

Data la crescente pressione su OpenAI per realizzare un profitto dopo un investimento multimiliardario da parte di Microsoft, non sarebbe molto sorprendente.

IMPARENTATO

Lascia un commento

Inserisci il tuo commento!
Per favore inserisci il tuo nome qui

La moderazione dei commenti è abilitata. Il tuo commento potrebbe richiedere del tempo per apparire.

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati dei tuoi commenti.

ISCRIVITI A TRPLANE.COM

Pubblica su TRPlane.com

Se hai una storia interessante su trasformazione, IT, digitale, ecc. che puoi trovare su TRPlane.com, inviacela e la condivideremo con l'intera Community.

ALTRE PUBBLICAZIONI

Attivare le notifiche OK No grazie