Spanish English French German Italian Portuguese
Soziales Marketing
HomeRecycelbare TechnologieKünstliche IntelligenzOpenAI führt eine API für ChatGPT und dedizierte Kapazitäten für Unternehmen ein

OpenAI führt eine API für ChatGPT und dedizierte Kapazitäten für Unternehmen ein

ChatGPT, die vom in San Francisco ansässigen Startup OpenAI entwickelte KI zur Generierung von Freitexten, als Erfolg zu bezeichnen, ist eine Untertreibung.

Im Dezember hatte ChatGPT eine schätzen mehr als 100 Millionen monatlich aktive Benutzer. Es erregte die Aufmerksamkeit der Mainstream-Medien und brachte unzählige Memes in den sozialen Medien hervor. verwendet wurde schreiben Hunderte von E-Books im Kindle-Shop von Amazon. Und ihm wird zumindest das Co-Authoring zugeschrieben ein wissenschaftlicher Artikel.

Aber OpenAI, ein Unternehmen, wenn auch mit begrenzten Gewinnen, musste ChatGPT irgendwie monetarisieren, damit die Investoren nicht nervös wurden. Mit der Einführung eines Premium-Dienstes, ChatGPT Plus, im Februar wurde ein Schritt in diese Richtung getan. Durch die Einführung einer API, die es jedem Unternehmen ermöglicht, die ChatGPT-Technologie in seine Apps, Websites, Produkte und Dienstleistungen einzubetten, ist es viel größer geworden.

Eine API war immer der Plan. Das sagt Greg Brockman, Vorsitzender und Präsident von OpenAI (und auch einer der Mitbegründer).

„Wir brauchen eine Weile, um diese APIs auf ein bestimmtes Qualitätsniveau zu bringen“, sagte Brockman. „Ich denke, es ist so, als ob man einfach die Nachfrage und den Umfang decken könnte.“

Laut Brockman basiert die ChatGPT-API auf dem gleichen KI-Modell wie das beliebte ChatGPT von OpenAI, genannt „gpt-3.5-turbo“. GPT-3.5 ist das leistungsstärkste Textgenerierungsmodell, das OpenAI heute über seine APIs anbietet. der spitzname "turbo" bezieht sich auf a optimierteres, reaktionsschnelleres Modell von GPT-3.5, das OpenAI leise für ChatGPT getestet hat.

Mit einem Preis von 0.002 US-Dollar pro 1000 Token oder etwa 750 Wörtern kann die API laut Brockman eine Vielzahl von Erfahrungen ermöglichen, einschließlich „Nicht-Chat“-Apps. Snap, Quizlet, Instacart und Shopify gehören zu den Early Adopters.

Die ursprüngliche Motivation hinter der Entwicklung von gpt-3.5-turbo könnte darin bestanden haben, die enormen Rechenkosten von ChatGPT zu reduzieren. Sam Altman, CEO von OpenAI, bezeichnete die Ausgaben von ChatGPT einmal als „umwerfend“. sie zu schätzen auf wenige Cent pro Chat an Rechenkosten. (Bei über einer Million Nutzern summiert sich das vermutlich schnell.)

Aber Brockman sagt, dass gpt-3.5-turbo auf andere Weise verbessert wird.

„Wenn Sie einen KI-gestützten Tutor bauen, möchten Sie niemals, dass der Tutor dem Schüler nur eine Antwort gibt. Sie möchten, dass ich es immer erkläre und ihnen beim Lernen helfe – das ist ein Beispiel für die Art von System, das Sie [mit der API] erstellen können sollten“, sagte Brockman. „Wir denken, dass dies etwas sein wird, das die API viel nützlicher und zugänglicher macht.“

Die ChatGPT-API ist die Grundlage von My AI, Snaps kürzlich angekündigtem Chatbot für Snapchat+-Abonnenten und Quizlets neuer virtueller Tutor-Funktion Q-Chat. Shopify nutzte die ChatGPT-API, um einen personalisierten Assistenten für Einkaufsempfehlungen zu erstellen, während Instacart sie nutzte, um „Ask Instacart“ zu erstellen, ein kommendes Tool, das es Instacart-Kunden ermöglichen wird, Fragen zu Lebensmitteln zu stellen und „einkaufbare“ Antworten zu erhalten, die auf Produktdaten aus dem Einzelhandel des Unternehmens basieren speichern. Partner.

„Lebensmitteleinkauf kann mental ziemlich anstrengend sein, da viele Faktoren eine Rolle spielen, darunter Budget, Gesundheit und Ernährung, persönlicher Geschmack, Saisonalität, kulinarische Fähigkeiten, Vorbereitungszeit und Rezeptinspiration“, sagte der Instacart-Chefarchitekt JJ Zhuang. „Was wäre, wenn die KI diese Gehirnlast übernehmen könnte und wir den Haushaltsvorständen helfen könnten, die üblicherweise für den Lebensmitteleinkauf, die Essensplanung und das Anrichten von Lebensmitteln auf dem Tisch verantwortlich sind, und tatsächlich den Lebensmitteleinkauf erledigen könnten, sind sie wirklich lustig? Das KI-System von Instacart wird es uns ermöglichen, wenn es in ChatGPT von OpenAI integriert ist, genau das zu tun, und wir freuen uns darauf, mit den Möglichkeiten der Instacart-App zu experimentieren.“

Fragen Sie Instacart OpenAI ChatGPT

Bildnachweis: Instacart

Diejenigen, die die ChatGPT-Saga aufmerksam verfolgt haben, fragen sich jedoch möglicherweise, ob sie zur Veröffentlichung bereit ist, und das aus gutem Grund.

Zunächst konnten Benutzer ChatGPT bitten, voreingenommene Fragen zu beantworten rassistisch und sexistisch, eine Widerspiegelung der Daten, mit denen ChatGPT ursprünglich trainiert wurde. (ChatGPT-Trainingsdaten umfassen eine breite Palette von Internetinhalten, nämlich eBooks, Reddit-Posts und Wikipedia-Artikel.) ChatGPT erfindet auch Fakten, ohne offenzulegen, was es tut, ein Phänomen in der KI, das als bekannt ist Halluzination.

ChatGPT und ähnliche Systeme sind auch anfällig für werbebasierte Angriffe oder böswillige gegnerische Werbung, die sie dazu zwingen, Aufgaben auszuführen, die nicht Teil ihrer ursprünglichen Ziele waren. ganze Gemeinden Auf Reddit haben sie sich zusammengeschlossen, um Wege zu finden, ChatGPT zu jailbreaken und den von OpenAI implementierten Schutz zu umgehen. In einem der weniger anstößigen Beispiele konnte ein Mitarbeiter des Startups Scale AI ChatGPT erstellen preisgeben Informationen über sein technisches Innenleben.

Marken möchten sicherlich nicht ins Fadenkreuz geraten. Brockman ist davon überzeugt, dass dies nicht der Fall sein wird. Weil? Ein Grund, sagt er, sind kontinuierliche Verbesserungen im Backend, in einigen Fällen auf Kosten der kenianischen Vertragsarbeiter. Aber Brockman betonte einen neuen (und entschieden weniger kontroversen) Ansatz, den OpenAI Chat Markup Language oder ChatML nennt. ChatML sendet Text zusammen mit Metadaten als Nachrichtenstrom an die ChatGPT-API. Das ist das Gegenteil von Standard-ChatGPT, das Rohtext verbraucht, der als eine Reihe von Token dargestellt wird. (Das Wort „fantastisch“ würde zum Beispiel in „fan“, „tas“ und „tico“ zerlegt werden.)

Zum Beispiel auf die Frage "Was sind ein paar coole Partyideen für meinen 30. Geburtstag?" Ein Entwickler kann diese Nachricht mit einer zusätzlichen Nachricht wie „Sie sind ein lustiger Konversations-Chatbot, der entwickelt wurde, um Benutzern bei den Fragen, die sie stellen, zu helfen, hinzufügen. Sie müssen ehrlich und auf unterhaltsame Weise antworten!“ oder "Du bist ein Bot", bevor die ChatGPT-API ihn verarbeitet. Diese Anweisungen helfen laut Brockman, Antworten aus dem ChatGPT-Modell besser anzupassen und zu filtern.

„Wir wechseln zu einer API auf höherer Ebene. Wenn Sie eine strukturiertere Art haben, die Eingabe darzustellen, wo es heißt: „Dies ist vom Entwickler“ oder „Dies ist vom Benutzer“. Ich muss hoffen, dass es als Entwickler tatsächlich robuster sein kann. [mit ChatML] gegen diese Art von schnellen Angriffen“, sagte Brockman.

Eine weitere Änderung, die (hoffentlich) das unerwünschte Verhalten von ChatGPT verhindert, sind häufigere Modellaktualisierungen. Mit der Veröffentlichung von gpt-3.5-turbo werden Entwickler standardmäßig automatisch auf das neueste stabile OpenAI-Modell aktualisieren, sagt Brockman, beginnend mit gpt-3.5-turbo-0301 (heute veröffentlicht). Entwickler haben jedoch die Möglichkeit, bei einem älteren Modell zu bleiben, wenn sie dies wünschen, was den Vorteil ein wenig zunichte machen könnte.

Unabhängig davon, ob sie sich für ein Upgrade auf das neuere Modell entscheiden oder nicht, stellt Brockman fest, dass einige Kunden, hauptsächlich große Unternehmen mit entsprechend großen Budgets, durch die Einführung dedizierter Kapazitätspläne eine bessere Kontrolle über die Systemleistung haben werden. Die heute veröffentlichten OpenAI Dedicated Capacity Plans, die erstmals in einer Dokumentation veröffentlicht wurden, die Anfang dieses Monats durchgesickert ist, ermöglichen es Kunden, für eine Berechnungsinfrastrukturzulage zu zahlen, um ein OpenAI-Modell, z. B. gpt-3.5-Turbo, auszuführen. (Es ist übrigens Azure im Back-End.)

Zusätzlich zur "vollständigen Kontrolle" über die Instanzlast (OpenAI-API-Aufrufe erfolgen normalerweise auf gemeinsam genutzten Rechenressourcen), gibt dedizierte Kapazität Kunden die Möglichkeit, Funktionen wie längere Kontextbeschränkungen zu aktivieren. Kontextgrenzen beziehen sich auf den Text, den das Modell berücksichtigt, bevor zusätzlicher Text generiert wird; längere Kontextgrenzen ermöglichen es dem Modell, sich im Wesentlichen mehr Text zu "merken". Während höhere Kontextgrenzen möglicherweise nicht alle Bias- und Toxizitätsprobleme lösen, könnten sie Modelle wie gpt-3.5-turbo dazu führen weniger halluzinieren.

Laut Brockman können Kunden mit dedizierter Kapazität gpt-3.5-turbo-Modelle mit einem Kontextfenster von bis zu 16 erwarten, was bedeutet, dass sie viermal so viele Token akzeptieren können wie das Standard-ChatGPT-Modell. Das könnte es jemandem ermöglichen, Seiten und Seiten des Steuergesetzes einzufügen und vernünftige Antworten vom Modell zu erhalten, sagen wir, eine Leistung, die heute nicht möglich ist.

Brockman spielte auf eine allgemeine Veröffentlichung in der Zukunft an, aber nicht in absehbarer Zeit.

„Die Kontextfenster werden immer größer, und ein Grund dafür, dass wir jetzt nur noch dedizierte Kapazitätskunden sind, liegt darin, dass wir auf unserer Seite viele Kompromisse bei der Leistung eingehen müssen“, sagte Brockman. „Irgendwann könnten wir eine On-Demand-Version derselben Sache anbieten.“

Angesichts des wachsenden Drucks auf OpenAI, nach einer milliardenschweren Investition von Microsoft Gewinne zu erzielen, wäre das nicht sehr überraschend.

VERBUNDEN

Lassen Sie eine Antwort

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Die Kommentarmoderation ist aktiviert. Es kann einige Zeit dauern, bis Ihr Kommentar erscheint.

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahren Sie, wie Ihre Kommentardaten verarbeitet werden.

ABONNIEREN SIE TRPLANE.COM

Veröffentlichen Sie auf TRPlane.com

Wenn Sie eine interessante Geschichte über Transformation, IT, Digital usw. mit einem Platz in TRPlane.com haben, senden Sie sie uns bitte und wir werden sie mit der gesamten Community teilen.

WEITERE PUBLIKATIONEN

Benachrichtigungen aktivieren OK Nein danke

Willkommen bei TRPlane.com

Installieren
×