Spanish English French German Italian Portuguese
Soziales Marketing
HomeGroße TechsAmazonAnthropic behauptet, dass seine neuen KI-Chatbots GPT-4 übertreffen

Anthropic behauptet, dass seine neuen KI-Chatbots GPT-4 übertreffen

KI-Startup Anthropic, unterstützt von Google und Hunderten Millionen Risikokapital (und vielleicht bald). Hunderte Millionen mehr), angekündigt die neueste Version ihrer GenAI-Technologie, Claude. Und das Unternehmen behauptet, dass es den Chatbot GPT-4 von OpenAI in puncto Leistung übertrifft.

Claude 3, wie die neue GenAI von Anthropic genannt wird, ist eine Familie von Modellen: Claude 3 Haiku, Claude 3 Sonnet und Claude 3 Opus, wobei Opus das leistungsstärkste ist. Alle zeigen „erhöhte Fähigkeiten“ bei der Analyse und Prognose, so Anthropic, sowie eine verbesserte Leistung bei bestimmten Benchmarks im Vergleich zu Modellen wie ChatGPT und GPT-4 (aber nicht GPT-4 Turbo) und Googles Gemini 1.0 Ultra (aber nicht Gemini 1.5 Pro). ). .

Insbesondere ist Claude 3 die erste multimodale GenAI von Anthropic, was bedeutet, dass sie sowohl Text als auch Bilder analysieren kann, ähnlich wie einige Versionen von GPT-4 und Gemini. Claude 3 kann Fotos, Diagramme, Grafiken und technische Diagramme verarbeiten und PDF-Dateien, Diashows und andere Arten von Dokumenten extrahieren.

Claude 3 ist einen Schritt besser als einige GenAI-Konkurrenten und kann mehrere Bilder in einer einzigen Anfrage analysieren (bis zu maximal 20). Dies ermöglicht es, Bilder zu vergleichen und gegenüberzustellen, stellt Anthropic fest.

Doch der Bildverarbeitung von Claude 3 sind Grenzen gesetzt.

Anthropic hat Modelle daran gehindert, Personen zu identifizieren, zweifellos aus Angst vor den ethischen und rechtlichen Implikationen. Und das Unternehmen gibt zu, dass Claude 3 bei Bildern mit „schlechter Qualität“ (weniger als 200 Pixel) fehleranfällig ist und Probleme mit räumlichem Denken (z. B. dem Lesen des Zifferblatts einer Analoguhr) und dem Zählen von Objekten hat (Claude). 3 kann keine genauen Angaben machen). Anzahl der Objekte in Bildern).

Credits: Anthropisch

Auch Claude 3 nicht wird erzeugen Ein Kunstwerk. Zumindest vorerst analysieren die Modelle Bilder streng.

Ob mit Text oder Bildern, laut Anthropic können Kunden erwarten, dass der Claude 3 mehrstufigen Anweisungen besser folgt und strukturierte Ergebnisse in Formaten wie z. B. liefert JSON und unterhalten sich im Vergleich zu ihren Vorgängern in anderen Sprachen als Englisch. Claude 3 sollte dank eines „differenzierteren Verständnisses der Anfragen“ auch weniger häufig auf Fragen antworten, sagt Anthropic. Und bald werden Models die Quelle ihrer Antworten auf Fragen angeben, damit Benutzer sie überprüfen können.

„Claude 3 tendiert dazu, ausdrucksstärkere und ansprechendere Antworten zu generieren“, schreibt Anthropic in einem Begleitartikel. „Im Vergleich zu unseren Vorgängermodellen ist es einfacher zu steuern und zu steuern. Benutzer sollten feststellen, dass sie mit kürzeren, prägnanteren Eingabeaufforderungen die gewünschten Ergebnisse erzielen können.“

Einige dieser Verbesserungen stammen aus dem erweiterten Kontext von Claude 3.

Der Kontext bzw. das Kontextfenster eines Modells bezieht sich auf die Eingabedaten (z. B. Text), die das Modell berücksichtigt, bevor es Ergebnisse generiert. Modelle mit kleinen Kontextfenstern neigen dazu, den Inhalt sogar sehr aktueller Gespräche zu „vergessen“, was dazu führt, dass sie oft auf problematische Weise vom Thema abschweifen. Ein zusätzlicher Vorteil besteht darin, dass kontextreiche Modelle den narrativen Datenfluss, den sie erhalten, besser erfassen und kontextreichere Antworten generieren können (zumindest hypothetisch).

Anthropic sagt, dass Claude 3 zunächst ein Kontextfenster von 200.000 Token unterstützen wird, was etwa 150.000 Wörtern entspricht, und dass ausgewählte Kunden ein Kontextfenster von 1 Million Token (~700.000 Wörter) erhalten werden. Dies liegt auf Augenhöhe mit Googles neuestem GenAI-Modell, dem oben erwähnten Gemini 1.5 Pro, das ebenfalls ein kontextbezogenes Fenster von bis zu einer Million Token bietet.

Nur weil Claude 3 ein Update zum Vorgänger ist, heißt das nicht, dass es perfekt ist.

Bei einem documento tecnicoAnthropic gibt zu, dass Claude 3 nicht immun gegen die Probleme ist, die andere GenAI-Modelle plagen, nämlich Vorurteile und Halluzinationen (d. h. Dinge erfinden). Im Gegensatz zu einigen GenAI-Modellen kann Claude 3 nicht im Internet suchen; Modelle können Fragen nur mit Daten vor August 2023 beantworten. Und obwohl Claude mehrsprachig ist, spricht er bestimmte „einkommensschwache“ Sprachen wie Englisch nicht so fließend.

Aber in den kommenden Monaten werden vielversprechende Updates von Anthropic für Claude 3 erwartet.

„Wir glauben nicht, dass die Modellintelligenz an ihre Grenzen stößt und planen, in den kommenden Monaten Verbesserungen an der Claude-3-Modellfamilie zu veröffentlichen“, schreibt das Unternehmen in einer Erklärung. Blogeintrag.

Opus und Sonnet sind jetzt im Internet und über die API und Entwicklungskonsole von Anthropic, die Bedrock-Plattform von Amazon und Vertex AI von Google verfügbar. Haiku wird später in diesem Jahr folgen.

Hier ist die Preisaufschlüsselung:

  • Opus: 15 $ pro Million eingehender Token, 75 $ pro Million ausgegebener Token
  • Sonnet: 3 $ pro Million eingehender Token, 15 $ pro Million ausgegebener Token
  • Haiku: 0,25 $ pro Million eingegangener Token, 1,25 $ pro Million ausgegebener Token

Das ist also dieser Claude 3. Aber was ist eine Vogelperspektive?

Das Ziel von Anthropic ist es, einen Algorithmus der nächsten Generation für „selbstlernende KI“ zu entwickeln. Ein solcher Algorithmus könnte verwendet werden, um virtuelle Assistenten zu erstellen, die E-Mails beantworten, Recherchen durchführen und Kunst, Bücher und mehr generieren können, von denen einige bereits mit Unternehmen wie GPT-4 und anderen großen Sprachmodellen getestet wurden.

Anthropic deutet dies im oben genannten Blog-Beitrag an und sagt, dass das Unternehmen plant, Funktionen zu Claude 3 hinzuzufügen, die seine sofort einsatzbereiten Fähigkeiten verbessern, indem es Claude ermöglicht, mit anderen Systemen zu interagieren, „interaktiv“ zu programmieren und „erweiterte Agenten“ anzubieten Fähigkeiten." .“

Dieser letzte Punkt erinnert uns daran freigebenvon OpenAI, das darauf abzielt, einen Software-Agenten zu erstellen, um komplexe Aufgaben zu automatisieren, wie z. B. die Übertragung von Daten aus einem Dokument in eine Tabellenkalkulation oder das automatische Ausfüllen von Spesenabrechnungen und deren Eingabe in Buchhaltungssoftware (z. B.). OpenAI bietet bereits eine API, die es Entwicklern ermöglicht, „agentenähnliche Erfahrungen“ in ihren Apps zu erstellen, und Anthropic beabsichtigt Berichten zufolge, ähnliche Funktionen anzubieten.

Könnten wir als nächstes einen Anthropic-Imager sehen? Es wäre überraschend. Bildgeneratoren sind heute Gegenstand vieler Kontroversen, vor allem aus Gründen des Urheberrechts und der Voreingenommenheit. Kürzlich war Google gezwungen, seinen Bildgenerator zu deaktivieren, nachdem den Bildern unter lächerlicher Missachtung des historischen Kontexts Vielfalt verliehen wurde. Und mehrere Imager-Anbieter befinden sich in Rechtsstreitigkeiten mit Künstlern, die ihnen vorwerfen, von ihrer Arbeit zu profitieren, indem sie GenAI in dieser Arbeit schulen, ohne eine Entschädigung oder Kredit anzubieten.

Es wird interessant sein, die Entwicklung der Technik von Anthropic zum Trainieren von GenAI, der „verfassungsmäßigen KI“, zu beobachten, die laut Angaben des Unternehmens das Verhalten seiner GenAI leichter verständlich, vorhersehbarer und bei Bedarf einfacher anzupassen macht. Die konstitutionelle KI soll einen Weg dazu bieten KI an menschlichen Absichten ausrichten, indem Modelle anhand einfacher Leitprinzipien Fragen beantworten und Aufgaben ausführen. Für Claude 3 beispielsweise sagte Anthropic, dass es ein Prinzip hinzugefügt habe, das auf Crowdsourcing-Feedback basiert und Modelle anweist, für Menschen mit Behinderungen verständlich und zugänglich zu sein.

Was auch immer das Ende von Anthropic sein wird, es wird langfristig sein. Laut einer durchgesickerten Präsentation im Mai letzten Jahres will das Unternehmen in den nächsten 5.000 Monaten bis zu 12 Milliarden US-Dollar aufbringen, was die Grundlage bilden könnte, die es braucht, um mit OpenAI wettbewerbsfähig zu bleiben. Schließlich sind Trainingsmodelle nicht billig. Es ist auf dem Weg, mit 2 Milliarden US-Dollar bzw. 4 Milliarden US-Dollar an Kapital von Google und Amazon und mehr als einer Milliarde zusammen von anderen Geldgebern.

VERBUNDEN

ABONNIEREN SIE TRPLANE.COM

Veröffentlichen Sie auf TRPlane.com

Wenn Sie eine interessante Geschichte über Transformation, IT, Digital usw. mit einem Platz in TRPlane.com haben, senden Sie sie uns bitte und wir werden sie mit der gesamten Community teilen.

WEITERE PUBLIKATIONEN

Benachrichtigungen aktivieren OK Nein danke