Spanish English French German Italian Portuguese
Soziales Marketing
HomeRecycelbare TechnologieKünstliche IntelligenzAnthropic auf der Suche nach einer besseren und verständlicheren KI

Anthropic auf der Suche nach einer besseren und verständlicheren KI

Vor weniger als einem Jahr, im Jahr 2021, Anthropisch wurde vom ehemaligen Vizepräsidenten für Forschung für gegründet OpenAI, Dario Amodei, mit der Absicht, im öffentlichen Interesse Forschung zu betreiben, um KI vertrauenswürdiger und erklärbarer zu machen. Seine Finanzierung von 124 Millionen Dollar war damals erstaunlich, aber nichts hätte das Unternehmen vorhersehen können. würde 580 Millionen Dollar aufbringen weniger als ein Jahr später.

„Mit dieser Spendenaktion werden wir die vorhersagbaren Skalierungseigenschaften von maschinellen Lernsystemen untersuchen und gleichzeitig die unvorhersehbaren Arten und Weisen untersuchen, auf denen Fähigkeiten und Sicherheitsprobleme auftreten können, wenn das System wächst“, sagte Amodei.

Seine Schwester Daniela, mit der er die gemeinnützige Körperschaft mitgegründet hat, sagte, nach dem Aufbau des Unternehmens „konzentrieren wir uns darauf, dies sicherzustellen Anthropisch die Kultur und Governance haben, um weiterhin verantwortungsbewusst sichere KI-Systeme zu erforschen und zu entwickeln, während wir wachsen. ”

Wieder der Schlüsselbegriff: Wachstum. Denn das ist die Kategorie des ursprünglich motivierten Problems Anthropisch: Wie man KI-Modelle besser versteht, die zunehmend branchenübergreifend verwendet werden, da sie unsere Fähigkeit, ihre Logik und Ergebnisse zu erklären, übersteigen.

Das Unternehmen hat bereits mehrere Artikel veröffentlicht, die sich beispielsweise mit dem Reverse Engineering des Verhaltens von Sprachmodellen befassen, um zu verstehen, warum und wie sie die Ergebnisse erzeugen. Etwas wie GPT-3, das wahrscheinlich bekannteste existierende Sprachmodell, ist sicherlich beeindruckend, aber die Tatsache, dass sein Innenleben selbst seinen Schöpfern im Grunde ein Rätsel ist, hat etwas Besorgniserregendes.

Wie die Förderbekanntmachung selbst erklärt:

Der Zweck dieser Forschung besteht darin, die technischen Komponenten zu entwickeln, die erforderlich sind, um groß angelegte Modelle zu erstellen, die bessere implizite Sicherheitsvorkehrungen haben und weniger Eingriffe nach dem Training erfordern, sowie die notwendigen Werkzeuge zu entwickeln, um diese Modelle genauer zu untersuchen, um sicherzustellen, dass die Schutzmaßnahmen funktionieren wirklich. .

Wenn Sie nicht verstehen, wie ein KI-System funktioniert, können Sie nur reagieren, wenn es etwas falsch macht, z Gesichtserkennungsverzerrung oder neigt dazu, Männer zu zeichnen oder zu beschreiben, wenn sie gefragt werden über Ärzte und CEOs. Dieses Verhalten ist in das Modell eingebaut, und die Lösung besteht darin, Ihre Ergebnisse zu filtern, anstatt Sie von vornherein daran zu hindern, diese falschen „Vorstellungen“ zu haben.

Es ist eine Art von grundlegende Formveränderung in denen KI gebaut und verstanden wird, und als solche erfordert sie große Gehirne und große Computer, die beide nicht billig sind. Es besteht kein Zweifel, dass 124 Millionen US-Dollar ein guter Anfang waren, aber anscheinend waren die ersten Ergebnisse für Sam Bankman-Fried vielversprechend genug, um diese große neue Runde zusammen mit Caroline Ellison, Jim McClave, Nishad Singh, Jaan Tallinn und dem Center for Emerging Risk anzuführen Forschung (CERR).

Es ist interessant, keinen der üblichen Tech-Investoren in dieser Gruppe zu sehen, aber Anthropic ist es natürlich nicht hat als Zweck Gewinn, der für Venture-Investoren ein entscheidender Faktor ist.

Der letzte Anthropische Untersuchungen können hier verfolgt werden.

VERBUNDEN

ABONNIEREN SIE TRPLANE.COM

Veröffentlichen Sie auf TRPlane.com

Wenn Sie eine interessante Geschichte über Transformation, IT, Digital usw. mit einem Platz in TRPlane.com haben, senden Sie sie uns bitte und wir werden sie mit der gesamten Community teilen.

WEITERE PUBLIKATIONEN

Benachrichtigungen aktivieren OK Nein danke