Spanish English French German Italian Portuguese
Soziales Marketing
HomeIAAltman von OpenAI und andere KI-Giganten unterstützen die Warnung ...

Altman von OpenAI und andere KI-Giganten unterstützen die Warnung vor dem „Aussterben“-Risiko fortschrittlicher KI

Machen Sie Platz für eine weitere schlagzeilenträchtige KI-politische Intervention: Hunderte von KI-Wissenschaftlern, Akademikern, Technologie-CEOs und Persönlichkeiten des öffentlichen Lebens – von Sam Altman, CEO von OpenAI, und Demis Hassabis, CEO von DeepMind, über Geoffrey Hinton, erfahrener KI-Informatiker, Max Tegmark vom MIT und Jaan Tallinn, Mitbegründer von Skype, bis hin zum Musiker Grimes und dem Podcaster-Populisten Sam Harris, um nur einige zu nennen ein paar- haben sich einer Erklärung angeschlossen, in der die weltweite Aufmerksamkeit auf das existenzielle Risiko der KI gelenkt wird.

Die Erklärung, die auf der Website einer privat finanzierten gemeinnützigen Organisation mit Sitz in San Francisco namens Center for AI Safety (CAIS) veröffentlicht wurde, gibt vor, das Risiko von KI mit den existenziellen Schäden durch die Apokalypse gleichzusetzen, und fordert die politischen Entscheidungsträger auf, die Aufmerksamkeit darauf zu lenken Es geht darum, das ihrer Meinung nach „katastrophale“ KI-Aussterberisiko zu mindern.

Hier ist seine zusammenfassende Stellungnahme:

Die Eindämmung des Risikos des Aussterbens von KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.

Laut einer kurzen Erklärung auf der CAIS-Website wurde die Erklärung „prägnant“ gehalten, weil ihre Autoren befürchten, dass ihre Botschaft über „einige der schwerwiegendsten Risiken fortgeschrittener KI“ nicht in der Debatte über andere untergeht. „Wichtig und „dringende KI-Risiken“, die dennoch darauf hindeuten, dass sie der Debatte über das Risiko des KI-Aussterbens im Wege stehen.

Allerdings haben wir in den letzten Monaten die gleichen Bedenken mehrfach laut gehört, da der KI-Hype dank des verbesserten Zugangs zu generativen KI-Tools wie ChatGPT und DALL-E von OpenAI zugenommen hat, was zu einer Fülle von Schlagzeilen geführt hat das Risiko „superintelligenter“ Killer-KIs. (Wie dieser von Anfang dieses Monats, in dem Hinton, einer der Unterzeichner der Erklärung, vor der „existenziellen Bedrohung“ einer KI-Übernahme warnte. Oder dieser von letzter Woche, in dem Altman eine Regulierung forderte, um die KI daran zu hindern Zerstörung der Menschheit).

Es gibt auch den von Elon Musk (und Dutzenden anderen) im März unterzeichneten offenen Brief, in dem eine sechsmonatige Pause bei der Entwicklung von KI-Modellen gefordert wurde, die leistungsfähiger sind als OpenAIs GPT-4, um Zeit für die Entwicklung von Protokollen zu schaffen. geteilt Sicherheitsstandards und werden auf fortschrittliche KI angewendet und warnen vor den Risiken, die von „immer mächtigeren digitalen Köpfen ausgehen, die niemand – nicht einmal ihre Schöpfer – zuverlässig verstehen, vorhersagen oder kontrollieren kann“.

Daher gab es in den letzten Monaten eine Flut öffentlichkeitswirksamer Warnungen vor KI-Risiken, die noch nicht existieren.

Diese Flut hysterischer Schlagzeilen hat wohl die Aufmerksamkeit von einer tiefergehenden Untersuchung des bestehenden Schadens abgelenkt. Zum Beispiel die kostenlose Nutzung urheberrechtlich geschützter Daten zum Trainieren künstlicher Intelligenzsysteme ohne Erlaubnis oder Zustimmung (oder Bezahlung); o die systematische Extraktion personenbezogener Daten im Internet unter Verletzung der Privatsphäre des Einzelnen; oder die mangelnde Transparenz der Giganten der künstlichen Intelligenz hinsichtlich der Daten, die zum Trainieren dieser Tools verwendet werden. Oder tatsächlich Fehler wie Fehlinformationen („Halluzination“) und Risiken wie Voreingenommenheit (automatisierte Diskriminierung). Ganz zu schweigen von KI-induziertem Spam. Und die Umweltbelastung durch die Energie, die für das Training dieser KI-Monster aufgewendet wird.

Es ist nicht verwunderlich, dass die Regierung nach einem Treffen zwischen dem britischen Premierminister und einer Reihe hochrangiger KI-Führungskräfte, darunter Altman und Hassabis, letzte Woche offenbar ihren Kurs in der KI-Regulierung ändert und sich plötzlich für existenzielle Risiken interessiert, berichtet The Wächter.

Auch die Rede vom existenziellen Risiko in der KI lenkt von Fragen der Marktstruktur und -dominanz ab., wie Jenna Burrell, Forschungsdirektorin bei Data & Society, in diesem kürzlich erschienenen Artikel der Columbia Journalism Review betonte, in dem sie die Medienberichterstattung über ChatGPT analysierte, und argumentierte, dass wir aufhören müssen, uns auf Ablenkungsmanöver wie die mögliche „KI-Sensibilität“ zu konzentrieren, sondern uns auf das Wie konzentrieren müssen KI führt zu einer weiteren Konzentration von Reichtum und Macht.

Es gibt also natürlich klare geschäftliche Beweggründe dafür, dass die KI-Giganten die Aufmerksamkeit der Regulierungsbehörden in die theoretisch ferne Zukunft lenken wollen und von einem KI-gestützten Weltuntergang sprechen, als Trick, um die Aufmerksamkeit von den Gesetzgebern abzulenken. von grundlegenderem Wettbewerb und Kartellrechtliche Überlegungen im Hier und Jetzt. (Und die Nutzung von Daten als Instrument zur Konzentration der Marktmacht ist nichts Neues.)

Es sagt sicherlich viel über bestehende KI-Machtstrukturen aus, dass Führungskräfte von KI-Giganten wie OpenAI, DeepMind, Stability AI und Anthropic so gerne zusammenkommen und miteinander chatten, wenn es darum geht, Gespräche über existenzielle Risiken der KI öffentlich zu verstärken. Und wie viel zurückhaltender ist es, zusammenzukommen, um den Schaden zu besprechen, den ihre Werkzeuge derzeit anrichten könnten.

OpenAI war ein bemerkenswerter Nichtunterzeichner des oben genannten offenen Briefes (unterzeichnet von Musk), aber mehrere seiner Mitarbeiter unterstützen die CAIS-Erklärung (während Musk dies offenbar nicht tut). Die jüngste Aussage scheint also eine (inoffizielle) geschäftliche Antwort von OpenAI (und anderen) auf Musks früheren Versuch zu sein, die Darstellung des existenziellen Risikos der KI für seine eigenen Interessen zu missbrauchen (die OpenAI nicht länger als Führungskraft für die KI befürworten).

Anstatt eine Entwicklungspause zu fordern, die die Führungsrolle von OpenAI im Bereich der generativen KI einfrieren könnte, drängt die Erklärung die politischen Entscheidungsträger dazu, sich auf die Risikominderung zu konzentrieren, und zwar während OpenAI gleichzeitig Bemühungen zur Gestaltung „demokratischer Prozesse für den Einsatz von KI“ finanziert. wie Altman es ausdrückte. Daher positioniert sich das Unternehmen aktiv (und nutzt das Vermögen seiner Investoren), um Einfluss auf die Gestaltung künftiger Minderungshindernisse zu nehmen, parallel zu laufenden persönlichen Lobbybemühungen bei internationalen Regulierungsbehörden. Altman drohte kürzlich auch öffentlich damit, das OpenAI-Tool aus Europa zu entfernen, wenn der europäische Entwurf einer KI-Verordnung nicht verwässert würde, um seine Technologie auszuschließen.

Andererseits haben einige der Unterzeichner des obigen Briefes einfach gerne eine weitere Werbemöglichkeit genutzt und beide mit ihrem Namen versehen (Hallo Tristan Harris!).

Aber wer ist das? CAIS? Es gibt nur wenige öffentliche Informationen über die Organisation, die diese Nachricht hostet. Allerdings räumt er ein, dass dadurch Druck auf die politischen Entscheidungsträger ausgeübt wird. Auf seiner Website heißt es, seine Mission bestehe darin, „KI-Risiken auf gesellschaftlicher Ebene zu reduzieren“, und es heißt, dass es sich der Förderung der Forschung und der Schaffung von Feldern zu diesem Zweck widmet, einschließlich der Forschungsfinanzierung, und dass es eine erklärte Rolle in der Interessenvertretung der Politik spielt.

Die FAQ der Website bieten begrenzte Informationen darüber, wer sie finanziell unterstützt (angeblich durch private Spenden finanziert). Auf die Frage „Ist die CAIS eine unabhängige Organisation?“ wird kurz gesagt, dass sie „dem öffentlichen Interesse dient“:

Das CAIS ist eine gemeinnützige Organisation, die vollständig durch private Beiträge finanziert wird. Unsere Forschungsrichtlinien und Leitlinien werden nicht von einzelnen Spendern bestimmt, so dass unser Ziel weiterhin darin besteht, dem öffentlichen Interesse zu dienen.

Wir haben die CAIS kontaktiert, um ihnen Fragen zu stellen.

In einem Twitter-Thread, der die Veröffentlichung der Erklärung begleitet, geht CAIS-Direktor Dan Hendrycks auf die oben genannte Erklärung ein und nennt „systemische Voreingenommenheit, Fehlinformationen, böswillige Nutzung, Cyberangriffe und Waffeneinsatz“ als Beispiele für „wichtige und dringende KI-Risiken … nicht nur die Gefahr des Aussterbens“.

„Das sind alles große Risiken, die angegangen werden müssen“Er schlägt außerdem vor, Bedenken herunterzuspielen, dass die politischen Entscheidungsträger nur über begrenzte Möglichkeiten verfügen, um die Schäden der KI anzugehen, indem er argumentiert: „Gesellschaften können mehrere Risiken gleichzeitig bewältigen; es ist nicht „entweder/oder“, sondern „ja/und“. Aus Sicht des Risikomanagements wäre es ebenso unklug, ausschließlich aktuelle Schäden zu priorisieren, als auch, sie zu ignorieren.“

Der Thread schreibt auch David Krueger, Assistenzprofessor für Informatik an der Universität Cambridge, die Idee zu, eine Aussage in einem Satz zum Risiko von KI zu treffen und „gemeinsam“ bei ihrer Entwicklung zu helfen.

VERBUNDEN

Lassen Sie eine Antwort

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Die Kommentarmoderation ist aktiviert. Es kann einige Zeit dauern, bis Ihr Kommentar erscheint.

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahren Sie, wie Ihre Kommentardaten verarbeitet werden.

ABONNIEREN SIE TRPLANE.COM

Veröffentlichen Sie auf TRPlane.com

Wenn Sie eine interessante Geschichte über Transformation, IT, Digital usw. mit einem Platz in TRPlane.com haben, senden Sie sie uns bitte und wir werden sie mit der gesamten Community teilen.

WEITERE PUBLIKATIONEN

Benachrichtigungen aktivieren OK Nein danke