Spanish English French German Italian Portuguese
Soziales Marketing

Kann KI Verleumdung begehen?

Das heißeste neue Spielzeug der Tech-Welt könnte in rechtliche Schwierigkeiten geraten, da die Tendenz der KI, Nachrichtenartikel und Ereignisse zu erfinden, mit Verleumdungsgesetzen kollidiert. Kann ein KI-Modell wie ChatGPT Verleumdungen begehen? Wie viele Dinge im Zusammenhang mit der Technologie ist sie unbekannt und beispiellos, aber bevorstehende rechtliche Herausforderungen könnten dies ändern.

Unter Verleumdung versteht man im weitesten Sinne das Posten oder Äußern schädlicher und falscher Aussagen über jemanden. Es handelt sich um ein komplexes und nuanciertes Rechtsgebiet, das sich auch von Land zu Land stark unterscheidet: Ein Verleumdungsfall in den USA unterscheidet sich stark von einem Fall im Vereinigten Königreich oder in Spanien.

Generative KI hat bereits zahlreiche unbeantwortete rechtliche Fragen aufgeworfen, beispielsweise ob die Verwendung von urheberrechtlich geschütztem Material eine faire Nutzung oder eine Rechtsverletzung darstellt. Doch bis vor einem Jahr waren weder Bilder noch textgenerierende KI-Modelle gut genug, um etwas zu produzieren, das mit der Realität verwechselt werden konnte, sodass Fragen zu Falschdarstellungen rein akademischer Natur waren.

Nicht mehr so ​​jetzt: Das großartige Sprachmodell hinter ChatGPT und Bing Chat ist ein Künstler, der in großem Umfang operiert, und seine Integration in Mainstream-Produkte wie Suchmaschinen (und zunehmend auch in fast alles andere) könnte das System von einem gescheiterten System befreien Experiment zu einem gewaltigen Experiment.

Was passiert also, wenn das Tool/die Plattform schreibt, dass ein Regierungsbeamter in einem Fall von Fehlverhalten angeklagt wurde oder dass einem Universitätsprofessor sexuelle Belästigung vorgeworfen wurde?

Vor einem Jahr, als es keine umfassenden Integrationen gab und die Sprache ziemlich lahm war, hätten nur wenige behaupten können, dass solche falschen Behauptungen ernst genommen werden könnten. Aber heute beantworten diese Modelle Fragen auf allgemein zugänglichen Verbraucherplattformen souverän und überzeugend, selbst wenn diese Antworten Halluzinationen sind oder fälschlicherweise auf nicht existierende Artikel zurückgeführt werden. Sie führen falsche Aussagen auf reale Gegenstände, wahre Aussagen auf erfundene Gegenstände oder allesamt auf Falsch zurück.

Aufgrund der Art und Weise, wie diese Modelle funktionieren, wissen sie nicht, ob etwas wahr ist, und kümmern sich auch nicht darum, ob etwas wahr ist, sondern nur, dass es wahr zu sein scheint. Das ist sicher ein Problem, wenn man damit seine Hausaufgaben macht, aber wenn einem ein Verbrechen vorgeworfen wird, das man nicht begangen hat, kann es sich an dieser Stelle genauso gut um eine Verleumdung handeln.

Das ist die Behauptung, die Brian Hood, der Bürgermeister des australischen Hepburn Shire, aufgestellt hat, als ihm mitgeteilt wurde, dass er von ChatGPT in einem 20 Jahre alten Bestechungsskandal für schuldig befunden wurde. Der Skandal war real und die Hood war darin verwickelt. Aber er war derjenige, der sich diesbezüglich an die Behörden wandte und nie eines Verbrechens angeklagt wurde. wie Reuters von ihren Anwälten berichtet.

Nun ist klar, dass diese Aussage falsch ist und zweifellos Hoods Ruf schadet. Aber wer hat die Aussage gemacht? Ist es OpenAI, das die Software entwickelt hat? Ist es Microsoft, der es lizenziert und unter Bing implementiert hat? Ist es die Software selbst, die als automatisiertes System fungiert? Wenn ja, wer ist dafür verantwortlich, dieses System zur Erstellung der Erklärung zu veranlassen? Bedeutet es, eine solche Aussage in einem solchen Umfeld zu „veröffentlichen“, oder handelt es sich eher um ein Gespräch zwischen zwei Personen? Würde es in diesem Fall einer Verleumdung gleichkommen? Wussten OpenAI oder ChatGPT, dass diese Informationen falsch waren und wie definieren wir in einem solchen Fall Fahrlässigkeit? Kann ein KI-Modell Bosheit zeigen? Kommt es auf das Gesetz, den Fall, den Richter an?

Dies sind alles offene Fragen, da die Technologie, auf die sie sich beziehen, vor einem Jahr noch nicht existierte, geschweige denn, als die Gesetze und Präzedenzfälle erlassen wurden, die Verleumdung rechtlich definieren. Auch wenn es albern erscheinen mag, einen Chatbot zu verklagen, weil er etwas Falsches gesagt hat, sind Chatbots nicht mehr das, was sie einmal waren. Da einige der größten Unternehmen der Welt sie als die nächste Generation der Informationsbeschaffung anpreisen und Suchmaschinen ersetzen, sind sie keine Spielzeuge mehr, sondern Werkzeuge, die regelmäßig von Millionen von Menschen genutzt werden.

Hood schickte einen Brief an OpenAI, in dem er sie aufforderte, etwas dagegen zu unternehmen; Es ist nicht wirklich klar, was Sie nach australischem oder US-amerikanischem Recht tun können oder müssen oder welche anderen Maßnahmen Sie ergreifen können. Aber in einem anderen aktuellen Fall, einem Juraprofessor wurde sexuelle Belästigung vorgeworfen durch einen Chatbot, der einen fiktiven Artikel der Washington Post zitiert. Und solche potenziell schädlichen falschen Behauptungen kommen wahrscheinlich häufiger vor, als wir denken: Sie werden inzwischen schwerwiegend und schädlich genug, um eine Benachrichtigung der beteiligten Personen zu rechtfertigen.

Dies ist erst der Anfang dieses juristischen Dramas, und selbst Anwälte und KI-Experten haben keine Ahnung, wie es ausgehen wird. Aber wenn Unternehmen wie OpenAI und Microsoft (ganz zu schweigen von all den anderen großen Technologieunternehmen und einigen hundert Start-ups) erwarten, dass ihre Systeme als Informationsquellen ernst genommen werden, können sie die Konsequenzen dieser Behauptungen nicht vermeiden. Sie schlagen vielleicht Rezepte und Reiseplanung als Ausgangspunkte vor, aber die Leute erwarten von den Unternehmen, dass sie sicherstellen, dass diese Plattformen eine Quelle der Wahrheit sind.

Werden diese beunruhigenden Aussagen zu tatsächlichen Klagen? Werden diese Klagen beigelegt, bevor sich die Branche erneut verändert? Und all dies wird durch Rechtsvorschriften zwischen den Gerichtsbarkeiten, in denen die Fälle anhängig gemacht werden, erörtert? Es werden interessante Monate (oder wahrscheinlicher Jahre) werden, in denen Rechts- und Technologieexperten versuchen, das Ziel dieser schnelllebigen Branche in Angriff zu nehmen.

VERBUNDEN

Lassen Sie eine Antwort

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Die Kommentarmoderation ist aktiviert. Es kann einige Zeit dauern, bis Ihr Kommentar erscheint.

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahren Sie, wie Ihre Kommentardaten verarbeitet werden.

ABONNIEREN SIE TRPLANE.COM

Veröffentlichen Sie auf TRPlane.com

Wenn Sie eine interessante Geschichte über Transformation, IT, Digital usw. mit einem Platz in TRPlane.com haben, senden Sie sie uns bitte und wir werden sie mit der gesamten Community teilen.

WEITERE PUBLIKATIONEN

Benachrichtigungen aktivieren OK Nein danke