Spanish English French German Italian Portuguese
Social marketing
CasaTecnologiaIntelligenza artificialeL'intelligenza artificiale può commettere diffamazione?

L'intelligenza artificiale può commettere diffamazione?

Il nuovo giocattolo più alla moda del mondo tecnologico potrebbe trovarsi in difficoltà legali poiché la tendenza dell'IA a inventare articoli ed eventi di notizie si scontra con le leggi sulla diffamazione. Un modello di intelligenza artificiale come ChatGPT può commettere diffamazione? Come molte cose legate alla tecnologia, è sconosciuta e senza precedenti, ma le imminenti sfide legali potrebbero cambiarlo.

La diffamazione è ampiamente definita come la pubblicazione o il rilascio di dichiarazioni dannose e false su qualcuno. È un territorio legale complesso e sfumato che differisce anche ampiamente tra le giurisdizioni: un caso di diffamazione negli Stati Uniti è molto diverso da uno nel Regno Unito o in Spagna.

L'IA generativa ha già prodotto numerose questioni legali senza risposta, ad esempio se l'uso di materiale protetto da copyright equivalga a fair use o violazione. Ma fino a un anno fa, né le immagini né i modelli di intelligenza artificiale che generano testo erano abbastanza buoni da produrre qualcosa che sarebbe stato scambiato per realtà, quindi le domande sulle false rappresentazioni erano puramente accademiche.

Non è così ora: il grande modello linguistico dietro ChatGPT e Bing Chat è un artista che opera su vasta scala e si potrebbe dire che la sua integrazione con prodotti tradizionali come i motori di ricerca (e sempre più con quasi tutto il resto) elevi il sistema da un fallimento esperimento a un enorme esperimento.

Quindi cosa succede quando lo strumento/la piattaforma scrive che un funzionario governativo è stato accusato di cattiva condotta o che un professore universitario è stato accusato di molestie sessuali?

Un anno fa, senza integrazioni estese e con un linguaggio piuttosto scadente, pochi avrebbero detto che affermazioni così false potevano essere prese sul serio. Ma oggi, questi modelli rispondono alle domande in modo sicuro e convincente su piattaforme di consumo ampiamente accessibili, anche quando quelle risposte sono allucinazioni o erroneamente attribuite ad articoli inesistenti. Attribuiscono affermazioni false a oggetti reali, o affermazioni vere a oggetti inventati, o tutte false.

A causa della natura di come funzionano questi modelli, non sanno o non si preoccupano se qualcosa è vero, solo che sembra vero. Questo è un problema quando lo usi per fare i compiti, certo, ma quando ti accusa di un crimine che non hai commesso, a questo punto potrebbe anche essere diffamazione.

Questa è l'affermazione di Brian Hood, il sindaco della contea australiana di Hepburn, quando gli è stato detto di essere stato dichiarato colpevole da ChatGPT in uno scandalo di corruzione che dura da 20 anni. Lo scandalo era reale e Hood era coinvolto. Ma è stato lui a rivolgersi alle autorità e non è mai stato accusato di alcun crimine, come riferisce Reuters trasmesso dai loro avvocati.

Ora, è chiaro che questa affermazione è falsa e indiscutibilmente dannosa per la reputazione di Hood. Ma chi ha fatto la dichiarazione? È OpenAI, che ha sviluppato il software? È Microsoft, che lo ha concesso in licenza e lo ha implementato con Bing? È il software stesso, che agisce come un sistema automatizzato? In caso affermativo, chi è responsabile di richiedere a tale sistema di creare la dichiarazione? Fare un'affermazione del genere in un contesto del genere costituisce "pubblicarla" o è più come una conversazione tra due persone? In tal caso, equivarrebbe a calunniare? OpenAI o ChatGPT "sapevano" che queste informazioni erano false e come definiamo la negligenza in tal caso? Un modello di intelligenza artificiale può mostrare malizia? Dipende dalla legge, dal caso, dal giudice?

Sono tutte domande aperte perché la tecnologia a cui si riferiscono non esisteva un anno fa, figuriamoci quando sono state stabilite le leggi e i precedenti che definiscono legalmente la diffamazione. Sebbene possa sembrare sciocco citare in giudizio un chatbot per aver detto qualcosa di falso, i chatbot non sono più quelli di una volta. Con alcune delle più grandi aziende del mondo che li pubblicizzano come la prossima generazione di recupero delle informazioni, sostituendo i motori di ricerca, non sono più giocattoli ma strumenti regolarmente utilizzati da milioni di persone.

Hood ha inviato una lettera a OpenAI chiedendo loro di fare qualcosa al riguardo; non è davvero chiaro cosa puoi fare, o sei obbligato a fare, o qualsiasi altra azione tu possa intraprendere, dalla legge australiana o statunitense. Ma in un altro caso recente, un professore di diritto è stato accusato di molestie sessuali da un chatbot che cita un articolo fittizio del Washington Post. E tali affermazioni false potenzialmente dannose sono probabilmente più comuni di quanto pensiamo: ora stanno diventando abbastanza serie e dannose da giustificare l'informazione delle persone coinvolte.

Questo è solo l'inizio di questo dramma legale, e persino gli avvocati e gli esperti di intelligenza artificiale non hanno idea di come andrà a finire. Ma se aziende come OpenAI e Microsoft (per non parlare di tutte le altre grandi aziende tecnologiche e alcune centinaia di startup) si aspettano che i loro sistemi vengano presi sul serio come fonti di informazioni, non possono evitare le conseguenze di tali affermazioni. Possono suggerire ricette e pianificazione del viaggio come punti di partenza, ma le persone si aspettano che le aziende assicurino che queste piattaforme siano una fonte di verità.

Queste affermazioni inquietanti si trasformeranno in vere e proprie cause legali? Queste cause legali saranno risolte prima che il settore cambi ancora? E tutto questo sarà discusso dalla legislazione tra le giurisdizioni in cui vengono portati i casi? Stanno per trascorrere alcuni mesi interessanti (o più probabilmente anni) mentre gli esperti legali e tecnologici cercano di affrontare l'obiettivo di questo settore in rapida evoluzione.

IMPARENTATO

Lascia un commento

Inserisci il tuo commento!
Per favore inserisci il tuo nome qui

La moderazione dei commenti è abilitata. Il tuo commento potrebbe richiedere del tempo per apparire.

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati dei tuoi commenti.

ISCRIVITI A TRPLANE.COM

Pubblica su TRPlane.com

Se hai una storia interessante su trasformazione, IT, digitale, ecc. che puoi trovare su TRPlane.com, inviacela e la condivideremo con l'intera Community.

ALTRE PUBBLICAZIONI

Attivare le notifiche OK No grazie