Spanish English French German Italian Portuguese
Social marketing
CasaTecnologiaIntelligenza artificialePossiamo "noi persone" tenere sotto controllo l'intelligenza artificiale?

Possiamo "noi persone" tenere sotto controllo l'intelligenza artificiale?

Tecnologo e ricercatore Aviv Ovadia non è sicuro che l'IA generativa possa essere governata, ma ritiene che il mezzo più plausibile per tenerla sotto controllo potrebbe essere affidare a coloro che saranno colpiti dall'IA la decisione collettiva sui modi per frenarla.

Ciò significa che tu; significa io. È il potere di grandi reti di persone per risolvere i problemi più velocemente e in modo più equo di quanto potrebbe fare da solo un piccolo gruppo di persone (anche, per esempio, a Washington). Si basa essenzialmente sulla saggezza delle folle e sta accadendo in molti campi, tra cui la ricerca scientifica, gli affari, la politica e i movimenti sociali.

A Taiwan, ad esempio, nel 2015 gli hacker con mentalità civica hanno formato una piattaforma, “Virtual Taiwan”, che “riunisce rappresentanti dei settori pubblico, privato e sociale per discutere soluzioni politiche a problemi principalmente legati all'economia digitale”, come come LUI ha spiegato nel 2019 dal ministro del digitale di Taiwan Audrey Tang sul New York Times. Da allora, vTaiwan, come è noto, ha affrontato dozzine di questioni "basate su una combinazione di dibattito online e discussioni faccia a faccia con le parti interessate", ha scritto all'epoca Tang.

Un'iniziativa simile è Revisione dell'iniziativa dei cittadini dell'Oregon, che è stato convertito in legge nel 2011 e informa la popolazione votante dello stato delle misure di voto attraverso un "processo deliberativo" guidato dai cittadini. Circa 20-25 cittadini rappresentativi dell'intero elettorato dell'Oregon si incontrano per discutere i meriti di un'iniziativa; poi scrivono collettivamente una dichiarazione su quell'iniziativa che viene inviata ad altri elettori nello stato in modo che possano prendere decisioni più informate il giorno delle elezioni.

I cosiddetti processi deliberativi hanno anche contribuito con successo ad affrontare questioni in Australia (politica idrica), Canada (riforma elettorale), Cile (pensioni e assistenza sanitaria) e Argentina (alloggio, proprietà terriera), tra gli altri luoghi.

"Ci sono ostacoli per far funzionare tutto questo" quando si tratta di intelligenza artificiale, riconosce Ovadya, un'affiliata del Berkman Klein Center di Harvard, il cui lavoro è sempre più incentrato sugli impatti dell'IA sulla società e sulla democrazia. "Ma empiricamente, questo è stato fatto in ogni continente del mondo, su ogni scala" e "più velocemente possiamo implementare alcune di queste cose, meglio è", dice.

Lasciare che le persone decidano quali sono le linee guida accettabili in particolare per l'IA può sembrare strano per alcuni, ma anche i tecnologi credono che faccia parte della soluzione. Mira Murati, CTO della famosa startup di intelligenza artificiale OpenAI, pubblica Tempo  In una nuova intervista, "[Siamo] un piccolo gruppo di persone e abbiamo bisogno di molti più input in questo sistema e molto di più che vada oltre le tecnologie, in particolare le autorità di regolamentazione, i governi e altre entità simili".

Alla domanda se Murati teme che il coinvolgimento del governo possa soffocare l'innovazione o se pensa che sia troppo presto per il coinvolgimento di legislatori e regolatori, ha risposto: “Non è troppo presto. È molto importante che tutti inizino a essere coinvolti, dato l'impatto che queste tecnologie avranno".

Nell'attuale vuoto normativo, per ora OpenAI ha adottato un approccio autonomo, creazione di linee guida per l'uso sicuro della sua tecnologia e il rilascio di nuove iterazioni in un rivolo, a volte con frustrazione del pubblico in generale.

Nel frattempo, l'Unione Europea ha elaborato un quadro normativo, il Lae di AI, che si sta facendo strada nel Parlamento europeo e mira a diventare uno standard globale. La legge assegnerebbe le applicazioni di intelligenza artificiale a tre categorie di rischio: applicazioni e sistemi che creano "rischio inaccettabile"; "applicazioni ad alto rischio", come uno "strumento di scansione CV che classifica i candidati al lavoro" che sarebbe soggetto a requisiti legali specifici; e applicazioni non esplicitamente vietate o classificate come ad alto rischio che rimarrebbero in gran parte non regolamentate.

Anche il Dipartimento del Commercio degli Stati Uniti ha scritto un quadro volontario per guidare le imprese, ma non ci sono regolamenti, niente, quando urgentemente necessario. Oltre a OpenAI, giganti della tecnologia come Microsoft e Google, nonostante siano bruciati da versione precedente della sua stessa IA che hanno fallitoSono competere pubblicamente di nuovo per lanciare prodotti e applicazioni abilitati all'intelligenza artificiale, in modo che non vengano lasciati indietro.

Una sorta di World Wide Web Consortium, un'organizzazione internazionale creata nel 1994 per stabilire gli standard per il World Wide Web, avrebbe apparentemente senso. Infatti, in quell'intervista al Time, Murati osserva che "voci diverse, come filosofi, scienziati sociali, artisti e persone nelle discipline umanistiche" devono unirsi per rispondere alle tante "questioni etiche e filosofiche che dobbiamo considerare".

Forse l'industria partirà così, e la cosiddetta intelligenza collettiva colmerà molti degli spazi tra le visioni generaliste.

Alcuni nuovi strumenti possono aiutare a raggiungere questo scopo. Il CEO di Open AI Sam Altman è anche co-fondatore, ad esempio, di una società di scansione della retina a Berlino chiamata WorldCoin che vuole semplificare l'autenticazione dell'identità di qualcuno. Sono state sollevate domande sulle implicazioni sulla privacy e sulla sicurezza dell'approccio biometrico di WorldCoin, ma le sue potenziali applicazioni includono la distribuzione di un reddito di base universale globale, nonché il potenziamento di nuove forme di democrazia digitale.

In ogni caso, Ovadya ritiene che il ricorso a processi deliberativi che coinvolgono un gran numero di persone da tutto il mondo sia il modo per creare confini attorno all'IA, dando agli attori del settore maggiore credibilità.

"OpenAI sta ricevendo alcune critiche in questo momento da tutti", anche per il suo percepito pregiudizio liberaledice Ovadia. "Sarebbe utile [per l'azienda] avere una risposta davvero concreta" su come imposta le sue politiche future.

Allo stesso modo, Ovadya prende di mira Stability.AI, la società di intelligenza artificiale open source il cui CEO Emad Mostaque ha ripetutamente suggerito che Stability è più democratico di OpenAI perché è disponibile ovunque, mentre OpenAI è disponibile solo su paesi in questo momento dove puoi fornire "accesso sicuro"

Dice Ovadya: “Emad di Stability dice che sta 'democratizzando l'IA'. Bene, Non sarebbe bello usare processi democratici per scoprire cosa vogliono veramente le persone?

IMPARENTATO

Lascia un commento

Inserisci il tuo commento!
Per favore inserisci il tuo nome qui

La moderazione dei commenti è abilitata. Il tuo commento potrebbe richiedere del tempo per apparire.

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati dei tuoi commenti.

ISCRIVITI A TRPLANE.COM

Pubblica su TRPlane.com

Se hai una storia interessante su trasformazione, IT, digitale, ecc. che puoi trovare su TRPlane.com, inviacela e la condivideremo con l'intera Community.

ALTRE PUBBLICAZIONI

Attivare le notifiche OK No grazie

Benvenuto su TRPlane.com

Installazione
×