Spanish English French German Italian Portuguese
Social marketing
CasaIAAltman di OpenAI e altri giganti dell'intelligenza artificiale sostengono l'avvertimento...

Altman di OpenAI e altri giganti dell'intelligenza artificiale lanciano un avvertimento sul rischio di "estinzione" dell'intelligenza artificiale avanzata

Fate posto a un altro intervento politico sull’intelligenza artificiale che farà notizia: Centinaia di scienziati, accademici, amministratori delegati del settore tecnologico e personaggi pubblici legati all'intelligenza artificiale -da Sam Altman, CEO di OpenAI, e Demis Hassabis, CEO di DeepMind, a Geoffrey Hinton, scienziato informatico veterano dell'intelligenza artificiale, Max Tegmark del MIT e Jaan Tallinn, co-fondatore di Skype, al musicista Grimes e al populista podcaster Sam Harris, per citare alcuni- hanno aderito a una dichiarazione che sollecita l’attenzione globale sul rischio esistenziale dell’intelligenza artificiale.

La dichiarazione, ospitata sul sito web di un’organizzazione no-profit con sede a San Francisco, finanziata privatamente, chiamata Center for AI Safety (CAIS), pretende di equiparare il rischio dell’intelligenza artificiale ai danni esistenziali posti dall’apocalisse e invita i politici a concentrare l’attenzione. sulla mitigazione di quello che dicono sia un rischio di estinzione dell’IA di livello “catastrofico”.

Ecco la sua dichiarazione riassuntiva:

Mitigare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi sociali come le pandemie e la guerra nucleare.

Secondo una breve spiegazione sul sito web della CAIS, la dichiarazione è stata mantenuta "succinta" perché i suoi autori temono che il suo messaggio su "alcuni dei rischi più gravi dell'IA avanzata" non venga soffocato dal dibattito sugli altri. Rischi urgenti dell’IA” che tuttavia suggeriscono di ostacolare il dibattito sul rischio di estinzione dell’IA.

Tuttavia, negli ultimi mesi abbiamo sentito più volte le stesse preoccupazioni ad alta voce, poiché l'hype sull'IA è cresciuto grazie al maggiore accesso a strumenti di intelligenza artificiale generativa come ChatGPT e DALL-E di OpenAI, che ha portato a un eccesso di titoli sui giornali riguardo il rischio di IA killer “super-intelligenti”. (Come questo, dell’inizio di questo mese, in cui Hinton, uno dei firmatari della dichiarazione, ha messo in guardia dalla “minaccia esistenziale” derivante dalla presa del sopravvento dell’IA. O questo, della settimana scorsa, in cui Altman ha chiesto una regolamentazione per impedire all’IA di distruggendo l’umanità).

C'è anche la lettera aperta firmata da Elon Musk (e decine di altri) a marzo, che chiedeva una pausa di sei mesi sullo sviluppo di modelli di intelligenza artificiale più potenti del GPT-4 di OpenAI per dare tempo alla progettazione dei protocolli condivisi. standard di sicurezza e applicati all’intelligenza artificiale avanzata, mettendo in guardia dai rischi posti da “menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – può comprendere, prevedere o controllare in modo affidabile”.

Pertanto, negli ultimi mesi, c’è stata una raffica di avvertimenti altamente pubblicizzati sui rischi dell’IA che ancora non esistono.

Probabilmente, questa raffica di titoli isterici ha distolto l’attenzione da un esame più approfondito del danno esistente. Ad esempio, l’uso gratuito di dati protetti da copyright per addestrare sistemi di intelligenza artificiale senza autorizzazione o consenso (o pagamento); o l'estrazione sistematica di dati personali on-line in violazione della privacy delle persone fisiche; oppure la mancanza di trasparenza da parte dei colossi dell’intelligenza artificiale riguardo ai dati utilizzati per addestrare questi strumenti. O, addirittura, difetti come la disinformazione (“allucinazione”) e rischi come i pregiudizi (discriminazione automatizzata). Per non parlare dello spam indotto dall’intelligenza artificiale. E il costo ambientale dell’energia spesa per addestrare questi mostri IA.

Non sorprende che, a seguito di un incontro della scorsa settimana tra il Primo Ministro britannico e alcuni alti dirigenti dell’IA, tra cui Altman e Hassabis, il governo sembri cambiare rotta sulla regolamentazione dell’IA, con un improvviso interesse per il rischio esistenziale, riferisce The Custode.

Parlare di rischio esistenziale nell’intelligenza artificiale distrae anche dalle questioni relative alla struttura e al dominio del mercato., come ha sottolineato Jenna Burrell, direttrice della ricerca presso Data & Society, in un recente articolo della Columbia Journalism Review che analizza la copertura mediatica di ChatGPT, sostenendo che dobbiamo smettere di concentrarci sulle false piste, come la possibile "sensibilità dell'intelligenza artificiale", per concentrarci su come L’intelligenza artificiale sta concentrando ulteriormente ricchezza e potere.

Quindi, ovviamente, ci sono chiare motivazioni commerciali che spingono i giganti dell’intelligenza artificiale a voler dirigere l’attenzione normativa verso un futuro teoricamente lontano, parlando di un giorno del giudizio basato sull’intelligenza artificiale, come uno stratagemma per distogliere l’attenzione dai legislatori su una concorrenza più fondamentale e considerazioni antitrust nel qui e ora. (E lo sfruttamento dei dati come strumento per concentrare il potere di mercato non è una novità.)

Sicuramente la dice lunga sulle strutture di potere dell’IA esistenti il ​​fatto che i dirigenti di giganti dell’IA come OpenAI, DeepMind, Stability AI e Anthropic siano così felici di unirsi e chiacchierare insieme quando si tratta di amplificare pubblicamente le conversazioni sul rischio esistenziale dell’IA. E quanto sono più riluttanti a riunirsi per discutere del danno che i loro strumenti potrebbero causare in questo momento.

OpenAI è stato uno dei non firmatari della suddetta lettera aperta (firmata da Musk), ma molti dei suoi dipendenti sostengono la dichiarazione CAIS (mentre Musk a quanto pare non lo fa). Quindi l'ultima dichiarazione sembra offrire una risposta commerciale (non ufficiale) da parte di OpenAI (e altri) al precedente tentativo di Musk di dirottare la narrativa del rischio esistenziale dell'IA per i propri interessi (che non favoriscono più OpenAI a guidare la carica per l'IA).

Piuttosto che chiedere una pausa nello sviluppo, che potrebbe congelare la leadership di OpenAI nel campo dell’intelligenza artificiale generativa, la dichiarazione spinge i politici a concentrarsi sulla mitigazione del rischio, e lo fa mentre OpenAI finanzia contemporaneamente gli sforzi per modellare “processi democratici per la gestione dell’intelligenza artificiale”. come ha detto Altman. Pertanto l’azienda si sta posizionando attivamente (e utilizzando la ricchezza dei suoi investitori) per influenzare la forma di eventuali future barriere di mitigazione, insieme a continui sforzi di lobbying di persona rivolti ai regolatori internazionali. Altman ha anche recentemente minacciato pubblicamente di rimuovere lo strumento OpenAI dall’Europa se il progetto europeo di regolamento sull’IA non fosse stato attenuato per escluderne la tecnologia.

D'altra parte, alcuni dei firmatari della lettera di cui sopra sono stati semplicemente felici di cogliere un'altra opportunità pubblicitaria, stampando il proprio nome su entrambi (ciao Tristan Harris!).

Ma chi è CAIS? Sono disponibili poche informazioni pubbliche sull'organizzazione che ospita questo messaggio. Tuttavia, ammette che ciò esercita pressione sui responsabili politici. Il suo sito web afferma che la sua missione è "ridurre i rischi dell'intelligenza artificiale su scala sociale" e afferma che è impegnata a promuovere la ricerca e la creazione di campi a tal fine, compresi i finanziamenti alla ricerca, oltre ad avere un ruolo dichiarato di sostegno politico.

Le FAQ del sito web offrono informazioni limitate su chi lo sostiene finanziariamente (si dice che sia finanziato da donazioni private). In risposta alla domanda "Il CAIS è un'organizzazione indipendente?", si afferma brevemente che essa "serve l'interesse pubblico":

Il CAIS è un'organizzazione senza scopo di lucro finanziata interamente con contributi privati. Le nostre politiche e linee guida di ricerca non sono determinate dai singoli donatori, garantendo che il nostro obiettivo rimanga quello di servire l’interesse pubblico.

Abbiamo contattato il CAIS per porre loro delle domande.

In un thread su Twitter che accompagna il rilascio della dichiarazione, il direttore del CAIS Dan Hendrycks amplia la spiegazione della suddetta dichiarazione, citando "pregiudizi sistemici, disinformazione, uso dannoso, attacchi informatici e utilizzo di armi" come esempi di "rischi importanti e urgenti legati all'IA... non solo il rischio di estinzione”.

“Questi sono tutti rischi importanti che devono essere affrontati”suggerisce anche, minimizzando le preoccupazioni che i politici abbiano una larghezza di banda limitata per affrontare i danni dell’intelligenza artificiale, sostenendo: “Le società possono gestire più rischi contemporaneamente; non è "o/o", ma "sì/e". Dal punto di vista della gestione del rischio, così come non sarebbe saggio dare priorità esclusivamente al danno attuale, sarebbe altrettanto imprudente ignorarlo”.

Il thread attribuisce anche a David Krueger, professore assistente di informatica all'Università di Cambridge, l'idea di avere una dichiarazione di una frase sui rischi dell'intelligenza artificiale e di aiutare "congiuntamente" il suo sviluppo.

IMPARENTATO

Lascia un commento

Inserisci il tuo commento!
Per favore inserisci il tuo nome qui

La moderazione dei commenti è abilitata. Il tuo commento potrebbe richiedere del tempo per apparire.

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati dei tuoi commenti.

ISCRIVITI A TRPLANE.COM

Pubblica su TRPlane.com

Se hai una storia interessante su trasformazione, IT, digitale, ecc. che puoi trovare su TRPlane.com, inviacela e la condivideremo con l'intera Community.

ALTRE PUBBLICAZIONI

Attivare le notifiche OK No grazie