Spanish English French German Italian Portuguese
Social marketing
CasaTecnologiaIntelligenza artificialeGoogle lavorerà con l'Europa a un "Patto per l'intelligenza artificiale" provvisorio

Google lavorerà con l'Europa su un "patto di intelligenza artificiale" provvisorio

Sundar Pichai, di Google, ha accettato di collaborare con i legislatori europei su quello che è stato definito un "Patto per l'intelligenza artificiale", apparentemente un insieme provvisorio di norme o standard volontari mentre si lavora sulla regolamentazione formale dell'applicazione dell'Intelligenza Artificiale.

Pichai ha incontrato Thierry Breton, commissario dell'Unione europea per il mercato interno, che dopo la conferenza di oggi ha rilasciato una dichiarazione in cui afferma: «Non c’è tempo da perdere nel campo dell’intelligenza artificiale. “Non c’è tempo da perdere nella corsa all’intelligenza artificiale per costruire un ambiente online sicuro”.

Una nota informativa rilasciata dal suo ufficio dopo l’incontro afferma anche che l’UE vuole essere “proattiva” e lavorare su un patto sull’IA prima che la legislazione UE da applicare all’IA venga approvata.

La nota aggiunge che il blocco vuole lanciare un patto sull'intelligenza artificiale "al quale partecipano volontariamente tutti i principali agenti di intelligenza artificiale europei ed extraeuropei" e prima che scada il termine legale della suddetta legge paneuropea sull'intelligenza artificiale.

Tuttavia, al momento, l’unico colosso tecnologico che ha aderito pubblicamente all’iniziativa è Google.

Abbiamo contattato Google e la Commissione Europea per chiedere loro informazioni sull'iniziativa.

In altre dichiarazioni pubbliche, ha affermato Breton:

Ci aspettiamo che la tecnologia in Europa rispetti tutte le nostre regole, sulla protezione dei dati, sulla sicurezza online e sull’intelligenza artificiale. In Europa non è una questione di scelta.
Sono lieto che Sundar Pichai lo riconosca e si impegni a rispettare tutte le norme dell’UE.
È in vigore il GDPR [Regolamento generale sulla protezione dei dati]. Il DSA [Digital Services Act] e il DMA [Digital Markets Act] sono in fase di attuazione. I negoziati sulla legge sull’intelligenza artificiale si stanno avvicinando alla fase finale e invito il Parlamento europeo e il Consiglio ad adottare il quadro entro la fine dell’anno.
Sundar e io abbiamo convenuto che non possiamo permetterci di aspettare fino a quando il regolamento sull’IA sarà effettivamente applicabile e di collaborare con tutti gli sviluppatori di intelligenza artificiale per produrre volontariamente un AI Compact ora prima della scadenza legale.
Accolgo con favore anche l'impegno di Sundar a intensificare la lotta contro la disinformazione prima delle elezioni in Europa.

Anche se non ci sono dettagli su cosa potrebbe contenere il “patto sull’intelligenza artificiale”, come qualsiasi accordo di autoregolamentazione, mancherebbe di valore legale, quindi non ci sarebbe modo di costringere gli sviluppatori a firmare, e nessuna conseguenza per coloro che non lo fanno. t rispettare gli impegni (volontari).

Tuttavia, potrebbe essere un passo avanti verso il tipo di cooperazione internazionale nello sviluppo degli standard che un certo numero di tecnologi hanno richiesto nelle ultime settimane e mesi.

L’UE ha dei precedenti quando si tratta di convincere i giganti della tecnologia a impegnarsi nell’autoregolamentazione: ha stabilito, nel corso di diversi anni, un paio di accordi volontari (noti anche come Codici) a cui hanno firmato vari giganti della tecnologia (incluso Google), impegnandosi a migliorare le loro risposte alle segnalazioni di incitamento all'odio online e alla divulgazione di disinformazione dannosa. E anche se i due Codici sopra menzionati non hanno risolto quelle che rimangono questioni complesse relative alla moderazione del discorso online, hanno fornito all’UE un metro con cui misurare se le piattaforme sono all’altezza delle proprie affermazioni – e, a volte, sono soliti distribuire un leggero pestaggio pubblico quando non lo sono.

Più in generale, l’UE è in vantaggio rispetto al resto del mondo nello sviluppo di standard digitali e ha già redatto norme sull’intelligenza artificiale: due anni fa ha proposto un quadro basato sul rischio per le applicazioni dell’intelligenza artificiale. Eppure, anche i migliori sforzi del blocco restano indietro rispetto ai progressi nel campo, che sono stati particolarmente virulenti quest’anno, dopo che il chatbot AI generativo di OpenAI, ChatGPT, è diventato ampiamente disponibile per gli utenti del web e ha guadagnato l’attenzione virale.

Al momento, il progetto di legge dell’UE sull’intelligenza artificiale, proposto nell’aprile 2021, rimane un atto legislativo vivo tra il Parlamento europeo e il Consiglio, con il primo che ha recentemente concordato una serie di emendamenti che desidera includere, tra cui diversi volti all’intelligenza artificiale generativa. .

I colegislatori dell’UE dovranno raggiungere un compromesso sul testo finale, quindi resta da vedere quale sarà la forma finale dei regolamenti sull’IA del blocco.

Inoltre, anche se la legge venisse approvata prima della fine dell’anno, che è la scadenza più ottimistica, ci vorrà almeno un anno perché venga applicata agli sviluppatori di intelligenza artificiale. Pertanto i commissari europei stanno spingendo per misure provvisorie.

All’inizio di questa settimana, la vicepresidente Margrethe Vestager, a capo della strategia digitale del blocco, ha suggerito che l’UE e gli Stati Uniti erano disposti a cooperare per stabilire standard minimi prima che la legislazione entrasse in vigore (via Reuters).

Parlando dopo l'incontro con Google, Vestager ha twittato: «Abbiamo bisogno della legge sull’IA il prima possibile, ma la tecnologia dell’IA si sta evolvendo a una velocità estrema. “Quindi abbiamo bisogno di un accordo volontario sugli standard universali per l’IA adesso”.

Un portavoce della Commissione ha spiegato il commento di Vestager: "Durante la riunione ministeriale del G7 sul digitale tenutasi a Takasaki, in Giappone, il 29 e 30 aprile, il vicepresidente Vestager ha proposto limiti di sicurezza sull'intelligenza artificiale concordati a livello internazionale che le aziende possono rispettare volontariamente fino all'entrata in vigore della legge sull'intelligenza artificiale. l'Unione Europea. Questa proposta è stata raccolta dai leader del G7, che sabato scorso nel loro comunicato hanno concordato di avviare il “Processo di Hiroshima sull’intelligenza artificiale”, con l’obiettivo di progettare tali barriere, in particolare per l’intelligenza artificiale generativa”.

Nonostante queste improvvise manifestazioni di forte precipitazione, vale la pena notare che l’attuale regolamento sulla protezione dei dati dell’UE, il GDPR, può ed è stato applicato contro alcune applicazioni di intelligenza artificiale, tra cui ChatGPT, Replika e Clearview AI, per citarne tre. Ad esempio, un intervento normativo su ChatGPT in Italia alla fine di marzo ha portato alla sospensione del servizio, seguito dallo sviluppo da parte di OpenAI di nuove dichiarazioni e controlli per gli utenti nel tentativo di rispettare le norme sulla privacy.

In aggiunta a ciò, come sottolinea Breton, i nuovi DSA e DMA potrebbero creare nuovi requisiti rigorosi a cui gli sviluppatori di app AI dovranno attenersi, a seconda della natura del loro servizio, nei prossimi mesi e anni non appena queste regole inizieranno ad applicarsi. ai servizi digitali, alle piattaforme e ai colossi tecnologici che maggiormente influenzano il mercato (nel caso della DMA).

Tuttavia, l’UE resta convinta della necessità di norme specifiche basate sul rischio per l’IA. E, a quanto pare, è disposta a sfruttare ulteriormente l’“effetto Bruxelles” che la sua legislazione digitale potrebbe attirare annunciando ora un patto provvisorio sull’intelligenza artificiale.

Nelle ultime settimane e mesi, anche i legislatori statunitensi hanno rivolto la loro attenzione alla delicata questione di come regolamentare al meglio l’intelligenza artificiale. Recentemente, una commissione del Senato ha tenuto un’audizione in cui Sam Altman, CEO di OpenAI, ha espresso la sua opinione su come regolamentare questa tecnologia.

Google potrebbe voler giocare dall’altra parte e affrettarsi a collaborare con l’UE su standard volontari. Che la corsa agli armamenti per la regolamentazione dell’IA abbia inizio!

IMPARENTATO

Lascia un commento

Inserisci il tuo commento!
Per favore inserisci il tuo nome qui

La moderazione dei commenti è abilitata. Il tuo commento potrebbe richiedere del tempo per apparire.

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati dei tuoi commenti.

ISCRIVITI A TRPLANE.COM

Pubblica su TRPlane.com

Se hai una storia interessante su trasformazione, IT, digitale, ecc. che puoi trovare su TRPlane.com, inviacela e la condivideremo con l'intera Community.

ALTRE PUBBLICAZIONI

Attivare le notifiche OK No grazie