Spanish English French German Italian Portuguese
Social marketing
CasaIAL'ente antitrust del Regno Unito esaminerà l'IA generativa

L'ente antitrust del Regno Unito esaminerà l'IA generativa

Il cane da guardia della concorrenza del Regno Unito ha annunciato a revisione iniziale di "modelli di intelligenza artificiale fondamentali", come i modelli linguistici estesi (LLM) che sono alla base di ChatGPT di OpenAI e New Bing di Microsoft. Anche i modelli di intelligenza artificiale generativa che alimentano le piattaforme artistiche di intelligenza artificiale, come DALL-E o Midjourney di OpenAI, saranno probabilmente inclusi nell'ambito.

L'Autorità per la concorrenza e i mercati (CMA) ha affermato che la sua revisione esaminerà le considerazioni sulla concorrenza e sulla protezione dei consumatori nello sviluppo e nell'uso di modelli fondamentali di IA, con l'obiettivo di comprendere "come i modelli fondamentali e produrre una valutazione delle condizioni e dei principi che guidare meglio lo sviluppo dei modelli di base e il loro utilizzo futuro”.

Propone di pubblicare la revisione "all'inizio di settembre", con una scadenza del 2 giugno per le parti interessate per inviare risposte per informare il loro lavoro.

“I modelli di base, compresi i grandi modelli linguistici e l'intelligenza artificiale generativa (AI), che sono emersi negli ultimi cinque anni, hanno il potenziale per trasformare gran parte di ciò che fanno le persone e le aziende. Per garantire che l'innovazione dell'IA continui a beneficiare i consumatori, le imprese e l'economia del Regno Unito, il governo ha chiesto alle autorità di regolamentazione, inclusa la [CMA], di esaminare come sostenere lo sviluppo innovativo e l'implementazione dell'IA in cinque principi generali: sicurezza , sicurezza e robustezza; adeguata trasparenza e spiegabilità; giustizia; responsabilità e governance; e contestabilità e riparazione ", ha scritto la CMA in un comunicato stampa".

Il Basic Models Research Center presso il Center for Human-Centered Artificial Intelligence della Stanford University è accreditato di aver coniato il termine "modelli di base", nel 2021, per riferirsi a sistemi di intelligenza artificiale che si concentrano sull'addestramento di un modello su una grande quantità di dati e adattarlo a molte applicazioni.

“Lo sviluppo dell'IA tocca una serie di questioni importanti, come la sicurezza, il diritto d'autore, la privacy e i diritti umani, nonché il modo in cui funzionano i mercati. Molte di queste questioni sono all'esame del governo o di altre autorità di regolamentazione, quindi questa revisione iniziale si concentrerà sulle domande che il CMA è nella posizione migliore per affrontare: quali sono le probabili implicazioni dello sviluppo di modelli di intelligenza artificiale di base per la concorrenza e la protezione dei consumatori? aggiunto il CMA.

In una dichiarazione, il suo CEO, Sarah Cardell, ha anche dichiarato:

L'intelligenza artificiale è esplosa nella coscienza pubblica negli ultimi mesi, ma è sul nostro radar da tempo. È una tecnologia in rapido sviluppo che ha il potenziale per trasformare il modo in cui le aziende competono, oltre a guidare una crescita economica sostanziale.

È fondamentale che i potenziali vantaggi di questa tecnologia trasformativa siano facilmente accessibili alle imprese e ai consumatori del Regno Unito, mentre le persone rimangono protette da problemi come informazioni false o fuorvianti. Il nostro obiettivo è aiutare questa nuova tecnologia in rapida espansione a svilupparsi in modo da garantire mercati aperti e competitivi e un'efficace protezione dei consumatori.

In particolare, l'autorità di regolamentazione della concorrenza del Regno Unito ha affermato che la sua revisione iniziale dei modelli fondamentali di intelligenza artificiale:

  • esaminare come potrebbero evolversi i mercati competitivi per i modelli di fondazione e il loro utilizzo
  • esplorare quali opportunità e quali rischi potrebbero comportare questi scenari per la concorrenza e la protezione dei consumatori
  • produrre principi guida per sostenere la concorrenza e proteggere i consumatori man mano che vengono sviluppati modelli di IA di base

Mentre si può vedere che l'autorità di regolamentazione antitrust effettuerà una revisione di una tecnologia emergente in rapido movimento, la CMA sta agendo su istruzioni del governo.

Un white paper sull'IA pubblicato a marzo ha rilevato la preferenza dei ministri di evitare di stabilire regole personalizzate (o organismi di supervisione) per disciplinare gli usi dell'IA in questa fase. Tuttavia, i ministri hanno affermato che le autorità di regolamentazione britanniche esistenti, inclusa la CMA, il cui nome è stato nominato direttamente, dovrebbero emettere orientamenti per incoraggiare usi sicuri, equi e responsabili dell'IA.

La CMA afferma che la sua revisione iniziale dei modelli fondamentali di intelligenza artificiale è in linea con le istruzioni del libro bianco, in cui il governo ha parlato di autorità di regolamentazione esistenti che conducono "analisi dettagliate del rischio" per essere in grado di eseguire potenziali esecuzioni. , applicazioni scorrette e irresponsabili dell'IA, utilizzando i suoi poteri esistenti.

Il regolatore indica anche la sua missione principale, sostenere mercati aperti e competitivi, come un altro motivo per dare un'occhiata all'IA generativa ora.

In particolare, il cane da guardia della concorrenza è pronto ad acquisire ulteriori poteri per regolamentare Big Tech nei prossimi anni, secondo i piani che il governo del primo ministro Rishi Sunak ha accantonato il mese scorso quando i ministri hanno detto che avrebbero portato avanti una riforma (ma attesa da tempo) mirata al mercato potenza dei giganti digitali.

L'aspettativa è che l'Unità per i mercati digitali della CMA, operante dal 2021 nell'ombra, ottenga (finalmente) poteri legislativi nei prossimi anni per applicare regole proattive "a favore della concorrenza" adattate alle piattaforme ritenute dotate di "mercato strategico". stato” (SMS). Quindi possiamo ipotizzare che in futuro, i fornitori di potenti modelli di intelligenza artificiale fondamentali potrebbero essere giudicati dotati di SMS, il che significa che potrebbero aspettarsi di dover affrontare regole personalizzate su come dovrebbero operare contro rivali e consumatori nel mercato del Regno Unito.

Anche il cane da guardia per la protezione dei dati del Regno Unito, l'ICO, tiene d'occhio l'IA generativa. È un altro organo di controllo esistente che è stato incaricato dal governo di prestare particolare attenzione all'intelligenza artificiale nell'ambito del suo piano di orientamento specifico del contesto per guidare lo sviluppo della tecnologia attraverso l'applicazione delle leggi esistenti.

In uno post sul blog Il mese scorso, Stephen Almond, direttore esecutivo del rischio normativo di ICO, ha offerto alcuni consigli e un po' di avvertimento per gli sviluppatori di intelligenza artificiale generativa quando si tratta di rispettare le normative sulla protezione dei dati del Regno Unito. “Le organizzazioni che sviluppano o utilizzano l'IA generativa dovrebbero considerare i propri obblighi di protezione dei dati fin dall'inizio, assumendosi la protezione dei dati per layout e messa a fuoco predefiniti," Egli suggerì. "Questo non è facoltativo: se stai elaborando dati personali, è la legge."

Nel frattempo, dall'altra parte della Manica nell'Unione Europea, i legislatori stanno decidendo su un insieme fisso di regole che probabilmente si applicheranno all'IA generativa.

Sono in corso i negoziati per un testo definitivo per il regolamento sull'IA in entrata dell'UE, ma attualmente c'è un focus su come regolamentare i modelli fondamentali attraverso modifiche al quadro basato sul rischio per la regolamentazione degli usi dell'IA che il blocco ha pubblicato nella bozza più di due anni fa .

Resta da vedere dove finiranno i colegislatori dell'UE in quella che a volte viene anche chiamata IA di uso generale. Ma i parlamentari stanno spingendo per un approccio stratificato per affrontare i problemi di sicurezza con modelli fondamentali; la complessità delle responsabilità nelle catene di approvvigionamento dell'IA; e per affrontare problemi di contenuto specifici (come il copyright) associati all'IA generativa.

Aggiungete a questo, ovviamente, la legge sulla protezione dei dati dell'UE che già si applica all'intelligenza artificiale. E le indagini incentrate sulla privacy di modelli come ChatGPT sono in corso in tutto il blocco, anche in Italia, dove un intervento dell'organismo di vigilanza locale ha portato OpenAI ad affrettare una serie di divulgazioni e controlli sulla privacy il mese scorso.

Il comitato europeo per la protezione dei dati ha anche recentemente creato un gruppo di lavoro per sostenere il coordinamento tra le diverse autorità di protezione dei dati sulle indagini sui chatbot di IA. Altri ricercatori di ChatGPT includono il cane da guardia della privacy della Spagna.

IMPARENTATO

Lascia un commento

Inserisci il tuo commento!
Per favore inserisci il tuo nome qui

La moderazione dei commenti è abilitata. Il tuo commento potrebbe richiedere del tempo per apparire.

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati dei tuoi commenti.

ISCRIVITI A TRPLANE.COM

Pubblica su TRPlane.com

Se hai una storia interessante su trasformazione, IT, digitale, ecc. che puoi trovare su TRPlane.com, inviacela e la condivideremo con l'intera Community.

ALTRE PUBBLICAZIONI

Attivare le notifiche OK No grazie