Spanish English French German Italian Portuguese
Social marketing
CasaIALe più grandi domande dell’intelligenza artificiale richiedono un approccio interdisciplinare

Le più grandi domande dell’intelligenza artificiale richiedono un approccio interdisciplinare

Quando Elon Musk annunciò la squadra dietro la sua nuova società di intelligenza artificiale xAI, la cui missione è presumibilmente quella di “comprendere la vera natura dell’universo”, ha sottolineato l’importanza fondamentale di rispondere alle preoccupazioni esistenziali sulle promesse e sui pericoli dell’intelligenza artificiale.

Se la società appena costituita possa davvero allineare il proprio comportamento per ridurre i potenziali rischi della tecnologia, o se il suo unico obiettivo sia ottenere un vantaggio rispetto a OpenAI, la sua formazione solleva importanti domande su come le aziende dovrebbero effettivamente rispondere alle preoccupazioni sull’intelligenza artificiale. Nello specifico:

  1. Chi internamente, soprattutto nelle aziende modello più grandi, si sta davvero ponendo domande sugli impatti a breve e lungo termine della tecnologia che stanno costruendo?
  2. Stanno affrontando i problemi con la giusta prospettiva ed esperienza?
  3. Riescono a bilanciare adeguatamente le considerazioni tecnologiche con le questioni sociali, morali ed epistemologiche?

Può essere immaginato, fino ad ora, come due stanze. In uno di essi, con persone che riflettono profondamente sull’etica (“Cosa è giusto e cosa è sbagliato?”), sull’ontologia (“Cosa c’è veramente?”) e sull’epistemologia (“Cosa sappiamo veramente?”). Dall’altro, persone che si occupano di algoritmi, codici e matematica.

Questa combinazione non è così disarmonica nel contesto di come le aziende dovrebbero pensare all’intelligenza artificiale. La posta in gioco nell’impatto dell’intelligenza artificiale è esistenziale e le aziende devono assumere un impegno autentico, degno di tali rischi.

L’intelligenza artificiale etica richiede una profonda comprensione di ciò che esiste, di ciò che vogliamo, di ciò che pensiamo di sapere e di come si sviluppa l’intelligenza.

Ciò significa dotare i team di leadership di strumenti adeguati per analizzare le conseguenze della tecnologia che stanno costruendo, che va oltre la naturale competenza degli ingegneri che scrivono codice e applicano le API.

L’intelligenza artificiale non è una sfida esclusivamente informatica, neuroscientifica o di ottimizzazione. È una sfida umana. Per affrontarlo, dobbiamo adottare una versione duratura di un “incontro delle menti sull’intelligenza artificiale”, equivalente nella portata a L'incontro interdisciplinare Oppenheimer nel deserto del New Mexico all'inizio degli anni '1940.

La collisione del desiderio umano con le conseguenze indesiderate dell’intelligenza artificiale si traduce in quello che i ricercatori chiamano il “problema di allineamento”, descritto dagli esperti in Brian Cristiano dal libro "Il problema dell'allineamento". Essenzialmente, le macchine hanno la capacità di interpretare erroneamente le nostre istruzioni più complete e noi, in quanto presunti padroni, abbiamo una scarsa esperienza nel far loro comprendere appieno ciò che pensiamo di volere che facciano.

Il risultato netto: gli algoritmi possono promuovere pregiudizi e disinformazione e quindi corrodere il tessuto della nostra società. In uno scenario più distopico a lungo termine, possono prendere la decisione”svolta insidiosa” e gli algoritmi ai quali abbiamo ceduto troppo controllo sul funzionamento della nostra civiltà superano tutti noi.

A differenza della sfida di Oppenheimer, che era uno scienziato, l’IA etica richiede una profonda comprensione di ciò che esiste, di ciò che vogliamo, di ciò che pensiamo di sapere e di come si sviluppa l’intelligenza. Si tratta di un compito certamente di natura analitica, anche se non strettamente scientifico. Richiede un approccio integrativo radicato nel pensiero critico sia delle discipline umanistiche che delle scienze.

Pensatori provenienti da campi diversi devono lavorare a stretto contatto, ora più che mai. Il team ideale per un’azienda che intende farlo potrebbe davvero essere:

  • Responsabile dell'IA e dell'etica dei dati: Questa persona si occuperebbe di questioni a breve e lungo termine relative ai dati e all'intelligenza artificiale, tra cui, ma non solo, l'articolazione e l'adozione di principi di etica dei dati, lo sviluppo di architetture di riferimento per il loro utilizzo etico, i diritti dei cittadini su come consumare i propri dati. dati e utilizzati dall'IA e protocolli per modellare e controllare adeguatamente il comportamento dell'IA. Questo dovrebbe essere separato dal Chief Technology Officer, il cui ruolo è in gran parte quello di eseguire un piano tecnologico piuttosto che affrontarne le implicazioni. Si tratta di una posizione di alto livello all'interno dello staff dell'amministratore delegato che colma il divario di comunicazione tra i decisori interni e le autorità di regolamentazione. Non è possibile separare un esperto di etica dei dati da un esperto di etica dell’intelligenza artificiale: i dati sono il presupposto e il carburante per l’intelligenza artificiale. L’intelligenza artificiale stessa genera nuovi dati.
  • Capo Architetto Filosofo: Questo ruolo affronterebbe le preoccupazioni esistenziali a lungo termine con un focus primario sul “problema di allineamento”: come definire salvaguardie, politiche, backdoor e kill switch in modo che l’intelligenza artificiale si allinei il più fedelmente possibile ai bisogni e agli obiettivi umani. .
  • Neuroscienziato capo: Questa persona affronterebbe domande critiche sulla sensibilità e su come si sviluppa l'intelligenza all'interno dei modelli di intelligenza artificiale, quali modelli di cognizione umana sono più rilevanti e utili per lo sviluppo dell'intelligenza artificiale e cosa può insegnarci l'intelligenza artificiale sulla cognizione umana.

Fondamentalmente, per trasformare i risultati del dream team in una tecnologia responsabile ed efficace, abbiamo bisogno di tecnologi in grado di tradurre i concetti astratti e le domande poste dai “Tre” in software funzionante. Come per tutti i gruppi tecnologici, ciò dipende dal fatto che il leader/progettista del prodotto veda il quadro generale.

Una nuova generazione di leader di prodotti creativi nell’“era dell’intelligenza artificiale” deve muoversi comodamente attraverso nuovi livelli di infrastrutture tecnologiche che comprendono l’infrastruttura modello per l’intelligenza artificiale, nonché nuovi servizi per cose come l’ottimizzazione e lo sviluppo di modelli brevettati. Devono essere abbastanza inventivi da immaginare e progettare flussi di lavoro “Human in the Loop” per implementare protezioni, backdoor e kill switch come prescritto dal capo architetto filosofo. Devono avere la capacità di un ingegnere rinascimentale per tradurre le politiche e i protocolli del capo dell’intelligenza artificiale e dell’etica dei dati in sistemi che funzionino. Devono apprezzare gli sforzi del capo neuroscienziato per spostarsi tra le macchine e le menti e discernere adeguatamente i risultati che potrebbero portare a un’intelligenza artificiale più intelligente e responsabile.

Consideriamo OpenAI come uno dei primi esempi di un'azienda modello fondamentale, estremamente influente e ben sviluppata, alle prese con questa sfida di personale: hanno un il capo scienziato (che ne è anche il cofondatore), a capo della politica globale e Consigliere generale.

Tuttavia, senza le tre posizioni sopra descritte nelle posizioni di leadership esecutiva, le domande più grandi sulle implicazioni della loro tecnologia rimangono senza risposta. Se Sam Altman lo è ha riguardato In termini di approccio al trattamento e al coordinamento della superintelligenza in modo ampio e ponderato, costruire un allineamento olistico è un buon punto di partenza.

Dobbiamo costruire un futuro più responsabile in cui le aziende siano custodi fidati dei dati delle persone e in cui l’innovazione guidata dall’intelligenza artificiale sia sinonimo di bene. In passato, i team legali hanno aperto la strada su questioni come la privacy, ma i più brillanti riconoscono di non poter risolvere da soli i problemi dell’uso etico dei dati nell’era dell’intelligenza artificiale.

Portare prospettive diverse e di ampie vedute nel luogo in cui vengono prese le decisioni è l’unico modo per ottenere dati etici e intelligenza artificiale al servizio della crescita umana, mantenendo le macchine al loro posto.

IMPARENTATO

ISCRIVITI A TRPLANE.COM

Pubblica su TRPlane.com

Se hai una storia interessante su trasformazione, IT, digitale, ecc. che puoi trovare su TRPlane.com, inviacela e la condivideremo con l'intera Community.

ALTRE PUBBLICAZIONI

Attivare le notifiche OK No grazie