Spanish English French German Italian Portuguese
Social marketing
CasaGeneralesicurezza informatica4 domande da porsi quando si valuta la prototipazione AI...

4 domande da porre quando si valutano i prototipi di intelligenza artificiale per bias

È vero che negli Stati Uniti sono stati compiuti progressi nella protezione dei dati grazie all'approvazione di varie leggi, come il California Consumer Privacy Act (CCPA), e documenti non vincolanti, come il Progetto per una Carta dei diritti AI; tuttavia, attualmente non esiste una regolamentazione standard che stabilisca come le aziende tecnologiche dovrebbero mitigare i pregiudizi e la discriminazione dell'IA.

Di conseguenza, molte aziende sono in ritardo nella creazione di strumenti etici che danno priorità alla privacy. Quasi l'80% dei data scientist negli Stati Uniti sono uomini e il 66% sono bianchi, mostrando un'intrinseca mancanza di diversità e rappresentazione demografica nello sviluppo di strumenti decisionali automatizzati, che spesso porta a risultati di dati distorti.

Per garantirlo sono necessari miglioramenti significativi nei processi di revisione del progetto aziende tecnologiche considera tutte le persone quando crei e modifichi i tuoi prodotti. In caso contrario, le organizzazioni possono rischiare di perdere clienti a causa della concorrenza, offuscare la loro reputazione e rischiare gravi azioni legali. Secondo IBM, circa l'85% dei professionisti IT ritiene che i consumatori scelgano aziende trasparenti su come i loro algoritmi di intelligenza artificiale vengono creati, gestiti e utilizzati. Possiamo aspettarcelo questa cifra aumenterà man mano che più utenti continueranno a posizionarsi contro la tecnologia dannoso e di parte.

Quindi, cosa dovrebbero prendere in considerazione le aziende quando tempo per analizzare il tuo prototipi? Ecco quattro domande che i team di sviluppo dovrebbero porsi:

Abbiamo escluso tutti i tipi di bias nel nostro prototipo?

Per creare una tecnologia efficace e priva di pregiudizi, I team di intelligenza artificiale dovrebbero elaborare un elenco di domande da porre durante il processo di revisione che possono aiutarli per identificare possibili problemi nei loro modelli.

Esistono molte metodologie che i team di intelligenza artificiale possono utilizzare per valutare i propri modelli, ma prima di farlo è essenziale valutare il obiettivo finale e se esiste un gruppo che potrebbe essere influenzato in modo sproporzionato dai risultati dell'uso dell'IA.

Ad esempio, i team di intelligenza artificiale dovrebbero tenere presente che l'uso di le tecnologie di riconoscimento facciale possono inavvertitamente discriminare le persone di colore, qualcosa che accade troppo spesso negli algoritmi AI. Un'indagine condotta dall'American Civil Liberties Union nel 2018 ha mostrato che il riconoscimento facciale Amazon non corrispondeva a 28 membri del Congresso degli Stati Uniti con foto segnaletiche. Uno sbalorditivo 40% di corrispondenze errate erano persone di colore, anche se rappresentano solo il 20% del Congresso.

Ponendo domande difficili, i team di intelligenza artificiale possono trovare nuovi modi per migliorare i propri modelli e lavorare per evitare che si verifichino queste situazioni. Ad esempio, un attento esame può aiutarli a determinare se hanno bisogno analizzare più dati o se avranno bisogno di una terza parte, come un esperto di privacy, per esaminare il loro prodotto.

Trama4AI è una grande risorsa per coloro che vogliono iniziare.

Abbiamo nominato un professionista della privacy o un avvocato?

A causa della natura del loro lavoro, i professionisti della privacy sono stati tradizionalmente visti come ostacoli all'innovazione, soprattutto quando devono rivedere ogni prodotto, documento e procedura. Piuttosto che considerare un dipartimento per la privacy come un ostacolo, le organizzazioni dovrebbero considerarlo come un abilitatore fondamentale dell'innovazione.

Le le aziende dovrebbero dare priorità alle assunzioni dagli esperti di privacy e incorporarli nel processo di revisione del design in modo da poter garantire che i tuoi prodotti funzionino per tutti, comprese le popolazioni svantaggiate, in modo sicuro, conforme e privo di pregiudizi.

Mentre il processo per l'onboarding dei professionisti della privacy varierà a seconda della natura e dell'ambito dell'organizzazione, ci sono alcuni modi chiave per garantire che il team della privacy abbia un posto al tavolo. Le aziende dovrebbero iniziare stabilendo un semplice insieme di procedure per identificare eventuali attività di trattamento dei dati personali nuove o modificate.

La chiave per il successo Una di queste procedure consiste nel socializzare il processo con i dirigenti, nonché con i product manager e gli ingegneri, e garantire che siano allineati con la definizione di informazioni personali dell'organizzazione. Ad esempio, mentre molte organizzazioni generalmente accettano indirizzi IP e identificatori di dispositivi mobili come informazioni personali, standard e standard obsoleti potrebbero classificarli come "anonimi". Le aziende devono essere chiare su quali tipi di informazioni sono considerate informazioni personali.

Inoltre, le organizzazioni possono ritenere che le informazioni personali utilizzate in i tuoi prodotti e i servizi rappresentano il rischio più elevato e dovrebbero essere al centro delle revisioni, ma devono essere consapevoli del fatto che anche altri dipartimenti, come le risorse umane e il marketing, elaborano grandi quantità di informazioni personali.

Se un'organizzazione non dispone della larghezza di banda necessaria per assumere un professionista della privacy per ogni dipartimento, dovrebbe prendere in considerazione la possibilità di nominare un difensore della privacy in grado di rilevare i problemi e indirizzarli al team per la privacy, se necessario.

Il nostro dipartimento del personale e della cultura è coinvolto?

I team per la privacy non dovrebbero essere gli unici responsabili della privacy in un'organizzazione. Tutti i dipendenti che hanno accesso alle informazioni personali o che ne influenzano il trattamento sono responsabili.

Ampliare i tuoi sforzi di assunzione per includere candidati provenienti da diversi dati demografici e regioni può portare voci e prospettive diverse. L'assunzione di dipendenti diversi non dovrebbe essere limitata a posizioni di livello base e medio. UN Un management e un consiglio di amministrazione diversificati sono assolutamente essenziali per rappresentare coloro che non possono entrare in azienda.

I programmi di formazione a livello aziendale su etica, privacy e intelligenza artificiale possono supportare ulteriormente una cultura inclusiva, aumentando al contempo la consapevolezza dell'importanza degli sforzi di diversità, equità e inclusione (DEI). Solo il 32% delle organizzazioni richiede una qualche forma di formazione DEI per i propri dipendenti, evidenziando la necessità di miglioramento in questo settore.

Il nostro prototipo è d'accordo con il progetto per una Carta dei diritti dell'IA?

Nell'ottobre 2022, l'amministrazione Biden pubblicato un Piano per una Carta dei diritti dell'IA, che delinea i principi chiave, con passaggi dettagliati e raccomandazioni per sviluppare un'IA responsabile e ridurre al minimo la discriminazione negli algoritmi.

Le linee guida includono cinque garanzie:

  • Sistemi sicuri ed efficaci.
  • discriminazione algoritmica.
  • Privacy dei dati.
  • Avviso e spiegazione.
  • Alternative umane, considerazione e alternative.

Sebbene l'AI Bill of Rights non imponga metriche o regolamenti specifici sull'IA, il le organizzazioni dovrebbero considerarlo come una linea di base per le tue pratiche di sviluppo. Il framework può essere utilizzato come risorsa strategica per le aziende che vogliono saperne di più sull'intelligenza artificiale etica, mitigare i pregiudizi e dare ai consumatori il controllo sui propri dati.

Il percorso verso l'IA al primo posto per la privacy

La tecnologia ha il potenziale per rivoluzionare la società così come la conosciamo, ma fallirà se non avvantaggerà tutti allo stesso modo. Mentre i team di intelligenza artificiale creano nuovi prodotti o modificano i loro strumenti attuali, è fondamentale che prendano le misure necessarie e pongano le domande giuste per assicurarsi di aver escluso ogni tipo di pregiudizio.

La creazione di strumenti etici che diano la priorità alla privacy sarà sempre un lavoro in corso, ma le considerazioni di cui sopra possono aiutare le aziende a compiere passi avanti Indirizzo corretto.

IMPARENTATO

Lascia un commento

Inserisci il tuo commento!
Per favore inserisci il tuo nome qui

La moderazione dei commenti è abilitata. Il tuo commento potrebbe richiedere del tempo per apparire.

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati dei tuoi commenti.

ISCRIVITI A TRPLANE.COM

Pubblica su TRPlane.com

Se hai una storia interessante su trasformazione, IT, digitale, ecc. che puoi trovare su TRPlane.com, inviacela e la condivideremo con l'intera Community.

ALTRE PUBBLICAZIONI

Attivare le notifiche OK No grazie