Spanish English French German Italian Portuguese
Social marketing
CasaTecnologiaIntelligenza artificialeAnthropic alla ricerca di un'IA migliore e comprensibile

Anthropic alla ricerca di un'IA migliore e comprensibile

Meno di un anno fa, nel 2021, Antropico è stata fondata dall'ex vicepresidente della ricerca per OpenAI, Dario Amodei, con l'intenzione di condurre ricerche nell'interesse pubblico per rendere l'IA più affidabile e spiegabile. Il suo finanziamento di $ 124 milioni all'epoca era sorprendente, ma nulla avrebbe potuto prevedere la società. raccoglierebbe 580 milioni di dollari meno di un anno dopo.

"Con questa raccolta fondi, esploreremo le proprietà di scalabilità prevedibili dei sistemi di apprendimento automatico, osservando da vicino i modi imprevedibili in cui le capacità e i problemi di sicurezza possono emergere man mano che il sistema cresce", ha affermato.

Sua sorella Daniela, con la quale ha co-fondato la società di pubblica utilità, ha affermato che dopo aver costruito l'azienda, "ci stiamo concentrando per garantire che Antropico avere la cultura e la governance per continuare a esplorare e sviluppare in modo responsabile sistemi di IA sicuri man mano che cresciamo. "

Ancora il termine chiave: crescita. Perché questa è la categoria del problema che inizialmente ha motivato Antropico: come comprendere meglio i modelli di intelligenza artificiale sempre più utilizzati nei settori man mano che crescono oltre la nostra capacità di spiegarne la logica e i risultati.

L'azienda ha già pubblicato diversi articoli che esaminano, ad esempio, il reverse engineering del comportamento dei modelli linguistici per capire perché e come producono i risultati. Qualcosa di simile a GPT-3, probabilmente il modello linguistico più noto esistente, è certamente impressionante, ma c'è qualcosa di preoccupante nel fatto che i suoi meccanismi interni siano essenzialmente un mistero anche per i suoi creatori.

Come spiega lo stesso bando di finanziamento:

Lo scopo di questa ricerca è sviluppare le componenti tecniche necessarie per costruire modelli su larga scala che abbiano migliori garanzie implicite e richiedano meno interventi post-formazione, nonché sviluppare gli strumenti necessari per approfondire questi modelli per essere sicuri che il le protezioni funzionano davvero. .

Se non capisci come funziona un sistema di intelligenza artificiale, puoi reagire solo quando fa qualcosa di sbagliato, ad esempio mostra un bias di riconoscimento facciale o tende a disegnare o descrivere uomini quando richiesto su medici e amministratori delegati. Quel comportamento è integrato nel modello e la soluzione è filtrare i risultati invece di impedirti di avere quelle "nozioni" sbagliate in primo luogo.

È una specie di fondamentale cambiamento di forma in cui l'intelligenza artificiale è costruita e compresa, e come tale richiede grandi cervelli e grandi computer, nessuno dei quali è economico. Non c'è dubbio che $ 124 milioni siano stati un buon inizio, ma a quanto pare i primi risultati sono stati abbastanza promettenti da consentire a Sam Bankman-Fried di guidare questo nuovo enorme round, insieme a Caroline Ellison, Jim McClave, Nishad Singh, Jaan Tallinn e il Center for Emerging Risk Ricerca (CERR).

È interessante non vedere nessuno dei soliti investitori tecnologici in quel gruppo, ma ovviamente Anthropic no ha come scopo profitto, che è un fattore decisivo per gli investitori di rischio.

L'ultimo Le indagini antropiche possono essere seguite qui.

IMPARENTATO

ISCRIVITI A TRPLANE.COM

Pubblica su TRPlane.com

Se hai una storia interessante su trasformazione, IT, digitale, ecc. che puoi trovare su TRPlane.com, inviacela e la condivideremo con l'intera Community.

ALTRE PUBBLICAZIONI

Attivare le notifiche OK No grazie