Articolo: Frontier Model Forum
Governi e industria concordano sul fatto che, sebbene l’IA offra un enorme potenziale per beneficiare il mondo, sono necessarie adeguate misure di sicurezza per mitigare i rischi. Importanti contributi a questi sforzi sono già stati fatti dai governi degli Stati Uniti e del Regno Unito, dall’Unione Europea, dall’OCSE, dal G7 (tramite il processo AI di Hiroshima) e da altri.
Per costruire su questi sforzi, è necessario un ulteriore lavoro sugli standard di sicurezza e le valutazioni per garantire che i modelli di IA di frontiera siano sviluppati e implementati in modo responsabile. Il Forum sarà uno strumento per discussioni e azioni interorganizzative sulla sicurezza e la responsabilità dell’IA.
Il Forum si concentrerà su tre aree chiave nel prossimo anno per sostenere lo sviluppo sicuro e responsabile dei modelli di IA di frontiera:
-
Identificazione delle migliori pratiche: Promuovere la condivisione di conoscenze e le migliori pratiche tra industria, governi, società civile e mondo accademico, con un focus sugli standard di sicurezza e sulle pratiche di sicurezza per mitigare una vasta gamma di potenziali rischi.
-
Avanzamento della ricerca sulla sicurezza dell’IA: Sostenere l’ecosistema della sicurezza dell’IA identificando le domande di ricerca aperte più importanti sulla sicurezza dell’IA. Il Forum coordinerà la ricerca per progredire in questi sforzi in aree come la robustezza avversaria, l’interpretabilità meccanicistica, la supervisione scalabile, l’accesso indipendente alla ricerca, i comportamenti emergenti e la rilevazione delle anomalie. Inizialmente ci sarà un forte focus nello sviluppo e nella condivisione di una libreria pubblica di valutazioni tecniche e benchmark per i modelli di IA di frontiera.
-
Facilitare la condivisione delle informazioni tra aziende e governi: Creare meccanismi affidabili e sicuri per la condivisione di informazioni tra aziende, governi e stakeholder pertinenti riguardo alla sicurezza e ai rischi dell’IA. Il Forum seguirà le migliori pratiche in materia di divulgazione responsabile provenienti da settori come la cybersecurity.
Kent Walker, Presidente degli Affari Globali di Google e Alphabet, ha dichiarato: “Siamo entusiasti di lavorare insieme ad altre aziende leader, condividendo competenze tecniche per promuovere un’innovazione responsabile nell’IA. Dovremo tutti lavorare insieme per garantire che l’IA benefichi tutti”.
Brad Smith, Vicepresidente e Presidente di Microsoft, ha dichiarato: “Le aziende che creano tecnologie di IA hanno la responsabilità di garantire che siano sicure, protette e rimangano sotto il controllo umano. Questa iniziativa è un passo fondamentale per unire il settore tecnologico nell’avanzare in modo responsabile nell’IA e affrontare le sfide affinché benefici tutta l’umanità”.
Anna Makanju, Vicepresidente degli Affari Globali di OpenAI, ha dichiarato: “Le tecnologie avanzate di IA hanno il potenziale per beneficiare profondamente la società, e la capacità di raggiungere questo potenziale richiede una supervisione e una governance. È fondamentale che le aziende di IA, in particolare quelle che lavorano sui modelli più potenti, si allineino su un terreno comune e promuovano pratiche di sicurezza ponderate e adattabili per garantire che gli strumenti di IA potenti abbiano il più ampio beneficio possibile. Questo è un lavoro urgente e questo forum è ben posizionato per agire rapidamente per avanzare nello stato della sicurezza dell’IA”.
Dario Amodei, CEO di Anthropic, ha dichiarato: “Anthropic crede che l’IA abbia il potenziale per cambiare profondamente il modo in cui funziona il mondo. Siamo entusiasti di collaborare con industria, società civile, governo e mondo accademico per promuovere lo sviluppo sicuro e responsabile della tecnologia. Il Frontier Model Forum svolgerà un ruolo vitale nel coordinare le migliori pratiche e condividere la ricerca sulla sicurezza dell’IA di frontiera”.