Articolo: OpenAI Red Teaming Network
OpenAI ha annunciato il lancio di un nuovo progetto chiamato OpenAI Red Teaming Network. Questa iniziativa è stata creata per migliorare la sicurezza dei modelli di intelligenza artificiale sviluppati da OpenAI.
Il red teaming è una parte fondamentale del processo di sviluppo iterativo di OpenAI. Negli ultimi anni, gli sforzi di red teaming si sono evoluti da test di tipo avversario interni all’azienda, a collaborazioni con esperti esterni per sviluppare tassonomie di rischio specifiche per ogni dominio e valutare le possibili capacità dannose dei nuovi sistemi. È possibile leggere di più sui precedenti sforzi di red teaming di OpenAI, inclusi i lavori passati con esperti esterni, su modelli come DALL·E 2 e GPT-4.
L’obiettivo di OpenAI Red Teaming Network è quello di creare una comunità di esperti fidati ed esperti che possano contribuire in modo più ampio al processo di valutazione e mitigazione del rischio, anziché essere coinvolti solo in singoli progetti prima del rilascio di importanti modelli. I membri della rete saranno chiamati in base alle loro competenze per supportare il red teaming in diverse fasi del ciclo di sviluppo dei modelli e dei prodotti. Non tutti i membri saranno coinvolti in ogni nuovo modello o prodotto e il tempo di contribuzione sarà stabilito individualmente con ciascun membro, che potrebbe essere anche solo di 5-10 ore in un anno.
Oltre alle campagne di red teaming commissionate da OpenAI, i membri avranno l’opportunità di interagire tra loro sulle pratiche e le scoperte generali del red teaming. L’obiettivo è quello di favorire un input più diversificato e continuo e rendere il red teaming un processo più iterativo. Questa rete si affianca ad altre opportunità di collaborazione per la sicurezza dell’IA offerte da OpenAI, tra cui il Researcher Access Program e le valutazioni open-source.
[^red]: Red teaming: processo di test e valutazione dei sistemi da parte di un gruppo di esperti esterni che agiscono come avversari.
[^expert]: Esperti esterni che collaborano con OpenAI per valutare i rischi e le capacità dannose dei nuovi sistemi.
[^risk]: Rischi associati ai modelli di IA sviluppati da OpenAI.