Moving AI governance forward

Introduzione

Negli ultimi anni, l’intelligenza artificiale (AI) ha fatto enormi progressi e ha avuto un impatto significativo sulla società. Tuttavia, con il crescente utilizzo dell’AI, è diventato sempre più importante affrontare le questioni legate alla governance e alla responsabilità dell’AI. In questo articolo, analizzeremo alcuni dei punti chiave presenti nel documento “Moving AI governance forward” e discuteremo delle misure che le aziende si impegnano a prendere per promuovere una governance responsabile dell’AI.

5) Sviluppare e implementare meccanismi per consentire agli utenti di capire se i contenuti audio o visivi sono generati da AI

Le aziende che si impegnano a seguire questo punto riconoscono l’importanza che le persone possano capire quando i contenuti audio o visivi sono generati da AI. Per raggiungere questo obiettivo, si impegnano a sviluppare meccanismi robusti, come sistemi di provenienza e/o watermarking, per i contenuti audio o visivi creati da qualunque dei loro sistemi pubblicamente disponibili. Questi meccanismi saranno introdotti dopo lo sviluppo del sistema di watermarking. Inoltre, svilupperanno strumenti o API per determinare se un determinato contenuto è stato creato con il loro sistema. Tuttavia, i contenuti audiovisivi che sono facilmente distinguibili dalla realtà o che sono chiaramente riconoscibili come generati dal sistema AI dell’azienda, come le voci predefinite degli assistenti AI, non rientrano in questo impegno. I dati di watermarking o provenienza dovrebbero includere un identificatore del servizio o del modello che ha creato il contenuto, ma non è necessario includere informazioni identificative dell’utente. In generale, le aziende che si impegnano a seguire questo punto si impegnano a lavorare con i loro colleghi del settore e con gli organismi di standardizzazione per sviluppare un quadro tecnico che aiuti gli utenti a distinguere i contenuti audio o visivi generati dagli utenti da quelli generati da AI.

6) Rendere pubbliche le capacità, le limitazioni e i domini di utilizzo appropriato e inappropriato dei modelli o dei sistemi AI

Le aziende che si impegnano a seguire questo punto riconoscono che gli utenti dovrebbero comprendere le capacità e le limitazioni note dei sistemi AI che utilizzano o con cui interagiscono. Si impegnano a pubblicare rapporti per tutti i nuovi rilasci significativi di modelli nel dominio di applicazione. Questi rapporti dovrebbero includere le valutazioni di sicurezza condotte (inclusi gli aspetti legati alle capacità pericolose, nella misura in cui sia responsabile divulgarli pubblicamente), le limitazioni significative delle prestazioni che hanno implicazioni per i domini di utilizzo appropriato, la discussione sugli effetti del modello sui rischi sociali come equità e bias, e i risultati dei test avversari condotti per valutare la capacità del modello di essere implementato.

7) Dare priorità alla ricerca sui rischi sociali causati dai sistemi AI, inclusi il bias e la discriminazione dannosi, e la protezione della privacy

Le aziende che si impegnano a seguire questo punto riconoscono l’importanza di evitare che i sistemi AI propaghino bias dannosi o attuino discriminazioni. Si impegnano a supportare le squadre di fiducia e sicurezza, a promuovere la ricerca sulla sicurezza dell’AI, a tutelare la privacy, a proteggere i bambini e a lavorare per gestire in modo proattivo i rischi dell’AI in modo che i suoi benefici possano essere realizzati.

8) Sviluppare e implementare sistemi AI all’avanguardia per affrontare le sfide più importanti della società

Le aziende che si impegnano a seguire questo punto accettano di sostenere la ricerca e lo sviluppo di sistemi AI all’avanguardia che possano contribuire a risolvere le sfide più importanti della società, come il contrasto ai cambiamenti climatici, la diagnosi precoce e la prevenzione del cancro e il contrasto alle minacce informatiche. Si impegnano anche a sostenere iniziative che favoriscano l’istruzione e la formazione degli studenti e dei lavoratori per beneficiare dei vantaggi dell’AI e ad aiutare i cittadini a comprendere la natura, le capacità, le limitazioni e l’impatto della tecnologia.

Conclusioni

La governance responsabile dell’AI è un aspetto cruciale per garantire che questa tecnologia possa essere utilizzata in modo etico e sicuro. Le aziende che si impegnano a seguire i punti presentati in questo articolo dimostrano una volontà di affrontare le sfide legate all’AI e di lavorare per promuovere una governance responsabile. Speriamo che queste misure possano contribuire a creare un futuro in cui l’AI sia utilizzata per il bene comune e per affrontare le sfide più urgenti della società.