Recentemente, la California ha approvato il disegno di legge SB 1047, che propone di imporre responsabilità civili agli sviluppatori di intelligenza artificiale (IA). Andrew Ng, fondatore di DeepLearning.AI, avverte che tale normativa rischia di soffocare l’innovazione e la ricerca sulla sicurezza delle IA. Secondo Ng, regolamentare una tecnologia di uso generale come l’IA, anziché le sue applicazioni specifiche, potrebbe ostacolare il progresso e ridurre la competitività nel settore.

cover

Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047)

La proposta di legge SB 1047, denominata “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act,” sta attraversando l’iter legislativo per il biennio 2023-2024. Presentata dal senatore Scott Wiener e co-sponsorizzata da Richard Roth, Susan Rubio e Henry Stern, questa legge ambiziosa mira a stabilire stringenti protocolli di sicurezza e gestione per i modelli avanzati di intelligenza artificiale (IA).

La Regolazione delle Applicazioni Dannose: Gli Eventi Recenti

California’s SB 1047 è approdata all’assemblea statale ed è ora in attesa della decisione del Governatore Gavin Newsom per la firma o il veto. Andrew Ng critica fortemente questa proposta, ritenendo che potrebbe comprometterebbe l’innovazione e la sicurezza nel campo dell’intelligenza artificiale. Ng sottolinea che il disegno di legge commette l’errore di regolamentare una tecnologia di uso generale invece delle sue applicazioni specifiche. La finalità sarebbe di mitigare gli accessi nefasti dell’IA, ma un fornitore di tecnologia non può controllare come verrà utilizzata a valle.

Obiettivi Principali

La proposta di legge SB 1047 stabilisce una serie di requisiti e protocolli di sicurezza che i sviluppatori di modelli di intelligenza artificiale devono rispettare prima di iniziare l’addestramento degli stessi. Tra gli obblighi imposti:

  • Implementazione di protocolli di sicurezza: I sviluppatori devono creare protocolli di sicurezza che devono essere disponibili per almeno cinque anni dopo che il modello è stato reso disponibile commercialmente o pubblicamente.
  • Audit annuali: Ogni anno, a partire dal 2026, i modelli devono essere sottoposti ad audit indipendenti per verificare la conformità ai requisiti di sicurezza.
  • Segnalazione e accesso: I sviluppatori devono inviare una dichiarazione di conformità all’Attorney General e segnalare qualsiasi incidente di sicurezza relativo all’intelligenza artificiale.
  • Protezione dei whistleblowers: La legge offre protezioni contro le ritorsioni nei confronti dei dipendenti che segnalano non conformità o rischi legati ai modelli di IA.

Struttura Organizzativa e Regolamenti

La proposta di legge prevede l’istituzione del Board of Frontier Models all’interno dell’agenzia Government Operations, con compiti di supervisione e regolamentazione. Inoltre, si prevede la creazione di un consorzio per sviluppare un framework per un cloud computing pubblico denominato CalCompute, finalizzato a promuovere lo sviluppo di intelligenza artificiale che sia sicura, etica ed equa. Questo framework dovrà essere presentato al legislatore entro il 1° gennaio 2026.

Controversie e Critiche

Se da una parte la normativa mira a garantire sicurezza e trasparenza, dall’altra ha sollevato critiche da parte di personalità influenti nel settore. Andrew Ng, fondatore di DeepLearning.AI, ha espresso preoccupazione riguardo alle possibili implicazioni restrittive della SB 1047. Secondo Ng, questa proposta potrebbe rallentare lo sviluppo dell’IA e renderla meno sicura, suggerendo che la regolamentazione dovrebbe concentrarsi sulle applicazioni dannose dell’IA piuttosto che sui modelli generali.

Esempi Significativi

Ng paragona la situazione dell’IA ad altre tecnologie di uso generale, come i motori elettrici e i computer. Per esempio, un motore elettrico può essere utilizzato in molteplici modi, dalla costruzione di un veicolo elettrico a quella di una bomba guidata. Regolamentare il motore stesso, anziché l’uso che se ne fa, non sarebbe efficace.

Inoltre, ci sono già esempi di regolamentazione efficace per applicazioni specifiche di IA problematiche, come il porn deepfake non consensuale e le recensioni false sui prodotti. Normative esistenti dimostrano che è possibile agire contro gli usi dannosi senza soffocare l’innovazione tecnologica generale.

Criticità del Disegno di Legge SB 1047

La proposta di legge SB 1047 impone obblighi ambigui e confusi agli sviluppatori, costringendo le aziende a ingaggiare legioni di avvocati e a creare una burocrazia per garantire la conformità. Questo pregiudica in particolare il software open source, che è stato cruciale per la ricerca sulla sicurezza dell’IA. Le grandi aziende, che detengono modelli proprietari, potrebbero trovare beneficio nel limitare la concorrenza proveniente dal software open source.

Le revisioni apportate al disegno di legge, come la rimozione della possibilità di perjury criminale per gli sviluppatori e l’introduzione di soglie di esenzione basate sui ricavi, hanno mitigato alcune delle problematiche originali. Tuttavia, la legge continua a non riflettere a pieno come funziona e si evolve lo sviluppo dell’IA, rischiando di ostacolare la sua crescita e la sua sicurezza.

Andrew Ng ha dichiarato: “C’è ancora tempo per impedire che la SB 1047 della California diventi legge. Per TIME magazine, ho scritto del perché questa legge ostacolerebbe gli sviluppatori e renderebbe l’IA meno sicura. Dovremmo regolare le applicazioni dannose dell’IA, non i modelli di IA a scopo generale.”

Le Conseguenze di una Legislazione che Soffoca l’Innovazione

L’approvazione della SB 1047 potrebbe avere conseguenze negative per l’innovazione e la ricerca legate all’intelligenza artificiale. La normativa potrebbe scoraggiare lo sviluppo di software open source e innalzare i costi di conformità, favorendo le grandi aziende con modelli proprietari e svantaggiando sviluppatori indipendenti e accademici.

Conclusioni

Il disegno di legge SB 1047 della California rischia di soffocare l’innovazione e la ricerca sulla sicurezza delle IA, regolamentando una tecnologia di uso generale piuttosto che le sue applicazioni specifiche. Esistono esempi di regolamentazione efficace per applicazioni dannose di IA, che dimostrano che è possibile agire senza ostacolare il progresso tecnologico. Investire nella comprensione e nel controllo delle applicazioni dannose, piuttosto che limitare lo sviluppo tecnologico generale, è essenziale per il progresso dell’IA.

Links