Il whistleblowing diventa globale

Nelle ultime settimane, il settore dell'IA ha assistito a un'ondata crescente di dissenso pubblico proveniente dalle proprie fila. Ex lavoratori e ricercatori della sicurezza di alcune delle più importanti aziende di IA al mondo, tra cui OpenAI e Anthropic, hanno reso pubbliche preoccupazioni su come i loro datori di lavoro gestiscono i test di sicurezza, implementano i modelli e rispondono agli avvertimenti interni sui rischi potenziali. Queste divulgazioni hanno acceso un intenso dibattito sull'adeguatezza delle pratiche di sicurezza dell'IA e se il rapido ritmo di sviluppo del settore stia superando la sua capacità di garantire che i sistemi potenti vengano impiegati in modo responsabile.

Ora una nuova iniziativa tenta di formalizzare e proteggere questo tipo di segnalazione interna su scala globale. Psst, una piattaforma digitale di segnalazione sicura, consente ai lavoratori dell'IA di tutto il mondo di documentare e inviare preoccupazioni sulla sicurezza attraverso un canale sicuro, anche in giurisdizioni prive di robuste leggi di protezione per i whistleblower. Il membro fondatore del consiglio della piattaforma, l'avvocata Mary Inman, afferma che l'obiettivo è garantire che i lavoratori delle aziende di IA possano parlare di potenziali danni senza timore di ritorsioni, indipendentemente da dove si trovino.

Perché la geografia è importante

Le tutele per i whistleblower variano enormemente tra i paesi. Negli Stati Uniti, le leggi federali e statali offrono alcune protezioni per i dipendenti che segnalano comportamenti scorretti, sebbene la loro efficacia e portata siano oggetto di dibattito continuo. Nell'Unione Europea, una direttiva sui whistleblower adottata nel 2019 fornisce un livello minimo di protezioni negli Stati membri, sebbene l'attuazione sia stata disomogenea.

Ma lo sviluppo dell'IA è un'attività globale. I principali laboratori di IA gestiscono uffici di ricerca e assumono talenti in decine di paesi, molti dei quali hanno leggi di protezione per i whistleblower minime o assenti. Un ricercatore della sicurezza a Singapore, in India o negli Emirati Arabi Uniti che scopre pratiche preoccupanti presso il proprio datore di lavoro potrebbe non avere alcuna via legale per segnalare tali preoccupazioni senza rischiare la propria carriera — o peggio. Psst è progettata per colmare questa lacuna.

L'ondata di divulgazioni sulla sicurezza dell'IA

Il momento dell'emergere di Psst è significativo. L'anno scorso ha visto un volume senza precedenti di divulgazioni pubbliche da parte di dipendenti attuali ed ex di importanti aziende di IA. La partenza di Mrinank Sharma da Anthropic e le sue successive dichiarazioni pubbliche sulle pratiche di sicurezza hanno attirato un'ampia attenzione, così come le dichiarazioni di numerosi ex dipendenti di OpenAI che hanno messo in discussione se le pressioni commerciali dell'azienda stessero compromettendo i suoi impegni sulla sicurezza.

La sfida della verifica

Una delle sfide fondamentali che si pone di fronte a qualsiasi piattaforma di whistleblower è la verifica. I rapporti anonimi, pur proteggendo il segnalante, possono essere difficili da corroborare e facili da respingere. Psst tenta di affrontare questo problema costruendo relazioni con intermediari fidati che possono valutare la credibilità dei rapporti senza esporre l'identità del segnalante.

Risposta del settore e dei regolatori

La reazione delle aziende di IA al crescente movimento dei whistleblower è stata mista. Alcune aziende si sono impegnate pubblicamente a proteggere i dipendenti che sollevano preoccupazioni sulla sicurezza attraverso canali interni, mentre altre hanno utilizzato accordi di non divulgazione e altri strumenti legali che i critici dicono abbiano un effetto dissuasivo sul dissenso interno. I regolatori stanno guardando da vicino. Il AI Act dell'Unione Europea include disposizioni relative alla trasparenza e alla responsabilità che potrebbero creare canali formali per la segnalazione della sicurezza.

Cosa significa per lo sviluppo dell'IA

L'emergere di un'infrastruttura dedicata ai whistleblower dell'IA riflette una maturazione del dibattito sulla sicurezza dell'IA da discussioni filosofiche astratte a questioni di governance pratiche. Man mano che i sistemi di IA diventano più potenti e più profondamente integrati nelle infrastrutture critiche, l'assistenza sanitaria, la finanza e le applicazioni di difesa, le conseguenze di pratiche di sicurezza inadeguate diventano sempre più gravi. Psst e iniziative simili rappresentano un riconoscimento che una governance efficace dell'IA non può fare affidamento esclusivamente sulle aziende per autoregolarsi o sui governi per regolamentare dall'esterno.

Questo articolo è basato su un reportage di Rest of World. Leggi l'articolo originale.