..::ARCHIVIO TESTUALE DI http://www.marotochi.it

DATA: 2024-09-17



OpenAI: comitato di sicurezza diventa indipendente


OpenAI ha annunciato in un recente post sul blog la trasformazione del suo Comitato per la sicurezza in un "Comitato di supervisione del Consiglio di amministrazione" indipendente. Questa decisione è stata presa dal comitato stesso, in seguito a una revisione di 90 giorni dei processi e delle misure di sicurezza dell'azienda.
OpenAI, comitato indipendente può bloccare il rilascio dei modelli AI

Il nuovo comitato, presieduto da Zico Kolter e composto da Adam D'Angelo, Paul Nakasone e Nicole Seligman, avrà il compito di supervisionare il lancio dei modelli di intelligenza artificiale sviluppati da OpenAI. La dirigenza dell'azienda informerà il comitato sulle valutazioni di sicurezza per i principali rilasci di modelli, e il comitato avrà l'autorità di ritardare il rilascio fino a quando non saranno risolti eventuali problemi di sicurezza. Inoltre, il consiglio di amministrazione di OpenAI riceverà informazioni periodiche su questioni relative alla sicurezza.
Indipendenza del comitato e confronto con l'Oversight Board di Meta

Nonostante i membri del comitato facciano parte anche del più ampio consiglio di amministrazione di OpenAI, l'azienda non ha chiarito quanto il comitato sia effettivamente indipendente o come sia strutturato.

Questo approccio sembra in qualche modo simile a quello adottato da Meta con il suo Oversight Board, che esamina alcune delle decisioni dell'azienda in materia di contenuti e può prendere decisioni vincolanti per Meta. Tuttavia, a differenza del comitato di OpenAI, nessuno dei membri dell'Oversight Board di Meta fa parte del consiglio di amministrazione dell'azienda.
Opportunità di collaborazione e trasparenza nel settore dell'intelligenza artificiale

La revisione condotta dal Comitato per la sicurezza e la protezione di OpenAI ha anche evidenziato ulteriori opportunità per la collaborazione del settore e la condivisione di informazioni al fine di far progredire la sicurezza nell'industria dell'intelligenza artificiale.

L'azienda si impegna a cercare più modi per condividere e spiegare il proprio lavoro sulla sicurezza, così come a creare più opportunità di test indipendenti dei propri sistemi. Questa maggiore trasparenza potrebbe contribuire a costruire la fiducia del pubblico nelle tecnologie di intelligenza artificiale e a promuovere un dibattito informato sui potenziali rischi e benefici di questi sistemi sempre più avanzati.

di Tiziana Foglio


FONTE: https://www.punto-informatico.it

RAGGIUNGIBILE ALL'INDIRIZZO:
https://www.punto-informatico.it/openai-comitato-sicurezza-diventa-indipendente/