Perché è sempre più difficile fidarsi di OpenAI

Immagine composita del CEO di OpenAI Sam Altman, Edward Snowden e dell’ex capo della NSA Paul Nakasone.
Immagini Getty

  • OpenAI ha nominato l’ex direttore della NSA Paul Nakasone nel suo consiglio di amministrazione.
  • L’assunzione di Nakasone mira a rafforzare la sicurezza dell’intelligenza artificiale, ma solleva preoccupazioni sulla sorveglianza.
  • Anche il gruppo di sicurezza interno dell’azienda è stato di fatto sciolto.

Ci sono spaventose guardie di sicurezza segrete fuori dal suo ufficio. Ha appena nominato nel suo consiglio un ex direttore della National Security Agency. Il suo gruppo di lavoro interno volto a promuovere l’uso sicuro dell’intelligenza artificiale è stato sciolto.

OpenAI si sente ogni giorno meno aperto.

Nella sua ultima mossa sorprendente, l’azienda Venerdì ha detto Ha nominato l’ex direttore dell’Agenzia per la sicurezza nazionale Paul Nakasone nel suo consiglio di amministrazione.

Oltre a guidare la NSA, Nakasone era a capo dello U.S. Cyber ​​​​Command, la divisione di sicurezza informatica del Dipartimento della Difesa. OpenAI afferma che la nomina di Nakasone rappresenta il suo “impegno per la sicurezza e la protezione” e sottolinea l’importanza della sicurezza informatica mentre l’intelligenza artificiale continua ad evolversi.

“La dedizione di OpenAI alla sua missione è strettamente in linea con i miei valori e la mia esperienza nel servizio pubblico”, ha affermato Nakasone in una nota. “Non vedo l’ora di contribuire agli sforzi di OpenAI per garantire che l’intelligenza artificiale generale sia sicura e vantaggiosa per le persone in tutto il mondo”.

Ma i critici temono che la nomina di Nakasone possa rappresentare qualcos’altro: sorveglianza.

Edward Snowden, l’informatore americano che ha fatto trapelare documenti riservati sulla sorveglianza nel 2013, ha dichiarato in una lettera: Condividi su X La nomina di Nakasone è stata un “tradimento calcolato dei diritti di ogni persona sulla Terra”.

“Lo hanno completamente mascherato: non fidarsi mai di OpenAI o dei suoi prodotti (ChatGPT ecc.)”, ha scritto Snowden.

In un altro Commento su X“L’intersezione dell’intelligenza artificiale con l’oceano di dati di sorveglianza di massa accumulati negli ultimi due decenni metterà poteri davvero terribili nelle mani di pochi irresponsabili”, ha detto Snowden.

D’altra parte, il senatore Mark Warner, democratico della Virginia e presidente del Senate Intelligence Committee, ha descritto la nomina di Nakasone come una “enorme vittoria”.

“Non c’è nessuno nella comunità della sicurezza, in generale, che sia più rispettato di lui”, ha detto Warner. Ha detto Axios.

L’esperienza di Nakasone in materia di sicurezza potrebbe essere necessaria a OpenAI, poiché i critici hanno espresso preoccupazione per il fatto che i problemi di sicurezza potrebbero esporlo ad attacchi.

OpenAI ha licenziato l’ex membro del consiglio Leopold Aschenbrenner ad aprile dopo aver inviato una nota in cui descriveva un “grave incidente di sicurezza”. Ha descritto la sicurezza dell’azienda come “scandalosamente insufficiente” per proteggersi dai furti da parte di soggetti stranieri.

Poco dopo, il superteam di OpenAI, che si era concentrato sullo sviluppo di sistemi di intelligenza artificiale in linea con gli interessi umani, si sciolse improvvisamente dopo che due dei principali ricercatori sulla sicurezza dell’azienda si dimisero.

Jan Lake, uno dei ricercatori in partenza, ha affermato di essere “in disaccordo con la leadership di OpenAI sulle priorità fondamentali dell’azienda da qualche tempo”.

Ilya Sutskever, capo scienziato di OpenAI, che inizialmente ha lanciato il team di iperallineamento, è stato più cauto riguardo alle ragioni della sua partenza. Ma addetti ai lavori dell’azienda hanno affermato che si trovava su un terreno instabile a causa del suo ruolo nella fallita cacciata del CEO Sam Altman. Sutskever disapprovava l’approccio aggressivo di Altman allo sviluppo dell’intelligenza artificiale, che infiammò la loro lotta per il potere.

E se tutto ciò non bastasse, anche i locali che vivono e lavorano vicino all’ufficio di San Francisco di OpenAI dicono che l’azienda sta iniziando ad allontanarli. disse la cassiera del negozio di animali lì accanto Norma di San Francisco Che l’ufficio ha una “atmosfera segreta”.

Molti lavoratori delle aziende vicine affermano che uomini che sembrano guardie di sicurezza segrete stanno fuori dall’edificio ma non dicono che lavorano per OpenAI.

“[OpenAI] “Non è un cattivo vicino”, disse uno di loro. “Ma sono riservati.”

We will be happy to hear your thoughts

Leave a reply