World News in Italian

OpenAI impedirebbe ai suoi dipendenti di denunciare i rischi dell’AI

Alcuni whistleblower hanno presentato denuncia presso la Securities and exchange commission (SEC)

L'articolo OpenAI impedirebbe ai suoi dipendenti di denunciare i rischi dell’AI proviene da Giornalettismo.

L’importante è che non se ne parli. Da tempo si susseguono notizie in merito ai tentativi di “censura” dell’azienda guidata da Sam Altman relativamente a quei dipendenti che vogliono denunciare alle autorità i rischi legati allo sviluppo dei sistemi di intelligenza artificiale. Ora, però, c’è un documento depositato presso la SEC (Securities and exchange commission, l’ente americano che vigila sulla Borsa) in cui i whistleblower interni a OpenAI denunciano delle clausole contrattuali che impedirebbero loro di collaborare con le autorità.

LEGGI ANCHE > Dopo Q Star, OpenAI sta lavorando su Strawberry: l’AI in grado di ragionare come un essere umano

La notizia è stata riportata nelle scorse ore dal Washington Post che ha potuto visionare il testo della lettera inviata dai legali di alcuni whistleblower che lavorano nell’azienda di San Francisco al Presidente della SEC, Gary Gensler. Nella missiva, si chiede un pronto intervento da parte delle autorità, sottolineando come le clausole inserite nei loro contratti siano illegali, non consentendo loro di poter avvisare le suddette autorità di comportamenti (anche etici nello sviluppo di prodotti AI) non in linea con i princìpi normativi vigenti negli Stati Uniti.

Whistleblower OpenAI, c’è censura sui rischi dell’AI?

Secondo quanto scritto nella denuncia alla SEC, il gruppetto di whistleblower OpenAI ha sottolineato come nei loro contratti siano stati inseriti dei vincoli che li obbligano a tacere e a non dialogare con gli enti di regolamentazione e verifica. Si parla, dunque, di stringenti accordi di riservatezza che andrebbero in contrasto con la normativa vigente, ancor più incardinata dall’executive order firmato ed emanato dal Presidente americano Joe Biden il 30 ottobre dello scorso anno.

Ma queste clausole esistono davvero. Una conferma arriva dalla portavoce di OpenAI Hannah Wong che, come pubblicato dal Washington Post, ha fornito una risposta piuttosto evasiva sulla vicenda, ma che suffraga le accuse inserite all’interno della lettera-denuncia inviata alla SEC:

«Un dibattito rigoroso su questa tecnologia è essenziale e abbiamo già apportato modifiche significative al nostro processo di separazione dai dipendente per eliminare le clausole di non denigrazione». 

Il sillogismo è facile: si può lavorare per eliminare delle clausole solamente se quelle clausole esistono. Ovviamente, però, OpenAI ha infiocchettato questa dichiarazione mostrandosi aperta al dibattito. La questione è, però, molto più delicata: perché sono esistite queste clausole? Non è una domanda banale, soprattutto per via delle denunce del passato in cui molti dipendenti avevano fatto trapelare la notizia della loro impossibilità di criticare l’azienda per alcune sue scelte. Dinamiche importanti in termini di trasparenza, visto che nei prossimi mesi OpenAI potrebbe passare dall’essere una startup a un’azienda con scopo di lucro. Potendosi, dunque, quotare anche in borsa.

L'articolo OpenAI impedirebbe ai suoi dipendenti di denunciare i rischi dell’AI proviene da Giornalettismo.

Читайте на 123ru.net