World News in Italian

La fragola che fa avvicinare pericolosamente l’AI al ragionamento umano

Sono trapelate notizie in merito allo sviluppo di un nuovo modello AI in grado di ragionare come un essere umano. Tutto si cela dietro il nome in codice "Strawberry"

L'articolo La fragola che fa avvicinare pericolosamente l’AI al ragionamento umano proviene da Giornalettismo.

Un nuovo passo verso l’Intelligenza Artificiale Generale è stato fatto all’interno di OpenAI. Dopo il progetto “Q Star” di cui abbiamo parlato alla fine dello scorso anno, nelle ultime ore è trapelata una notizia direttamente dall’interno dell’azienda di San Francisco. Si parla di un nuovo modello di linguaggio che risponde al nome in codice Strawberry e il suo sviluppo ha mostrato dei risultati significativi in termini di “ragionamento umano”. I primi test, presentati nel corso di un meeting interno, hanno mostrato dei risultati che sono sia entusiasmanti che preoccupanti. Per esempio, questo modello è stato in grado di risolvere positivamente il 90% dei problemi matematici che gli sono stati presentati. La matematica è sempre stato uno dei limiti principali di ChatGPT, decretandone la scarsa affidabilità.

Strawberry, l’AI in grado di ragionare come un essere umano

Anche se le informazioni sono ancora molto scarse, sono emersi alcuni dettagli su aspetti che tendono a pensare che OpenAI si stia avvicinando alla cosiddetta AGI. Secondo gli esperimenti effettuati, infatti, il modello al centro del progetto Strawberry sarebbe in grado di ragionare come un essere umano. In che modo? Dopo aver inserito il primo prompt, il sistema dovrebbe essere in grado di ragionare “autonomamente” e fornire in anticipo delle risposte basate non solo sulla prima domanda posta dall’utente, ma anche tutte quelle correlate rispetto all’argomento. E se l’azienda sostiene che in una scala da 1 a 5 lo sviluppo della sua AI sia ferma a 2, questi risultati sembrano raccontare un qualcosa di diverso.

Raccontare, spiegare e denunciare. Tre comportamenti che non sarebbero permessi ai dipendenti dell’azienda di Sam Altman che hanno denunciato la presenza di alcuni vincoli all’interno dei loro contratti. Tra questi ce ne sarebbero alcuni che impediscono loro di avvisare le autorità competenti dei rischi legati allo sviluppo dei prodotti di OpenAI. Il tutto è contenuto all’interno di una lettera inviata alla SEC (Securities and exchange commission americana) da parte di un gruppo di whistleblower interni alla startup che ben presto potrebbe diventare una società a scopo di lucro e quotarsi in Borsa.

L'articolo La fragola che fa avvicinare pericolosamente l’AI al ragionamento umano proviene da Giornalettismo.

Читайте на 123ru.net