World News in Italian

Dopo Q Star, OpenAI sta lavorando su Strawberry: l’AI in grado di ragionare come un essere umano

Si tratta, per ora, di un progetto top secret che punta a simulare il principio che sta dietro alla ricerca e al ragionamento di un essere umano

L'articolo Dopo Q Star, OpenAI sta lavorando su Strawberry: l’AI in grado di ragionare come un essere umano proviene da Giornalettismo.

In principio era Q Star (ovvero, Q*), adesso la nuova intelligenza artificiale generale di OpenAI potrebbe chiamarsi Strawberry. Si tratta di un progetto che, al momento, è abbastanza segreto e di cui Reuters è riuscito a venire a conoscenza. L’agenzia internazionale, infatti, ha visionato un documento interno a OpenAI che spiega quali dovrebbero essere gli obiettivi di Strawberry, senza tuttavia indugiare su come questi obiettivi verranno raggiunti. Contemporaneamente, l’agenzia ha ascoltato alcune fonti con familiarità su questa vicenda, che non sono scese nei dettagli, ma che hanno confermato che – a ogni modo – qualcosa bolle in pentola. Quando parliamo di modelli come Q* o come Strawberry facciamo riferimento a un tipo diverso di intelligenza artificiale che non sia semplicemente “compilativa” (ovvero in grado di estrarre delle risposte sulla base di un dataset più o meno completo), ma in qualche modo “predittiva” (ovvero in grado di affrontare un ragionamento, cosa che la riporta a un livello molto prossimo al pensiero umano). Sull’intelligenza artificiale generale sussistono diversi dubbi etici, che nei mesi scorsi sono stati al centro delle discussioni degli addetti ai lavori, che stanno provando ad anticipare le tendenze della ricerca scientifica in questo campo, sebbene in assenza di riscontri pratici.

LEGGI ANCHE > Che cos’è l’intelligenza artificiale generale (AGI) e a che punto sono i progetti che vanno in questa direzione

Strawberry sarà la prossima intelligenza artificiale generale di OpenAI?

Fino a questo momento, l’intelligenza artificiale aveva un limite. Quando doveva affrontare questioni di buon senso, oppure quesiti logico-matematici, spesso dava delle informazioni non corrette e anche abbastanza grossolane. Questo perché, nonostante l’elaborazione di grandi set di dati, l’intelligenza artificiale attualmente in commercio non riesce ad anticipare o a funzionare esattamente nel modo in cui un ragionamento si sviluppa in un essere umano. Servirebbe, per spiegarlo nella maniera più divulgativa possibile, non soltanto che l’AI si addestrasse preliminarmente su grandi dataset, ma anche che realizzasse una sorta di allenamento successivo all’elaborazione dei dati. Gli esseri umani, in questa fase, sono ancora necessari perché – dopo che l’AGI ha dato la sua risposta – dovrebbero fornire dei feedback sulle risposte stesse, in modo tale che lo strumento possa ulteriormente apprendere sulla base di questi feedback successivi (quindi, non soltanto sulla base dei dati a disposizione).

Il fatto di abbinare l’addestramento e il post-addestramento, insomma, dovrebbe consentire all’AGI di formulare delle proposte di ragionamento e dei livelli di risposta in quesiti logico-matematici molto più alti rispetto a quelli che la normale intelligenza artificiale riesce a fornire. Non è chiaro a Reuters se Strawberry di OpenAI sia il naturale proseguimento di Q*, né se il prototipo a cui l’azienda di Sam Altman sta lavorando sia una conseguenza della presentazione (di cui ha parlato Bloomberg qualche giorno fa) di un modello che darebbe un punteggio superiore al 90% nella risposta a quesiti di ambito matematico complesso. Fatto sta che, in base al documento analizzato, tra le caratteristiche di Strawberry ci sarebbe non soltanto quella di fornire una risposta sulla scia di una ricerca effettuata sul web da un essere umano, ma anche di anticipare questo tipo di scelte da parte dello stesso essere umano nel condurre una ricerca.

Sollecitato da Reuters, un portavoce di OpenAI, al momento, si è limitato a dichiarare: «Vogliamo che i nostri modelli di AI vedano e comprendano il mondo più come noi. La ricerca continua di nuove capacità di AI è una pratica comune nel settore, con la convinzione condivisa che questi sistemi miglioreranno il ragionamento nel corso del tempo». Non si conferma, ma nemmeno si smentisce. Si ricerca.

L'articolo Dopo Q Star, OpenAI sta lavorando su Strawberry: l’AI in grado di ragionare come un essere umano proviene da Giornalettismo.

Читайте на 123ru.net