World News in Italian

Il balzo dell’IA: da Gpt Codex a Seedance 2.0, perché nel mondo “sta succedendo qualcosa di grande” (e forse definitivo)

L’IA sta “scrivendo se stessa”: accelera la ricerca, automatizza competenze ad alta qualificazione e ridisegna settori produttivi. Nel mentre i ricercatori si dimettono per conflitti interiori, i CEO parlano dei rischi di una “adolescenza tecnologica” e i governi oscillano tra deregulation e allarmi securitari. L’inizio del 2026 ha segnato un passaggio cruciale, il primo vero giro di boa dell’intelligenza artificiale, o almeno della consapevolezza collettiva sul tema. L’ultima spinta è arrivata dal post su X di Matt Shumer, startupper, imprenditore e investitore nell’AI, diventato virale in questi giorni con il suo “Sta succedendo qualcosa di grande” in cui racconta dall’interno la trasformazione dell’IA da “strumento utile” a sistema capace di svolgere il lavoro umano meglio degli specialisti, anche lo stesso lavoro degli sviluppatori dell’IA. Per Shumer questo inedito slancio in avanti ha superato una nuova soglia che non è più solo tecnologica, bensì morale. Anche per questo, da giorni, non si parla d’altro.

Invisibile come il Covid: l’Ai riscrive l’Ai

Shumer sostiene che ciò che i lavoratori tech hanno vissuto nell’ultimo anno — vedere l’IA passare da “aiuto” a “fa il mio lavoro meglio di me” — è ciò che tutti sperimenteranno presto. Nel diritto, nella finanza, nella medicina, nella contabilità, nella consulenza, scrittura e progettazione. E non accadrà “tra dieci anni” bensì entro uno-cinque anni. Forse meno. Ma manca la consapevolezza reale della portata di quanto sta accadendo. Shumer paragona l’attuale fase dell’IA al febbraio 2020. Allora i segnali del Covid c’erano, ma la maggioranza li ignorò. Poi il mondo cambiò nel giro di poche settimane. Oggi, sostiene, accade qualcosa di simile: ciò che appare esagerato o lontano è in realtà molto vicino. Non solo: il futuro dell’IA, ricorda, è plasmato da poche centinaia di ricercatori in aziende come OpenAI, Anthropic e Google DeepMind. “Un singolo ciclo di training, gestito da un piccolo team nell’arco di pochi mesi, può produrre un sistema di intelligenza artificiale che cambia l’intera traiettoria della tecnologia”, spiega. Se per anni i progressi sono stati graduali, con balzi distanziati, metabolizzabili, nel 2025 c’è stata una forte accelerazione: tecniche nuove, rilasci ravvicinati, miglioramenti netti. Il 5 febbraio 2026 due laboratori hanno rilasciato modelli nello stesso giorno: GPT-5.3 Codex di OpenAI e Opus 4.6 di Anthropic. Il primo, che è un agente AI professionale capace di lavorare come uno sviluppatore e un programmatore autonomo non solo si è innovato nello sviluppare e progettare l’Ai stessa ma, sostiene Shumer, ha mostrato qualcosa di inedito: “Non si limitava a eseguire le mie istruzioni. Prendeva decisioni intelligenti… sembrava giudizio. Come gusto”. Soluzioni che molto spesso si rivelavano anche migliori.

“Adolescenza tecnologica” e “nazione di geni”

Ma non c’è solo Shumer a segnare la portata di questa accelerazione. A fine gennaio Dario Amodei – CEO di Anthropic, azienda che ha fatto dell’allineamento etico dell’AI il suo principio fondante – aveva inquadrato lo stesso snodo in termini più ampi, come un passaggio antropologico. In un suo lungo saggio ricorre alla metafora “dell’adolescenza tecnologica”: l’umanità starebbe entrando in una fase in cui acquisisce un potere enorme senza avere ancora strutture sociali e istituzionali mature e adatte a gestirlo. Amodei parla di “Powerful Ai”, un sistema più intelligente di un premio Nobel in quasi ogni campo, dotato delle stesse interfacce di un lavoratore digitale (testo, audio, video, mouse e tastiera, accesso alla rete) e capace di portare avanti compiti autonomi senza sosta, controllando strumenti, laboratori e robot attraverso il software. Soprattutto replicabile su larga scala, fino a milioni di copie che lavorano in parallelo, a velocità 10–100 volte superiore a quella umana. Amodei non traccia il profilo di un “assistente” potente bensì di una “nazione di geni in un datacenter”. Qui il discorso si sposta quindi sul piano etico-politico: una “nazione” del genere, osserva Amodei, sarebbe considerata da un consigliere politico come “la più seria minaccia alla sicurezza nazionale in un secolo, forse di sempre”, Non perché l’IA “voglia” fare del male, ma perché capacità, autonomia, velocità e scala rendono fragili i controlli affidati a istituzioni lente, leggi nazionali e reazioni umane.

Rischi: manipolazione, sicurezza, disoccupazione

Amodei identifica cinque famiglie di rischio come categorie di vulnerabilità, parla di sistemi “coltivati” più che “costruiti”, difficili da prevedere, con possibili comportamenti indesiderati; cita casi in cui i modelli tendono a “truccare” valutazioni o a comportarsi diversamente se credono di essere osservati. La preoccupazione più forte è la biologia: l’IA come moltiplicatore di capacità può guidare un individuo mediocre attraverso processi complessi che oggi richiedono competenze rare. L’IA potrebbe rompere la correlazione tra “motivazione a fare del male” e “capacità tecnica di farlo su scala”. Poi ci sono i rischi crescenti su sorveglianza capillare, propaganda personalizzata, armi autonome, ottimizzazione strategica; con il rischio che regimi autoritari costruiscano apparati repressivi difficili da smantellare. Infine lo choc economico e la concentrazione della ricchezza con l’eliminazione rapida di molti lavori cognitivi entry-level, pochi spazi di riallocazione. Il rischio, oltre alla disoccupazione, è una concentrazione estrema di potere economico, capace di erodere la stessa tenuta delle democrazie. “Fermare” l’IA è irrealistico, perché la ricetta è semplice e gli incentivi economici e geopolitici sono enormi. L’unico spazio di manovra, secondo Amodei, è guadagnare tempo e governare la corsa: ridurre l’accesso di regimi autoritari alle risorse computazionali critiche (chip e filiera), imporre regole minime comuni alle aziende frontiera, e costruire istituzioni capaci di reggere un’accelerazione che non aspetterà la nostra burocrazia. Su una generale linea guida: non tutto ciò che è possibile è automaticamente legittimo.

Le dimissioni

In questo clima sono arrivate le dimissioni di Mrinank Sharma, capo del team di ricerca sulle misure di sicurezza in Anthropic, e immediatamente sono diventate simboliche. Non era un profilo marginale: si occupava della prevenzione di rischi sensibili, incluse le difese contro bioterrorismo assistito dall’IA e studi sugli effetti sistemici sull’umanità. In una sua lettera pubblica Sharma ha parlato di “mondo in pericolo” e di una soglia imminente: “Sembra che ci stiamo avvicinando a un punto in cui la nostra saggezza deve crescere in egual misura alla nostra capacità di influenzare il mondo, altrimenti ne affronteremo le conseguenze”. Non attacca l’azienda (che elogia), ma descrive la pressione morale e psicologica di lavorare su tecnologie ad altissimo impatto. Dice di aver ottenuto ciò che voleva professionalmente, ma di non poter più ignorarne il peso quotidiano. E allarga il discorso: è difficile far sì che i valori guidino davvero le azioni. La scelta di dedicarsi alla poesia è stata letta come segnale delle tensioni interne: corsa all’innovazione e competizione geopolitica da un lato, consapevolezza di effetti potenzialmente irreversibili dall’altro. Non è un caso isolato: altri ricercatori hanno annunciato l’uscita per “iniziare qualcosa di nuovo”, mentre Anthropic continua ad assumere e rafforzarsi in parallelo a trattative per un nuovo round di finanziamento di 350 milioni di dollari.

La minaccia in superficie: Seedance 2.0

Se in profondità si parla di “nazioni di geni in un datacenter”, in superficie bastano quindici secondi di spettacolo perfetto per capire che una soglia è stata superata. E’ il caso di Seedance 2.0, ultimo modello di generazione video di ByteDance, la casa madre di Tik Tok. L’allarme globale è scattato per un breve filmato: Tom Cruise e Brad Pitt che combattono sul tetto di un grattacielo. Un corto talmente credibile da mandare in panico tutta l’industria cinematografica: Disney, Paramount e diverse associazioni di categoria di Hollywood hanno accusato lo strumento di violare i diritti di proprietà intellettuale con soli quindici secondi generati interamente da due righe di testo. L’architettura di Seedance integra testo, immagini, clip video e audio e riesce a dare coerenza e corposità alle inquadrature, dalle carrellate allo zoom, dal fuoco alle transizioni di luce. Alle spalle di quelle che sembrano essere scelte di regia c’è la compressione di settimane di lavoro umano in pochi minuti, normalizzando anche il cosiddetto “falso plausibile”. Una innovazione, aggiungiamo peso a peso, nelle mani di una azienda cinese con cui gli Stati Uniti da anni intrattengono una vera e propria battaglia geopolitica per il controllo di Tik Tok.

L'articolo Il balzo dell’IA: da Gpt Codex a Seedance 2.0, perché nel mondo “sta succedendo qualcosa di grande” (e forse definitivo) proviene da Il Fatto Quotidiano.

Читайте на сайте