World News in Italian

Come si collegano le ricerche di Hopfield e Hinton all’intelligenza artificiale

Il lavoro di Geoffrey Hinton e di John Hopfield che è stato insignito del premio Nobel per la Fisica nel 2024 – come si è detto – ha gettato le basi per i moderni applicativi di intelligenza artificiale, eppure affonda le sue radici negli anni Ottanta. La domanda che è abbastanza scontato farsi è: in che modo gli studi di fisica hanno avuto un impatto sui processi che hanno portato, oggi, a sviluppare strumenti e applicativi come ChatGPT, Gemini e altri? In che modo il percorso accademico di Hinton e Hopfield è approdato a soluzioni che, in questo momento, sembrano spaventare – stando alle sue dichiarazioni – anche lo stesso Hinton? Proviamo a capirlo.

LEGGI ANCHE > Un machine learning da premio Nobel

Hopfield e Hinton, il collegamento tra i loro studi e i moderni strumenti di AI

Gli strumenti di intelligenza artificiale, oggi, si basano soprattutto sull’analisi di grandissimi quantitativi di dati e – soprattutto – sull’apprendimento automatizzato. Quello che prima, sostanzialmente, un software faceva attraverso lo sviluppo umano di un algoritmo, adesso è demandato alla capacità degli applicativi di “ragionare in maniera molto simile alla mente umana”, grazie all’imitazione sempre più fedele delle reti neurali. Proprio su questi presupposti teorici, negli anni Ottanta, si basava il lavoro di Hopfield e Hinton.

Basandosi sulle conoscenze fisiche legate al magnetismo e al comportamento degli atomi, Hopfield aveva realizzato un modello matematico che potesse emulare il meccanismo attraverso il quale la nostra mente acquisisce le immagini e prova a riprodurle. È questo modello che sta alla base della cosiddetta rete di Hopfield: quest’ultima è stata realizzata con lo scopo di partire da un’immagine da un contorno non propriamente definito per poterla ricondurre a elementi concreti, immagazzinati e catalogati, in modo tale da attribuirle un significato. Si tratta di un lavoro di selezione e di cesellamento, che porta a fare a meno degli elementi superflui e non definiti per trovare una risposta all’input generico che la rete di Hopfield analizza.

Il contributo di Hinton sulla base degli studi di Hopfield

Successivamente, Hinton ha raccolto l’eredità degli studi di Hopfield e li ha declinati secondo i principi della fisica statistica. In questo modo ha costruito la cosiddetta macchina di Boltzmann, una rete neurale per riconoscere i dati. Si tratta di un sistema basato, appunto, sul machine learning: attraverso l’aggiornamento dei nodi attraverso i quali funziona la macchina, si generano nuovi modelli. Più “l’allenamento” della macchina si consolida, maggiori sono le probabilità che quest’ultima restituisca risposte corrette.

L'articolo Come si collegano le ricerche di Hopfield e Hinton all’intelligenza artificiale proviene da Giornalettismo.

Читайте на 123ru.net