🟨"AGI: Le Illusioni del Ragionamento Avanzato"

Giorno: 2025-06-09 | Ora : 07:13 I ricercatori di Apple affermano che lo sviluppo dell'intelligenza artificiale generale (AGI) è lontano, poiché i modelli attuali, come ChatGPT, mostrano limiti nel ragionamento. Test su vari giochi di puzzle rivelano che anche i modelli avanzati collassano in accuratezza con la complessità. Queste scoperte sfidano le aspettative sull'AGI, considerata come il "santo graal" dell'AI, capace di pensare come gli umani.
La corsa per sviluppare l'intelligenza artificiale generale (AGI) ha ancora molta strada da fare, secondo i ricercatori di Apple, che hanno scoperto che i modelli di intelligenza artificiale più avanzati incontrano ancora difficoltà nel ragionamento. Recenti aggiornamenti ai modelli di linguaggio di grandi dimensioni, come ChatGPT di OpenAI e Claude di Anthropic, hanno incluso modelli di ragionamento avanzati, ma le loro capacità fondamentali e le limitazioni rimangono "insufficientemente comprese", come affermato in un documento di ricerca intitolato "The Illusion of Thinking".
I ricercatori hanno osservato che le attuali valutazioni si concentrano principalmente su benchmark matematici e di codifica consolidati, enfatizzando l'accuratezza delle risposte finali. Tuttavia, questo approccio non fornisce informazioni sulle capacità di ragionamento dei modelli di intelligenza artificiale. La ricerca contrasta con l'aspettativa che l'AGI sia a pochi anni di distanza.
Per testare le varianti "pensanti" e "non pensanti" di diversi chatbot, i ricercatori hanno ideato vari giochi di puzzle, scoprendo che i modelli avanzati di ragionamento mostrano un completo collasso di accuratezza oltre una certa complessità. Inoltre, non riescono a generalizzare il ragionamento in modo efficace, e il loro vantaggio svanisce con l'aumentare della complessità, contrariamente alle aspettative riguardo alle capacità dell'AGI.
È emerso che i modelli di ragionamento avanzato presentano limitazioni nei calcoli esatti: non utilizzano algoritmi espliciti e ragionano in modo incoerente attraverso i puzzle. I ricercatori hanno anche notato un ragionamento superficiale e incoerente, con i chatbot che generano risposte corrette inizialmente e poi si perdono in ragionamenti errati.
Queste scoperte mettono in discussione le assunzioni prevalenti sulle capacità dei modelli di ragionamento avanzato e suggeriscono che gli approcci attuali potrebbero incontrare barriere fondamentali al ragionamento generalizzabile. L'AGI rappresenta il "santo graal" dello sviluppo dell'intelligenza artificiale, uno stato in cui la macchina può pensare e ragionare come un umano, equiparandosi all'intelligenza umana.
Nel gennaio scorso, il CEO di OpenAI, Sam Altman, ha affermato che l'azienda si avvicina a costruire l'AGI come tradizionalmente inteso. Nel novembre successivo, il CEO di Anthropic, Dario Amodei, ha predetto che l'AGI supererà le capacità umane nei prossimi uno o due anni, sottolineando che l'andamento delle capacità in aumento fa pensare che si arriverà a tale traguardo entro il 2026 o 2027.