Apple smorza l'hype sull'AI con una ricerca: non sa davvero ragionare

Giugno 9, 2025 - 01:30
 0
Apple smorza l'hype sull'AI con una ricerca: non sa davvero ragionare

Nelle scorse ore Apple ha pubblicato un nuovo “whitepaper” che pone l’intelligenza artificiale in una luce piuttosto cattiva. Il titolo completo del documento, che potete leggere in forma integrale seguendo il link FONTE in fondo all’articolo, si chiama The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity. Il succo della questione è che, secondo Apple, i più importanti e diffusi LLM (Large Language Model, quelli che oggi molto banalmente definiamo AI) che vengono definiti in grado di “pensare” e “ragionare”, non sono davvero in grado di farlo - sono semplicemente molto bravi a identificare dei pattern. Questo allontana, sempre a detta di Apple, l'ipotesi che la cosiddetta AGI, o Artificial General Intellligence, sia davvero dietro l'angolo, come sembrano sostenere alcune realtà del settore, in primis OpenAI e il suo fondatore Sam Altman.

La tesi del documento è che fino a questo momento abbiamo usato parametri e sistemi sbagliati per valutare e misurare la bontà di un modello AI: “le valutazioni attuali si concentrano principalmente su parametri di riferimento matematici e di codifica consolidati, ponendo l’enfasi sull'accuratezza della risposta finale. Tuttavia, questo paradigma di valutazione soffre spesso di contaminazione dei dati e non fornisce approfondimenti sulla struttura e sulla qualità delle tracce di ragionamento”.

Lo studio, che è firmato da Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio, Mehrdad Farajtabar (tutti dipendenti o stagisti presso Apple), argomenta che i sistemi di ragionamento dei modelli più diffusi sono più o meno accurati in casi molto semplici, ma spesso tendono a sovra-analizzare i problemi, inoltre non mantengono la stessa efficienza o accuratezza quando i problemi diventano più complicati - anzi, arrivano a crollare completamente sopra determinate soglie. Il problema evidenziato dallo studio è che il settore finora si è concentrato sulla premiazione della risposta giusta, a prescindere da come ci si arriva, quando il punto di un ragionamento, in ultimo, è la concatenazione logica dei concetti.


CLICCA QUI PER CONTINUARE A LEGGERE

Qual è la tua reazione?

Mi piace Mi piace 0
Antipatico Antipatico 0
Lo amo Lo amo 0
Comico Comico 0
Furioso Furioso 0
Triste Triste 0
Wow Wow 0
Redazione Redazione Eventi e News