Alibaba lancia AI che batte OpenAI e Deepseek

Dopo il clamore suscitato da DeepSeek nelle prime settimane dell’anno, nei giorni scorsi Alibaba Group ha annunciato il proprio modello di intelligenza artificiale.

Denominata QwQ-32B, la tecnologia ha abbandonato il modello di anteprima e, secondo l’azienda Alibaba compete testa a testa con i modelli di OpenAI e persino con lo stesso DeepSeek.

In una dichiarazione rilasciata dal gruppo cinese, il nuovo modello di intelligenza artificiale offre prestazioni eccezionali e “supera quasi del tutto 
OpenAI-o1-mini e rivaleggia con il più potente modello di ragionamento open source, DeepSeek-R1″.

Secondo la nota, il modello raggiunge elevate prestazioni nelle operazioni matematiche, nella codifica e nelle capacità di uso generale. I creatori di questa tecnologia sottolineano che la nuova funzionalità ha una sorta di spirito filosofico per risolvere i problemi del nostro mondo con “meraviglia”.

L’idea è che il modello sarà in grado di eseguire operazioni a livello cognitivo e persino nel campo dell’apprendimento automatico, sebbene il concetto di AGI sia al momento un po’ astratto.

Per quanto il lancio del QwQ-32B possa sembrare una novità, fino a poche settimane fa il modello di intelligenza artificiale dell’azienda cinese era in anteprima. La tecnologia è stata sviluppata dal team Qwen ed è stata testata da diversi sviluppatori.

QwQ (Qwen with Questions) si configura come un classico modello razionale, che prevede una serie di domande e riflessioni prima di rispondere alle domande degli utenti. Ciò rende lo strumento più adatto a determinati flussi di lavoro, come la codifica e i problemi matematici.

D’altro canto, i modelli razionali potrebbero non essere ideali per gli utenti comuni. Poiché “pensano troppo”, questi strumenti tendono a impiegare un po’ più di tempo per rispondere e sono generalmente più adatti ai professionisti che richiedono un livello di precisione più elevato.

Vale la pena ricordare che il modello di Alibaba funziona con soli 32 miliardi di parametri, cioè un numero notevolmente inferiore ai 671 miliardi presenti nell’R1 di DeepSeek. Nonostante le differenze, il conglomerato cinese sottolinea le somiglianze nelle prestazioni.

In un recente articolo dei ricercatori del Tencent AI Lab e della Shanghai Jiao Tong University, la versione di anteprima del QwQ-32B è stata testata rispetto ad altri modelli. Quando è stato chiesto di rispondere all’equazione 2 + 3, il modello di Qwen ha utilizzato 901 token per rispondere alla domanda, mentre i LLM (Large Language Models) ne hanno utilizzati tra 10 e 50.

Gli LLM sono modelli di apprendimento automatico, ovvero un tipo di intelligenza artificiale che elabora i dati, li comprende e genera risposte in un linguaggio facilmente comprensibile per gli esseri umani.

Con l’annuncio della versione stabile di QwQ-32B, Alibaba ha registrato un aumento dell’8% delle sue azioni quotate a Hong Kong. L’azienda è molto interessata ad ampliare le sue capacità di intelligenza artificiale e 
la scorsa settimana ha annunciato un investimento di 53 miliardi di dollari (circa 304 miliardi di R$) per i prossimi tre anni.

L’obiettivo è quello di far progredire l’infrastruttura aziendale nel cloud computing e nell’intelligenza artificiale; lo stesso CEO dell’azienda, Eddie Wu, ritiene che questo momento nell’intelligenza artificiale sia un’opportunità irripetibile, 
individuando nell’AGI la missione principale a lungo termine dell’azienda.

Qua sotto vi lasciamo alcuni articoli che potrebbero interessarvi.

Marco Buoso
Marco Buoso
Esploratore del mistero e dell’occulto. Viaggiando per il mondo ho visto cose che non so spiegare... e forse è meglio così. Le racconto qui, senza filtri e senza certezze, solo domande che non fanno dormire. Se cerchi risposte, sei nel posto sbagliato. Se cerchi verità scomode, resta.

Ultimi articoli

Related articles