Alibaba sfida DeepSeek con il modello ottimizzato QwQ-32B
in

Alibaba sfida DeepSeek con il modello ottimizzato QwQ-32B

Alibaba sfida DeepSeek con il modello ottimizzato QwQ-32B

DeepSeek R1 ha segnato la strada, adesso tutti gli altri vogliono procedere a ruota. L'obiettivo? Aumentare le prestazioni dei modelli di contenendo i costi, anzi, cercando di ridurli dove possibile. Un traguardo che si è posta Alibaba con QwQ-32B.

Il team ha svelato il suo LLM open source con 32 miliardi di parametri, progettato per migliorare le prestazioni in attività di risoluzione di problemi complessi. Un modello che distingue per l'utilizzo dell'apprendimento per rinforzo (RL), tecnica che consente all'AI di imparare attraverso tentativi ed errori, ottimizzando le sue risposte nel tempo.LICENZA OPENDisponibile su Hugging Face e ModelScope il vero punto di svolta è la licenza Apache 2.0, che permette a QwQ-32B di essere utilizzato liberamente per…

Cosa ne pensi?
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0