Alibaba sfida DeepSeek con il modello ottimizzato QwQ-32B
DeepSeek R1 ha segnato la strada, adesso tutti gli altri vogliono procedere a ruota. L'obiettivo? Aumentare le prestazioni dei modelli di intelligenza artificiale contenendo i costi, anzi, cercando di ridurli dove possibile. Un traguardo che si è posta Alibaba con QwQ-32B.
Il team ha svelato il suo LLM open source con 32 miliardi di parametri, progettato per migliorare le prestazioni in attività di risoluzione di problemi complessi. Un modello che distingue per l'utilizzo dell'apprendimento per rinforzo (RL), tecnica che consente all'AI di imparare attraverso tentativi ed errori, ottimizzando le sue risposte nel tempo.LICENZA OPENDisponibile su Hugging Face e ModelScope il vero punto di svolta è la licenza Apache 2.0, che permette a QwQ-32B di essere utilizzato liberamente per…