O Alibaba acaba de anunciar oficialmente seu mais recente modelo de raciocínio, e parece que o DeepSeek e o OpenAI têm algum motivo para preocupação — se todo o "hype" do Alibaba for verdade. Este modelo é de código aberto, então todos podem acessá-lo e experimentá-lo gratuitamente.
Chamado de QwQ-32b (Quan-with-Questions), o novo modelo de IA do Alibaba é executado em significativamente menos parâmetros do que quase todos os principais modelos de linguagem atuais, o que significa que requer menos recursos. A Alibaba afirma que o QwQ-32b tem o mesmo desempenho do DeepSeek ou do o1-mini da OpenAI.
O modelo de grande linguagem DeepSeek-R1 (LLM) causou impacto quando foi lançado no início de fevereiro, desafiando o padrão ouro definido pelo ChatGPT, mas com um custo operacional muito menor. Com o QwQ-32b, parece que a Alibaba quer levar esse limite ainda mais longe.
Tecnicamente, o DeepSeek-R1 requer 671 bilhões de parâmetros para ser executado, com 37 bilhões de parâmetros habilitados. Enquanto isso, o QwQ-32b do Alibaba precisa apenas de 32 bilhões de parâmetros. Esses números podem parecer abstratos para muitos, mas fazem uma enorme diferença no poder de computação: enquanto o DeepSeek-R1 exigia 1600 GB de VRAM para funcionar, o QwQ-32b precisava de apenas 24 GB de VRAM. Na maioria dos casos, isso exigirá uma placa de vídeo como a Nvidia H100 ou equivalente, mas mesmo a RTX 4090, ideal para jogadores, tem 24 GB de VRAM. A mais recente RTX 5090 eleva esse número para 32 GB.
Argumenta-se ainda que, mesmo com apenas 32 bilhões de parâmetros, o QwQ-32B ainda oferece desempenho igual ou superior ao R1 em áreas como matemática, programação e resolução de problemas em geral. O Alibaba também disse que o QwQ-32B supera o o1-mini da OpenAI, que é construído com 100 bilhões de parâmetros. QwQ-32B está disponível no Hugging Face, a maior comunidade de modelos de IA de código aberto do mundo.

O QwQ-32b do Alibaba está disponível sob a licença Apache 2.0, o que significa que empresas e pesquisadores podem usá-lo livremente. Mais importante, podemos testá-lo através do Qwen Chat do Alibaba. Assim como o DeepSeek, o QwQ-32b tem algumas limitações em termos de limites de assunto. Por exemplo, quando perguntado sobre questões políticas, o Qwen Chat dará a mensagem de que esse é um tópico inapropriado. Mas também há algumas vantagens que são imediatamente aparentes.
O QwQ-32b parece dar respostas bastante detalhadas até mesmo para perguntas rápidas e simples. Isso pode ser bom, mas de certa forma é muito irritante porque fornece muitas informações desnecessárias que você não pediu. Uma vantagem é que o QwQ-32b pode mostrar todo o processo de raciocínio, semelhante ao recurso Deep Thinking do ChatGPT — mas com menos profundidade.
Ainda não se sabe se as alegações do Alibaba se tornarão realidade, mas parece que o ChatGPT e o DeepSeek agora têm um novo concorrente digno.