Microsoft adiciona GPT-4 Turbo LLM à versão gratuita do Copilot
O ano de 2023 viu a Microsoft apostar pesado na inteligência artificial e em sua parceria com a OpenAI para tornar o Copilot uma realidade.
Com LLMs quânticos agora disponíveis no HuggingFace e ecossistemas de IA como H20, Text Gen e GPT4All permitindo que você carregue pesos de LLM no seu computador, agora você tem uma opção de IA gratuita, flexível e segura. Aqui estão os 9 melhores LLMs locais/offline que você pode experimentar agora mesmo!
Índice

Hermes 2 Pro é um modelo de linguagem avançado aprimorado pela Nous Research. Ele usa uma versão atualizada e simplificada do conjunto de dados OpenHermes 2.5, juntamente com os novos conjuntos de dados Function Calling e JSON desenvolvidos pela própria empresa. Este modelo é baseado na arquitetura Mistral 7B e foi treinado em 1.000.000 de instruções/conversas de qualidade GPT-4 ou melhor, principalmente dados sintéticos.
|
Modelo |
Hermes 2 Pro GPTQ |
|---|---|
|
Tamanho do modelo |
7,26 GB |
|
Parâmetros |
7 bilhões |
|
Quantização |
4 bits |
|
Tipo |
Mistral |
|
Licença |
Apache 2.0 |
O Hermes 2 Pro no Mistral 7B é o novo modelo principal do Hermes 7B, oferecendo desempenho aprimorado em uma variedade de benchmarks, incluindo AGIEval, BigBench Reasoning, GPT4All e TruthfulQA. Seus recursos avançados o tornam adequado para muitas tarefas de processamento de linguagem natural (PLN), como geração de código, criação de conteúdo e aplicativos de IA conversacional.
Zephyr é uma série de modelos de linguagem treinados para atuar como assistentes úteis. Zephyr-7B-Beta é o segundo modelo da série, refinado a partir do Mistral-7B-v0.1 usando Otimização de Preferência Direta (DPO) em uma mistura de conjuntos de dados sintéticos disponíveis publicamente.
|
Modelo |
Zephyr 7B Beta |
|---|---|
|
Tamanho do modelo |
7,26 GB |
|
Parâmetros |
7 bilhões |
|
Quantização |
4 bits |
|
Tipo |
Mistral |
|
Licença |
Apache 2.0 |
Ao eliminar o alinhamento interno de conjuntos de dados de treinamento, o Zephyr-7B-Beta demonstra desempenho aprimorado em benchmarks como o MT-Bench, aumentando sua utilidade em uma variedade de tarefas. No entanto, esse ajuste pode levar à geração problemática de texto quando solicitado de determinadas maneiras.

Esta versão quantizada do Falcon é baseada em uma arquitetura somente decodificadora refinada no modelo bruto Falcon-7b do TII. O modelo base do Falcon é treinado usando 1,5 trilhão de tokens pendentes provenientes da Internet pública. Como um modelo somente de decodificador baseado em comando licenciado pelo Apache 2, o Falcon Instruct é perfeito para pequenas empresas que buscam um modelo para usar em tradução de idiomas e ingestão de dados.
|
Modelo |
Falcon-7B-Instruct |
|---|---|
|
Tamanho do modelo |
7,58 GB |
|
Parâmetros |
7 bilhões |
|
Quantização |
4 bits |
|
Tipo |
Falcão |
|
Licença |
Apache 2.0 |
Entretanto, esta versão do Falcon não é ideal para ajustes finos e serve apenas para inferência. Se quiser ajustar o Falcon, você terá que usar o modelo bruto, o que pode exigir acesso a hardware de treinamento de nível empresarial, como NVIDIA DGX ou AMD Instinct AI Accelerators.
GPT4All-J Groovy é um modelo somente decodificador ajustado pela Nomic AI e licenciado sob Apache 2.0. O GPT4ALL-J Groovy é baseado no modelo original GPT-J, que é conhecido por ser ótimo em gerar texto a partir de prompts. GPT4ALL -J Groovy foi ajustado para um modelo de conversação, o que é ótimo para aplicações de geração de texto rápidas e criativas. Isso torna o GPT4All-J Groovy ideal para criadores de conteúdo, auxiliando-os na escrita e composição de poesias, músicas ou histórias.
|
Modelo |
GPT4ALL-J Groovy |
|---|---|
|
Tamanho do modelo |
3,53 GB |
|
Parâmetros |
7 bilhões |
|
Quantização |
4 bits |
|
Tipo |
GPT-J |
|
Licença |
Apache 2.0 |
Infelizmente, o modelo GPT-J de base foi treinado em um conjunto de dados somente em inglês, o que significa que mesmo esse modelo GPT4ALL-J ajustado só consegue conversar e executar aplicações de geração de texto em inglês.

O DeepSeek Coder V2 é um modelo de linguagem avançado que aprimora a programação e o raciocínio matemático. O DeepSeek Coder V2 suporta diversas linguagens de programação e oferece comprimento de contexto estendido, tornando-o uma ferramenta versátil para desenvolvedores.
|
Modelo |
Instrutor do DeepSeek Coder V2 |
|---|---|
|
Tamanho do modelo |
13 GB |
|
Parâmetros |
33 bilhões |
|
Quantização |
4 bits |
|
Tipo |
Busca Profunda |
|
Licença |
Apache 2.0 |
Comparado ao seu antecessor, o DeepSeek Coder V2 mostra melhorias significativas em tarefas relacionadas a código, raciocínio e capacidades gerais. Ele estende o suporte para linguagens de programação de 86 para 338 e estende o comprimento do contexto de 16K para 128K tokens. Em benchmarks, ele supera modelos como GPT-4 Turbo, Claude 3 Opus e Gemini 1.5 Pro em benchmarks criptográficos e matemáticos.

Mixtral-8x7B é uma mistura de modelos especialistas (MoE) desenvolvida pela Mistral AI. Possui 8 especialistas por MLP, totalizando 45 bilhões de parâmetros. No entanto, apenas dois especialistas são ativados por token durante a inferência, tornando-a computacionalmente eficiente, com velocidade e custo comparáveis a um modelo de 12 bilhões de parâmetros.
|
Modelo |
Mixtral-8x7B |
|---|---|
|
Tamanho do modelo |
12 GB |
|
Parâmetros |
45 bilhões (8 especialistas) |
|
Quantização |
4 bits |
|
Tipo |
Mistral MoE |
|
Licença |
Apache 2.0 |
O Mixtral suporta um comprimento de contexto de 32 mil tokens e supera o Llama 2 em 70 bilhões na maioria dos benchmarks, igualando ou excedendo o desempenho do GPT-3.5. Ele é fluente em vários idiomas, incluindo inglês, francês, alemão, espanhol e italiano, o que o torna uma escolha versátil para uma variedade de tarefas de PNL.
Wizard-Vicunha GPTQ é a versão quântica do Wizard Vicuna baseada no modelo LlaMA. Diferentemente da maioria dos LLMs lançados ao público, Wizard-Vicunha é um modelo sem censura e com a associação removida. Isso significa que o modelo não tem os mesmos padrões de segurança e éticos que a maioria dos outros modelos.
|
Modelo |
Wizard-Vicuna-30B-Sem Censura-GPTQ |
|---|---|
|
Tamanho do modelo |
16,94 GB |
|
Parâmetros |
30 bilhões |
|
Quantização |
4 bits |
|
Tipo |
LlaMA |
|
Licença |
GPL 3 |
Embora possa representar um problema para o controle de alinhamento da IA, ter um LLM sem censura também traz o melhor do modelo, permitindo que ele responda sem quaisquer restrições. Isso também permite que os usuários adicionem seu próprio alinhamento personalizado sobre como a IA deve agir ou responder com base em um determinado prompt.

Você quer testar um modelo treinado usando um método de aprendizado exclusivo? Orca Mini é uma implementação não oficial do artigo de pesquisa Orca da Microsoft. Este modelo é treinado usando uma abordagem de aprendizagem professor-aluno, onde o conjunto de dados é preenchido com explicações em vez de apenas avisos e respostas. Em teoria, isso deve tornar o aluno mais inteligente, pois o modelo pode entender o problema em vez de apenas procurar pares de entrada e saída, como funciona o LLM convencional.

O Llama 2 é o sucessor do Llama LLM original, oferecendo melhor desempenho e versatilidade. A variante 13B Chat GPTQ é ajustada para aplicativos de IA de conversação otimizados para diálogos em inglês.
Alguns dos modelos listados acima vêm em diversas versões em termos de especificações. Em geral, versões com especificações mais altas produzem resultados melhores, mas exigem hardware mais potente, enquanto versões com especificações mais baixas produzem resultados de menor qualidade, mas podem ser executadas em hardware de baixo custo. Se você não tiver certeza se seu PC pode executar este modelo, tente primeiro uma versão com especificações mais baixas e depois continue até sentir que a queda de desempenho não é mais aceitável.
O ano de 2023 viu a Microsoft apostar pesado na inteligência artificial e em sua parceria com a OpenAI para tornar o Copilot uma realidade.
A Nvidia acaba de anunciar o lançamento de um modelo de grande linguagem (LLM) de código aberto que supostamente tem desempenho equivalente aos principais modelos proprietários da OpenAI, Anthropic, Meta e Google.
A Foxconn, empresa mais conhecida pela fabricação de iPhones e outros produtos de hardware da Apple, acaba de surpreender a todos ao anunciar seu primeiro modelo de grande linguagem (LLM), chamado FoxBrain, que deve ser usado para melhorar a fabricação e o gerenciamento da cadeia de suprimentos.
Cansado do erro "Como usar a Ajuda" do Microsoft Teams que está bloqueando seu fluxo de trabalho? Obtenha soluções passo a passo que funcionam nas versões mais recentes. Limpe o cache, atualize e muito mais — sem precisar de conhecimentos técnicos!
Frustrado com o erro de atalho do Microsoft Teams na área de trabalho? Siga nosso guia passo a passo comprovado para resolvê-lo rapidamente e voltar a fazer chamadas de vídeo e chats sem problemas. Sem necessidade de conhecimentos técnicos!
Descubra instruções passo a passo sobre como alterar a imagem de fundo do Microsoft Teams. Personalize reuniões no computador, no celular e na web com facilidade, usando os recursos mais recentes para videochamadas profissionais ou divertidas.
Cansado dos erros de reprodução de mídia do Microsoft Teams arruinando suas reuniões de 2026? Siga nosso guia passo a passo, elaborado por especialistas, para corrigir problemas de áudio, vídeo e compartilhamento rapidamente — sem precisar de conhecimentos técnicos. A colaboração perfeita está ao seu alcance!
Descubra onde o Microsoft Teams baixa arquivos no seu computador. Saiba onde os arquivos são baixados por padrão no Windows, Mac e Linux, como alterá-los e dicas para encontrar arquivos instantaneamente. Economize tempo com este guia completo!
Com dificuldades para resolver o erro de proxy do Microsoft Teams? Descubra etapas comprovadas para solucionar esse problema. Limpe o cache, ajuste as configurações de proxy e volte a fazer chamadas sem interrupções em minutos com nosso guia especializado.
Cansado de som abafado ou inexistente no microfone do Microsoft Teams? Descubra como resolver problemas de microfone no Microsoft Teams com passos rápidos e comprovados. Áudio nítido em breve!
Está com dificuldades para entrar em uma reunião no Microsoft Teams? Descubra passos comprovados para resolver o problema através de links diretos. Soluções rápidas para entrar em reuniões sem problemas – sem necessidade de conhecimentos técnicos!
Está com dificuldades para resolver problemas com o Keychain no Microsoft Teams para Mac? Descubra soluções comprovadas, passo a passo, para macOS e volte a colaborar sem problemas. Soluções rápidas aqui!
Frustrado porque as Salas Simultâneas não aparecem na sua reunião do Teams? Descubra os principais motivos pelos quais você não consegue ver as Salas Simultâneas no Teams e siga nossas soluções passo a passo para que elas funcionem perfeitamente em minutos. Ideal para organizadores e participantes!
Descubra passos simples para testar o áudio e a câmera do Microsoft Teams antes de uma chamada. Garanta som e vídeo nítidos para reuniões profissionais sempre com nosso guia fácil. Perfeito para usuários de desktop, dispositivos móveis e web.
Descubra a localização exata das chaves de registro do Microsoft Teams no Windows 11. Guia passo a passo para encontrar, acessar e ajustar essas chaves com segurança, garantindo desempenho ideal e solução de problemas. Essencial para profissionais de TI e entusiastas do Teams.
Cansado de erros de atalho no Microsoft Teams atrapalhando seu fluxo de trabalho? Aprenda passos comprovados para solucionar erros de atalho e travamentos na inicialização do Microsoft Teams e garanta uma colaboração tranquila. Soluções rápidas e fáceis!
Frustrado com o loop de inicialização da tela de boas-vindas do Microsoft Teams? Siga nossos passos comprovados para solucionar o problema: limpe o cache, reinicie o aplicativo e reinstale-o. Volte a colaborar sem interrupções em minutos!
Aprenda a participar de uma reunião do Microsoft Teams com ID e senha sem esforço, seja no computador, celular ou na web. Instruções passo a passo com capturas de tela para acesso rápido – sem necessidade de convite!