Microsoft adiciona GPT-4 Turbo LLM à versão gratuita do Copilot
O ano de 2023 viu a Microsoft apostar pesado na inteligência artificial e em sua parceria com a OpenAI para tornar o Copilot uma realidade.
Com LLMs quânticos agora disponíveis no HuggingFace e ecossistemas de IA como H20, Text Gen e GPT4All permitindo que você carregue pesos de LLM no seu computador, agora você tem uma opção de IA gratuita, flexível e segura. Aqui estão os 9 melhores LLMs locais/offline que você pode experimentar agora mesmo!
Índice
Hermes 2 Pro é um modelo de linguagem avançado aprimorado pela Nous Research. Ele usa uma versão atualizada e simplificada do conjunto de dados OpenHermes 2.5, juntamente com os novos conjuntos de dados Function Calling e JSON desenvolvidos pela própria empresa. Este modelo é baseado na arquitetura Mistral 7B e foi treinado em 1.000.000 de instruções/conversas de qualidade GPT-4 ou melhor, principalmente dados sintéticos.
Modelo |
Hermes 2 Pro GPTQ |
---|---|
Tamanho do modelo |
7,26 GB |
Parâmetros |
7 bilhões |
Quantização |
4 bits |
Tipo |
Mistral |
Licença |
Apache 2.0 |
O Hermes 2 Pro no Mistral 7B é o novo modelo principal do Hermes 7B, oferecendo desempenho aprimorado em uma variedade de benchmarks, incluindo AGIEval, BigBench Reasoning, GPT4All e TruthfulQA. Seus recursos avançados o tornam adequado para muitas tarefas de processamento de linguagem natural (PLN), como geração de código, criação de conteúdo e aplicativos de IA conversacional.
Zephyr é uma série de modelos de linguagem treinados para atuar como assistentes úteis. Zephyr-7B-Beta é o segundo modelo da série, refinado a partir do Mistral-7B-v0.1 usando Otimização de Preferência Direta (DPO) em uma mistura de conjuntos de dados sintéticos disponíveis publicamente.
Modelo |
Zephyr 7B Beta |
---|---|
Tamanho do modelo |
7,26 GB |
Parâmetros |
7 bilhões |
Quantização |
4 bits |
Tipo |
Mistral |
Licença |
Apache 2.0 |
Ao eliminar o alinhamento interno de conjuntos de dados de treinamento, o Zephyr-7B-Beta demonstra desempenho aprimorado em benchmarks como o MT-Bench, aumentando sua utilidade em uma variedade de tarefas. No entanto, esse ajuste pode levar à geração problemática de texto quando solicitado de determinadas maneiras.
Esta versão quantizada do Falcon é baseada em uma arquitetura somente decodificadora refinada no modelo bruto Falcon-7b do TII. O modelo base do Falcon é treinado usando 1,5 trilhão de tokens pendentes provenientes da Internet pública. Como um modelo somente de decodificador baseado em comando licenciado pelo Apache 2, o Falcon Instruct é perfeito para pequenas empresas que buscam um modelo para usar em tradução de idiomas e ingestão de dados.
Modelo |
Falcon-7B-Instruct |
---|---|
Tamanho do modelo |
7,58 GB |
Parâmetros |
7 bilhões |
Quantização |
4 bits |
Tipo |
Falcão |
Licença |
Apache 2.0 |
Entretanto, esta versão do Falcon não é ideal para ajustes finos e serve apenas para inferência. Se quiser ajustar o Falcon, você terá que usar o modelo bruto, o que pode exigir acesso a hardware de treinamento de nível empresarial, como NVIDIA DGX ou AMD Instinct AI Accelerators.
GPT4All-J Groovy é um modelo somente decodificador ajustado pela Nomic AI e licenciado sob Apache 2.0. O GPT4ALL-J Groovy é baseado no modelo original GPT-J, que é conhecido por ser ótimo em gerar texto a partir de prompts. GPT4ALL -J Groovy foi ajustado para um modelo de conversação, o que é ótimo para aplicações de geração de texto rápidas e criativas. Isso torna o GPT4All-J Groovy ideal para criadores de conteúdo, auxiliando-os na escrita e composição de poesias, músicas ou histórias.
Modelo |
GPT4ALL-J Groovy |
---|---|
Tamanho do modelo |
3,53 GB |
Parâmetros |
7 bilhões |
Quantização |
4 bits |
Tipo |
GPT-J |
Licença |
Apache 2.0 |
Infelizmente, o modelo GPT-J de base foi treinado em um conjunto de dados somente em inglês, o que significa que mesmo esse modelo GPT4ALL-J ajustado só consegue conversar e executar aplicações de geração de texto em inglês.
O DeepSeek Coder V2 é um modelo de linguagem avançado que aprimora a programação e o raciocínio matemático. O DeepSeek Coder V2 suporta diversas linguagens de programação e oferece comprimento de contexto estendido, tornando-o uma ferramenta versátil para desenvolvedores.
Modelo |
Instrutor do DeepSeek Coder V2 |
---|---|
Tamanho do modelo |
13 GB |
Parâmetros |
33 bilhões |
Quantização |
4 bits |
Tipo |
Busca Profunda |
Licença |
Apache 2.0 |
Comparado ao seu antecessor, o DeepSeek Coder V2 mostra melhorias significativas em tarefas relacionadas a código, raciocínio e capacidades gerais. Ele estende o suporte para linguagens de programação de 86 para 338 e estende o comprimento do contexto de 16K para 128K tokens. Em benchmarks, ele supera modelos como GPT-4 Turbo, Claude 3 Opus e Gemini 1.5 Pro em benchmarks criptográficos e matemáticos.
Mixtral-8x7B é uma mistura de modelos especialistas (MoE) desenvolvida pela Mistral AI. Possui 8 especialistas por MLP, totalizando 45 bilhões de parâmetros. No entanto, apenas dois especialistas são ativados por token durante a inferência, tornando-a computacionalmente eficiente, com velocidade e custo comparáveis a um modelo de 12 bilhões de parâmetros.
Modelo |
Mixtral-8x7B |
---|---|
Tamanho do modelo |
12 GB |
Parâmetros |
45 bilhões (8 especialistas) |
Quantização |
4 bits |
Tipo |
Mistral MoE |
Licença |
Apache 2.0 |
O Mixtral suporta um comprimento de contexto de 32 mil tokens e supera o Llama 2 em 70 bilhões na maioria dos benchmarks, igualando ou excedendo o desempenho do GPT-3.5. Ele é fluente em vários idiomas, incluindo inglês, francês, alemão, espanhol e italiano, o que o torna uma escolha versátil para uma variedade de tarefas de PNL.
Wizard-Vicunha GPTQ é a versão quântica do Wizard Vicuna baseada no modelo LlaMA. Diferentemente da maioria dos LLMs lançados ao público, Wizard-Vicunha é um modelo sem censura e com a associação removida. Isso significa que o modelo não tem os mesmos padrões de segurança e éticos que a maioria dos outros modelos.
Modelo |
Wizard-Vicuna-30B-Sem Censura-GPTQ |
---|---|
Tamanho do modelo |
16,94 GB |
Parâmetros |
30 bilhões |
Quantização |
4 bits |
Tipo |
LlaMA |
Licença |
GPL 3 |
Embora possa representar um problema para o controle de alinhamento da IA, ter um LLM sem censura também traz o melhor do modelo, permitindo que ele responda sem quaisquer restrições. Isso também permite que os usuários adicionem seu próprio alinhamento personalizado sobre como a IA deve agir ou responder com base em um determinado prompt.
Você quer testar um modelo treinado usando um método de aprendizado exclusivo? Orca Mini é uma implementação não oficial do artigo de pesquisa Orca da Microsoft. Este modelo é treinado usando uma abordagem de aprendizagem professor-aluno, onde o conjunto de dados é preenchido com explicações em vez de apenas avisos e respostas. Em teoria, isso deve tornar o aluno mais inteligente, pois o modelo pode entender o problema em vez de apenas procurar pares de entrada e saída, como funciona o LLM convencional.
O Llama 2 é o sucessor do Llama LLM original, oferecendo melhor desempenho e versatilidade. A variante 13B Chat GPTQ é ajustada para aplicativos de IA de conversação otimizados para diálogos em inglês.
Alguns dos modelos listados acima vêm em diversas versões em termos de especificações. Em geral, versões com especificações mais altas produzem resultados melhores, mas exigem hardware mais potente, enquanto versões com especificações mais baixas produzem resultados de menor qualidade, mas podem ser executadas em hardware de baixo custo. Se você não tiver certeza se seu PC pode executar este modelo, tente primeiro uma versão com especificações mais baixas e depois continue até sentir que a queda de desempenho não é mais aceitável.
O ano de 2023 viu a Microsoft apostar pesado na inteligência artificial e em sua parceria com a OpenAI para tornar o Copilot uma realidade.
A Nvidia acaba de anunciar o lançamento de um modelo de grande linguagem (LLM) de código aberto que supostamente tem desempenho equivalente aos principais modelos proprietários da OpenAI, Anthropic, Meta e Google.
A Foxconn, empresa mais conhecida pela fabricação de iPhones e outros produtos de hardware da Apple, acaba de surpreender a todos ao anunciar seu primeiro modelo de grande linguagem (LLM), chamado FoxBrain, que deve ser usado para melhorar a fabricação e o gerenciamento da cadeia de suprimentos.
Uma nova campanha de ataque que espalha malware pelos resultados de pesquisa do Google foi descoberta por especialistas em segurança da Palo Alto Networks.
O Google está adicionando um novo recurso pequeno, mas muito aguardado, à Play Store.
Depois que Tim Cook assumiu como CEO em 2011, em um esforço para manter a confiança do público na Apple, ele manteve funcionários seniores pagando-os sem exigir que trabalhassem.
Dead Pool é uma das áreas temáticas de Mortal Kombat adicionadas ao Fortnite desde a atualização v34.21.
Você deve usar seu telefone durante trovões e relâmpagos? Os sinais de celular podem ser atingidos por um raio? Um telefone no modo avião, mas ainda usando Wi-Fi, atrai raios?
Uma nova pesquisa realizada por uma equipe de pesquisadores da Austrália e da China sugere que a primeira chuva apareceu na Terra há cerca de 4 bilhões de anos, 500 milhões de anos antes do que se pensava anteriormente.
Este objeto está localizado na área de Chernobyl, Ucrânia, resultado de um dos vazamentos radioativos mais horríveis da história. Este objeto tem o formato de um pé gigante, por isso é chamado de Pé de Elefante.
O código do jogo Chu Cong Xung Xung Xung permite que os jogadores recebam suporte quando entram no jogo pela primeira vez. Essas recompensas ajudarão você a se familiarizar com o jogo mais rápido e certamente atrairão novos jogadores. Digite o código do jogo Chu Cong Xung Xung Xung abaixo para receber um presente.
Com LLMs quânticos agora disponíveis no HuggingFace e ecossistemas de IA como H20, Text Gen e GPT4All permitindo que você carregue pesos de LLM no seu computador, agora você tem uma opção de IA gratuita, flexível e segura.
O gravador de voz padrão em telefones Android é falho, faltando recursos essenciais como cancelamento de ruído eficaz e ferramentas de edição poderosas.
Definir um nível de volume padrão para cada aplicativo é útil em alguns casos, como quando você está assistindo a um vídeo usando o aplicativo YouTube e quer reduzir o volume do toque e do tom de mensagem para não ser incomodado.
Glitter rosa e esmalte vermelho são especialmente adequados para unhas do Dia dos Namorados. O que poderia ser melhor que isso? Este artigo irá resumir para você lindos designs de unhas para um encontro doce no Dia dos Namorados.
Abaixo estão alguns status sobre como mudar a si mesmo e legendas sobre como mudar a si mesmo que ajudarão você a ter mais motivação para se adaptar às mudanças da vida.
No final de junho passado, a Bloomberg informou que a Apple havia começado o desenvolvimento do iOS 19, macOS 16, watchOS 12 e VisionOS 3 para o ano que vem.
O desenvolvedor NTDEV criou uma versão simplificada do Windows 11 com apenas 100 MB.