Home
» Wiki
»
Os últimos recursos da grande atualização do Meta Llama AI
Os últimos recursos da grande atualização do Meta Llama AI
A Meta acaba de lançar uma atualização para seu modelo Llama AI, passando da versão 3.1 para a 3.2 e trazendo muitos novos recursos interessantes. O Llama agora é multimodal, o que significa que pode lidar com texto, áudio e imagens, tornando o modelo mais versátil do que nunca. Então, quais são os destaques desta última atualização?
1. Vozes de celebridades para Meta AI
Um dos novos recursos mais interessantes do Llama 3.2 do Meta é a adição de vozes de celebridades à IA. Com esta atualização, agora você pode usar sua voz para interagir com o Meta AI em plataformas como WhatsApp, Messenger, Facebook e Instagram. Melhor ainda, ele responderá em voz alta, tornando a experiência mais pessoal e envolvente.
Seja o que for que você precise do Meta AI - respostas, explicações ou apenas um pouco de diversão - este recurso tornará as coisas mais divertidas. Agora, você pode escolher ouvir respostas de celebridades como a espirituosa Awkwafina, a lendária Dame Judi Dench, o dinâmico astro da WWE John Cena, o engraçado Keegan Michael Key e a charmosa Kristen Bell.
2. Feedback visual e recursos de edição de imagem
O Llama 3.2 da Meta agora pode "ver" e interpretar imagens. Estamos todos familiarizados com a IA que lida bem com texto — seja respondendo perguntas como um chatbot ou resumindo artigos longos — mas a visão em mudança abre dimensões inteiramente novas.
Com o Llama 3.2 no Meta AI, você pode tirar uma foto de um marco histórico em suas viagens e a IA pode fornecer informações detalhadas sobre a história e o significado desse marco. Isso é especialmente útil para fãs de história e viajantes aventureiros.
Mas esse feedback visual não para por aí. A IA também pode ajudar você a editar fotos adicionando novos fundos ou detalhes, conforme necessário. Assim, você pode pedir para a IA adicionar um pôr do sol a uma foto que você tirou na praia ou mudar o fundo completamente. Esse recurso é semelhante ao que você pode encontrar em aplicativos de edição como Photoshop ou Lightroom, mas, por ser integrado diretamente à plataforma Meta, ele é muito mais acessível.
3. Várias versões do Llama 3.2
O Llama 3.2 será lançado em quatro tamanhos de modelo diferentes, cada um projetado especificamente para diferentes necessidades e casos de uso.
Os primeiros são os modelos 11B e 90B ("B" significa bilhões de parâmetros). Estes são os modelos multimodais “pesados” da família Llama 3.2, projetados para tarefas complexas que exigem mais poder computacional. Imagine que você está supervisionando um projeto de construção e quer saber como alocar melhor os recursos com base em um cronograma dinâmico. O Llama 3.2 pode analisar cronogramas de tarefas, recursos e dependências para sugerir o plano de trabalho mais eficiente.
Ou digamos que você tenha um banco de dados abrangente de comentários de clientes. Em vez de classificar manualmente os comentários, você pode pedir ao modelo para identificar padrões na satisfação do cliente ao longo do tempo e o modelo processará os dados para fornecer relatórios instantâneos.
Além disso, existem os modelos 1B e 3B. Eles são adequados para tarefas mais leves que priorizam velocidade e privacidade; Você pode considerar usá-los no seu telefone para aumentar sua produtividade pessoal diária. Por exemplo, você pode ter um aplicativo de lista de tarefas que pode categorizar automaticamente suas tarefas, marcar as urgentes e até mesmo definir lembretes de prazos. A melhor parte é que tudo isso acontece localmente no seu dispositivo, então nenhuma informação sensível — como e-mails ou eventos do calendário — sai do seu telefone.
Os novos modelos Llama 3.2 da Meta agora estão mais acessíveis do que nunca, disponíveis para download em plataformas como Llama (site oficial da Meta) e Hugging Face. Mas o que torna este lançamento diferente é sua integração ao ecossistema do Meta. Com bilhões de pessoas usando o Facebook, Instagram, WhatsApp e Messenger todos os dias, um Llama atualizado significa que ainda mais usuários em breve experimentarão a IA mais sofisticada e envolvente do Meta.