bizi | 19.04.24
Chegou o momento tão aguardado para a Meta há pelo menos um ano: o Meta AI, assistente de inteligência artificial da big tech, desenvolvida com o modelo Llama 3, finalmente chegou aos apps da família!
É um momento histórico, não só para a empresa, mas para todos que acompanham de perto a evolução da tecnologia — nós, inclusive. Mais uma vez, estamos vendo todo o poder da IA disponível na palma da mão dos usuários.
Como já tínhamos falado aqui no Bizi, o modelo Llama 3 é um grande modelo de linguagem (Large Language Model) poderoso, que passou mais de um ano sendo desenvolvido e aprimorado antes de chegar ao “cliente final”. De acordo com a Meta, o que podemos esperar dele é “o assistente de IA mais inteligente que você pode usar gratuitamente”. Bem simples, não é?
A novidade foi anunciada oficialmente ontem (18). E para essa grande estreia, a empresa não disponibilizou a ferramenta em só um de seus apps, mas em quatro ao mesmo tempo.
O assistente fica disponível na barra de pesquisa ou digitação dos apps e em cada um deles, o usuário pode explorar diferentes atributos do Llama 3:
Quer planejar uma viagem ou uma receita? Pode pedir ao Meta AI desde recomendações de restaurante para comer ou onde comprar um ingrediente específico e até dicas de decoração.
“Mudando para seu primeiro apartamento? Peça ao Meta AI para “imaginar” a estética que você busca e isso gerará algumas fotos inspiradoras para sua compra de móveis.”
— Blog da Meta
Quando você encontrar um post que te interessa no feed, o Meta AI pode oferecer mais informações sobre aquele conteúdo específico.
“Se você vir uma foto da aurora boreal na Islândia, pode perguntar à Meta AI qual época do ano é melhor para observar a aurora boreal.”
— Blog da Meta
Com este recurso, o usuário começa a descrever uma imagem e o Meta AI já começa a criá-la e modificá-la, conforme o usuário vai digitando. Quando parar de digitar, o resultado será uma imagem mais nítida, com mais qualidade e melhor capacidade de receber textos.
“Da capa do álbum a convite de casamento, decoração de aniversário e sugestão de looks, o Meta AI pode gerar imagens que dão vida à sua visão de maneira mais rápida e melhor do que nunca.”
— Blog da Meta
Confessamos que esse é o recurso mais interessante que vimos nessa novidade. Não é inédito; a OpenAI já vem ganhando destaque por criar imagens (e até vídeos) a partir de prompts de texto. Mas imagine a facilidade de fazer isso direto do seu WhatsApp?
Aliás, por enquanto, esse recurso só está disponível na versão beta no WhatsApp e na experiência web Meta AI nos EUA.
Resumindo, segundo a empresa, você pode usar o assistente para “realizar tarefas, aprender, criar e conectar-se com o que é importante para você”. Tudo isso de forma super integrada aos apps e sem sair deles.
“Estamos lançando o Meta AI em inglês em mais de uma dúzia de países fora dos EUA. Agora, as pessoas terão acesso à Meta AI na Austrália, Canadá, Gana, Jamaica, Malawi, Nova Zelândia, Nigéria, Paquistão, Singapura, África do Sul, Uganda, Zâmbia e Zimbabué — e estamos apenas começando.”
— Blog da Meta
A Meta ainda não disse nada sobre quando o assistente chega por aqui, mas suspeitamos que não vai demorar nadinha. Como a própria big tech já adiantou, haverá mais para compartilhar nas próximas semanas. Estaremos esperando ansiosamente!
O que achou da novidade? Conta pra gente!
Para focar ainda mais na evolução de sua própria IA, o Google uniu equipes de software e hardware no time “Platforms and devices”.
Confira nossos outros conteúdos