IA do Google vai ganhar 'olhos' e ler o ambiente com a câmera do celular

O Google anunciou hoje durante o I/O, evento anual para desenvolvedores em Mountain View, nos EUA, que sua inteligência artificial vai conseguir usar a câmera do celular para "ver" e ajudar nas respostas, além de dar passos importantes na busca e na assistência pessoal. As novidades já estão disponíveis em todos os aparelhos Android e iOS nos EUA.

O que aconteceu

IA ganhou "olhos" no celular. Um dos novos recursos, o Gemini Live, permite que o usuário abra a câmera do celular para que a inteligência artificial "veja" o que está à frente e cumpra alguma instrução. Com isso, ela vai conseguir, por exemplo, responder sobre o estilo de decoração de um ambiente ou te ajudar a provar roupas digitalmente.

Apresentação do Google mostra IA "provando" roupas novas sobre foto digital do corpo da pessoa
Apresentação do Google mostra IA "provando" roupas novas sobre foto digital do corpo da pessoa Imagem: Reprodução/YouTube

Google Beam vai criar chamadas de vídeo em 3D usando IA. A ferramenta usa o Project Starline, modelo de geração de vídeos 3D lançado há alguns anos, para que as chamadas no Google Meet passem a transformar vídeos 2D em uma experiência tridimensional em tempo real. Com a união de seis câmeras virtuais com IA, a pessoa do outro lado da chamada aparenta estar em um ambiente com mais sombra e volume, gerando assim uma sensação maior de imersão.

Google Beam é nova tecnologia da empresa que cria ambientação 3D em chamadas de vídeo usando inteligência artificial
Google Beam é nova tecnologia da empresa que cria ambientação 3D em chamadas de vídeo usando inteligência artificial Imagem: Reprodução/YouTube

Meet também contará com tradução em tempo real. A empresa deve começar a experimentar tradução de áudios das chamadas em vídeo enquanto a pessoa fala. Por ora, só inglês e espanhol serão traduzidos.

A IA vai ser bilíngue em tempo real. O Gemini permitirá reconhecer e interagir com duas vozes distintas no mesmo ambiente, e trocar de idioma durante a interação.

Continua após a publicidade

Busca do Google dará respostas mais parrudas no chatbot com IA. A busca já podia retornar respostas de chatbot no topo da página, mas agora houve o upgrade AI Mode, que permite interagir com o Google por texto e pedir mais detalhes, visualizar e analisar números e dados e gerar gráficos interativos em tempo real (disponível nas próximas semanas).

Chrome ganha IA Gemini embutida. Como já acontece no Microsoft Edge e no Copilot, o navegador Chrome ganha, a partir de hoje, o Gemini embutido. A IA, neste primeiro momento, só responderá a perguntas em uma aba, mas a empresa planeja adicionar recursos para várias abas em atualização futura.

IA tenta ser aquela assistente que você precisa muito. O novo projeto do Google é que a IA vá além das respostas de texto. Ela "executará tarefas diárias para nós, cuidará de nossa administração mundana e apresentará novas recomendações deliciosas, tornando-nos mais produtivos e enriquecendo nossas vidas", diz a empresa. O primeiro passo é mostrar o que a IA está pensando —comentários sobre o raciocínio que ela seguiu para chegar à resposta. É parecido com o que a DeepSeek, IA chinesa, faz.

Novidade para desenvolvedores: Gemini 2.5 Pro e Flash melhorados. O modelo pro existe para ajudar os desenvolvedores a criar aplicativos da web mais avançados e interativos. O Flash é um modelo similar, mas de baixo custo. Ambos devem ser lançados a partir de junho. O exemplo mostrado criou um site em 3D a partir de um esboço no guardanapo. A IA criou o código para montar a página na internet rapidinho.

Deixe seu comentário

O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.