O Google anunciou que lançará o sistema “Multisearch” — que permite a busca simultânea e interativa por texto e em imagem — em português do Brasil e em outros 70 idiomas nos próximos dias. O recurso já estava disponível globalmente em inglês.
A novidade foi revelada nesta quarta-feira (28) no evento anual da empresa, chamado de “Search ON”, junto a outras diversas novas ferramentas nas buscas e Google Maps (veja mais abaixo).
Com o “Multisearch” será possível tirar uma foto, usar uma imagem ou screenshot salvo no telefone e pesquisar essa foto junto a uma pergunta em texto ou em áudio.
Assim, a expectativa é fazer o texto ou áudio interagir com a imagem pesquisada no Google, como se fosse uma conversa com outra pessoa. Por exemplo:
- fazer um screenshot de um vestido laranja, adicionar o texto de pesquisa “verde” para achar esse vestido em outra cor;
- tirar uma foto da sua mesa de jantar, escrever “mesa de café” para achar um móvel que combine com o da imagem;
- perguntar por “instruções de cuidados” junto de uma foto da planta que você acabou de ganhar.
Exemplo de como o “Multisearch” funcionará — Foto: Divulgação/Google
A ferramenta fará parte do Google Lens, que já permitia a busca por imagens, mas sem a opção de configurar uma busca somando as informações do texto e foto.
Outra funcionalidade do “Multisearch” é o “perto de mim”. O recurso acessará a pesquisa por imagem de um prato de comida ou um acessório, por exemplo, e encontre produtos similares que estejam próximos de onde mora.
Essa tecnologia, no entanto, só tem previsão de chegada nos Estados Unidos no resto deste ano.
Tradução de textos em imagens
A empresa também promete tornar mais fácil a tradução de textos que estejam até em imagens complexas, em aprimoramento que deve ser lançado até o final de 2022.
Ao invés de cobrir o texto original, agora o Google Lens apaga esses caracteres, que serão recriados na mesma foto.
“Otimizamos os modelos de aprendizado de máquina e agora fazemos todo esse processo em apenas cem milissegundos”, afirmou o Google.
Previsão de como funcionará a tradução de textos em imagens — Foto: Divulgação/Google
A melhora da visualização será um dos focos da empresa no sistema de buscas e no Maps. A plataforma quer mostrar cada vez mais informações em imagens e vídeos além daqueles tópicos textuais que costumam aparecer como resultados de pesquisas.
Assim, ao pesquisar o nome de uma cidade, por exemplo, a página disponibilizará “stories” e vídeos curtos do local (semelhantes ao do formato dos principais concorrentes em buscas: Instagram e TikTok).
Google lança ferramentas de pesquisa visuais — Foto: Divulgação/Google
O Google Maps também terá uma série de melhorias — a maioria ainda sem data de chegada para o Brasil.
O recurso “neighborhood vibe” (atmosfera da vizinhança, em tradução livre) pretende facilitar a avaliação de um bairro pelo Maps ao juntar fotos, informações e avaliações de usuários da região.
Esse é uma das poucas novidades que têm previsão de lançamento global nos próximos meses.
Ainda no Maps, a “visão imersiva” quer ambientar turistas às cidades, ao combinar em uma mesma interface imagens aéreas panorâmicas, informações sobre tempo, temperatura, trânsito em diferentes horários e dias da semana.
A tecnologia será lançada ao longo dos próximos meses apenas em Los Angeles, Londres, Nova York, São Francisco e Tóquio.
Essas cinco cidades também receberão atualização do “Live View”, que garante pesquisas interativas na página de geolocalização.
Com a tecnologia, o usuário abre a câmera no Maps, aponta para a área na sua frente, enquanto o Google identifica nessa imagem as lojas, caixas eletrônicos e restaurantes que estão por perto.
Como funcionará o “Live View” no Google Maps — Foto: Divulgação/Google