
A “pesquisa conversacional” assumirá a pesquisa por palavra-chave
Sciences et Avenir: Podemos dizer que a inteligência artificial generativa (IA) e os modelos de linguagem estão redefinindo radicalmente o uso da Web pelos usuários da Internet?
Oliver Martinez: Sim e não. “Não”, porque vai levar tempo. É um verdadeiro drama, durante três anos (ChatGPT apareceu em novembro de 2022, nota do editor), pensar que porque uma evolução é possível, ela acontecerá imediatamente. Em relação à Web, a experiência do usuário não mudará repentinamente, nem que seja por causa de hábitos acumulados ao longo de 25 anos.
Assim que dissermos isso, sim, tudo mudará! IAs conversacionais capazes de fazer “pesquisas” são muito mais fáceis de usar para um ser humano. Não percebíamos que transformar intenções de busca em palavras-chave era complicado para o cérebro, apenas nos acostumamos com esse atrito porque isso é tudo que sabemos. Não digo a um motor de busca: “Quero almoçar num restaurante na Bastilha”. Digito: “restaurante, bastilha, hora do almoço”. No entanto, esta abordagem não se compara a falar ou escrever em linguagem natural, inclusive numa linguagem descontraída, e ter um LLM (modelo de linguagem grande, nota do editor) que compreende.
É por isso que o que chamamos de “pesquisa conversacional” assumirá o controle da pesquisa de palavras-chave. Não sei quando e isso não fará com que desapareça completamente.
Podemos imaginar uma espécie de mistura entre pesquisa por palavra-chave e interação conversacional?
É isso que o Google está testando nos Estados Unidos, com o que chama de Guia da Web. É uma combinação entre o modo AI, que fornece respostas geradas, e palavras-chave que fornecem respostas na forma de links. Concretamente, são pequenos parágrafos que agrupam os conhecidos links azuis por tema. Em última análise, o internauta talvez tenha um sistema que aproveite o melhor dos dois mundos.
Leia tambémE se a IA fizesse a web como a conhecemos desaparecer?
“O intermediário agora é a camada LLM”
Já não é este o caso dos navegadores de Internet que integram uma função de IA permanentemente ativada, como o Comet da Perplexity ou, mais recentemente, o Chat-GPT Atlas da OpenAI?
É da mesma natureza, porque tudo está interligado. Com este tipo de navegadores temos aquela renderização web a que estamos habituados, mas com ferramentas internas. Diferentemente do que mencionei anteriormente, essas ferramentas não são apenas conversacionais. Eles têm uma função de agente, como diz o jargão. Você pode pedir ao navegador “encontre esta informação na página”, “resuma”. Ou ainda “abra outras três abas para mim, nessas abas marque X, Y e Z”, e assim que tiver os resultados: “pegue a página que eu estava visualizando no início e compare tudo”. O navegador faz tudo isso por mim.
Essas interfaces, a priori muito fáceis de usar, na verdade possuem um nível de complexidade extremo e muitos profissionais ainda não entendem que uma mesma ferramenta é capaz de resumir e agir. O intermediário agora é a camada LLM.
Neste contexto surgiu a noção de GEO (Generative Engine Optimization), que pretende substituir as práticas de SEO (Search Engine Optimization) que servem para referenciar adequadamente um site num motor (principalmente no Google). O que está em jogo?
É duplo. Primeiro, apareça nas respostas geradas pela IA, seja citado da melhor forma possível. E em segundo lugar, ter instrumentos para medir esta visibilidade. Como em SEO, na verdade.
Então, o que é diferente do SEO?
O verdadeiro problema é o de uma caixa negra global. Não temos o Google com links azuis à nossa frente, mas sim respostas contextuais personalizadas. Duas coisas devem ser distinguidas. Primeiro, as respostas geradas por um modelo paramétrico, dotado de um número fixo de parâmetros, e que não busca respostas fora do seu corpus de aprendizagem. Suas respostas geralmente não contêm fontes explícitas. Se lhes perguntarmos, o modelo inventa-os porque não pode deixar de responder. Este é o grande drama dos LLMs.
Nesse contexto, quanto mais conteúdo estiver presente na internet, maior será a probabilidade de ele aparecer nas respostas. Como os modelos são treinados em dados até o final de 2024 ou início de 2025, marcas que estão online há muito tempo se destacam melhor que outras, por exemplo.
Além disso, existem as respostas de modelos ancorados no mundo real, o que chamamos de “grounding”. Basicamente, a ferramenta faz uma busca em um ou mais mecanismos em nome do internauta, indexa o resultado e gera uma resposta. Essas respostas são fornecidas, fornecem links e referências. Se um site já estiver bem referenciado, podemos dizer que, potencialmente, terá boa visibilidade na busca conversacional do Copilot, no Perplexity, no Overviews ou no modo AI do Google. Digamos que isso seja verdade… mais ou menos!
Quais são essas visões gerais de IA que assustam a todos, especialmente os sites de mídia?
Estes são pequenos resumos colocados acima da lista de links azuis do Google (ainda não implantados na França, nota do editor). Por enquanto, medir a visibilidade nas Visões Gerais é simples porque há muito pouca personalização. Mas percebemos que nesses resumos nem sempre eram os primeiros resultados do mecanismo de busca padrão que ficavam visíveis, mas sim os resultados que apareciam na segunda ou terceira página do Google. Pode ser aleatório, mas não sabemos.
Além disso, um estudo de novembro de 2025 realizado pelo especialista em SEO Ahrefs mostra que, para a mesma consulta, as visões gerais alteram o conteúdo a cada dois ou dois dias e meio. Não sabemos como ou por quê.
Leia tambémComo evitar que a IA projete armas biológicas?
“A visibilidade na IA generativa é imensurável”
Como a visibilidade é medida na IA generativa, quais métricas usar quando clicar em um link não é mais relevante?
Na prática, é imensurável porque não sabemos o que está acontecendo dentro da interface conversacional. Quando faço a mesma pergunta que outra pessoa no ChatGPT, não recebo a mesma resposta. A forma não é a mesma, os links nas respostas geradas nem sempre são os mesmos, ou são mas não na mesma ordem, as mesmas fontes podem ser apresentadas de forma positiva, negativa, neutra…
Existem ferramentas que enviam centenas de prompts, dezenas de vezes, para ver o que isso gera. Mas isto apenas dá tendências gerais, uma média. O mercado web está acostumado a saber se houve clique ou não em um link. Porém, com a IA generativa, medimos um percentual de “talvez a sua marca esteja presente nesse tipo de contexto, com esse tipo de prompt”.
O algoritmo do Google, o PageRank, que classifica os resultados de busca de acordo com sua relevância, já era considerado uma caixa preta, com todos tentando entender sua lógica sem certezas reais. Seria pior com IA?
Não sabemos nada sobre o PageRank em si, mas os resultados no Google são visíveis para todos, o tempo todo e da mesma forma porque há muito pouca personalização, além da geolocalização. Foi isso que tornou possível deduzir as coisas.
Na pesquisa conversacional, você precisa fazer solicitações para obter resultados. Exceto que ninguém sabe exatamente como os usuários os expressam. Então todos usam LLMs para gerar listas de prompts e medir a visibilidade disso ou daquilo nas respostas obtidas, mas isso talvez não reflita a realidade das trocas entre a maioria dos usuários e a ferramenta.
Porém, existe uma maneira de recuperar prompts reais: coloque um chatbot em seu próprio site e recupere o que as pessoas digitam, para saber como os visitantes interagem com o conteúdo e como o LLM reage. O site de viagens Kayak fez isso (ao integrar o ChatGPT, nota do editor) por esse motivo.
Será necessário trabalhar muito no seu site e no seu conteúdo, como fazemos em SEO, para aumentar a sua visibilidade?
Em teoria, sim. Por exemplo, embora as máquinas compreendam a linguagem natural, são muito mais eficientes ao lidar com conteúdos estruturados, de uma forma quase informática. Como resultado, seria necessário construir o seu conteúdo em conformidade, ou duplicar a versão feita para humanos com uma versão dirigida a robôs indexadores de IA, e que não seria mais escrita, mas construída de acordo com um formato de tipo de banco de dados: lugar/fato/etc.
Porque, mais uma vez, os bots de IA, que atualmente apenas extraem dados da Internet, tornam-se intermediários entre os humanos e o conteúdo, as marcas e a mídia online. Eles serão os “gatekeepers”, estes atores que governam o acesso à informação, a sua divulgação, a sua priorização. Depois disso, será que os humanos realmente mudarão a forma como criam conteúdo para apelar à pesquisa conversacional? A tendência atual mostra isso. Em última análise, não sabemos de nada.