Você já leu o /entenda/ e quer aprofundar? Este é o próximo passo.
Dez capítulos curtos, cada um com exemplo prático, analogia e um exercício pra aplicar imediato.
Autor: Alexandre Caramaschi, baseado no paper Algorithmic Authority (SSRN 2026).
Capítulo 01
AI Overview — A caixinha que matou o clique
O recurso que o Google lançou em 2024 e que mudou tudo.
AI Overview (antes chamado de SGE — Search Generative Experience) é o bloco
colorido que aparece no topo dos resultados do Google com uma resposta escrita por IA.
Ele está presente em 32% das buscas B2B em 2026 e é o principal responsável pela queda do tráfego orgânico.
Analogia
É como se você perguntasse "tem massa com molho de tomate?" pro garçom e ele já respondesse "sim, recomendo o spaghetti à bolonhesa" — sem você nem abrir o cardápio. O cardápio (os 10 links do Google) ainda está ali, mas ninguém abre.
Por que importa para a sua marca
Quando o Google gera a resposta via IA, ele cita 3 a 5 fontes numericamente. Se sua marca
aparece entre essas fontes, você ganha autoridade (mesmo sem clique). Se não aparece, você é esquecido.
A diferença entre aparecer ou não depende de: dados estruturados, llms.txt, consistência de entidade e autoridade temática.
Exercício
Abra Google e pesquise "melhor [seu produto/serviço] para [seu ICP]". Olhe o AI Overview. Sua marca está citada? Quantas fontes aparecem? Qual o primeiro link? Anote.
Retrieval-Augmented Generation — o que diferencia ChatGPT com browsing de ChatGPT offline.
RAG (Retrieval-Augmented Generation) é o mecanismo pelo qual um LLM busca informação em fontes
externas em tempo real antes de gerar a resposta. Perplexity, ChatGPT com browsing,
Google Gemini e Microsoft Copilot usam RAG.
Analogia
Sem RAG, o LLM é como um aluno respondendo prova com base só no que memorizou nos anos anteriores (treinamento). Com RAG, ele pode sair da sala, ir à biblioteca, ler artigos atuais e voltar para responder. A resposta fica muito melhor — e mais atual.
O que isso significa pra você
RAG escolhe fontes na hora, com base em autoridade, frescor e relevância. Se seu site:
É atualizado com frequência (frescor)
Tem dados estruturados claros (facilita leitura da máquina)
Está indexado rapidamente via IndexNow (chega antes)
Tem llms.txt estruturado (guia de leitura)
…então a chance de você ser escolhido como fonte pela RAG é muito maior. Perplexity, por exemplo,
mostra as fontes numericamente — se você aparece, ganha tráfego direto e citação.
O truque matemático que faz sua marca ser "agrupada" junto de concorrentes.
Embedding é a forma como os LLMs convertem palavras em vetores numéricos.
Cada palavra, frase ou documento vira um ponto num espaço com centenas (ou milhares) de dimensões.
Palavras parecidas ficam próximas; distintas ficam distantes.
Analogia
Imagine um mapa gigante onde cada marca do seu mercado é uma cidade. Marcas com posicionamento parecido ficam vizinhas. Marcas muito diferentes ficam em estados opostos. O LLM "vê" essa geografia. Se sua marca está na cidade errada (descrita vagamente, inconsistente), ele te agrupa com o cluster errado.
Por que importa
Quando alguém pergunta "melhores CRMs B2B", o LLM calcula os embeddings da pergunta e busca as marcas
cujos embeddings são mais próximos. Se você está descrito de forma clara, consistente e específica,
seu embedding aponta pra cidade certa.
Exercício
Pegue sua descrição de empresa em 3 lugares: site, LinkedIn, Crunchbase. Elas dizem a mesma coisa? Com as mesmas palavras-chave? Inconsistência = embedding ambíguo = você fica na "cidade errada".
Capítulo 04
Schema.org e JSON-LD — O código que fala com a máquina
Invisível para o usuário, obrigatório para a IA.
Schema.org é um vocabulário padronizado para marcar o significado do conteúdo numa página —
"isto é uma pessoa", "isto é uma empresa", "isto é um preço". JSON-LD é o formato
recomendado para implementá-lo: um bloco <script type="application/ld+json"> invisível ao usuário.
Exemplo prático
Esta página (/conceitos/) tem o JSON-LD abaixo no head. Observe como ele informa à IA que o autor é Alexandre Caramaschi,
que o conteúdo ensina 10 tópicos específicos e que faz parte de um recurso de aprendizado.
É como colocar etiquetas organizadas nas caixas do seu estoque. Sem etiqueta, quem chega precisa abrir tudo pra descobrir o que tem. Com etiqueta (JSON-LD), a IA entra e já sabe: "aqui tem uma Pessoa com ORCID X, aqui tem uma Organização com CNPJ Y".
Tipos essenciais para GEO
Person — sua biografia canônica (com ORCID, Wikidata, sameAs)
Organization — sua empresa (com taxID, founder, location)
Um arquivo simples que aumenta muito sua chance de ser citado.
llms.txt é um arquivo de texto servido na raiz do site (/llms.txt) que fornece
a LLMs uma visão sumarizada, estruturada e citável da identidade, serviços, ofertas e conteúdos
da marca. É especificação aberta, criada em 2024, já adotada pelos principais crawlers de IA.
Analogia
robots.txt diz ao Google o que ele PODE rastrear. llms.txt diz à IA o que ela precisa ENTENDER. É o bilhete de apresentação que você deixa na recepção pro visitante nerd da IA.
O framework que o Google usa há anos e que IAs também adotaram.
EEAT é a sigla para Experience, Expertise, Authoritativeness, Trustworthiness —
o framework de qualidade do Google. Em 2026, IAs generativas usam heurísticas muito parecidas:
preferem citar marcas com experiência real, expertise técnica demonstrável, autoridade reconhecida
e confiabilidade verificável.
Como comprovar cada dimensão
Experiência (E): anos de atuação, cases concretos, depoimentos, presença antiga no tema.
Autoridade (A): citações de terceiros, imprensa, academia, Wikidata, peer-reviewed.
Confiabilidade (T): CNPJ visível, contato verificável, política de privacidade, HTTPS, LGPD.
EEAT real da Brasil GEO
Veja a página do fundador — ela é uma ilustração concreta de EEAT alto: ORCID verificável (E de expertise), paper SSRN peer-reviewed (A de autoridade), cobertura de imprensa em 3 veículos (A de autoridade), CNPJ visível e política de privacidade (T de trust), 24+ anos em tecnologia (E de experiência).
Share of Voice Generativo — A métrica do novo mundo
Antes era ranking. Agora é quantas respostas te citam.
Share of Voice (SOV) Generativo mede em quantas respostas de IAs sua marca é citada,
entre as perguntas-chave do seu mercado. É o equivalente moderno do "ranking no Google":
em vez de contar posições, você conta citações.
Exemplo prático
Seu mercado: CRMs B2B. Você define 10 perguntas-chave ("melhor CRM para B2B", "CRM com integração Slack", etc). Pergunta em 4 IAs (ChatGPT, Gemini, Claude, Perplexity) = 40 respostas. Sua marca é citada em 12 delas. Seu SOV = 30%.
Como calcular SOV na prática
Escolha 10-20 perguntas-chave do seu funil
Execute cada uma em 4 IAs (manualmente ou via API)
Conte citações da sua marca vs concorrentes
Calcule % = citações suas ÷ total de respostas
Benchmark: qualquer coisa abaixo de 20% é alerta
Exercício
Escolha 5 perguntas-chave e pergunte em ChatGPT, Gemini e Claude (15 respostas). Anote em quantas sua marca aparece. Seu SOV inicial = ?. Essa é sua baseline.
Citabilidade é o quanto uma marca está "pronta para ser citada" por uma IA. É como
uma pré-métrica: antes de medir quantas vezes você aparece (SOV), você avalia se os fundamentos estão
no lugar para aparecer.
5 componentes de alta citabilidade
Entidade clara: Person + Organization Schema.org com @id único
Bio consistente: mesma descrição em todos os canais
Citabilidade é sua "pré-qualificação" na mente da IA. Você ainda não foi chamado (citado), mas já está na lista de candidatos elegíveis. Sem esses 5 fundamentos, você nem chega na lista.
Alucinação é o termo técnico para quando um LLM gera informação falsa com aparência de verdade.
Pode citar sua marca em contexto errado, atribuir produtos que você não tem, ou confundir sua identidade com
a de outra empresa homônima.
Tipos de alucinação sobre marcas
Atribuição errada: diz que você faz algo que você não faz.
Confusão de identidade: mistura você com concorrente ou homônimo.
Fatos incorretos: inventa preços, endereços, fundadores.
Citação inventada: atribui a você frases que você nunca disse.
Como GEO mitiga
Ao fornecer dados canônicos estruturados (Schema.org, llms.txt, bio consistente entre Wikidata + LinkedIn + site), você reduz a necessidade da IA "adivinhar" — e portanto reduz a chance de alucinar sobre sua marca. A disambiguatingDescription (no schema Person) é particularmente importante para termos ambíguos, como GEO (generative engine vs geoprocessamento).
O próximo passo depois de B2B e B2C. Tese pioneira de Alexandre Caramaschi no Brasil.
B2A (Business-to-Agent) descreve o cenário em que agentes autônomos de IA fazem
triagem, comparação, recomendação e até compra em nome de usuários humanos.
Não é ficção: OpenAI Operators (2025), Perplexity Shopping (2025) e agentes de n8n/LangChain/AutoGPT já operam em produção.
Analogia
Imagine que o cliente não entra mais na sua loja. Ele manda o mordomo-robô pesquisar, comparar e comprar. Seu trabalho agora é ser o fornecedor preferido do robô — e, pra isso, você precisa estar legível pra máquina.
Por que B2A muda tudo
Agentes não clicam em banners — não têm conversão emocional. Só lógica.
Agentes comparam especificações técnicas em millisegundos — a diferença é fina.
Agentes usam APIs e JSON-LD como fontes primárias — marketing visual importa zero.
Agentes seguem protocolos como MCP (Model Context Protocol) para acessar dados canônicos.
Como a Brasil GEO prepara B2A
O endpoint alexandrecaramaschi.com/api/mcp é um servidor MCP (Model Context Protocol) que expõe tools read-only para agentes invocarem: getBusinessInfo, getLocation, contactUs, listCourses. Qualquer agente na web pode descobrir e consumir sem fricção.