Pular para o conteúdo principal
🧠 MINI-GUIA DEEP-DIVE · 25 MIN DE LEITURA

10 Conceitos fundamentais de GEO

Você já leu o /entenda/ e quer aprofundar? Este é o próximo passo. Dez capítulos curtos, cada um com exemplo prático, analogia e um exercício pra aplicar imediato. Autor: Alexandre Caramaschi, baseado no paper Algorithmic Authority (SSRN 2026).

Capítulo 01

AI Overview — A caixinha que matou o clique

O recurso que o Google lançou em 2024 e que mudou tudo.

AI Overview (antes chamado de SGE — Search Generative Experience) é o bloco colorido que aparece no topo dos resultados do Google com uma resposta escrita por IA. Ele está presente em 32% das buscas B2B em 2026 e é o principal responsável pela queda do tráfego orgânico.

Analogia

É como se você perguntasse "tem massa com molho de tomate?" pro garçom e ele já respondesse "sim, recomendo o spaghetti à bolonhesa" — sem você nem abrir o cardápio. O cardápio (os 10 links do Google) ainda está ali, mas ninguém abre.

Por que importa para a sua marca

Quando o Google gera a resposta via IA, ele cita 3 a 5 fontes numericamente. Se sua marca aparece entre essas fontes, você ganha autoridade (mesmo sem clique). Se não aparece, você é esquecido. A diferença entre aparecer ou não depende de: dados estruturados, llms.txt, consistência de entidade e autoridade temática.

Exercício

Abra Google e pesquise "melhor [seu produto/serviço] para [seu ICP]". Olhe o AI Overview. Sua marca está citada? Quantas fontes aparecem? Qual o primeiro link? Anote.

Capítulo 02

RAG — Como a IA busca fontes em tempo real

Retrieval-Augmented Generation — o que diferencia ChatGPT com browsing de ChatGPT offline.

RAG (Retrieval-Augmented Generation) é o mecanismo pelo qual um LLM busca informação em fontes externas em tempo real antes de gerar a resposta. Perplexity, ChatGPT com browsing, Google Gemini e Microsoft Copilot usam RAG.

Analogia

Sem RAG, o LLM é como um aluno respondendo prova com base só no que memorizou nos anos anteriores (treinamento). Com RAG, ele pode sair da sala, ir à biblioteca, ler artigos atuais e voltar para responder. A resposta fica muito melhor — e mais atual.

O que isso significa pra você

RAG escolhe fontes na hora, com base em autoridade, frescor e relevância. Se seu site:

…então a chance de você ser escolhido como fonte pela RAG é muito maior. Perplexity, por exemplo, mostra as fontes numericamente — se você aparece, ganha tráfego direto e citação.

Capítulo 03

Embeddings — Como a IA entende significado

O truque matemático que faz sua marca ser "agrupada" junto de concorrentes.

Embedding é a forma como os LLMs convertem palavras em vetores numéricos. Cada palavra, frase ou documento vira um ponto num espaço com centenas (ou milhares) de dimensões. Palavras parecidas ficam próximas; distintas ficam distantes.

Analogia

Imagine um mapa gigante onde cada marca do seu mercado é uma cidade. Marcas com posicionamento parecido ficam vizinhas. Marcas muito diferentes ficam em estados opostos. O LLM "vê" essa geografia. Se sua marca está na cidade errada (descrita vagamente, inconsistente), ele te agrupa com o cluster errado.

Por que importa

Quando alguém pergunta "melhores CRMs B2B", o LLM calcula os embeddings da pergunta e busca as marcas cujos embeddings são mais próximos. Se você está descrito de forma clara, consistente e específica, seu embedding aponta pra cidade certa.

Exercício

Pegue sua descrição de empresa em 3 lugares: site, LinkedIn, Crunchbase. Elas dizem a mesma coisa? Com as mesmas palavras-chave? Inconsistência = embedding ambíguo = você fica na "cidade errada".

Capítulo 04

Schema.org e JSON-LD — O código que fala com a máquina

Invisível para o usuário, obrigatório para a IA.

Schema.org é um vocabulário padronizado para marcar o significado do conteúdo numa página — "isto é uma pessoa", "isto é uma empresa", "isto é um preço". JSON-LD é o formato recomendado para implementá-lo: um bloco <script type="application/ld+json"> invisível ao usuário.

Exemplo prático

Esta página (/conceitos/) tem o JSON-LD abaixo no head. Observe como ele informa à IA que o autor é Alexandre Caramaschi, que o conteúdo ensina 10 tópicos específicos e que faz parte de um recurso de aprendizado.

JSON-LD real desta página

{
  "@type": "LearningResource",
  "name": "10 Conceitos Fundamentais de GEO",
  "author": { "@id": "https://brasilgeo.ai/#founder" },
  "educationalLevel": "Intermediate",
  "teaches": [
    "AI Overview", "Retrieval-Augmented Generation",
    "Embeddings", "Schema.org e JSON-LD", ...
  ]
}

Analogia

É como colocar etiquetas organizadas nas caixas do seu estoque. Sem etiqueta, quem chega precisa abrir tudo pra descobrir o que tem. Com etiqueta (JSON-LD), a IA entra e já sabe: "aqui tem uma Pessoa com ORCID X, aqui tem uma Organização com CNPJ Y".

Tipos essenciais para GEO

Capítulo 05

llms.txt — O novo robots.txt, mas para IA

Um arquivo simples que aumenta muito sua chance de ser citado.

llms.txt é um arquivo de texto servido na raiz do site (/llms.txt) que fornece a LLMs uma visão sumarizada, estruturada e citável da identidade, serviços, ofertas e conteúdos da marca. É especificação aberta, criada em 2024, já adotada pelos principais crawlers de IA.

Analogia

robots.txt diz ao Google o que ele PODE rastrear. llms.txt diz à IA o que ela precisa ENTENDER. É o bilhete de apresentação que você deixa na recepção pro visitante nerd da IA.

O que deve ter num llms.txt

llms.txt deste site

https://brasilgeo.ai/llms.txt
https://brasilgeo.ai/llms-full.txt
https://brasilgeo.ai/markdown-for-agents
Capítulo 06

EEAT — Experiência, Expertise, Autoridade, Confiabilidade

O framework que o Google usa há anos e que IAs também adotaram.

EEAT é a sigla para Experience, Expertise, Authoritativeness, Trustworthiness — o framework de qualidade do Google. Em 2026, IAs generativas usam heurísticas muito parecidas: preferem citar marcas com experiência real, expertise técnica demonstrável, autoridade reconhecida e confiabilidade verificável.

Como comprovar cada dimensão

EEAT real da Brasil GEO

Veja a página do fundador — ela é uma ilustração concreta de EEAT alto: ORCID verificável (E de expertise), paper SSRN peer-reviewed (A de autoridade), cobertura de imprensa em 3 veículos (A de autoridade), CNPJ visível e política de privacidade (T de trust), 24+ anos em tecnologia (E de experiência).

Capítulo 07

Share of Voice Generativo — A métrica do novo mundo

Antes era ranking. Agora é quantas respostas te citam.

Share of Voice (SOV) Generativo mede em quantas respostas de IAs sua marca é citada, entre as perguntas-chave do seu mercado. É o equivalente moderno do "ranking no Google": em vez de contar posições, você conta citações.

Exemplo prático

Seu mercado: CRMs B2B. Você define 10 perguntas-chave ("melhor CRM para B2B", "CRM com integração Slack", etc). Pergunta em 4 IAs (ChatGPT, Gemini, Claude, Perplexity) = 40 respostas. Sua marca é citada em 12 delas. Seu SOV = 30%.

Como calcular SOV na prática

Exercício

Escolha 5 perguntas-chave e pergunte em ChatGPT, Gemini e Claude (15 respostas). Anote em quantas sua marca aparece. Seu SOV inicial = ?. Essa é sua baseline.

Capítulo 08

Citabilidade — A nova qualidade

A métrica que antecede o SOV.

Citabilidade é o quanto uma marca está "pronta para ser citada" por uma IA. É como uma pré-métrica: antes de medir quantas vezes você aparece (SOV), você avalia se os fundamentos estão no lugar para aparecer.

5 componentes de alta citabilidade

Analogia

Citabilidade é sua "pré-qualificação" na mente da IA. Você ainda não foi chamado (citado), mas já está na lista de candidatos elegíveis. Sem esses 5 fundamentos, você nem chega na lista.

Capítulo 09

Alucinação — Quando a IA inventa sobre você

Um risco que GEO bem feito mitiga.

Alucinação é o termo técnico para quando um LLM gera informação falsa com aparência de verdade. Pode citar sua marca em contexto errado, atribuir produtos que você não tem, ou confundir sua identidade com a de outra empresa homônima.

Tipos de alucinação sobre marcas

Como GEO mitiga

Ao fornecer dados canônicos estruturados (Schema.org, llms.txt, bio consistente entre Wikidata + LinkedIn + site), você reduz a necessidade da IA "adivinhar" — e portanto reduz a chance de alucinar sobre sua marca. A disambiguatingDescription (no schema Person) é particularmente importante para termos ambíguos, como GEO (generative engine vs geoprocessamento).

Capítulo 10

B2A — Business-to-Agent

O próximo passo depois de B2B e B2C. Tese pioneira de Alexandre Caramaschi no Brasil.

B2A (Business-to-Agent) descreve o cenário em que agentes autônomos de IA fazem triagem, comparação, recomendação e até compra em nome de usuários humanos. Não é ficção: OpenAI Operators (2025), Perplexity Shopping (2025) e agentes de n8n/LangChain/AutoGPT já operam em produção.

Analogia

Imagine que o cliente não entra mais na sua loja. Ele manda o mordomo-robô pesquisar, comparar e comprar. Seu trabalho agora é ser o fornecedor preferido do robô — e, pra isso, você precisa estar legível pra máquina.

Por que B2A muda tudo

Como a Brasil GEO prepara B2A

O endpoint alexandrecaramaschi.com/api/mcp é um servidor MCP (Model Context Protocol) que expõe tools read-only para agentes invocarem: getBusinessInfo, getLocation, contactUs, listCourses. Qualquer agente na web pode descobrir e consumir sem fricção.