Sitemap XML e robots.txt são dois dos arquivos mais críticos do seu site, mas também os mais negligenciados. Muitos blogs novos não sabe nem que esses arquivos existem. Resultado: Google não consegue rastrear corretamente, indexação é lenta, rankings sofrem. Este tutorial vai te mostrar exatamente como configurar sitemap XML e robots.txt no WordPress de forma correta, testar para garantir que funciona, e submeter ao Google para máxima eficiência de crawl.

A boa notícia é que em WordPress, configurar esses arquivos é muito fácil com plugins certos (Yoast SEO ou Rank Math). Sem plugin, é um pouco mais complexo, mas ainda viável. Este guia cobre ambas abordagens, passo a passo.

Sitemap & Robots.txt em 30 segundos:

  • Sitemap XML: Lista de todas suas páginas/posts em formato XML. Google usa para descobrir conteúdo novo rapidamente
  • Robots.txt: Arquivo que diz ao Google quais pastas crawlear (allow) e quais bloquear (disallow)
  • Setup recomendado: Use plugin Yoast SEO ou Rank Math (geração automática), submeta ao Google Search Console
  • Arquivo location: sitemap.xml e robots.txt devem estar na raiz do site (yoursite.com/sitemap.xml)
  • Teste necessário: Verifique robots.txt no GSC, valide sitemap, monitore crawl errors

O Que é Sitemap XML?

Sitemap XML é arquivo em formato XML que lista todas páginas do seu site em uma estrutura que Google consegue ler facilmente.

Exemplo Básico:

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9″>
<url>
<loc>https://atraca.com.br/</loc>
<lastmod>2026-03-31</lastmod>
<changefreq>weekly</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>https://atraca.com.br/post-1/</loc>
<lastmod>2026-03-30</lastmod>
<changefreq>never</changefreq>
<priority>0.8</priority>
</url>
</urlset>

O que cada tag significa:

  • <loc> – URL completa da página
  • <lastmod> – Quando a página foi atualizada (opcional)
  • <changefreq> – Com que frequência você atualiza página (always/daily/weekly/monthly/never)
  • <priority> – Prioridade relativa (0.0-1.0). Não é ranking factor, mas Google usa como dica

Por que é Importante:

  • Google descobre conteúdo novo 10-20x mais rápido com sitemap (vs descobrir via links internos)
  • Tells Google sobre conteúdo que pode estar “isolado” (poucos links internos)
  • Informa quando conteúdo foi atualizado (important para conteúdo fresco)
  • Para sites com 1000+ URLs, sitemap é praticamente mandatório

O Que é Robots.txt?

Robots.txt é arquivo de texto simples que diz ao Google (e outros crawlers) quais partes do seu site podem ser rastreadas e quais devem ser bloqueadas.

Exemplo Básico:

User-agent: *
Disallow: /admin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Allow: /wp-content/uploads/
Sitemap: https://atraca.com.br/sitemap.xml

O que significa:

  • User-agent: * – Aplica a todos os bots (Google, Bing, etc.)
  • Disallow: /admin/ – Bloqueia pasta /admin/ (não crawleia)
  • Allow: /wp-content/uploads/ – Permite crawleia de imagens (mesmo estando em pasta desabilitada)
  • Sitemap: – Informa a localização do sitemap

Por que é Importante:

  • Economiza “crawl budget” do Google (não rastreia pastas administrativas desnecessárias)
  • Protege conteúdo administrativo de ser indexado
  • Bloqueia duplicate content (ex: versões mobile vs desktop em URLs diferentes)
  • Melhora eficiência de crawl (Google dedica mais “budget” a conteúdo importante)

Método 1: Yoast SEO (Recomendado para Iniciantes)

Passo 1: Instalar Plugin

  • WordPress Dashboard → Plugins → Add New
  • Procure: “Yoast SEO”
  • Clique “Install”, depois “Activate”

Passo 2: Configurar Sitemap

  • Dashboard → Yoast SEO → Settings
  • Vá para “XML Sitemaps”
  • Certifique “Enable XML sitemaps” está ON (geralmente já está)
  • Você verá URLs:
    • https://yoursite.com/sitemap_index.xml (índice principal)
    • https://yoursite.com/post-sitemap.xml (posts)
    • https://yoursite.com/page-sitemap.xml (pages)

Passo 3: Configurar Robots.txt

  • Dashboard → Yoast SEO → Settings
  • Vá para “Tools” (na sidebar)
  • Clique “File Editor”
  • Você verá robots.txt atual
  • Yoast já vem com good defaults, mas você pode customizar:
    • Adicione: Disallow: /wp-admin/
    • Adicione: Disallow: /wp-includes/
    • Adicione: Sitemap: https://yoursite.com/sitemap_index.xml
  • Clique “Save” quando pronto

Passo 4: Testar

  • Google Search Console → Settings → Sitemaps
  • Clique “Add Sitemap”
  • Digite: sitemap_index.xml
  • Google processa em 5-10 min. Você verá quantas URLs foram descobertas

Método 2: Rank Math (Mais Poderoso)

Passo 1-2: Instalar e Ativar

  • WordPress Dashboard → Plugins → Add New
  • Procure: “Rank Math”
  • Install e Activate
  • Passe pelo setup wizard inicial (wizard vai configurar muita coisa automaticamente)

Passo 3: Configurar Sitemap

  • Dashboard → Rank Math → Sitemap Settings
  • “Enable XML Sitemap” = ON
  • Escolha quais post types incluir (Posts, Pages, Products, etc.)
  • Escolha quais taxonomias incluir (Categories, Tags, etc.)
  • Seu sitemap estará em: https://yoursite.com/sitemap.xml

Passo 4: Configurar Robots.txt

  • Dashboard → Rank Math → Tools → Robots.txt
  • Rank Math já vem com good defaults
  • Customizações comuns:
    • Disallow: /wp-admin/
    • Disallow: /wp-includes/
    • Disallow: /wp-login.php
    • Sitemap: https://yoursite.com/sitemap.xml
  • Salve quando pronto

Passo 5: Testar e Submeter

  • Mesmo processo do Yoast acima – submeta ao Google Search Console

Método 3: Manual (Sem Plugin) – Para Avançados

Gerar Sitemap Manualmente

Se você não quer plugin, use geradores online:

  • smallseotools.com/xml-sitemap-generator/
  • Coloque sua URL
  • Gera sitemap.xml
  • Download arquivo
  • Upload via FTP para raiz do site (public_html/)

Problema: Sitemap manual não é atualizado automaticamente. Você precisa regenerar toda vez que adiciona post novo.

Criar Robots.txt Manualmente

  • Crie arquivo de texto chamado “robots.txt”
  • Adicione conteúdo:

    User-agent: *
    Disallow: /wp-admin/
    Disallow: /wp-includes/
    Disallow: /wp-content/plugins/
    Allow: /wp-content/uploads/
    Sitemap: https://yoursite.com/sitemap.xml

  • Upload via FTP para raiz do site
  • Pronto – Google encontra automaticamente

Testando Sitemap e Robots.txt

Teste 1: Acessar Sitemap no Browser

Vá para https://yoursite.com/sitemap.xml

Você deve ver arquivo XML com URLs listadas. Se vê erro, há problema.

Teste 2: Google Search Console – Teste Robots.txt

  • Google Search Console → Settings → Crawl
  • Clique “Test live robots.txt”
  • Digite URL do seu site (ex: /wp-admin/)
  • Google mostra se é “Allowed” ou “Disallowed”

Teste 3: Validar Sitemap XML

  • Vá para validator.w3.org/
  • Coloque URL do seu sitemap (https://yoursite.com/sitemap.xml)
  • Deve validar sem erros. Se há erro, corrija XML

Teste 4: Submeter ao Google Search Console

  • Google Search Console → Sitemaps (sidebar)
  • Clique “Add Sitemap”
  • Digite: sitemap.xml (ou sitemap_index.xml se usando Yoast)
  • Google processa
  • Você verá: “Submitted” e “Indexed” counts

Erros Comuns e Soluções

ErroCausaSolução
Sitemap retorna 404Plugin não está gerando, ou WordPress não está configurado bemReinstale plugin, verifique perma-links em Settings → Permalinks (deve ser “Post name”)
Robots.txt não funcionaArquivo não na raiz, ou arquivo incorretoVerifique via FTP que robots.txt está em /public_html/ (raiz), não em /public_html/wordpress/
Google não indexa URLs de sitemapURLs têm noindex, ou site bloqueia GoogleVerifique meta robots em página (deve ser “index”). Cheque robots.txt não está bloqueando
“Submitted but not indexed” em GSCGoogle é capaz submeter, mas não gostou de conteúdoConteúdo pode ser ruim, ou página tem problemas (404, redirect, etc.)
Firewall bloqueando Google crawlerWordfence, All In One Security bloqueando IP do GoogleWhitelist Google IP ranges em firewall plugin

Robots.txt Avançado: Customizações Comuns

Bloquear Robots Específicos (Não Google)

User-agent: MJ12bot
Disallow: /

User-agent: AhrefsBot
Disallow: /

Nota: Bloqueia MJ12bot e Ahrefs bot completamente. Google pode ignorar se achar importante.

Disallow Pasta Específica (ex: /admin/)

Disallow: /wp-admin/

Allow Subpasta Mesmo Bloqueando Pasta Pai

Disallow: /wp-content/plugins/
Allow: /wp-content/uploads/

Significa: Bloqueia todos em /wp-content/, EXCETO /wp-content/uploads/ (imagens podem ser crawleadas).

Monitoramento Contínuo

  • Semanal: Google Search Console → Coverage report. Há novos errors?
  • Mensal: Check que sitemap é indexado corretamente
  • Quando adiciona novos posts: Aguarde 24-48h para Google redescobrir. Ou vá em GSC → Request indexing

Yoast vs Rank Math: Qual Escolher?

AspectoYoast SEORank Math
FacilidadeMuito fácilFácil (um pouco mais opções)
SitemapBom (sitemap_index)Excelente (mais customizações)
Robots.txtBomMelhor (mais opções)
PreçoGratuito (free version bom)Gratuito (free version bom)
RecomendaçãoIniciantesIntermediário+ / avançados

Resposta direta: Comece com Yoast SEO. Se depois quiser mais controle, migre para Rank Math.

Integração com Outras Estratégias

Sitemap e robots.txt são componentes de auditoria técnica de SEO bem-executada. Combine com estratégias de link building – Google descobre conteúdo novo via sitemap, depois links ajudam rankear. Use Google Analytics 4 e Search Console para monitorar que Google está crawleando e indexando suas páginas.

Perguntas Frequentes (FAQ)

Preciso de sitemap e robots.txt?

Robots.txt é essencial para qualquer site (bloqueia /wp-admin/, etc.). Sitemap é importante para blogs com 50+ posts. Para blog de 10 posts, é menos crítico, mas ainda bom ter.

Robots.txt e Meta Robots são iguais?

Não. Meta robots tag está em HTML de página (“noindex”). Robots.txt está em arquivo de texto raiz (“disallow”). Meta robots é mais forte – se meta robots diz “noindex”, Google não indexa mesmo se robots.txt allow.

Sitemap.xml deve estar em raiz ou em subpasta?

Deve estar na raiz: https://yoursite.com/sitemap.xml (não em https://yoursite.com/blog/sitemap.xml). Plugins (Yoast, Rank Math) colocam automaticamente na raiz.

Com que frequência Google crawlea meu sitemap?

Google crawlea sitemap 1-2x/semana tipicamente. Se há muitas mudanças (blog com 50+ posts/semana), Google crawlea mais frequentemente. Você pode fazer Request Indexing no Google Search Console para forçar redescoberta.

Posso ter múltiplos sitemaps?

Sim. Se site tem 50,000+ URLs, sitemap_index.xml referencia múltiplos sitemaps (posts-1.xml, posts-2.xml, etc.). Plugins como Yoast/Rank Math fazem isso automaticamente.