Sitemap XML e robots.txt são dois dos arquivos mais críticos do seu site, mas também os mais negligenciados. Muitos blogs novos não sabe nem que esses arquivos existem. Resultado: Google não consegue rastrear corretamente, indexação é lenta, rankings sofrem. Este tutorial vai te mostrar exatamente como configurar sitemap XML e robots.txt no WordPress de forma correta, testar para garantir que funciona, e submeter ao Google para máxima eficiência de crawl.
A boa notícia é que em WordPress, configurar esses arquivos é muito fácil com plugins certos (Yoast SEO ou Rank Math). Sem plugin, é um pouco mais complexo, mas ainda viável. Este guia cobre ambas abordagens, passo a passo.
- Sitemap XML: Lista de todas suas páginas/posts em formato XML. Google usa para descobrir conteúdo novo rapidamente
- Robots.txt: Arquivo que diz ao Google quais pastas crawlear (allow) e quais bloquear (disallow)
- Setup recomendado: Use plugin Yoast SEO ou Rank Math (geração automática), submeta ao Google Search Console
- Arquivo location: sitemap.xml e robots.txt devem estar na raiz do site (yoursite.com/sitemap.xml)
- Teste necessário: Verifique robots.txt no GSC, valide sitemap, monitore crawl errors
O Que é Sitemap XML?
Sitemap XML é arquivo em formato XML que lista todas páginas do seu site em uma estrutura que Google consegue ler facilmente.
Exemplo Básico:
<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9″>
<url>
<loc>https://atraca.com.br/</loc>
<lastmod>2026-03-31</lastmod>
<changefreq>weekly</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>https://atraca.com.br/post-1/</loc>
<lastmod>2026-03-30</lastmod>
<changefreq>never</changefreq>
<priority>0.8</priority>
</url>
</urlset>
O que cada tag significa:
- <loc> – URL completa da página
- <lastmod> – Quando a página foi atualizada (opcional)
- <changefreq> – Com que frequência você atualiza página (always/daily/weekly/monthly/never)
- <priority> – Prioridade relativa (0.0-1.0). Não é ranking factor, mas Google usa como dica
Por que é Importante:
- Google descobre conteúdo novo 10-20x mais rápido com sitemap (vs descobrir via links internos)
- Tells Google sobre conteúdo que pode estar “isolado” (poucos links internos)
- Informa quando conteúdo foi atualizado (important para conteúdo fresco)
- Para sites com 1000+ URLs, sitemap é praticamente mandatório
O Que é Robots.txt?
Robots.txt é arquivo de texto simples que diz ao Google (e outros crawlers) quais partes do seu site podem ser rastreadas e quais devem ser bloqueadas.
Exemplo Básico:
User-agent: *
Disallow: /admin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Allow: /wp-content/uploads/
Sitemap: https://atraca.com.br/sitemap.xml
O que significa:
- User-agent: * – Aplica a todos os bots (Google, Bing, etc.)
- Disallow: /admin/ – Bloqueia pasta /admin/ (não crawleia)
- Allow: /wp-content/uploads/ – Permite crawleia de imagens (mesmo estando em pasta desabilitada)
- Sitemap: – Informa a localização do sitemap
Por que é Importante:
- Economiza “crawl budget” do Google (não rastreia pastas administrativas desnecessárias)
- Protege conteúdo administrativo de ser indexado
- Bloqueia duplicate content (ex: versões mobile vs desktop em URLs diferentes)
- Melhora eficiência de crawl (Google dedica mais “budget” a conteúdo importante)
Método 1: Yoast SEO (Recomendado para Iniciantes)
Passo 1: Instalar Plugin
- WordPress Dashboard → Plugins → Add New
- Procure: “Yoast SEO”
- Clique “Install”, depois “Activate”
Passo 2: Configurar Sitemap
- Dashboard → Yoast SEO → Settings
- Vá para “XML Sitemaps”
- Certifique “Enable XML sitemaps” está ON (geralmente já está)
- Você verá URLs:
- https://yoursite.com/sitemap_index.xml (índice principal)
- https://yoursite.com/post-sitemap.xml (posts)
- https://yoursite.com/page-sitemap.xml (pages)
Passo 3: Configurar Robots.txt
- Dashboard → Yoast SEO → Settings
- Vá para “Tools” (na sidebar)
- Clique “File Editor”
- Você verá robots.txt atual
- Yoast já vem com good defaults, mas você pode customizar:
- Adicione: Disallow: /wp-admin/
- Adicione: Disallow: /wp-includes/
- Adicione: Sitemap: https://yoursite.com/sitemap_index.xml
- Clique “Save” quando pronto
Passo 4: Testar
- Google Search Console → Settings → Sitemaps
- Clique “Add Sitemap”
- Digite: sitemap_index.xml
- Google processa em 5-10 min. Você verá quantas URLs foram descobertas
Método 2: Rank Math (Mais Poderoso)
Passo 1-2: Instalar e Ativar
- WordPress Dashboard → Plugins → Add New
- Procure: “Rank Math”
- Install e Activate
- Passe pelo setup wizard inicial (wizard vai configurar muita coisa automaticamente)
Passo 3: Configurar Sitemap
- Dashboard → Rank Math → Sitemap Settings
- “Enable XML Sitemap” = ON
- Escolha quais post types incluir (Posts, Pages, Products, etc.)
- Escolha quais taxonomias incluir (Categories, Tags, etc.)
- Seu sitemap estará em: https://yoursite.com/sitemap.xml
Passo 4: Configurar Robots.txt
- Dashboard → Rank Math → Tools → Robots.txt
- Rank Math já vem com good defaults
- Customizações comuns:
- Disallow: /wp-admin/
- Disallow: /wp-includes/
- Disallow: /wp-login.php
- Sitemap: https://yoursite.com/sitemap.xml
- Salve quando pronto
Passo 5: Testar e Submeter
- Mesmo processo do Yoast acima – submeta ao Google Search Console
Método 3: Manual (Sem Plugin) – Para Avançados
Gerar Sitemap Manualmente
Se você não quer plugin, use geradores online:
- smallseotools.com/xml-sitemap-generator/
- Coloque sua URL
- Gera sitemap.xml
- Download arquivo
- Upload via FTP para raiz do site (public_html/)
Problema: Sitemap manual não é atualizado automaticamente. Você precisa regenerar toda vez que adiciona post novo.
Criar Robots.txt Manualmente
- Crie arquivo de texto chamado “robots.txt”
- Adicione conteúdo:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Allow: /wp-content/uploads/
Sitemap: https://yoursite.com/sitemap.xml - Upload via FTP para raiz do site
- Pronto – Google encontra automaticamente
Testando Sitemap e Robots.txt
Teste 1: Acessar Sitemap no Browser
Vá para https://yoursite.com/sitemap.xml
Você deve ver arquivo XML com URLs listadas. Se vê erro, há problema.
Teste 2: Google Search Console – Teste Robots.txt
- Google Search Console → Settings → Crawl
- Clique “Test live robots.txt”
- Digite URL do seu site (ex: /wp-admin/)
- Google mostra se é “Allowed” ou “Disallowed”
Teste 3: Validar Sitemap XML
- Vá para validator.w3.org/
- Coloque URL do seu sitemap (https://yoursite.com/sitemap.xml)
- Deve validar sem erros. Se há erro, corrija XML
Teste 4: Submeter ao Google Search Console
- Google Search Console → Sitemaps (sidebar)
- Clique “Add Sitemap”
- Digite: sitemap.xml (ou sitemap_index.xml se usando Yoast)
- Google processa
- Você verá: “Submitted” e “Indexed” counts
Erros Comuns e Soluções
| Erro | Causa | Solução |
|---|---|---|
| Sitemap retorna 404 | Plugin não está gerando, ou WordPress não está configurado bem | Reinstale plugin, verifique perma-links em Settings → Permalinks (deve ser “Post name”) |
| Robots.txt não funciona | Arquivo não na raiz, ou arquivo incorreto | Verifique via FTP que robots.txt está em /public_html/ (raiz), não em /public_html/wordpress/ |
| Google não indexa URLs de sitemap | URLs têm noindex, ou site bloqueia Google | Verifique meta robots em página (deve ser “index”). Cheque robots.txt não está bloqueando |
| “Submitted but not indexed” em GSC | Google é capaz submeter, mas não gostou de conteúdo | Conteúdo pode ser ruim, ou página tem problemas (404, redirect, etc.) |
| Firewall bloqueando Google crawler | Wordfence, All In One Security bloqueando IP do Google | Whitelist Google IP ranges em firewall plugin |
Robots.txt Avançado: Customizações Comuns
Bloquear Robots Específicos (Não Google)
User-agent: MJ12bot
Disallow: /User-agent: AhrefsBot
Disallow: /
Nota: Bloqueia MJ12bot e Ahrefs bot completamente. Google pode ignorar se achar importante.
Disallow Pasta Específica (ex: /admin/)
Disallow: /wp-admin/
Allow Subpasta Mesmo Bloqueando Pasta Pai
Disallow: /wp-content/plugins/
Allow: /wp-content/uploads/
Significa: Bloqueia todos em /wp-content/, EXCETO /wp-content/uploads/ (imagens podem ser crawleadas).
Monitoramento Contínuo
- Semanal: Google Search Console → Coverage report. Há novos errors?
- Mensal: Check que sitemap é indexado corretamente
- Quando adiciona novos posts: Aguarde 24-48h para Google redescobrir. Ou vá em GSC → Request indexing
Yoast vs Rank Math: Qual Escolher?
| Aspecto | Yoast SEO | Rank Math |
|---|---|---|
| Facilidade | Muito fácil | Fácil (um pouco mais opções) |
| Sitemap | Bom (sitemap_index) | Excelente (mais customizações) |
| Robots.txt | Bom | Melhor (mais opções) |
| Preço | Gratuito (free version bom) | Gratuito (free version bom) |
| Recomendação | Iniciantes | Intermediário+ / avançados |
Resposta direta: Comece com Yoast SEO. Se depois quiser mais controle, migre para Rank Math.
Integração com Outras Estratégias
Sitemap e robots.txt são componentes de auditoria técnica de SEO bem-executada. Combine com estratégias de link building – Google descobre conteúdo novo via sitemap, depois links ajudam rankear. Use Google Analytics 4 e Search Console para monitorar que Google está crawleando e indexando suas páginas.
Perguntas Frequentes (FAQ)
Preciso de sitemap e robots.txt?
Robots.txt é essencial para qualquer site (bloqueia /wp-admin/, etc.). Sitemap é importante para blogs com 50+ posts. Para blog de 10 posts, é menos crítico, mas ainda bom ter.
Robots.txt e Meta Robots são iguais?
Não. Meta robots tag está em HTML de página (“noindex”). Robots.txt está em arquivo de texto raiz (“disallow”). Meta robots é mais forte – se meta robots diz “noindex”, Google não indexa mesmo se robots.txt allow.
Sitemap.xml deve estar em raiz ou em subpasta?
Deve estar na raiz: https://yoursite.com/sitemap.xml (não em https://yoursite.com/blog/sitemap.xml). Plugins (Yoast, Rank Math) colocam automaticamente na raiz.
Com que frequência Google crawlea meu sitemap?
Google crawlea sitemap 1-2x/semana tipicamente. Se há muitas mudanças (blog com 50+ posts/semana), Google crawlea mais frequentemente. Você pode fazer Request Indexing no Google Search Console para forçar redescoberta.
Posso ter múltiplos sitemaps?
Sim. Se site tem 50,000+ URLs, sitemap_index.xml referencia múltiplos sitemaps (posts-1.xml, posts-2.xml, etc.). Plugins como Yoast/Rank Math fazem isso automaticamente.
