Para que serve o Robots.txt
Ter o próprio site aparecendo nos resultados de buscas é gratificante. Para conquistar este objetivo é importante aprender sobre estratégias de SEO, Marketing de Conteúdo e uma série de outras ações capazes de atrair a atenção das ferramentas de busca e, com isso, aumentar o tráfego do seu site. Porém, antes de partir para técnicas avançadas é prudente começar pelo simples. Comece configurando o arquivo robots.txt
.
O que é o arquivo robots.txt?
O arquivo robots.txt
é um arquivo usado em sites para informar aos motores de busca (Google, Bind e outros) quais páginas ou seções do site devem ser indexadas ou não. Ele é colocado na raiz do site e os motores de busca o consultam automaticamente antes de indexar as páginas. Isso permite que os donos dos sites proíbam a indexação de páginas sensíveis, como páginas de administração, ou evitem que páginas desnecessárias sejam incluídas nos resultados de busca.
Como usar o robots.txt no Jekyll
Para adicionar o arquivo robots.txt no Jekyll é bastante simples. Siga os seguintes passos:
- Crie um novo arquivo chamado
robots.txt
na raíz do seu projeto Jekyll. - Adicione as instruções desejadas ao arquivo. Por exemplo:
User-agent: *
Sitemap: https://erickrribeiro.github.io/sitemap.xml
- Faça o build do seu site Jekyll com o comando
jekyll build
oujekyll serve
- Faça o deploy do seu site, incluindo o arquivo
robots.txt
gerado, para o seu servidor. - Teste se o seu arquivo robots.txt está funcionando corretamente visitando
http://seusite.com/robots.txt
.
Caso tenha curiosidade, neste site https://erickrribeiro.github.io, o arquivo robots.txt aparece como https://erickrribeiro.github.io/robots.txt.
Para mais informações sobre o uso e configurações avançados do arquivo `robots.txt`, leia o material (Introdução ao robots.txt)[https://developers.google.com/search/docs/crawling-indexing/robots/intro]
References
- Central da Pesquia Google, “Introdução ao robots.txt - Documentação”
Comments