
Bots de motores de busca (crawlers) são programas especiais que escaneiam sites na Internet. Os motores de busca precisam deles para encontrar, indexar e exibir páginas nos resultados de busca. Mas nem todos os bots são úteis!
Às vezes, seu site pode ser visitado por bots indesejados que:
- Coletam dados sem sua permissão.
- Consomem recursos do servidor, tornando-o mais lento.
- São usados para procurar vulnerabilidades.
Se você deseja proteger seu site contra esses bots, é hora de configurar o Nginx! Neste artigo, mostraremos como bloqueá-los facilmente e rapidamente usando um arquivo de configuração especial.