O estándar de exclusión de robots (tamén chamado protocolo de exclusión de robots ou protocolo robots.txt ) é unha forma de indicar aos exploradores web e a outros robots web que partes dun sitio web poden ver.
Para darlle aos robots instrucións sobre a que páxinas dun sitio web poden acceder, os propietarios do sitio colocan un ficheiro de texto chamado robots.txt no directorio principal do seu sitio web, por exemplo http://www.example.com/robots.txt Arquivado 03 de outubro de 2013 en Wayback Machine.. Este ficheiro de texto indica aos robots a que partes do sitio poden acceder ou non. Non obstante, os robots poden ignorar os ficheiros robots.txt, especialmente os robots maliciosos. Se o ficheiro robots.txt non existe, os robots web asumen que poden ver todas as partes do sitio.
Este artigo é, polo de agora, só un bosquexo. Traballa nel para axudar a contribuír a que a Galipedia mellore e medre. |
This article uses material from the Wikipedia Galego article Robots.txt, which is released under the Creative Commons Attribution-ShareAlike 3.0 license ("CC BY-SA 3.0"); additional terms may apply (view authors). Todo o contido está dispoñible baixo a licenza CC BY-SA 4.0, agás que se indique o contrario. Images, videos and audio are available under their respective licenses.
®Wikipedia is a registered trademark of the Wiki Foundation, Inc. Wiki Galego (DUHOCTRUNGQUOC.VN) is an independent company and has no affiliation with Wiki Foundation.