Archivo diario: 21 febrero, 2016


SEO: Para qué sirve y cómo crear un fichero robots.txt 1

El fichero robots.txt no es más que una serie de directrices y orientaciones de rastreo para indicar a los Bots (también llamados Spiders, Crawlers o indexadores) qué URL queremos que no se indexen en el buscador. Es decir, que con ello limitaremos el acceso a una carpeta, aumentaremos o disminuiremos la frecuencia de rastreo, etc. Cabe indicar que estas limitaciones no siempre detendrán a todos los bots, ni a los hackers. Como decimos, son indicaciones para los bots que indexan páginas en los buscadores como Google. Si quieres defenderte de ataques, entonces busca otras soluciones de seguridad. ¿Para qué sirve […]