¿Qué es el crawling en SEO?
El crawling o rastreo de sitios web es el recorrido que hace un pequeño bot de software (un crawler) para leer y analizar el código y contenido de una web, saltando de página en página a través de los enlaces que va encontrando. En el caso del GoogleBot (el crawler de Google), este se encarga de rastrear y examinar nuestras webs, para posteriormente incorporarlas a su índice.
Pero el crawling no es monopolio del todopoderoso buscador. Además de ser utilizado por sus competidores para fines similares, también contamos con herramientas para realizar un rastreo de un sitio web para la detección de errores o su optimización SEO.
« Volver al índice del diccionario