Los editores que invierten en aparecer en la parte superior de los resultados de búsqueda de Google ya comprenden la importancia del SEO. Sin embargo, un aspecto importante y potencialmente pasado por alto del SEO para los editores más grandes es el presupuesto de rastreo de Google.
Los presupuestos de rastreo de Google ayudan a determinar en qué medida aparecen los artículos en los resultados de búsqueda.
Comprender los presupuestos de rastreo es un paso fundamental para garantizar que se cumplan los objetivos de SEO y que se vea el contenido. Verificar que el back-end técnico de un sitio esté en buen estado significa que es más probable que el front-end refleje ese estado.
En este artículo, explicamos qué es un presupuesto de rastreo, qué afecta el presupuesto, la optimización del presupuesto de rastreo, cómo verificar y realizar un seguimiento de los presupuestos de rastreo y por qué estos presupuestos son tan importantes para el bienestar de cualquier sitio en línea.
¿Qué es el presupuesto de rastreo?
El presupuesto de rastreo se refiere a los recursos que Google asigna a la búsqueda e indexación de páginas web nuevas y existentes.
El bot de rastreo de Google, Googlebot, rastrea sitios para actualizar y expandir la base de datos de páginas web del gigante de las búsquedas. Utiliza enlaces internos y externos, mapas de sitios XML, fuentes RSS y Atom, así como archivos robots.txt para ayudar a rastrear e indexar sitios lo más rápido posible.
Ciertas páginas ganan más autoridad con el tiempo, mientras que otras pueden ser ignoradas por completo debido a una serie de razones que van desde restricciones técnicas hasta relacionadas con el contenido.
Saber cómo maximizar el presupuesto de rastreo es invaluable para cualquier editor o sitio web de una organización que busque tener éxito en las páginas de resultados de los motores de búsqueda (SERP).
Limitaciones de Googlebot
Googlebot no es un recurso inagotable y Google no puede darse el lujo de rastrear una cantidad infinita de servidores web. Como tal, la empresa ha ofrecido orientación a los propietarios de dominios para maximizar su propio presupuesto de rastreo. 1
Comprender cómo los bots realizan su actividad es fundamental.
Si un bot de rastreo llega a un sitio y determina que analizarlo y categorizarlo será problemático, se ralentizará o pasará a otro sitio completamente dependiendo de la extensión y el tipo de problemas que enfrente.
Cuando esto sucede, es una señal clara de que el sitio carece de optimización del presupuesto de rastreo.
Saber que Googlebot es un recurso finito debería ser motivo suficiente para que cualquier propietario de un sitio se preocupe por el presupuesto de rastreo. Sin embargo, no todos los sitios enfrentan este problema en la misma medida.
¿A quién debe importarle y por qué?
Aunque todos los propietarios de sitios quieren que su sitio web tenga éxito, solo los sitios medianos y grandes que actualizan con frecuencia su contenido realmente necesitan preocuparse por los presupuestos de rastreo.
Google define sitios medianos como aquellos con más de 10,000 páginas únicas que se actualizan diariamente. Mientras tanto, los sitios grandes tienen más de 1 millón de páginas únicas y se actualizan al menos una vez por semana.
Google señala la relación entre la actividad de rastreo y los sitios web más grandes, y dice: "Priorizar qué rastrear, cuándo y cuántos recursos el servidor que aloja el sitio web puede asignar al rastreo es más importante para los sitios web más grandes, o aquellos que generan automáticamente páginas basadas en Parámetros de URL, por ejemplo”. 2
Los sitios con números de página limitados no necesitan preocuparse demasiado por el presupuesto de rastreo. Sin embargo, dado que algunos editores pueden expandirse rápidamente, obtener una comprensión básica de las estadísticas y operaciones de rastreo pondrá a todos los propietarios de sitios en una mejor posición para cosechar las recompensas de un mayor tráfico del sitio más adelante.
¿Qué afecta el presupuesto de rastreo de Google?
La medida en que Google rastrea un sitio web está determinada por los límites de capacidad de rastreo y la demanda de rastreo.
Para evitar que la actividad de rastreo abrume un servidor host, el límite de capacidad se calcula estableciendo la cantidad máxima de conexiones paralelas simultáneas que el bot puede usar para rastrear el sitio, así como el tiempo de demora entre las devoluciones de datos.
Límite de capacidad de rastreo
Esta métrica, que también se conoce como límite de frecuencia de rastreo, es fluida y se relaciona con cambios en tres factores:
- Salud del rastreo : si el sitio responde sin errores ni demoras, y la velocidad del sitio es buena, el límite puede aumentar y viceversa.
- Tasa de rastreo de GSC : Google Search Console (GSC) se puede usar para reducir la actividad de rastreo , una función que puede ser útil durante el mantenimiento prolongado o las actualizaciones del sitio. 3 Cualquier cambio permanece activo durante 90 días . 4
Si el límite de frecuencia de rastreo aparece como "calculado de forma óptima", aumentarlo no es una opción y reducirlo solo puede realizarse a través de una solicitud especial. Si un sitio se rastrea en exceso, lo que genera problemas de disponibilidad del sitio y/o carga de la página, use robots.txt para bloquear el rastreo y la indexación. Esta opción, sin embargo, puede tardar 24 horas en hacerse efectiva.
Si bien muchos sitios no imponen sanciones de límite de rastreo, aún puede ser una herramienta útil.
Demanda de rastreo
La demanda de rastreo es una expresión de cuánto interés tiene Google en indexar un sitio. También está influenciado por tres factores:
- Inventario percibido : sin la orientación del propietario del sitio, que trataremos un poco más adelante, Google intentará rastrear todas las URL, incluidos los duplicados, los enlaces que no funcionan y las páginas menos importantes. Aquí es donde restringir los parámetros de búsqueda de Googlebot puede aumentar el presupuesto de rastreo.
- Popularidad : si un sitio es extremadamente popular, sus URL se rastrearán con más frecuencia.
- Obsolescencia : en general, el sistema Googlebot tiene como objetivo volver a rastrear las páginas para detectar cualquier cambio. Se puede ayudar en este proceso utilizando el GSC y solicitando nuevos rastreos, aunque no hay garantía de que se actúe de inmediato.
La actividad de rastreo es, en esencia, un producto de la buena gestión del sitio web.
Inquietudes de CMS
Vahe Arabian , fundador de State of Digital Publishing (SODP) , dice que los elementos del sistema de administración de contenido (CMS) , como los complementos, pueden afectar los presupuestos de rastreo. 5
Él dijo: "Muchos complementos están fuertemente impulsados por la base de datos y hacen que aumenten las cargas de recursos, lo que ralentizará una página o creará páginas innecesarias y afectará su capacidad de rastreo".
El modelo de ingresos basado en anuncios de un sitio web puede crear problemas similares si varias funciones del sitio tienen muchos recursos.
Cómo comprobar y realizar un seguimiento de los presupuestos de rastreo
Hay dos formas clave de realizar un seguimiento de los presupuestos de rastreo: Google Search Console (GSC) y/o registros del servidor. 6
Consola de búsqueda de Google
Antes de verificar las tasas de rastreo de un sitio en Google Search Console (GSC), se debe verificar la propiedad del dominio.
La consola tiene tres herramientas para verificar las páginas del sitio web y confirmar qué URL son funcionales y cuáles no han sido indexadas.
- El informe de cobertura del índice7
- Herramienta de inspección de URL8
- Informe de estadísticas de rastreo9
La consola verifica las imprecisiones del dominio y ofrecerá sugerencias sobre cómo resolver varios errores de rastreo.
GSC agrupa los errores de estado en una serie de categorías en su Informe de cobertura del índice, que incluyen:
- Error del servidor [5xx]
- error de redirección
- URL enviada bloqueada por robots.txt
- URL enviada marcada como 'noindex'
- La URL enviada parece ser un 404 suave
- La URL enviada devuelve una solicitud no autorizada (401)
- URL enviada no encontrada (404)
- La URL enviada devolvió 403:
- URL enviada bloqueada debido a otro problema 4xx
El informe indica cuántas páginas se han visto afectadas por cada error junto con el estado de validación.
La Herramienta de inspección de URL proporciona información de indexación en cualquier página específica, mientras que el Informe de estadísticas de rastreo se puede usar para averiguar con qué frecuencia Google rastrea un sitio, la capacidad de respuesta del servidor del sitio y cualquier problema de disponibilidad asociado.
Existe un enfoque fijo para identificar y corregir cada error, que va desde reconocer que un servidor del sitio puede haber estado inactivo o no disponible en el momento del rastreo hasta usar una redirección 301 para redirigir a otra página o eliminar páginas del mapa del sitio. .
Si el contenido de la página ha cambiado significativamente, el botón "solicitar indexación" de la herramienta de inspección de URL se puede utilizar para iniciar un rastreo de la página.
Si bien puede que no sea necesario "arreglar" cada error de página individual, minimizar los problemas que ralentizan los robots de rastreo es definitivamente una mejor práctica.
Usar registros del servidor
Como alternativa a Google Search Console (GSC), el estado de rastreo de un sitio se puede inspeccionar a través de los registros del servidor que no solo registran cada visita al sitio, sino también cada visita de Googlebot.
Para aquellos que aún no lo saben, los servidores crean y almacenan automáticamente una entrada de registro cada vez que Googlebot o un humano solicitan que se sirva una página. Estas entradas de registro luego se recopilan en un archivo de registro.
Una vez que se ha accedido a un archivo de registro, es necesario analizarlo. Sin embargo, dado el gran alcance de las entradas de registro, este esfuerzo no debe tomarse a la ligera. Según el tamaño del sitio, un archivo de registro puede contener fácilmente cientos de millones o incluso miles de millones de entradas.
Si se toma la decisión de analizar el archivo de registro, los datos deben exportarse a una hoja de cálculo o a un software patentado, lo que facilitará el proceso de análisis.
El análisis de estos registros mostrará el tipo de errores que ha enfrentado un bot, a qué páginas se accedió más y con qué frecuencia se rastreó un sitio.
9 formas de optimizar el presupuesto de rastreo
La optimización implica verificar y rastrear las estadísticas de salud del sitio, como se indicó anteriormente, y luego abordar directamente las áreas problemáticas.
A continuación, presentamos nuestro kit de herramientas de optimización del presupuesto de rastreo, que usamos para abordar los problemas de rastreabilidad a medida que surgen.
1. Consolidar contenido duplicado
Los problemas de rastreo pueden aparecer cuando se puede acceder a una sola página desde varias URL diferentes o contiene contenido que se replica en otra parte del sitio. El bot verá estos ejemplos como duplicados y simplemente elegirá uno como versión canónica.
Las URL restantes se considerarán menos importantes y se rastrearán con menos frecuencia o incluso no se rastrearán. 10 Esto está bien si Google elige la página canónica deseada, pero es un problema grave si no lo hace.
Dicho esto, puede haber razones válidas para tener páginas duplicadas, como el deseo de admitir varios tipos de dispositivos, habilitar la sindicación de contenido o usar URL dinámicas para parámetros de búsqueda o ID de sesión.
Recomendaciones de SODP :
- Elimine el contenido del sitio web cuando sea posible
- Use 301 para consolidar URL y fusionar contenido
- Eliminar contenido de bajo rendimiento
- El uso de 301 después de la reestructuración de un sitio web enviará a los usuarios, bots y otros rastreadores a donde deben ir.
- Use noindex para páginas delgadas, paginación (para archivos más antiguos) y para canibalizar contenido.
- En los casos en que el contenido duplicado provoque un rastreo excesivo, ajuste la configuración de la frecuencia de rastreo en Google Search Console (GSC).
2. Utilice el archivo Robots.txt
Este archivo ayuda a evitar que los bots rastreen un sitio completo. El uso del archivo permite la exclusión de páginas individuales o secciones de página.
Esta opción le da al editor el control de lo que se indexa, manteniendo privado cierto contenido y mejorando la forma en que se gasta el presupuesto de rastreo.
Recomendaciones de SODP :
- Ordene la preferencia de los parámetros para priorizar los parámetros que deben bloquearse para que no se rastreen.
- Especifique los robots, las directivas y los parámetros que provocan un rastreo adicional mediante archivos de registro.
- Bloquee las rutas comunes que los CMS suelen tener, como 404, administrador, páginas de inicio de sesión, etc.
- Evite usar la directiva de retraso de rastreo para reducir el tráfico de bots para el rendimiento del servidor. Esto solo afecta la indexación de contenido nuevo.
3. Segmente los mapas de sitio XML para garantizar una recogida de contenido más rápida
Un robot de rastreo llega a un sitio con una asignación general de cuántas páginas rastreará. El mapa del sitio XML dirige efectivamente al bot para que lea las URL seleccionadas, lo que garantiza el uso efectivo de ese presupuesto.
Tenga en cuenta que el rendimiento de clasificación de una página depende de varios factores, incluida la calidad del contenido y los enlaces internos/externos. Considere incluir solo las páginas de nivel superior en el mapa. A las imágenes se les puede asignar su propio mapa del sitio XML.
Recomendaciones de SODP :
- Haga referencia al mapa del sitio XML del archivo robots.txt.
- Cree varios mapas de sitio para un sitio muy grande. No agregue más de 50,000 URL a un solo mapa del sitio XML.
- Manténgalo limpio y solo incluya páginas indexables.
- Mantenga actualizado el mapa del sitio XML.
- Mantenga el tamaño del archivo a menos de 50 MB.
4. Examinar la estrategia de enlaces internos
Google sigue la red de enlaces dentro de un sitio y cualquier página con múltiples enlaces se considera de alto valor y en la que vale la pena gastar el presupuesto de rastreo.
Sin embargo, vale la pena señalar que, si bien un número limitado de enlaces internos puede ir en contra del presupuesto de rastreo, también lo puede salpicar todo el sitio con enlaces.
Las páginas sin enlaces internos no reciben equidad de enlace del resto del sitio web, lo que anima a Google a tratarlas como si fueran de menor valor.
Al mismo tiempo, las páginas de alto valor que contienen una gran cantidad de enlaces internos terminan compartiendo su equidad de enlaces por igual entre otras páginas, independientemente de su valor estratégico. Como tal, evite enlazar a páginas que ofrecen poco valor a los lectores.
Una estrategia de enlaces internos requiere un toque hábil para garantizar que las páginas de alto valor reciban suficientes enlaces, mientras que las páginas de bajo valor no canibalizan la equidad de los enlaces.
5. Actualice el alojamiento si el tráfico concurrente es un cuello de botella
Si un sitio web se ejecuta en una plataforma de alojamiento compartido, el presupuesto de rastreo se compartirá con otros sitios web que se ejecuten en dicha plataforma. Una empresa grande puede considerar que el hospedaje independiente es una alternativa valiosa.
Otras consideraciones al actualizar su alojamiento o incluso antes de actualizar para resolver la sobrecarga de tráfico de bots que puede afectar las cargas del servidor:
- Procese imágenes usando una CDN separada que también está optimizada para albergar formatos de imagen de próxima generación como webp
- Considere alojar CPU, espacio en disco según la función y los requisitos de su sitio web
- Monitoree la actividad usando soluciones como New Relic para monitorear el uso excesivo de complementos y bots
6. Equilibrar el uso de Javascript
Cuando Googlebot aterriza en una página web, muestra todos los recursos de dicha página, incluido Javascript. Si bien rastrear HTML es bastante sencillo, Googlebot debe procesar Javascript varias veces para poder procesarlo y comprender su contenido.
Esto puede agotar rápidamente el presupuesto de rastreo de Google para un sitio web. La solución es implementar la representación de Javascript en el lado del servidor.
Al evitar enviar activos de Javascript al cliente para su procesamiento , los bots de rastreo no gastan sus recursos y pueden trabajar de manera más eficiente. 11
Recomendaciones de SODP :
- Use la carga diferida a nivel del navegador en lugar de estar basado en JS
- Determinar si los elementos
- Use el etiquetado del lado del servidor para el análisis y el etiquetado de terceros, ya sea con alojamiento propio o con soluciones como https://stape.io/ . 12
7. Actualice Core Web Vitals (CWV) para mejorar la experiencia de la página
Core Web Vitals (CWV) de Google Search Console (GSC) utiliza lo que el gigante de las búsquedas llama " datos de uso del mundo real " para mostrar el rendimiento de la página. 13
El informe de CWV agrupa el rendimiento de las URL en tres categorías:
- Tipo de métrica (LCP, FID y CLS)
- Estado
- grupos de URL
Métrico
El informe CWV se basa en las pintura con contenido más grande (LCP), 14 primer retraso de entrada (FID) 15 y cambio de diseño acumulativo (CLS) 16 .
LCP se relaciona con la cantidad de tiempo que lleva hacer visible el elemento de contenido más grande en el área visible de la página web.
FID se refiere al tiempo que tarda una página en responder a la interacción de un usuario.
CLS es una medida de cuánto cambia el diseño de la página durante la sesión del usuario, y las puntuaciones más altas representan una peor experiencia del usuario.
Estado
Después de una evaluación de página, a cada métrica se le asigna uno de los tres rangos de estado:
- Bueno
- Necesita mejorar
- Pobre
Grupos de URL
El informe también puede asignar problemas a un grupo de URL similares, suponiendo que los problemas de rendimiento que afectan a páginas similares se pueden atribuir a un problema compartido.
CWV y rastreabilidad
Como se señaló anteriormente, cuanto más tiempo pasa Googlebot en una página, más desperdicia su presupuesto de rastreo. Como tal, los editores pueden usar los informes de CWV para optimizar la eficiencia de la página y reducir el tiempo de rastreo.
Recomendaciones de SODP , con un enfoque en WordPress:
Indicadores de mejora de la velocidad | Implementar a través de | Validar el |
Convertir imágenes a formato WebP | Si CDN está habilitado, conviértalo a través del lado de CDN o instale el complemento EWWW | https://www.cdnplanet.com/tools/cdnfinder/ |
Implemente SRCSET y verifique en https://pagespeed.web.dev/ si se resuelve el problema de las imágenes de tamaño | Implementar agregando código manualmente | Compruebe en el código del navegador si todas las imágenes tienen el código SRCSET |
Habilitar el almacenamiento en caché del navegador | cohete WP | https://www.giftofspeed.com/cache-checker/ |
Imágenes de carga diferida | cohete WP | Verifique en la consola del navegador si el código de carga diferida se agrega a la imagen. Excepto por la imagen destacada. |
Aplazar guiones externos: solo los guiones en el puede ser diferido | ¡WP Rocket o un sitio web más rápido! (también conocido como defer.js) complemento | Después de agregar la etiqueta de aplazamiento, verifique en https://pagespeed.web.dev/ si se resolvió el problema de reducción de JavaScript no utilizado |
Identifique y elimine archivos JS y CSS no utilizados | A mano | |
Habilitar la compresión Gzip | Lado del servidor, póngase en contacto con el proveedor de alojamiento | https://www.giftofspeed.com/gzip-test/ |
Minificar JS y CSS | cohete WP | https://pagespeed.web.dev/ |
Cargue fuentes localmente o precargue fuentes web | Complemento de fuentes OMG o cargue los archivos de fuentes en el servidor y agréguelos a través del código en el encabezado | |
Habilitar CDN | Cloudflare (cualquier otro servicio de CDN) y configurarlo para el sitio |
8. Use un rastreador de terceros
Un rastreador de terceros como Semrush, Sitechecker.pro o Screaming Frog permite a los desarrolladores web auditar todas las URL de un sitio e identificar posibles problemas.
Los rastreadores se pueden utilizar para identificar:
- Vínculos rotos
- Contenido duplicado
- Faltan títulos de página
Estos programas ofrecen un informe de estadísticas de rastreo para ayudar a resaltar problemas que las propias herramientas de Google pueden no detectar.
Mejorar los datos estructurados y reducir los problemas de higiene agilizará el trabajo de Googlebot de rastrear e indexar un sitio.
Recomendaciones de SODP :
- Utilice consultas SQL para realizar actualizaciones por lotes de errores en lugar de corregir manualmente cada problema.
- Emule Googlebot, a través de la configuración de rastreo de búsqueda, para evitar que los proveedores de alojamiento lo bloqueen y para identificar y solucionar correctamente todos los problemas técnicos.
- Depure las páginas faltantes de un rastreo usando esta excelente guía de Screaming Frog . 17
9. Parámetros de URL
Parámetros de URL: la sección de la dirección web que sigue al “?” — se usan en una página por una variedad de razones, incluido el filtrado, la paginación y la búsqueda.
Si bien esto puede mejorar la experiencia del usuario, también puede causar problemas de rastreo cuando tanto la URL base como una con parámetros devuelven el mismo contenido. Un ejemplo de esto sería "http://mysite.com" y "http://mysite.com?id=3" devolviendo exactamente la misma página.
Los parámetros permiten que un sitio tenga una cantidad casi ilimitada de enlaces, como cuando un usuario puede seleccionar días, meses y años en un calendario. Si se permite que el bot rastree estas páginas, el presupuesto de rastreo se agotará innecesariamente.
Recomendaciones de SODP :
- Utilice las reglas de robots.txt. Por ejemplo, especifique órdenes de parámetros en una directiva allow.
- Use hreflang para especificar las variaciones de idioma del contenido.
Resumen de mitos y realidades de Googlebot
Hay varios conceptos erróneos sobre el poder y el alcance de Googlebot.
Aquí hay cinco que hemos explorado:
1. Googlebot rastrea un sitio de manera intermitente
En realidad, Googlebot rastrea sitios con bastante frecuencia y, en algunas situaciones, incluso a diario. Sin embargo, la frecuencia está determinada por la calidad percibida, la novedad, la relevancia y la popularidad del sitio.
Como se indicó anteriormente, la Consola de búsqueda de Google (GSC) se puede utilizar para solicitar un rastreo.
2. Googlebot toma decisiones sobre la clasificación del sitio
Si bien esto solía ser correcto, Google ahora lo considera una parte separada del proceso de rastreo, indexación y clasificación, según Martin Splitt , WebMaster Trends Analyst en Google. 18
Sin embargo, también es importante recordar que el contenido de un sitio, el mapa del sitio, la cantidad de páginas, los enlaces, las URL, etc., son factores que determinan su clasificación.
En esencia, las elecciones inteligentes de SEO por parte de los editores pueden conducir a un posicionamiento sólido dentro de los SERP.
3. Googlebot invade secciones privadas de un sitio
El bot no tiene el concepto de "contenido privado" y simplemente tiene la tarea de indexar sitios a menos que el propietario del sitio le indique que haga lo contrario.
Ciertas páginas web pueden permanecer sin indexar siempre que se tomen las medidas necesarias dentro del GSC para restringir el acceso.
4. La actividad de Googlebot puede ejercer presión sobre la funcionalidad del sitio
El proceso de Googlebot tiene sus limitaciones debido a las limitaciones de recursos de Google y porque Google no quiere interrumpir un sitio.
Splitt dijo: “Nos arrastramos un poco y luego, básicamente, lo aceleramos. Y cuando comenzamos a ver errores, lo disminuimos un poco”. 15
El GSC puede retrasar los rastreos y dado que algunos sitios pueden tener unos cientos de miles de páginas, Googlebot divide su rastreo en varias visitas.
5. Googlebot es el único robot por el que vale la pena preocuparse
Si bien Googlebot es el rastreador líder en el mundo, no todos los bots pertenecen a Google. Otros motores de búsqueda rastrean la web, mientras que los bots que se centran en el análisis, así como en la seguridad de los datos y la marca también están activos.
Al mismo tiempo, los delincuentes están diseñando un software cada vez más sofisticado para cometer fraude publicitario , robar contenido, publicar spam y más. 19
Pensamientos finales
Es importante recordar que la optimización del presupuesto de rastreo y las experiencias de usuario exitosas se pueden administrar sin comprometer la otra.
Verificar el estado del presupuesto de rastreo de un sitio debe ser un elemento de los programas de mantenimiento de todos los propietarios de sitios web, y la frecuencia de estas verificaciones depende del tamaño y la naturaleza del sitio web en sí.
La limpieza técnica, como la reparación de enlaces rotos, páginas que no funcionan , contenido duplicado, URL mal redactadas y mapas de sitio antiguos y llenos de errores, también es esencial.
- Gestión del presupuesto de rastreo para sitios grandes | Centro de búsqueda de Google | Documentación
- Qué significa el presupuesto de rastreo para Googlebot | Blog central de la Búsqueda de Google
- Reducir la tasa de rastreo de Googlebot | Centro de búsqueda de Google | Documentación
- Cambiar la frecuencia de rastreo de Googlebot - Ayuda de Search Console
- Optimización del presupuesto de rastreo para editores | Estado de la publicación digital
- Consola de búsqueda de Google
- Informe de cobertura del índice – Ayuda de Search Console
- Herramienta de inspección de URL – Ayuda de Search Console
- Informe de estadísticas de rastreo - Ayuda de Search Console
- Consolide URL duplicadas con Canonicals | Centro de búsqueda de Google | Documentación
- Representación en la Web | Desarrolladores de Google
- Stape.io
- Informe Core Web Vitals – Ayuda de Search Console
- Pintura con contenido más grande (LCP)
- Primera demora de entrada (FID)
- Cambio de diseño acumulativo (CLS)
- Cómo depurar páginas faltantes en un rastreo – Screaming Frog
- Robot de Google: Destrucción de mitos sobre SEO
- Fraude publicitario: todo lo que necesita saber | Ascensor