Verificador de Tamaño de Rastreo Googlebot
Compruebe el tamaño sin comprimir de cualquier URL (HTML o PDF) para asegurarse de que se ajusta a los límites de rastreo de Googlebot. Detecte si su contenido supera el umbral de procesamiento (ej. 2MB para HTML, 64MB para PDF) y evite el truncamiento de la indexación.
Tu bloqueador de anuncios impide que mostremos anuncios
MiniWebtool es gratis gracias a los anuncios. Si esta herramienta te ayudó, apóyanos con Premium (sin anuncios + herramientas más rápidas) o añade MiniWebtool.com a la lista de permitidos y recarga la página.
- O pásate a Premium (sin anuncios)
- Permite anuncios para MiniWebtool.com y luego recarga
Verificador de Tamaño de Rastreo Googlebot
El Verificador de tamaño de rastreo de Googlebot mide el tamaño sin comprimir de cualquier página web o PDF para verificar que se encuentre dentro de los límites oficiales de rastreo de Googlebot. Cuando una página supera estos límites, Googlebot trunca el contenido que procesa, lo que podría provocar que se ignore información importante, datos estructurados y enlaces durante la indexación.
Comprendiendo los límites de tamaño de rastreo de Googlebot
Google documenta oficialmente umbrales de tamaño específicos para diferentes tipos de archivos. Cuando Googlebot alcanza estos límites, deja de descargar y solo procesa el contenido que ya ha recuperado:
- HTML y archivos compatibles: Googlebot rastrea los primeros 2 MB de contenido sin comprimir. Esto incluye el propio documento HTML junto con cualquier CSS y JavaScript interno. Los recursos externos (hojas de estilo, scripts, imágenes) se obtienen por separado, cada uno con sus propios límites.
- Archivos PDF: Googlebot rastrea los primeros 64 MB de un documento PDF. Aunque este es un límite generoso, los informes o catálogos PDF muy extensos deben ser verificados.
Estos límites se aplican al tamaño del contenido sin comprimir, no al tamaño de transferencia comprimido que podría ver en las herramientas de red. Incluso si su servidor envía respuestas comprimidas con gzip, Googlebot mide el tamaño descomprimido completo.
Por qué el tamaño de la página es importante para el SEO
Truncamiento de la indexación
Si su página supera el límite de tamaño, todo lo que esté más allá del umbral es invisible para Google. Esto puede causar:
- Que el contenido importante del cuerpo no se indexe
- Que se pierdan los datos estructurados (esquemas JSON-LD) al final de la página
- Que no se descubran los enlaces internos en el pie de página o en la navegación inferior
- Que no aparezcan resultados enriquecidos ni funciones de búsqueda en los resultados de búsqueda
Causas comunes de páginas grandes
- Exceso de CSS/JavaScript interno: Grandes frameworks o bibliotecas de componentes incrustados directamente en el HTML
- Contenido renderizado en el servidor (SSR): SPAs que serializan grandes cargas de datos en el HTML
- Páginas de listado de productos extensas: Páginas de categorías de comercio electrónico con cientos de productos
- Comentarios HTML prolijos: Herramientas de construcción que inyectan grandes bloques de comentarios
- Datos incrustados: Imágenes codificadas en Base64 o grandes datos JSON en el código fuente de la página
Cómo funciona esta herramienta
- Obtención con UA de Googlebot: La herramienta solicita su URL utilizando la cadena de agente de usuario oficial de Googlebot, pidiendo contenido sin comprimir (
Accept-Encoding: identity) para medir el verdadero tamaño sin comprimir. - Detección del tipo de contenido: Detecta automáticamente si la respuesta es HTML o PDF y aplica el límite correspondiente (2 MB o 64 MB).
- Medición y análisis: Se mide el tamaño del contenido sin comprimir y se compara con el límite. Para HTML, se proporciona un desglose de CSS interno, JavaScript y comentarios.
- Seguimiento de redireccionamientos: Se detecta y muestra cualquier redireccionamiento HTTP (301, 302, etc.), mostrando la cadena completa de redireccionamiento desde la URL original hasta la final.
Cómo reducir el tamaño de la página
Mover código interno a archivos externos
La optimización más eficaz es mover los bloques internos grandes de <style> y <script> a archivos externos de CSS y JavaScript. Cada archivo externo obtiene su propio límite de 2 MB y es almacenado en caché por el navegador.
Eliminar contenido innecesario
- Elimine los comentarios HTML de las versiones de producción
- Elimine los bloques de contenido ocultos o duplicados
- Minifique el CSS y JavaScript interno
- Elimine atributos de datos no utilizados y elementos vacíos
Optimizar la estructura de la página
- Use la paginación para páginas de contenido extenso en lugar del desplazamiento infinito
- Cargue de forma diferida las secciones de contenido que quedan fuera de la pantalla inicial
- Reduzca la profundidad del DOM y el recuento de elementos
- Mueva las grandes cargas de datos a puntos finales de API
Cómo verificar el tamaño de su página frente a los límites de Googlebot
- Ingrese su URL: Escriba o pegue la URL completa de la página que desea verificar en el campo de entrada. La herramienta acepta URLs HTTP y HTTPS.
- Haga clic en Verificar tamaño: Haga clic en el botón "Verificar tamaño de rastreo". La herramienta obtendrá la página utilizando la cadena de agente de usuario de Googlebot y medirá el tamaño del contenido sin comprimir.
- Revise los resultados: Vea el indicador visual que muestra el tamaño de su página en relación con el límite, el análisis del desglose de contenido y las recomendaciones específicas de optimización si son necesarias.
Preguntas frecuentes
¿Cuáles son los límites de tamaño de rastreo de Googlebot?
Googlebot rastrea los primeros 2 MB de HTML y tipos de archivos compatibles (como CSS y JavaScript). Para archivos PDF, Googlebot rastrea los primeros 64 MB. Cualquier contenido que supere estos límites podría no ser procesado ni indexado por Google. Estos límites se aplican al tamaño del archivo sin comprimir, no al tamaño de transferencia comprimido.
¿Qué sucede si mi página supera el límite de tamaño de Googlebot?
Si su página supera el límite de tamaño de rastreo, Googlebot solo procesará el contenido dentro del límite e ignorará el resto. Esto significa que el contenido importante, los datos estructurados o los enlaces en la parte inferior de la página podrían no indexarse. Esto puede llevar a una indexación incompleta, la falta de funciones de búsqueda (como resultados enriquecidos) y un SEO deficiente.
¿El límite de 2 MB se aplica al contenido comprimido o sin comprimir?
El límite de 2 MB se aplica al contenido sin comprimir. Incluso si su servidor envía respuestas comprimidas (gzip o brotli), Googlebot mide el tamaño sin comprimir después de la descompresión. Esta herramienta solicita contenido sin comprimir para ofrecerle una medición precisa de lo que Googlebot realmente procesa.
¿Cómo puedo reducir el tamaño de mi página para ajustarme a los límites de Googlebot?
Para reducir el tamaño de la página: (1) Mueva el CSS interno a hojas de estilo externas, (2) Mueva el JavaScript interno a archivos externos, (3) Elimine los comentarios HTML innecesarios, (4) Minimice la profundidad y complejidad del DOM, (5) Use el renderizado del lado del servidor de forma selectiva, (6) Cargue de forma diferida el contenido no crítico, (7) Elimine contenido oculto o duplicado, (8) Use la paginación para páginas con contenido muy extenso.
¿Googlebot rastrea los archivos CSS y JavaScript externos por separado?
Sí, Googlebot obtiene cada recurso externo de CSS, JavaScript e imagen de forma individual. Cada recurso externo tiene su propio límite de 2 MB. Solo los estilos y scripts internos dentro del documento HTML cuentan para el límite de 2 MB de la página principal. Es por eso que mover grandes bloques de código interno a archivos externos es una estrategia de optimización eficaz.
Recursos adicionales
Cite este contenido, página o herramienta como:
"Verificador de Tamaño de Rastreo Googlebot" en https://MiniWebtool.com/es// de MiniWebtool, https://MiniWebtool.com/
por el equipo de miniwebtool. Actualizado: 10 de feb de 2026 | Fuente: Google Search Central - Googlebot