Core Web Vitals para agentes de IA: Por qué los datos de campo lo cambian todo
Tres tipos de servidores MCP conectan a los agentes de IA con los datos de Core Web Vitals. Solo uno les da los datos que Google usa realmente para los rankings.

Los agentes de programación de IA ahora pueden conectarse a datos de rendimiento web a través de servidores MCP. Ejecutan auditorías, rastrean cuellos de botella y generan correcciones de código en un ciclo automatizado. Existen tres tipos de servidores MCP para este trabajo: Chrome DevTools, Lighthouse y Real User Monitoring. La fuente de datos determina si la corrección ayuda a sus usuarios o solo mejora una puntuación sintética que Google ignora.
Última revisión por Arjen Karel en marzo de 2026
Qué pueden hacer los agentes de IA con los Core Web Vitals hoy
El Model Context Protocol (MCP) estandariza cómo las herramientas de IA se conectan a fuentes de datos externas. Para el trabajo con los Core Web Vitals, importan tres tipos de servidores.
Chrome DevTools MCP da a los agentes control directo sobre la superficie de depuración de Chrome. Google lanzó esto en vista previa pública a finales de 2025. Ejecuta trazas de rendimiento, analiza desgloses de las fases del LCP, identifica recursos que bloquean el renderizado y comprime los datos de trazas en bruto en un resumen compacto que un agente puede analizar.
Los servidores MCP de Lighthouse permiten a los agentes ejecutar auditorías completas de forma programática. Existen múltiples implementaciones en GitHub. Son útiles para auditorías masivas en muchas páginas. Los resultados son datos de laboratorio: pruebas sintéticas en un dispositivo simulado con una conexión de red simulada.
Los servidores MCP de RUM conectan a los agentes con datos de Real User Monitoring de sus visitantes reales. CoreDash es actualmente la única plataforma comercial de RUM con un servidor MCP incorporado, exponiendo datos de campo en vivo a cualquier agente de programación compatible con MCP.
El flujo de trabajo que los tres permiten es un ciclo de medir-corregir-volver a medir. El agente identifica un cuello de botella, genera una corrección de código, la aplica y vuelve a probar. El tipo de datos que usa el agente determina si la corrección realmente ayuda a los usuarios reales.
El problema con los agentes que solo usan Lighthouse
Google no usa las puntuaciones de Lighthouse para los rankings. Google usa los datos de campo de CrUX de usuarios reales de Chrome durante un periodo móvil de 28 días. Un agente que ejecuta Lighthouse, hace cambios y vuelve a ejecutar Lighthouse ha completado un ciclo que no significa nada para su visibilidad en las búsquedas.
La brecha entre el laboratorio y el campo es real. El Web Almanac de 2025 muestra que el 52% de los sitios web móviles fallan al menos un Core Web Vital en los datos de campo. Muchos de esos sitios obtienen buenas puntuaciones en Lighthouse.
El INP es el mayor punto ciego. El INP mide qué tan rápido responde su sitio a los clics, toques y pulsaciones de teclas reales a lo largo de sesiones de usuario completas. No hay equivalente de laboratorio. Lighthouse usa el Total Blocking Time como indicador, pero el TBT mide el bloqueo de subprocesos durante la carga de la página. El INP mide el tiempo de respuesta durante interacciones reales que ocurren en momentos impredecibles. Un agente que "corrige" su TBT no tiene ninguna garantía de que su INP real haya mejorado.
Un estudio de 33.596 pull requests de autores de agentes (Alam et al., enero de 2026) encontró que los PRs de corrección generados por IA tienen una tasa general de fusión del 65%. Más de un tercio son rechazados por revisores humanos. Las correcciones de rendimiento requieren un contexto que los datos de laboratorio por sí solos no pueden proporcionar.
Lo que le dan los datos de campo que los de laboratorio no pueden
El Real User Monitoring recopila datos de rendimiento de cada visitante en cada dispositivo. Cuando un agente se conecta a RUM en lugar de a Lighthouse, cambian tres cosas.
Sabe qué páginas son realmente lentas para su audiencia. No qué páginas obtienen malas puntuaciones en una prueba sintética en un Moto G Power simulado sobre 4G. Sus usuarios podrían estar usando iPhones en Alemania con fibra óptica. O Androids económicos en Indonesia en una red móvil congestionada. Los datos de campo reflejan lo que realmente experimentan.
CoreDash le da al agente la atribución a nivel de elemento. El elemento específico que causó el LCP lento. El archivo JavaScript detrás del INP lento (a través de los datos de Long Animation Frames). El nodo del DOM que se desplazó. El agente rastrea desde la métrica hasta el código exacto sin adivinar.
Y puede verificar que la corrección funcionó. Después de implementar un cambio, el agente consulta los datos de campo para confirmar que los usuarios reales vieron una mejora. Este es el paso que la mayoría de los flujos de trabajo de IA se saltan por completo. Es el único paso que importa para sus rankings.
El flujo de trabajo completo se convierte en: encontrar el problema en los datos de campo, rastrear la causa en Chrome, corregir el código, verificar con los datos de campo. El agente hace la investigación. Usted decide qué se publica.
Hacia dónde ir a partir de aquí
CWV Superpowers es una habilidad gratuita de Claude Code que automatiza todo este flujo de trabajo. La configuración lleva dos minutos. Se conecta a los datos de campo de CoreDash, identifica su peor cuello de botella, rastrea la causa raíz en Chrome y genera la corrección.
Para métricas específicas: la guía de diagnóstico de LCP explica cómo el agente rastrea un Largest Contentful Paint lento a través de sus cuatro fases hasta el cambio de código exacto. La guía de diagnóstico de INP cubre la métrica con la que más luchan los agentes de IA, porque no se puede simular en un laboratorio.
El concepto detrás del diagnóstico es el razonamiento proporcional: el agente identifica el cuello de botella como la fase que consume la mayor parte del tiempo total, no la fase que excede un umbral absoluto. Eso cambia qué correcciones marcan la diferencia.
Find out what is actually slow.
I map your critical rendering path using real field data. You get a prioritized fix list, not a Lighthouse report.
Get the audit
