Citable

← Diario / 26 de abril de 2026

El SEO técnico que la IA recompensa: checklist completo 2026

El SEO técnico de 2026 no es el de 2020. Los crawlers de IA premian señales que la mayoría de webs en España aún no despliegan. Aquí está la lista, en orden de impacto, lista para implementar.

Citable · SEO-tecnicoGEOchecklistimplementacion

El SEO técnico que rankeaba en Google en 2020 ya no es el SEO técnico que cita ChatGPT, Perplexity y AI Overviews en 2026. Las señales se solapan, pero no son las mismas. La mayoría de webs en el mercado español todavía optimizan para el primer juego mientras pierden visibilidad en el segundo.

Este checklist es el que usamos en cada engagement de Citable. Está ordenado por impacto medible en frecuencia de cita —la métrica que importa— no por el orden alfabético de un audit genérico. Si solo puedes hacer las primeras cinco cosas este trimestre, hazlas. El resto compone después.

El bloqueo que nadie revisa: robots.txt para crawlers de IA

Tarea cero. Cinco minutos. Cero downside.

Abre tu robots.txt. Confirma que estos cinco user-agents están permitidos explícitamente:

User-agent: GPTBot
Allow: /

User-agent: ClaudeBot
Allow: /

User-agent: PerplexityBot
Allow: /

User-agent: OAI-SearchBot
Allow: /

User-agent: Google-Extended
Allow: /

Por qué importa: durante la oleada de scraping de 2023–2024, muchas webs implementaron bloqueos amplios (Disallow: / para varios user-agents) sin saber que estaban bloqueando justamente los crawlers que ahora necesitan para ser citados. Si tu sitio fue tocado por algún plugin de seguridad o por un consultor preocupado por scraping, hay un 30% de probabilidad de que tengas un bloqueo que no recuerdas.

Hemos visto sitios donde solo este fix produjo mejora medible de Share of Answer en menos de 30 días. No requiere despliegue de schema, ni reescritura de contenido, ni nada. Solo desbloquear lo que ya estaba ahí.

1. Schema Organization con cadena sameAs completa

Impacto: ALTO · Esfuerzo: BAJO · Tiempo a resultado: 30–60 días

Coloca este schema como JSON-LD en el <head> de cada página (típicamente en el layout global):

{
  "@context": "https://schema.org",
  "@type": "Organization",
  "name": "Tu Marca",
  "url": "https://tumarca.com",
  "logo": "https://tumarca.com/logo.png",
  "description": "Una frase canónica que coincide con tu LinkedIn y tu home.",
  "sameAs": [
    "https://es.wikipedia.org/wiki/Tu_Marca",
    "https://www.linkedin.com/company/tumarca",
    "https://www.crunchbase.com/organization/tumarca",
    "https://www.wikidata.org/wiki/Qxxxxxxx"
  ],
  "areaServed": ["ES", "LATAM"]
}

La trampa que casi todo el mundo cae: el campo description debe coincidir EXACTAMENTE en tu home, tu LinkedIn, tu Crunchbase, y tu schema. Si dices tres cosas distintas en tres sitios distintos, los modelos de IA no saben qué eres y caen en la descripción que más les pese, que probablemente no sea la tuya.

Acción concreta: abre tres pestañas (home, LinkedIn, Crunchbase). Lee la descripción en cada una. Reescríbelas hasta que digan lo mismo en lenguaje canónico. Esta es la corrección más barata con más impacto en GEO.

2. FAQPage schema en páginas de servicio y producto

Impacto: ALTO · Esfuerzo: MEDIO · Tiempo a resultado: 2–6 semanas

Los modelos de IA priorizan el FAQPage schema para extracción. El truco: el campo name del schema debe coincidir literalmente con el texto del H2 en la página. Si difieren, la extracción falla silenciosamente.

Patrón mínimo:

{
  "@context": "https://schema.org",
  "@type": "FAQPage",
  "mainEntity": [
    {
      "@type": "Question",
      "name": "¿Cuánto tarda el GEO en dar resultados?",
      "acceptedAnswer": {
        "@type": "Answer",
        "text": "Las correcciones de schema y entidad producen mejora medible de Share of Answer entre 30 y 60 días en la mayoría de sitios."
      }
    }
  ]
}

Aplica FAQPage a tus 5 páginas de servicio o producto top. La cobertura completa requiere 5–10 preguntas por página, formuladas como las haría un comprador real (no como las haría un SEO).

3. Lead-with-the-answer en los primeros 200 palabras de cada página

Impacto: ALTO · Esfuerzo: ALTO (requiere reescritura) · Tiempo a resultado: 60–90 días

Los extractores de IA se rinden pronto. Si la respuesta a la pregunta que la página debe responder está enterrada 1.200 palabras dentro, no se extrae. Las primeras dos frases de cada sección tienen que declarar la respuesta, no construir contexto hasta llegar a ella.

Ejemplo correcto:

“El SEO técnico para IA es la disciplina de hacer que tu contenido sea fácilmente extraíble por crawlers como GPTBot y PerplexityBot. La diferencia con el SEO clásico está en que prioriza estructura sobre keywords, schema sobre meta tags, y velocidad de renderizado server-side sobre dependencia de JavaScript.”

Ejemplo incorrecto:

“En el mundo digital actual, la inteligencia artificial está transformando la forma en que las marcas son encontradas. Los avances recientes en modelos de lenguaje han abierto nuevas oportunidades…” [400 palabras antes de llegar a algo concreto]

Esta es la corrección más cara de desplegar a escala (requiere editar contenido, no cambios técnicos), pero también la que más compone a largo plazo.

4. Renderizado server-side (no JavaScript de cliente)

Impacto: ALTO · Esfuerzo: VARIABLE · Tiempo a resultado: depende de la migración

Los crawlers de IA tienen ejecución de JavaScript inconsistente. Una página que renderiza contenido en cliente después de un paso de hidratación puede renderizar perfectamente para un humano y como un shell vacío para el extractor.

Cómo verificarlo en 2 minutos:

  1. Carga tu URL en view-source: (en Chrome): view-source:https://tumarca.com
  2. Busca el primer párrafo importante de tu home en el HTML
  3. Si está ahí, perfecto: tu sitio rinde server-side
  4. Si no está, tu contenido depende de JS para renderizar y los crawlers lo verán vacío

Las soluciones según tu stack:

  • WordPress con plugins normales → suele renderizar server-side ✓
  • WordPress con un theme React tipo Frontity / headless → problema, considera SSR
  • Next.js App Router → server-side por defecto ✓
  • React/Vue/Angular SPA puro → problema, necesitas SSR o pre-rendering
  • Astro → static por defecto ✓
  • Webflow → server-side ✓
  • Squarespace/Wix → en general server-side, verificar página por página

Si tu sitio depende de JS para el contenido principal, esto es probablemente el cuello de botella número uno antes de cualquier otra optimización.

5. Core Web Vitals estables (Lighthouse 90+)

Impacto: MEDIO · Esfuerzo: VARIABLE · Tiempo a resultado: 4–8 semanas tras despliegue

Los crawlers de IA no esperan tres segundos. Si tu LCP (Largest Contentful Paint) supera los 2.5s, hay una probabilidad real de que el crawler abandone antes de capturar el contenido importante. Los Core Web Vitals también son señal directa en los sistemas de Google que alimentan AI Overviews.

Los tres a vigilar:

  • LCP (Largest Contentful Paint): debe estar por debajo de 2.5 segundos. Causas típicas en webs en español: imágenes hero sin width/height declarados, fuentes cargadas sin font-display: swap, tracking scripts bloqueando.
  • CLS (Cumulative Layout Shift): debe estar por debajo de 0.1. Causas típicas: anuncios de AdSense, imágenes sin dimensiones, banners de cookies que aparecen tarde.
  • INP (Interaction to Next Paint, sustituye a FID desde 2024): debe estar por debajo de 200ms.

Herramienta: PageSpeed Insights para diagnóstico, Search Console para ver el agregado de tu site real (no synthetic).

6. Hreflang correcto en sitios bilingües

Impacto: ALTO para multilingüe · Esfuerzo: BAJO · Tiempo a resultado: 2–4 semanas

Si tu marca opera en ES y EN (o cualquier combinación multilingüe), hreflang no es opcional. Sin hreflang correcto, los crawlers no saben qué versión de idioma es autoritativa para qué mercado, y rebajan la confianza en las dos versiones simultáneamente.

Patrón correcto en cada página, en <head>:

<link rel="alternate" hreflang="es-es" href="https://tumarca.com/es/..." />
<link rel="alternate" hreflang="en-gb" href="https://tumarca.com/en/..." />
<link rel="alternate" hreflang="x-default" href="https://tumarca.com/" />

El error más común: olvidar el x-default. Sin él, los crawlers no saben qué versión servir cuando el idioma del usuario no está cubierto.

7. Article schema con dateModified real en blog posts

Impacto: MEDIO · Esfuerzo: BAJO · Tiempo a resultado: 4–8 semanas

Cada blog post o artículo del journal debe llevar Article schema con author, datePublished y dateModified. Los modelos de IA usan dateModified para decidir si el contenido sigue siendo vigente.

La trampa: muchos sistemas (WordPress sin un buen plugin SEO, sitios con auto-actualización via cron) ponen dateModified igual a now() en cada request, lo cual los modelos detectan como ruido y descuentan completamente. dateModified debe reflejar la última edición real y significativa del contenido.

8. Internal linking que no rompe

Impacto: MEDIO · Esfuerzo: BAJO · Tiempo a resultado: 2–4 semanas

Los crawlers necesitan poder navegar de tu home a cualquier página importante en menos de 3 clicks. Errores comunes que descubrimos en auditorías:

  • Páginas de servicio con enlaces a páginas internas que ya no existen (404)
  • Enlaces internos en nofollow por error de un plugin
  • Páginas importantes accesibles solo desde un menú móvil que el crawler no parsea

Herramienta: Screaming Frog (versión gratis hasta 500 URLs) corre un crawl completo en 10 minutos y te lista todos los broken links. Arréglalos en el siguiente sprint.

9. llms.txt en el root

Impacto: BAJO HOY, alto forward-looking · Esfuerzo: MUY BAJO · Tiempo a resultado: variable

llms.txt es una convención emergente (análoga a robots.txt) que ofrece a los modelos de lenguaje un resumen estructurado y legible del contenido más importante de tu sitio. Aún no es universalmente adoptado, pero las plataformas que lo están considerando incluyen Anthropic y Perplexity. Cero coste de despliegue, upside potencial significativo si la convención se establece.

Patrón mínimo en https://tumarca.com/llms.txt:

# Tu Marca

> Una frase canónica describiendo qué hace tu marca.

## Servicios principales
- Servicio A — descripción en una línea
- Servicio B — descripción en una línea

## Contacto
- Email: hola@tumarca.com
- Web: https://tumarca.com

10. Sitemap.xml limpio, submitted en Search Console

Impacto: BAJO HIGIENE · Esfuerzo: MUY BAJO · Tiempo a resultado: inmediato para indexación

Última de la lista, pero la mayoría de sitios la tienen rota:

  • Sitemap incluye URLs que devuelven 404 → limpiar
  • Sitemap incluye URLs noindex (paginación, filtros) → quitar
  • Sitemap NO incluye páginas importantes → añadir
  • Sitemap no está enviado en Search Console → enviar

10 minutos. Sin excusa.

El orden honesto

Si tienes que elegir, este es el orden por hora invertida vs impacto:

  1. Robots.txt (5 min) — no negociable
  2. Organization schema con sameAs (30 min) — máximo lift por minuto
  3. Sitemap submitted (10 min) — higiene base
  4. Hreflang si eres multilingüe (1 hora) — si aplica, no opcional
  5. FAQPage en top-5 páginas (4–6 horas) — el GEO real empieza aquí
  6. Internal linking audit (2 horas) — encuentra los 404 que no sabías
  7. Lead-with-the-answer reescritura del top-10 (días) — la inversión más cara, mayor compounding
  8. Server-side rendering migration si aplica (días/semanas) — bloqueante si tu sitio es JS-only
  9. Core Web Vitals fixes (variable) — paga en SEO clásico también
  10. llms.txt (15 min) — bajo coste, upside especulativo

Lo que NO hace falta

Cosas que vas a oír en otros sitios y que no mueven la frecuencia de cita en IA:

  • Densidad de keywords en el body (los modelos no parsean por keyword density)
  • Meta keywords (deprecated desde 2009, sigue apareciendo en plantillas)
  • Reescribir todo en formato AMP (Google despriorizó AMP en 2021)
  • Schema spam (12 schemas en una página no ayuda; los modelos lo detectan como noise)
  • WordPress plugins de “AI optimization” que prometen subir tu Share of Answer automáticamente (ninguno hace lo que dice)

Próximo paso

Si quieres este checklist auditado contra tu sitio real con un informe priorizado de fix list — qué corregir primero, qué impacto esperar, en qué orden — eso es lo que la Auditoría SEO Técnico de Citable entrega: 5 días hábiles, 900 €, lista priorizada con grados de severidad.

Si quieres el paquete completo —SEO técnico arreglado más implementación GEO y producción de contenido citable— el GEO Foundations sprint hace los puntos 1 al 8 de esta lista en 3 meses por 1.800 € al mes.

Y si quieres empezar por entender dónde está tu marca antes de tocar nada técnico, la Auditoría de Visibilidad IA testa tus 50 prompts en ChatGPT, Perplexity, Gemini y Google AI Overviews en 5 días por 1.200 €.