Citable
Inicio/Servicios/SEO Técnico
Arregla las razones estructurales por las que la IA no te lee.
Rehabilitación de schema, Core Web Vitals, indexabilidad, hreflang, enlazado interno, limpieza de redirecciones. Desplegado en producción con validación. Los crawlers premian sitios rápidos, semánticamente limpios y estructuralmente claros — eso es exactamente lo que enviamos.
Tres formas de empezar.
Precios
Crawl completo. Análisis de Core Web Vitals. Revisión de indexabilidad. Auditoría de schema. Análisis de enlazado interno. Verificación de hreflang. Mapa de redirecciones. Auditoría de renderizado móvil. Lista de correcciones priorizada con grados de severidad.
Auditoría + implementación. Despliegue completo de schema. Optimización de CWV. Correcciones de indexabilidad. Hreflang. Reestructuración de enlazado interno. Reconstrucción de robots.txt y sitemap. Limpieza de redirecciones. Desplegado en producción y validado.
Monitoreo técnico mensual, optimización de contenido, mantenimiento de enlazado interno, tracking de CWV, resolución de incidencias en Search Console, tracking de rankings en keywords prioritarias. Diseñado como add-on emparejado con GEO Growth.
Seis preguntas que hacen los compradores primero.
FAQ
01 ¿Qué correcciones técnicas mejoran la rastreabilidad por IA más directamente? +
Por orden de impacto: primero, asegurarse de que robots.txt permite explícitamente GPTBot, ClaudeBot, PerplexityBot, OAI-SearchBot y Google-Extended. Muchos sitios que implementaron bloqueos amplios de bots durante la oleada de scraping de 2023-2024 están bloqueando inadvertidamente a los crawlers de IA. Segundo, eliminar barreras de renderizado JS en contenido relevante para cita. Los crawlers tienen capacidad de ejecución JS inconsistente. El contenido renderizado en servidor (Next.js App Router, por ejemplo) es accesible de forma fiable. Tercero, arreglar enlaces internos rotos que impiden a los crawlers llegar a páginas importantes. Cuarto, resolver fallos de Core Web Vitals en páginas top, ya que las señales de calidad de página influyen en la selección de datos de entrenamiento.
02 ¿Es suficiente la metadata o tiene que estar en el cuerpo del contenido? +
Solo metadata es insuficiente. Las meta descriptions y title tags informan a la búsqueda tradicional, pero los modelos de IA extraen principalmente del cuerpo del contenido: las frases reales en la página. Los cambios más impactantes están en las primeras frases de cada sección (lleva la respuesta primero), la estructura H2 y H3 (usa formatos de pregunta) y los párrafos del cuerpo (cortos, directos, listos para citar). El schema en el head confirma de qué va la página, pero lo que se extrae y cita es el contenido del cuerpo.
03 ¿Cómo sé si mi web está técnicamente lista para búsqueda con IA? +
Cuatro chequeos. Primero, busca el nombre de tu marca en ChatGPT y Perplexity y observa si la información que devuelven es exacta y vigente. Las respuestas inexactas suelen indicar señales de entidad desactualizadas o en conflicto. Segundo, revisa tu robots.txt para detectar bloqueos a crawlers de IA (GPTBot, PerplexityBot, ClaudeBot). Tercero, valida tu schema en tus 5 páginas más importantes con el Rich Results Test de Google. Cuarto, lanza un informe de Core Web Vitals en Search Console y anota las páginas que fallan en LCP o CLS. La Auditoría SEO Técnico de Citable cubre los cuatro de forma sistemática y entrega una lista priorizada en 5 días hábiles.
04 ¿Qué tipos de schema son más importantes para cita en IA? +
Los tipos de schema con más impacto, en orden: Organization (establece la identidad de tu marca en el grafo de conocimiento), FAQPage (mapea directamente tu contenido a prompts en formato pregunta), Service o Product (establece qué ofreces y a qué precio), Article (para blog y journal, permite atribución de autor), y BreadcrumbList (mejora la comprensión de la jerarquía). Person schema en páginas About refuerza señales E-E-A-T. Todo el schema debe implementarse como JSON-LD en el head del documento, no como microdata inline en el contenido.
05 ¿La velocidad del sitio afecta a la visibilidad en IA? +
Indirectamente sí. El rendimiento en Core Web Vitals es una señal en los sistemas de Google, que influyen en AI Overviews. Para LLMs standalone como ChatGPT y Perplexity, la velocidad afecta a la fiabilidad con la que los crawlers acceden e indexan contenido durante sus ciclos. Las páginas que dan timeout o cargan lento producen entradas de índice incompletas o ausentes. Lighthouse 95+ es el objetivo en cada página que Citable construye u optimiza.
06 ¿Qué es un fichero llms.txt y necesito uno? +
llms.txt es una convención emergente (análoga a robots.txt) que ofrece a los modelos de lenguaje un resumen estructurado y legible del contenido más importante de tu sitio y cómo debería interpretarse. Aún no es universalmente adoptado, pero señala consciencia e intención hacia los crawlers de IA y los equipos que los construyen. Citable despliega llms.txt en cada sitio que construye como señal forward-looking. Para sitios existentes, añadir llms.txt es una adición técnica de bajo esfuerzo y alto upside que se implementa correctamente en menos de una hora.
Empieza por la auditoría.
900 €. 5 días hábiles. Lista priorizada con grados de severidad.