Saltar al contenido
Citora
Profundizar6 min de lectura

Cómo leen los LLMs tu web

Explicación no técnica de la mecánica de ChatGPT, Gemini, Perplexity y Claude.

Cómo leen los LLMs tu web

Explicación no técnica de qué hacen ChatGPT, Gemini y Perplexity cuando alguien les pregunta por tu sector. Entender esto es lo que convierte un retainer de GEO en una decisión de negocio, no en un acto de fe.

Los LLMs no "buscan" como Google

Google era un catálogo: preguntas, devuelve 10 enlaces azules, tú eliges. Los LLMs funcionan distinto. Tienen dos cerebros:

  1. Memoria entrenada — todo lo que leyeron durante el entrenamiento (libros, webs, Wikipedia, foros, bases de datos). Se actualiza con cada nueva versión del modelo.
  2. Búsqueda en vivo (RAG) — cuando tu pregunta lo exige, el LLM abre una ventana de búsqueda en internet y consulta en tiempo real antes de responder.

Cuando un CMO le pregunta a ChatGPT "mejores empresas de [tu sector] en España", el modelo combina ambos cerebros: recuerda lo que aprendió + busca para confirmar o actualizar. La respuesta cita un puñado de empresas. Si estás ahí, ganaste. Si no, tu ausencia es total — ChatGPT no muestra "resultado 47 de 10.000", muestra 3-5 nombres y punto.

Qué tienen en cuenta para elegir esos nombres

Las ponderaciones exactas son propietarias. Pero por estudios públicos y experimentación sabemos que pesan:

Autoridad distribuida (Amalgamated Authority)

Cuántas fuentes distintas e independientes te nombran. No es autoridad de UNA web grande — es consenso. Si te nombran 15 medios sectoriales distintos, 4 directorios, Wikidata y varios foros, el LLM te interpreta como "el mercado está de acuerdo en que existes y eres relevante".

Datos estructurados

Schema JSON-LD. Los LLMs lo ingieren como ground truth: si dices que eres "LocalBusiness" con dirección X, precio Y y servicio Z en tu HTML de forma estructurada, la IA lo cree antes que un texto suelto.

Densidad factual

Textos con afirmaciones concretas, datos, fechas, nombres. Los LLMs extraen esas piezas y las reutilizan al responder. Prosa genérica tipo "somos líderes en soluciones innovadoras" no alimenta nada: ni SEO, ni LLM. Números, años, clientes, casos: sí.

Frescura

La última fecha detectable. Un artículo de 2020 sin actualizar pierde peso mes a mes. Uno con datePublished reciente y dateModified del último trimestre pesa más.

Co-ocurrencia en contextos

Si tu marca aparece junto a los términos de tu sector en muchos lugares, el LLM aprende la asociación. "Citora" + "GEO España" + "B2B mid-market" + "agencia" → el modelo te localiza en el espacio semántico correcto.

Cleanliness del signal

Si los directorios que te referencian son limpios (datos consistentes: mismo nombre, misma dirección, mismo teléfono en todos los sitios), el modelo te lee como una entidad sólida. Si hay inconsistencias (3 direcciones distintas, 2 teléfonos), el LLM duda y tiende a no citarte.

Qué pasa exactamente cuando hay AI Overview

Google AIO es un caso híbrido: el modelo que lo genera es Gemini (con flavor SearchLM), y el material para responder lo saca principalmente de:

  1. El top 10 orgánico clásico — pero solo lo usa como fuente de información, no te manda tráfico.
  2. Featured snippets que ya tenías.
  3. Knowledge Graph + Wikidata.
  4. Fuentes citadas externas que aparecen como "ver más" al final del AIO.

El famoso dato de que solo 4.5% de las fuentes citadas por la IA coinciden con el top 10 de Google viene de aquí: AIO es más promiscuo con las fuentes que el ranking tradicional. Hay casi un canal nuevo de visibilidad.

Qué cambia de LLM a LLM

ChatGPT (OpenAI)

Modelo base + búsqueda en vivo cuando aplica. Históricamente el más conservador con citas — prefiere nombres conocidos. Cambiando. Pondera fuerte autoridad en bases de datos empresariales y menciones en prensa.

Perplexity

Hiper-centrado en citar. Es el LLM que más citas genera por respuesta. 39-64% del peso está en "authoritative list mentions": si apareces en listas/comparativas de medios sectoriales, Perplexity te cita con diferencia.

Gemini

Muy dependiente de Google. Ingesta directa de Knowledge Graph, Wikidata y señales de Google Business Profile. Si tu GBP está bien, Gemini te cita más.

Claude

Menos basado en búsqueda en vivo, más en memoria entrenada. 68% del peso está en bases de datos empresariales. Fuentes tipo Crunchbase, directorios profesionales, papers.

Qué no funciona en los LLMs

Cosas que SÍ funcionan en SEO clásico pero NO mueven nada en GEO:

  • Link building genérico. Los LLMs no puntúan backlinks como PageRank.
  • Keywords stuffing. Es contraproducente: los modelos detectan texto densificado artificialmente.
  • Contenido AI-generado masivo ("AI slop"). Destruye autoridad E-E-A-T y engagement.
  • Largos textos sin estructura. Los LLMs no extraen respuestas de prosa continua; prefieren headings + listas + tablas + FAQs.
  • Páginas thin con cada variante de keyword. Un solo artículo denso y bien estructurado vence a 15 thin pages.

Qué sí funciona

  • Answer Blocks al principio. La respuesta directa en los primeros 100 palabras.
  • Densidad factual. Números, fechas, nombres concretos.
  • Estructura HTML semántica — headings h2/h3 claros, listas, tablas, FAQPage schema.
  • Consenso externo. Estar en varios directorios + Wikidata + prensa.
  • Frescura. Contenido con fechas recientes.
  • Menciones en comparativas ("top 10 X en España", "alternativas a Y", "vs Z").
  • GBP impecable si tienes presencia local.

Qué hacemos nosotros con esto

Todo el Plan Visibilidad está diseñado justo para alimentar estos 7 puntos. No por intuición — por mecánica.

Si quieres entrar más en detalle, echa un ojo a:

¿Tienes una duda específica?

Escríbenos a hola@citora.es y te contestamos en menos de 48h laborables.

Escribir a soporte

Otras guías de profundizar

Profundizar7 min

Glosario GEO

Términos clave: AIO, citation rate, llms.txt, referencing capital, schema JSON-LD, zero-click…

Audit gratis →