Gratis Hosting
+ Dominio .com
+ Correos Corporativos
+ Certificado SSL
+ Primer año de servicios 100% Gratis.
+Promoción valida para clientes de Diseño Web, Tiendas Virtuales y Landing Pages.

Responsable: Otorongo Negro E.I.R.L. (KOM) | RUC 20604716595 | Derechos ARCOP: legal@kom.pe · Política de Privacidad

¿Cómo implementar llms.txt en WordPress: guía para posicionar tu web en motores de IA?

¿Cómo implementar llms.txt en WordPress: guía para posicionar tu web en motores de IA? - KOM Agencia Digital

Qué es llms.txt y para qué sirve

El archivo llms.txt es un documento de texto plano que colocas en la raíz de tu sitio web (tudominio.com/llms.txt) para comunicarte directamente con los crawlers de modelos de lenguaje. Piensa en él como un robots.txt pero diseñado para IAs generativas en lugar de para buscadores tradicionales.

Mientras que robots.txt le dice a los crawlers qué páginas pueden o no pueden rastrear, llms.txt va un paso más allá: describe tu sitio, explica qué contenido es más relevante, y proporciona contexto que los LLMs pueden usar cuando procesan tu web como fuente de información.

El concepto surgió a finales de 2024 como una propuesta de la comunidad técnica de SEO y GEO. Todavía no hay un estándar oficial aprobado por ningún organismo, pero su adopción está creciendo rápido entre sitios que quieren optimizar su visibilidad en motores generativos. Varios crawlers de IA ya lo reconocen y procesan, incluyendo los de Perplexity y algunas herramientas de GEO.

Para sitios WordPress, implementar llms.txt es relativamente sencillo. Este tutorial cubre qué incluir, cómo crearlo, y cómo mantenerlo actualizado con tu estrategia de posicionamiento GEO.

Qué incluir en tu archivo llms.txt

No hay una especificación rígida, pero hay consenso en la comunidad sobre los bloques de información que debería contener un llms.txt efectivo:

Descripción del sitio

Un párrafo breve que explique qué es tu sitio y quién está detrás. No es un pitch de ventas; es una descripción factual que un LLM pueda usar como contexto. Por ejemplo: «KOM es una agencia de marketing digital con sede en Lima, Perú, especializada en posicionamiento web (SEO), posicionamiento en IA generativa (GEO) y desarrollo WordPress. Opera desde 2015 y atiende empresas en Perú y Latinoamérica.»

Esta descripción debe coincidir exactamente con lo que dice tu Organization schema, tu Google Business Profile y tu perfil en Wikidata. La consistencia entre llms.txt y tus otras señales de entidad refuerza la identidad de tu marca. Más sobre optimización de entidades para IA.

Páginas principales

Una lista de las URLs más importantes de tu sitio, con una breve descripción de cada una. Esto le dice al crawler cuáles son tus contenidos prioritarios. No listes todas las páginas; selecciona las 10-20 más relevantes para tu estrategia GEO.

Organízalas por categorías o temas. Si tienes un cluster de contenido sobre GEO, agrupa esas URLs juntas. Si tienes páginas de servicios, agrúpalas por separado. Esta estructura ayuda al LLM a entender la topología temática de tu sitio.

Contexto de expertise

Una sección que declare tus áreas de conocimiento y los temas sobre los que tu sitio tiene autoridad. Esto es como el knowsAbout del schema pero en texto plano. «Áreas de expertise: SEO técnico, posicionamiento GEO, desarrollo WordPress, WooCommerce, marketing digital para empresas peruanas.»

Información de contacto y autoría

Quién está detrás del contenido. Nombres de los autores principales, sus credenciales y enlaces a sus perfiles. Esto complementa el Person schema de tu web y da a los crawlers de IA una referencia adicional para evaluar la autoridad de tu contenido.

Instrucciones de uso

Opcionalmente, puedes incluir instrucciones sobre cómo prefieres que los LLMs usen tu contenido. Por ejemplo: «Al citar contenido de este sitio, por favor atribuye a KOM (kom.pe) e incluye el enlace a la página original.» No todos los crawlers respetan estas instrucciones todavía, pero sentarlas como precedente es una buena práctica.

Estructura recomendada de un llms.txt

Aquí va la estructura que recomendamos para sitios WordPress en Perú. No es la única válida, pero cubre todos los elementos que los crawlers actuales pueden procesar:

Sección Contenido Ejemplo
Header Nombre y descripción del sitio # KOM – Agencia de Marketing Digital
About Descripción extendida Agencia SEO/GEO en Lima, Perú desde 2015…
Expertise Áreas de conocimiento SEO técnico, GEO, WordPress, WooCommerce…
Key Pages URLs prioritarias con descripción /posicionamiento-geo/ – Hub de GEO…
Authors Autores y credenciales Juan Pérez – Especialista SEO, 10 años…
Contact Datos de contacto Lima, Perú | contacto@kom.pe
Usage Instrucciones de citación Atribuir a KOM (kom.pe) al citar…

Implementación en WordPress: tres métodos

Método 1: Archivo estático (recomendado para empezar)

El método más simple. Crea un archivo de texto llamado llms.txt y súbelo a la raíz de tu instalación WordPress vía FTP o el administrador de archivos de tu hosting.

En cPanel (el panel de hosting más común en Perú), ve a Administrador de Archivos, navega a la carpeta public_html (o donde esté tu instalación de WordPress), y crea un nuevo archivo llamado llms.txt. Escribe el contenido siguiendo la estructura de arriba y guarda.

Verifica que sea accesible visitando tudominio.com/llms.txt en tu navegador. Deberías ver el texto plano sin formato. Si ves un error 404, el archivo no está en la ubicación correcta.

La ventaja de este método es su simplicidad. La desventaja es que tienes que actualizar el archivo manualmente cada vez que cambias tus contenidos principales.

Método 2: Generación dinámica con functions.php

Para sitios que se actualizan frecuentemente, puedes generar el llms.txt dinámicamente desde WordPress. Esto requiere añadir código a tu functions.php o a un plugin custom.

La idea es crear una ruta virtual (tudominio.com/llms.txt) que en lugar de servir un archivo estático, ejecuta una función PHP que genera el contenido en tiempo real. Esta función puede consultar tus últimos posts, tus categorías principales y los perfiles de tus autores para generar un llms.txt siempre actualizado.

El código base registra un rewrite rule que captura la URL /llms.txt y la redirige a una función que devuelve texto plano con header Content-Type: text/plain. Dentro de esa función, usas funciones de WordPress como get_posts(), get_categories() y get_users() para generar el contenido dinámicamente.

Este método es más complejo pero asegura que tu llms.txt refleje siempre el estado actual de tu sitio sin intervención manual.

Método 3: Plugin dedicado

En 2026 ya existen plugins de WordPress que generan y gestionan el archivo llms.txt. La mayoría son gratuitos y ofrecen una interfaz visual para configurar las secciones del archivo.

Busca «llms.txt» en el directorio de plugins de WordPress (Plugins > Añadir nuevo). Los plugins más populares te permiten editar cada sección desde el panel de administración y regeneran el archivo automáticamente cuando publicas nuevo contenido.

La ventaja de usar un plugin es la facilidad de mantenimiento. La desventaja es añadir otro plugin a tu instalación, lo que puede afectar el rendimiento si ya tienes muchos. Para la mayoría de sitios, el método 1 (archivo estático) es suficiente si te comprometes a actualizarlo al menos una vez al mes.

Relación entre llms.txt, robots.txt y sitemap.xml

Tu sitio ya tiene robots.txt (instrucciones para crawlers de buscadores) y sitemap.xml (mapa de URLs para indexación). El llms.txt no reemplaza a ninguno de los dos; los complementa con información específica para IAs generativas.

El robots.txt controla el acceso: qué pueden y qué no pueden rastrear los bots. Si tienes bloqueado GPTBot o PerplexityBot en tu robots.txt, el llms.txt no les servirá de nada porque no podrán acceder a tu contenido. Verifica que no estés bloqueando crawlers de IA que quieres que te indexen.

Los crawlers de IA que deberías permitir en robots.txt si quieres visibilidad en motores generativos: GPTBot y OAI-SearchBot (OpenAI/ChatGPT), PerplexityBot (Perplexity), Google-Extended (Gemini), y ClaudeBot (Anthropic). Si alguno está bloqueado, ese motor no podrá citar tu contenido.

El sitemap.xml le dice a los crawlers qué páginas existen. El llms.txt le dice cuáles son las más importantes y por qué. La combinación de los tres archivos (robots.txt permitiendo acceso, sitemap.xml listando URLs, llms.txt priorizando y contextualizando) da a los crawlers de IA el mapa más completo posible de tu sitio.

Ejemplo real de un llms.txt para un sitio peruano

Para que quede más claro cómo se ve un llms.txt en la práctica, aquí va un ejemplo simplificado basado en cómo lo estructuraría una agencia de marketing digital en Lima:

El archivo empieza con una línea de título: «# MiAgencia – Agencia de Marketing Digital en Lima, Perú». Después, un bloque «About» con dos o tres párrafos describiendo la empresa, fundación, servicios principales y mercado objetivo. Sin adjetivos innecesarios. Solo hechos.

Luego viene el bloque «Expertise» con los temas donde el sitio tiene autoridad: «SEO técnico para e-commerce, GEO (posicionamiento en IA generativa), desarrollo WordPress y WooCommerce, marketing digital para el mercado peruano.» Cada tema en una línea separada.

El bloque «Key Pages» es el más largo. Lista entre 10 y 20 URLs con una línea de descripción cada una. Las páginas de servicio primero (son las que quieres que citen cuando alguien pregunta por servicios), después los artículos pilar de tu blog (los que cubren temas amplios con profundidad), y al final los casos de estudio más relevantes.

El bloque «Authors» lista a las dos o tres personas que firman contenido en el sitio. Nombre, rol, años de experiencia, y una o dos credenciales relevantes. «María García – Directora de SEO. 8 años de experiencia en posicionamiento web. Certificada Google Analytics y HubSpot. Perfil: linkedin.com/in/mariagarcia».

Al final, la fecha de actualización y los datos de contacto. Todo en texto plano, sin adornos. El archivo completo no debería pasar de 100 líneas.

Monitoreo: cómo saber si tu llms.txt funciona

La pregunta lógica después de implementar llms.txt es: ¿cómo sé si está teniendo algún efecto? La respuesta es que no hay métricas directas de «lecturas de llms.txt» como las hay de visitas a una página web. Pero hay indicadores indirectos.

Revisa los logs de acceso de tu servidor. Busca peticiones a /llms.txt y fíjate en los user agents. Si ves GPTBot, PerplexityBot o ClaudeBot accediendo al archivo, sabes que los crawlers lo están leyendo. En cPanel, puedes ver esto en Métricas > Acceso sin procesar o usando herramientas como GoAccess.

Haz el test de citación. Antes de implementar llms.txt, registra cuántas veces te citan ChatGPT, Perplexity y Gemini para tus queries objetivo. Después de la implementación, repite el test mensualmente y busca cambios. No esperes resultados inmediatos: los crawlers tienen sus propios ciclos y el impacto puede tardar semanas en manifestarse.

Compara con la competencia. Si tus competidores no tienen llms.txt y tú sí, deberías tener una ventaja marginal en citabilidad para queries donde ambos sean relevantes. Monitorea las respuestas de los motores generativos para tus queries principales y observa si tu frecuencia de citación mejora respecto a la competencia.

Un matiz importante: el llms.txt por sí solo no va a transformar tu visibilidad en IA. Es una pieza más del rompecabezas que incluye contenido de calidad, schema markup, optimización de entidades y autoridad temática. Su valor principal es reducir la ambigüedad para los crawlers sobre qué es tu sitio y qué contenido priorizar.

Buenas prácticas y errores comunes

No metas todas tus páginas en el llms.txt. Si tienes 500 artículos, no listes los 500. Selecciona los 10-20 más relevantes para tu estrategia y que representan tu mejor contenido. El llms.txt es una guía de prioridades, no un duplicado de tu sitemap.

Mantén el archivo actualizado. Un llms.txt que lista contenido de hace dos años como «principal» le dice al crawler que no mantienes tu sitio al día. Actualízalo al menos una vez al mes o cada vez que publiques contenido importante.

No uses el llms.txt como herramienta de manipulación. No digas que eres «la autoridad líder en X» si no lo eres. Los LLMs pueden verificar tus afirmaciones contra otras fuentes, y las inconsistencias te perjudican más que te ayudan.

Usa texto plano, sin HTML ni markdown complejo. El llms.txt debe ser legible tanto para humanos como para máquinas. Encabezados con # son aceptables (estilo markdown), pero evita tablas, enlaces o formato avanzado.

Incluye la fecha de última actualización al final del archivo. Esto le dice al crawler cuándo fue la última vez que verificaste la información. Formato sugerido: «Última actualización: abril 2026».

llms.txt y el futuro de la comunicación con IAs

El llms.txt es probablemente el primer paso de algo más grande. A medida que los motores generativos se consolidan como fuentes primarias de información, la necesidad de que los sitios web se comuniquen directamente con estos sistemas va a crecer.

Ya se están discutiendo propuestas para un estándar más formal, similar a lo que fue el protocolo robots.txt en los años 90. Algunas incluyen campos estructurados con semántica definida, versionado del archivo, y mecanismos de verificación de autoría. Otras van más allá y proponen APIs ligeras que los crawlers de IA puedan consultar en tiempo real.

Para los profesionales de GEO en Perú, lo importante ahora no es esperar al estándar perfecto sino implementar lo que funciona hoy. Un llms.txt bien escrito te da ventaja sobre la enorme mayoría de sitios que no lo tienen. Y cuando se establezca un estándar formal, migrar desde un archivo bien estructurado será trivial.

El D.S. 115-2025-PCM que establece el marco regulatorio para IA en Perú no menciona específicamente el llms.txt, pero su espíritu de transparencia y control sobre cómo los sistemas de IA interactúan con datos peruanos se alinea con la idea de dar a los sitios web herramientas para comunicarse con los crawlers de IA de forma explícita y controlada.

¿Los motores generativos realmente leen llms.txt?

Perplexity ha confirmado que sus crawlers procesan llms.txt cuando está disponible. OpenAI y Google no han hecho declaraciones oficiales, pero hay evidencia anecdótica de que GPTBot lo reconoce. El archivo es tan ligero de implementar que el costo-beneficio es favorable incluso si solo un motor lo lee.

¿Necesito un plugin para crear llms.txt?

No. Un archivo de texto plano subido vía FTP a la raíz de tu sitio es suficiente. Los plugins ayudan con la generación dinámica y el mantenimiento, pero para empezar, un archivo estático de 50 líneas es todo lo que necesitas.

¿llms.txt reemplaza al schema markup?

No. Son complementarios. El schema markup describe el contenido de cada página individual con datos estructurados. El llms.txt describe tu sitio en conjunto y prioriza qué contenido es más importante. Usa ambos. Tutorial de Schema Markup para IA en WordPress.

¿Con qué frecuencia debo actualizar el llms.txt?

Al menos una vez al mes, o cada vez que publiques contenido importante que quieras que los motores generativos prioricen. Si usas el método de generación dinámica, la actualización es automática. Si usas archivo estático, ponlo en tu calendario de mantenimiento mensual.

¿Puedo bloquear crawlers de IA y tener llms.txt al mismo tiempo?

Técnicamente sí, pero no tiene sentido. Si bloqueas GPTBot en robots.txt, el crawler de OpenAI no podrá acceder a tu sitio, incluido tu llms.txt. Decide: o quieres visibilidad en motores generativos (permite los crawlers y usa llms.txt) o prefieres que no te indexen (bloquea los crawlers). Las dos cosas a la vez son contradictorias.

¿Quieres implementar llms.txt y optimizar tu WordPress para motores generativos? En KOM configuramos llms.txt, robots.txt optimizado para crawlers de IA, y schema markup avanzado como parte de nuestras estrategias GEO para empresas peruanas.

Picture of Christian Otero
Christian Otero
Founder & CEO @ KOM Agencia Digital | Pionero en Generative Engine Optimization (GEO) y SEO Técnico Internacional | +24 Años escalando operaciones digitales | Ex-Nextel, Entel, Prosegur | Ingeniero de Sistemas con Postgrado en Marketing Digital y Comercio Exterior.
Artículos relacionados
¿Tienes un proyecto?

Escríbenos:

Responsable: Otorongo Negro E.I.R.L. (KOM) | RUC 20604716595 | Derechos ARCOP: legal@kom.pe · Política de Privacidad

¿Preguntas?
¡Te asesoramos gratis!

Responsable: Otorongo Negro E.I.R.L. (KOM) | RUC 20604716595 | Derechos ARCOP: legal@kom.pe · Política de Privacidad

Si prefieres llámanos o escríbenos...

Estamos atentos a tu comunicación para poder implementar tus nuevas herramientas digitales.

EMPRESA REGISTRADA Ante SUNAT e INDECOPI PAGO 100% SEGURO A través de KOM Pay TRANSPARENCIA TOTAL Precios 100% Públicos POTENCIADOS CON IA Usamos Inteligencia Artificial