Gratis Hosting
+ Dominio .com
+ Correos Corporativos
+ Certificado SSL
+ Primer año de servicios 100% Gratis.
+Promoción valida para clientes de Diseño Web, Tiendas Virtuales y Landing Pages.

Responsable: Otorongo Negro E.I.R.L. (KOM) | RUC 20604716595 | Derechos ARCOP: legal@kom.pe · Política de Privacidad

¿Qué es el Share of Model (SOM) y cómo medirlo para tu marca?

¿Qué es el Share of Model (SOM) y cómo medirlo para tu marca? - KOM Agencia Digital

Qué es el Share of Model

El Share of Model (SOM) mide qué porcentaje del conocimiento interno de un modelo de IA está asociado a tu marca. Es diferente del Share of Voice: el SOV mide si te mencionan en las respuestas; el SOM intenta medir si el modelo «sabe» de ti, si tiene tu marca integrada en sus pesos y su representación del mundo. Es una métrica más profunda y más difícil de medir, pero conceptualmente más poderosa.

La analogía más clara: imagina que el LLM es un consultor con 20 años de experiencia. El SOV equivale a cuántas veces ese consultor recomienda tu marca cuando le preguntan. El SOM equivale a qué tan profundamente ese consultor conoce tu marca: ¿sabe qué haces? ¿conoce tus productos? ¿puede describir tus diferenciadores? ¿te considera una opción legítima en múltiples contextos? Un consultor puede mencionarte mucho (alto SOV) pero conocerte poco (bajo SOM), o viceversa.

El SOM importa porque determina la calidad y la consistencia de tus menciones en IA. Una marca con alto SOM aparece con descripciones precisas, recomendaciones contextualizadas y diferenciadores claros. Una marca con bajo SOM aparece con descripciones genéricas, datos desactualizados o incluso información incorrecta. El SOM no es una métrica vanidosa; afecta directamente cómo te perciben los usuarios que reciben recomendaciones de los LLMs.

Este concepto es parte del ecosistema de KPIs de GEO que las marcas necesitan rastrear para entender su posición en el mundo de la IA generativa.

SOM vs SOV: diferencias clave

Dimensión Share of Voice (SOV) Share of Model (SOM)
Qué mide Frecuencia de mención en respuestas Profundidad del conocimiento del modelo sobre tu marca
Cómo se observa Conteo de apariciones por query Riqueza y precisión de las descripciones
Facilidad de medición Relativamente fácil (conteo) Difícil (requiere evaluación cualitativa)
Herramientas disponibles Otterly, Peec, monitoreo manual Muy pocas; mayormente manual
Qué indica Presencia en el output del modelo Presencia en el conocimiento del modelo
Cómo se mejora Menciones en fuentes web, contenido optimizado Presencia consistente en muchas fuentes durante el período de entrenamiento
Temporalidad Puede cambiar semanalmente Cambia lentamente (depende de actualizaciones del modelo)
Impacto en negocio Visibilidad y consideración Calidad de la recomendación y confianza

La diferencia clave es temporal. Tu SOV puede cambiar de una semana a otra porque los LLMs con acceso a búsqueda web (como Perplexity y ChatGPT con browsing) actualizan las fuentes que consultan constantemente. Tu SOM cambia mucho más lento porque depende de los datos de entrenamiento del modelo base, que se actualiza cada varios meses.

Otra diferencia importante: el SOV es más accionable a corto plazo. Puedes mejorar tu SOV en semanas publicando contenido que los LLMs encuentren relevante. Mejorar tu SOM toma meses, porque requiere que tu marca esté presente en suficientes fuentes para que la próxima actualización del modelo integre ese conocimiento.

Cómo aproximarlo con prompts sistemáticos

No puedes medir el SOM directamente porque no tienes acceso a los pesos internos del modelo. Pero puedes aproximarlo con una metodología de prompts diseñada para explorar qué tan profundo es el conocimiento del LLM sobre tu marca.

Prompt de reconocimiento básico. Pregunta: «¿Qué sabes de [tu marca]?» La respuesta te dice si el modelo tiene información sobre ti. Si responde con datos específicos (fundadores, servicios, ubicación, historia), tu SOM es mayor que si responde genéricamente o dice que no tiene información.

Prompt de diferenciación. Pregunta: «¿En qué se diferencia [tu marca] de [competidor]?» Si el modelo puede articular diferenciadores específicos, tu SOM es alto. Si da respuestas vagas o confunde tus características con las de tu competidor, tu SOM necesita trabajo.

Prompt de recomendación contextualizada. Pregunta en diferentes contextos: «Necesito [tu servicio] para [contexto específico], ¿qué opciones recomiendas?» Varía el contexto: tamaño de empresa, industria, ubicación, presupuesto. Si tu marca aparece en múltiples contextos con razones específicas para la recomendación, tu SOM es profundo. Si solo apareces en uno o dos contextos, tu SOM es superficial.

Prompt de verificación de datos. Pregunta detalles específicos sobre tu marca: precios, servicios, ubicación, casos de éxito. Compara las respuestas con la realidad. Un alto porcentaje de datos correctos indica alto SOM. Datos incorrectos o desactualizados indican que el modelo tiene información de ti pero de baja calidad, que puede ser peor que no tener información.

Método de aproximación Prompt tipo Qué mide del SOM Frecuencia
Reconocimiento «¿Qué sabes de [marca]?» Existencia en el modelo Trimestral
Diferenciación «¿En qué se diferencia [marca] de [competidor]?» Profundidad del conocimiento Trimestral
Contextualización «Recomienda [servicio] para [contexto]» (x5 contextos) Amplitud del conocimiento Trimestral
Verificación «¿Cuáles son los precios/servicios de [marca]?» Precisión del conocimiento Trimestral
Sentimiento «¿Cuál es la reputación de [marca]?» Percepción del modelo Trimestral

Ejecuta este set de prompts en cada LLM principal (ChatGPT, Perplexity, Gemini, Claude) y puntúa las respuestas en una escala de 1-5 para cada dimensión. El promedio te da un índice de SOM aproximado por LLM. Repite cada trimestre para ver la evolución.

Limitaciones: modelos cerrados vs abiertos

El SOM tiene una limitación fundamental: los modelos más usados (GPT-4, Claude, Gemini) son cerrados. No puedes inspeccionar sus pesos ni saber exactamente qué información tienen integrada. Todo lo que puedes hacer es inferir el SOM a través de las respuestas que generan, que es un proxy imperfecto.

El problema de la variabilidad. Las respuestas de los LLMs no son deterministas. La misma pregunta puede dar respuestas diferentes en distintos momentos. Esto significa que tu medición de SOM tiene ruido inherente. Para reducirlo, ejecuta cada prompt 3 veces en días diferentes y usa el promedio.

El problema del retrieval. Modelos como Perplexity y ChatGPT con browsing mezclan su conocimiento interno con información recuperada de la web en tiempo real. Esto hace difícil distinguir si una mención de tu marca viene del SOM (conocimiento integrado) o del retrieval (búsqueda web en el momento). Para aproximar mejor el SOM puro, usa ChatGPT sin browsing cuando sea posible.

El problema de la actualización. Cuando OpenAI actualiza GPT o Anthropic actualiza Claude, el SOM cambia. Contenido que no estaba en el entrenamiento anterior puede aparecer en el nuevo. Esto significa que tu estrategia de SOM es un juego a largo plazo: necesitas estar presente en muchas fuentes de forma consistente para que cada actualización del modelo refuerce tu presencia, no la diluya.

Modelos abiertos como referencia. Modelos como Llama o Mistral son open-source y sus datos de entrenamiento son parcialmente conocidos. Puedes usarlos como referencia para entender si tu marca está en datasets de entrenamiento comunes. Si apareces en un modelo abierto, es probable que también aparezcas en los cerrados que usan datasets similares.

Herramientas que intentan medirlo

Pocas herramientas miden SOM directamente. La mayoría se enfocan en SOV (que es más fácil de cuantificar). Sin embargo, hay aproximaciones útiles:

Profound. Aunque Profound se enfoca en citabilidad y optimización de contenido, sus análisis de cómo los LLMs interpretan y extraen información de tu contenido son un proxy de SOM. Si Profound indica que tu contenido es altamente extraíble, es más probable que los modelos tengan buena representación de tu marca en sus pesos.

Monitoreo manual con protocolo. La forma más accesible de aproximar SOM. Usa el set de prompts descrito arriba, puntúa cada respuesta, y lleva un registro trimestral. No es escalable, pero es gratis y te da una primera aproximación que ninguna herramienta automatizada ofrece actualmente.

Otterly. Si bien mide SOV, los datos de Otterly sobre la consistencia de tus menciones entre diferentes queries son un indicador indirecto de SOM. Si apareces consistentemente en muchas queries diferentes (no solo en las más obvias), sugiere que el modelo tiene un conocimiento profundo de tu marca.

Casos de estudio

Marca con alto SOM y bajo SOV. Una universidad peruana con 50 años de trayectoria tiene alto SOM: ChatGPT la describe con precisión, conoce sus facultades, su ubicación y su reputación. Pero su SOV es bajo porque no aparece frecuentemente en queries transaccionales como «¿dónde estudiar marketing digital en Lima?». El modelo la conoce pero no la recomienda activamente. La solución: crear contenido que conecte la marca con queries transaccionales específicas, no solo con su identidad institucional.

Marca con bajo SOM y alto SOV. Una startup de fintech que apareció en un artículo viral de un medio importante. Su SOV fue alto durante semanas porque Perplexity citaba ese artículo para múltiples queries. Pero su SOM era bajo: ChatGPT sin browsing no sabía quién era. Cuando el artículo perdió relevancia temporal, el SOV cayó porque no había SOM que lo sustentara. La lección: el SOV sin SOM es efímero. Necesitas presencia consistente en muchas fuentes, no picos virales en una sola.

Marca con SOM en transición. Una agencia de marketing digital que publicó 30 artículos de blog en 6 meses y consiguió menciones en 5 medios del sector. En el trimestre 1, ChatGPT no la conocía (respondía «no tengo información específica sobre esa empresa»). En el trimestre 2, la mencionaba con datos imprecisos (confundía sus servicios con los de un competidor con nombre similar). En el trimestre 3, después de una actualización del modelo, la describía con precisión y la recomendaba en contextos específicos de su nicho. El SOM se construyó gradualmente y se materializó cuando el modelo se actualizó con datos que incluían las nuevas fuentes. El patrón muestra algo importante: hay un lag entre las acciones de contenido y el impacto en SOM. No es que nada funcionó durante los primeros dos trimestres; es que el modelo necesitaba actualizarse para integrar la nueva información. Esa paciencia es fundamental y es lo que separa a las marcas que construyen SOM real de las que abandonan la estrategia antes de ver resultados.

Estrategia práctica para construir SOM

Construir SOM requiere una estrategia diferente a construir SOV. El SOV se mejora con acciones de corto plazo (publicar contenido, conseguir menciones). El SOM se mejora con acciones de largo plazo orientadas a que tu marca esté presente en los datasets que los modelos usan para entrenarse.

Presencia en fuentes de referencia del sector. Los LLMs se entrenan con datos de Wikipedia, artículos académicos, medios de prensa, blogs de autoridad y directorios especializados. Si tu marca tiene un artículo en Wikipedia (que cumpla criterios de notabilidad), aparece en directorios del sector, y es mencionada en medios de referencia, las probabilidades de que los modelos la integren en su próxima actualización son altas. No se trata de un artículo viral sino de presencia distribuida en muchas fuentes estables.

Consistencia en la información. Si tu sitio web dice una cosa, tu perfil de Google Business otra, y un directorio del sector una tercera, el modelo recibe señales contradictorias. Asegúrate de que tu nombre, descripción, servicios y diferenciadores sean consistentes en todas las fuentes donde apareces. La consistencia refuerza la confianza del modelo en la información que tiene sobre ti.

Contenido que define tu marca claramente. Publica contenido en tu sitio y en fuentes externas que describa claramente qué hace tu empresa, para quién, y en qué se diferencia. Los LLMs extraen esta información durante el entrenamiento. Si tu contenido es ambiguo sobre tu propuesta de valor, el modelo también será ambiguo cuando hable de ti.

Asociaciones semánticas deliberadas. Si quieres que ChatGPT te asocie con «posicionamiento GEO en Perú», necesitas que esa asociación esté presente en múltiples fuentes: tu sitio web, artículos de blog, menciones en prensa, perfiles en directorios. Cada fuente que conecta tu marca con esos términos refuerza la asociación semántica en el modelo.

Paciencia con los ciclos de actualización. Los modelos base se actualizan cada 3-6 meses. Esto significa que los esfuerzos que haces hoy se reflejan en el SOM dentro de 3-6 meses. No esperes resultados inmediatos. Mide tu SOM después de cada actualización importante del modelo para verificar si tus esfuerzos se están traduciendo en mayor conocimiento del modelo sobre tu marca.

Preguntas frecuentes

¿SOM es lo mismo que Share of Voice?

No. El SOV mide si te mencionan en las respuestas del modelo. El SOM mide si el modelo te «conoce» en profundidad. Puedes tener alto SOV (te mencionan mucho) con bajo SOM (las menciones son superficiales o imprecisas). O bajo SOV (no te mencionan frecuentemente) con alto SOM (cuando te mencionan, la información es precisa y detallada). Lo ideal es tener ambos altos.

¿Cómo se mide si el modelo es cerrado?

No se mide directamente; se aproxima. Usa un set de prompts diseñados para explorar la profundidad del conocimiento del modelo sobre tu marca: reconocimiento, diferenciación, contextualización, verificación y sentimiento. Puntúa las respuestas y lleva un registro trimestral. Es una aproximación, no una medición exacta, pero es lo mejor disponible con modelos cerrados como GPT-4 o Claude.

¿Existe herramienta dedicada?

No existe todavía una herramienta que mida SOM directamente. Las herramientas de GEO actuales como Otterly, Peec y Profound miden aspectos relacionados (SOV, citabilidad) que son proxies de SOM. Es probable que en los próximos 12-18 meses aparezcan herramientas dedicadas, pero por ahora el monitoreo manual con un protocolo estructurado es la mejor opción.

¿Es medible para pymes?

Sí, con el método manual. No necesitas herramientas de pago ni conocimientos técnicos avanzados. Necesitas un set de 15-20 prompts, 30 minutos trimestrales por LLM, y una hoja de cálculo para registrar los resultados. Para una pyme, medir SOM trimestral en ChatGPT y Perplexity es suficiente como punto de partida. Lo importante es establecer la línea base: saber si el modelo te conoce hoy te permite medir si las acciones que tomas mejoran ese conocimiento con el tiempo. Muchas pymes se sorprenden al descubrir que ChatGPT ya tiene información sobre ellas (aunque sea parcial o desactualizada), lo que da un punto de partida concreto para mejorar.

¿Cuánto SOM tiene una marca líder?

No hay una escala universalmente aceptada. Usando el método de prompts con escala 1-5, las marcas líderes en su sector suelen obtener promedios de 4-5 en reconocimiento y diferenciación, 3-4 en contextualización, y 3-5 en verificación de datos. Las marcas medianas están en 2-3 en promedio. Las marcas desconocidas para el modelo están en 1 o no generan respuesta relevante.

El SOM se construye con paciencia y consistencia

No puedes hackear el SOM. No hay un truco para que ChatGPT «aprenda» tu marca en una semana. El SOM se construye estando presente en muchas fuentes de calidad durante el período que el modelo usa para su entrenamiento. Eso significa publicar contenido relevante de forma consistente, conseguir menciones en medios del sector, mantener tu información actualizada en directorios y bases de datos, y asegurar que tu presencia web sea coherente y rica en información.

Mide tu SOM trimestral con el protocolo de prompts. Compáralo con tu Share of Voice. Las discrepancias te dicen dónde enfocar: si tu SOV es alto pero tu SOM bajo, trabaja en calidad y profundidad de menciones. Si tu SOM es alto pero tu SOV bajo, trabaja en aparecer en más queries relevantes.

En KOM ayudamos a marcas peruanas a construir su presencia en IA generativa con estrategias que mejoran tanto el SOV como el SOM. Conversemos sobre tu estrategia de posicionamiento GEO.

Picture of Christian Otero
Christian Otero
Founder & CEO @ KOM Agencia Digital | Pionero en Generative Engine Optimization (GEO) y SEO Técnico Internacional | +24 Años escalando operaciones digitales | Ex-Nextel, Entel, Prosegur | Ingeniero de Sistemas con Postgrado en Marketing Digital y Comercio Exterior.
Artículos relacionados
¿Tienes un proyecto?

Escríbenos:

Responsable: Otorongo Negro E.I.R.L. (KOM) | RUC 20604716595 | Derechos ARCOP: legal@kom.pe · Política de Privacidad

¿Preguntas?
¡Te asesoramos gratis!

Responsable: Otorongo Negro E.I.R.L. (KOM) | RUC 20604716595 | Derechos ARCOP: legal@kom.pe · Política de Privacidad

Si prefieres llámanos o escríbenos...

Estamos atentos a tu comunicación para poder implementar tus nuevas herramientas digitales.

EMPRESA REGISTRADA Ante SUNAT e INDECOPI PAGO 100% SEGURO A través de KOM Pay TRANSPARENCIA TOTAL Precios 100% Públicos POTENCIADOS CON IA Usamos Inteligencia Artificial