Crecimiento de productos tecnológicos

Las innovaciones plantean retos específicos a la hora de llevarlas al mercado, tanto mayores cuanto mayor es el grado de innovación del producto o tecnología de que se trate. La pregunta entonces es ¿cómo medir el grado de innovación de un producto o tecnología de forma significativa a efectos de su estrategia de marketing?. La respuesta servirá para modular las estrategias y técnicas comerciales.

Tradicionalmente la innovación se ha asociado a la idea de discontinuidad. Un producto es tanto más innovador cuanto más rompe con las formas tradicionales de cubrir una necesidad y aporta ventajas más diferenciales, aunque probablemente a cambio de exigir cambios de comportamiento en los usuarios y en el mercado.

Con este enfoque, la innovación se mide en una escala de grado de discontinuidad, que en un extremo tiene a los productos que representan innovaciones continuas (suelen ser extensiones de productos existentes, no requieren cambios de uso, son compatibles con la infraestructura actual, aportan beneficios incrementales) y en el extremo opuesto a los productos que representan innovaciones discontinuas (maneras radicalmente nuevas de hacer las cosas, exigen cambios de comportamiento, son incompatibles con la infraestructura y la cadena de valor existentes y aportan ventajas sustanciales).

Esta visión de la cuestión se vio complementada por los trabajos de Clayton Christensen, que en su libro “The Innovator’s Dilemma” sostenía que la mayoría de las innovaciones pertenecen a la categoría que él llama de sostenimiento (sustaining innovations), innovaciones que permiten ofrecer al mercado productos considerados mejores según los parámetros al uso. Por ejemplo, una nueva tecnología de procesador que permitiera fabricar PCs más rápidos. Las sustaining innovations van destinadas a satisfacer a los clientes más exigentes del mercado y son habitualmente introducidas por los fabricantes líderes, en su continua búsqueda de más cuota y rentabilidad. Dentro de las innovaciones de sostenimiento hay un amplio espectro que va desde lo incremental a lo más radical.

En contraposición a estas innovaciones más habituales, Christensen define las innovaciones disruptivas (disruptive innovations) como aquéllas que permiten ofrecer al mercado productos paradójicamente “peores” según los parámetros al uso (velocidad, etc.) y que por lo tanto no pueden ser vendidos a los clientes más exigentes, pero que por el contrario aportan una propuesta de valor diferente. Habitualmente estos productos disruptivos son más fáciles de usar, fiables y baratos que los productos actualmente en el mercado, de modo que pueden captar el interés de nuevos segmentos de consumidores y, en muchos casos, desplazar a largo plazo a los productos tradicionales. Ejemplos de innovaciones disruptivas son el PC frente al miniordenador o la telefonía IP frente a la convencional. Una innovación disruptiva impone verdaderos retos desde el punto de vista de marketing, tanto para el proveedor innovador que intenta que el mercado la adopte, como para los proveedores incumbentes que se plantean defenderse de ella o impulsarla ellos mismos.

Sin embargo, desde el punto de vista del marketing de una innovación lo más importante es conseguir su adopción por su mercado objetivo, y estas maneras “unidimensionales” de medir la innovación pierden de vista un factor muy importante: la separación entre los beneficios de adoptar una innovación y los costes asociados. Muchos productos innovadores que han fallado en el mercado lo han sido porque se concentraron en ofrecer ventajas radicales a los clientes, sin ocuparse de contrarrestar o minimizar los costes (no sólo económicos, sino psicológicos) que su adopción significaba para los usuarios.

En consecuencia, muchos enfoques de marketing de tecnología recogen esta dualidad beneficio-pérdida:

  • Geoffrey Moore, en su libro “Inside the Tornado”, presenta un modelo en que la discontinuidad que caracteriza a un producto innovador tiene dos dimensiones: application breakthrough (los beneficios que aporta) y paradigm shock (el impacto sobre comportamientos de usuarios, infraestructura, etc.) que actúan como el acelerador y el freno para la adopción de la innovación.
  • En su artículo “Eager Sellers and Stony Buyers” John Gourville presenta un modelo en que los consumidores valoran una innovación en términos de lo que ganan y lo que pierden en comparación a los productos que usan actualmente. Gourville llama a esas variables grado de cambio de producto y grado de cambio de comportamiento y en conjunto definen un plano que incluye desde productos que requieren un cambio de comportamiento masivo sin aportar ventajas claras (que él llama sure failures, p.ej., el teclado Dvorak) a otros que proporcionan beneficios revolucionarios sin exigir cambios significativos (smash hits, p.ej., Google).

En definitiva cualquier empresa innovadora que se olvide de las dos caras que definen la innovación desde el punto de vista de los clientes está arriesgándose a cometer un error fatal.

32 comentarios

La semana pasada tuvo lugar en Boston la cuarta B2B Demand Generation Summit de la Costa Oeste de MarketingSherpa. Lo que sigue resume algunas de las principales preocupaciones e inquietudes que allí se suscitaron entre los responsables de generar demanda en mercados B2B de productos tecnológicos. Más información en MarketingSherpa’s Boston Summit Wrap-Up Report o Top 5 Challenges for B2B Demand Generation Marketers.

Los comités de compras siguen creciendo. Incluso en empresas pequeñas (100-500 empleados) el número medio de personas involucradas en una decisión es de 6,8. Eso significa que para vender hay que responder a las preguntas de todos ellos, cada uno con preocupaciones y puntos de vista diferentes.

Proporcionar información relevante es clave. No sólo es necesario proporcionar contenidos específicos para cada perfil de comprador o decisor, sino también para cada etapa en el ciclo de compra. Esto es más cierto en cuanto que los diferentes participantes tienden a involucrarse más en etapas diferentes del proceso.

Conseguir resultados con presupuestos más ajustados. Algunas tácticas de relativo bajo coste que pueden ayudar son: construir y optimizar landing pages y microsites (pueden mejorar los ratios de conversión en un 40%), utilizar blogs, vídeos de bajo coste, etc.

Estar allí donde los clientes buscan. El 80% de los decisores dice que son ellos quienes encuentran a sus proveedores (y no al revés). Eso quiere decir que para vender es imprescindible resultar fácil de encontrar cuando los compradores están buscando. Algunos consejos: concentrarse en los sitios donde los clientes empiezan a buscar (motores de búsqueda, y principalmente Google) y realizar múltiples campañas en diversos medios a lo largo del año (en lugar de una o dos principales).

Gestionar adecuadamente los leads. Menos del 25% de los leads que entran por un sitio web están en situación de ser traspasados al departamento de ventas. Por eso, las empresas que utilizan las técnicas adecuadas (lead scoring, lead nurturing…) para ir construyendo una relación con aquellos leads cualificados que no están en situación de comprar obtienen mejores resultados. Estas empresas que aplican las mejores prácticas pasan menos leads a ventas pero cierran más operaciones. Eso quiere decir que tienen más ingresos pero también menos costes, al utilizar más eficientemente un recurso tan caro como la fuerza de ventas.

El reto de la Web 2.0. En USA, exceptuando las grandes empresas la Web 2.0 todavía no ha sido muy adoptada como medio de difundir información comercial: menos del 20% de las medianas y pequeñas empresas utilizan blogs, podcasts o feeds y aproximadamente sólo el 20% utiliza redes sociales.

¿Estáis de acuerdo? ¿Son éstas vuestras principales preocupaciones como high-tech marketers?

5 comentarios

La importancia de la marca en el marketing de productos tecnológicos en mercados B2B es un tema actualmente sujeto a debate.

Durante el anterior boom de Internet una empresa tecnológica necesitaba presentarse como un player, cuanto más avanzado e innovador, mejor. El éxito tenía que ver con una marca sofisticada y un marketing llamativo que captara la imaginación de mercado y la atención de los inversores. Después del estallido de aquella burbuja, la atención de las empresas tecnológicas se reorientó a la más prosaica realidad de generar demanda para alimentar el pipeline. El criterio clave para el éxito no estaba en vender una visión, sino en demostrar que podemos vender nuestros productos. Eso ha llevado a una situación en que con frecuencia se oye la queja “Necesitamos aumentar nuestro reconocimiento de marca para mejorar nuestros resultados de marketing” que suele encontrar una respuesta del tipo “Sal ahí fuera y vende. El reconocimiento de marca no importa”.

Entonces ¿cuánto de importante es la marca para una empresa tecnológica en un mercado B2B? ¿Vale la pena invertir nuestros (escasos) recursos en construir una marca fuerte?

Contrariamente a lo que algunos opinan, los estudios muestran que el reconocimiento de marca sigue siendo importante en estos mercados. Por ejemplo, el Business Technology Marketing Benchmark Guide 2006 de MarketingSherpa muestra que la marca afecta al proceso de compra: un alto reconocimiento de marca tiene un impacto positivo sobre aspectos como la asociación de mensajes y la intención de compra en una relación 2:1 frente a un bajo reconocimiento de marca. Otros estudios muestran que la marca también tiene un impacto positivo sobre la generación de demanda: si una empresa es conocida, sean cuales sean las técnicas de generación de leads que utilice, es más probable que éstas funcionen mejor (aunque esto se presta a interpretaciones sobre “cuál es el huevo y cuál la gallina”).

Además, una marca eficaz no sólo refuerza los programas de generación de demanda: es una de las pocas maneras en que una empresa tecnológica puede facilitar su tránsito por los procesos de decisión de sus potenciales clientes, aumentando su reconocimiento entre los directivos de primer nivel (CXO) que toman la decisión final. Algunos sostienen que en el caso de productos tecnológicos de gran complejidad, con ciclos de vida cada vez más rápidos y que se enfrentan a competidores sofisticados la marca es casi más importante que en mercados de consumo, ya que ante la dificultad de evaluar en detalle las alternativas los clientes pueden usar la reputación de una marca como medio de disminuir el riesgo. Finalmente, una marca fuerte permite cargar los productos con una prima de precio y disminuir los riesgos en el lanzamiento de productos innovadores.

Entonces, si la marca sigue siendo importante ¿debe ser una inversión prioritaria en nuestro mix de marketing? No olvidemos que construir una marca exige, entre otras cosas, una continuidad en la aplicación de unas herramientas (habitualmente, publicidad y relaciones públicas) de alto coste. Uno de los problemas más habituales es que si no se invierte lo suficiente como para alcanzar y mantener los objetivos perseguidos de notoriedad, preferencia, etc. esa inversión se pierde, con lo que al final paradójicamente se acaba gastando demasiado.

En los tempos actuales, de recorte en los presupuestos de marketing y de medida de esta actividad por criterios de ROI, es muy común en las empresas tecnológicas el error de desviar el presupuesto de branding a la generación directa de demanda. A primera vista parece una decisión fácil de tomar: se sacrifican campañas de creación de marca difíciles de cuantificar en aras de una generación de leads totalmente medible que aporta una contribución más obvia a los ingresos.

En este contexto el peor escenario es el de una empresa con recursos de marketing limitados que desea introducir una innovación discontinua (y desconocida) en el mercado ¿Cuándo y cómo construir su marca? La respuesta viene de la mano de los modelos de difusión de la innovación. Sin duda, para los clientes del Early Market (Entusiastas de la Tecnología y Visionarios, según la terminología de Geoffrey Moore), la marca no va a ser tan importante como lo novedoso de la tecnología y las ventajas competitivas que se pueden obtener de un uso pionero de ésta. Sin embargo, para los clientes del Mainstream Market (Pragmáticos, Conservadores y Escépticos), la garantía de una marca sí que puede ser un argumento de compra. Por lo tanto, en este escenario particular parece acertado no invertir en campañas específicas de construcción de marca durante las primeras fases de desarrollo del mercado y dedicar los limitados recursos de marketing a la generación de demanda.

¿Quiere eso decir que debemos abandonar la creación de una marca? No exactamente. Si conseguimos que esas campañas de lead generation sirvan además para ir construyendo marca (mediante un targeting, una consistencia en la identidad y el posicionamiento a través de todos los canales y una continuidad adecuados), cuando llegue el momento de atacar el Mainstream Market contaremos con un activo de un enorme valor.

7 comentarios

En estos tiempos de nuevas herramientas de marketing (algunas basadas en la Web 2.0: blogs, redes sociales…) la prospección telefónica «en frío» (o «a puerta fría»), sin contacto previo, ya no es suficientemente sexy como para llamar la atención de los especialistas si no es para denigrarla. En los últimos tiempos se ha argumentado que el cold-calling aplicado a la generación de leads (no a su cualificación o a otras actividades) en mercados B2B es caro y tiene un bajo índice de éxito. En definitiva, que no funciona.

Entonces, en un escenario de venta de productos tecnológicos en mercados B2B ¿está el cold-calling muerto (más que frío)? ¿Debería abandonarse en favor de otras técnicas más eficaces o más «modernas»?

Mi opinión es que, parafraseando a Mark Twain, «los rumores sobre su muerte son exagerados» y la prospección en frío tiene todavía mucho que decir. Es cierto que el cold-calling puede llegar a ser una alternativa cara y de resultados pobres, pero la razón está en que esta técnica (como todas) no funciona si se aplica mal. Y se ha venido aplicando rematadamente mal. Algunos de los peores «crímenes» cometidos en el uso de la prospección telefónica en frío (muchos de ellos, inspirados por una aplicación convencional de esta técnica en otros mercados) son:

  • Se utiliza para intentar vender, en lugar de cómo un primer paso para establecer una relación con el prospect. Cuando el cold-calling se usa para intentar vender productos complejos (y caros) a clientes empresariales se está optando a un fracaso seguro.
  • Se plantea como un juego de grandes números: «tengo una lista con 1.000 nombres, de los cuales voy a poder contactar con 100, de los cuales van a estar interesados 10, de los cuales a corto plazo voy a vender a 1». Con estos números no es de extrañar que al final acabe resultando una estrategia muy cara.
  • No se insiste lo suficiente. Por sistema, un nombre de la lista se abandona tras 2-3 intentos infructuosos de contactar con él (y, tal vez, después de haber dejado un mensaje anodino en su buzón de voz).
  • Se encomienda la labor de llamar a personal a quien no le gusta hacerlo, que no está motivado para ello (y que siempre encuentra otras cosas «más urgentes» que hacer) o que no ha sido suficientemente formado. En productos complejos esto es un error fatal.

La prospección telefónica en frío ha ganado muy mala fama porque se le acusa de no proporcionar resultados y de ser molesta para el llamado (aunque igualmente molesta y mucho más frustrante para el llamante). Pero la realidad es que el cold-calling funciona si se hace bien. Antes de ver cómo conseguirlo aportaremos algunos datos que justifican esta afirmación.

MarketingSherpa ha dedicado varios estudios a este tema:

  • En una encuesta a prospects en mercados B2B que habían recibido llamadas de prospección, el 53% declaró haber incorporado al proveedor a su base de datos de suministradores para considerarlo en el futuro y el 40% lo invitó a suministrar más información por otros medios (email, entrevista…).
  • Según el Business Technology Marketing Benchmark Guide, lo que más valoran los prospects que han recibido cold-calling es el respeto con su tiempo, seguido de una actitud de escucha en el llamante, y de un follow-up en el que se aporte información relevante. En cuanto a la receptividad de los llamados, el 92% de los decisores (y el 83% de los otros participantes en el proceso de decisión) consideran aceptable o útil recibir llamadas de prospección telefónica, siempre que sean respetuosos con su tiempo y aporten información relevante.
  • En una revisión de campañas de cold-calling ya ejecutadas se encontró que el número medio de intentos para completar una conversación es de casi 4; sin embargo cuando el destinatario es un miembro de la alta dirección (CXO) ese número es de aproximadamente 7 intentos. En promedio el 75% de todas las llamadas acaban en un buzón de voz.
  • En cuanto a los resultados, en media el 12% de los nombres de una lista acaban siendo conectados; de ellos, el 59% son fallidos (sin interés) y el resto son leads más o menos cualificados (entre ellos, el 25% son «tibios» y el 16% «calientes»). El coste por contacto en campañas realizadas en USA es de 17,9 $ de media, dentro de unos límites habituales de 9-50 $ y con la mayoría entre 15 y 20 $.

Por otra parte, en una encuesta a proveedores B2B sobre las vías utilizadas para generar leads de calidad, RainToday encontró que el cold-calling es casi la más valorada, sólo superada por las referencias (especialmente, las aportadas por clientes y partners).

Así pues, en marcados B2B el cold-calling es una herramienta valorada por los profesionales del marketing y aceptada (si se hace adecuadamente) por los destinatarios de las llamadas. En un próximo post nos ocuparemos de qué podemos hacer para mejorar sus resultados.

5 comentarios

¿Alguna vez os habéis preguntado cuáles son las diferencias entre intentar vender un mismo producto innovador en España y en USA? Lo que sigue son mis opiniones sobre el tema, basadas en algunas experiencias propias y otras que me son muy cercanas trabajando en multinacionales tanto españolas como americanas que venden en ambos países. Hay que hacer la salvedad de que hablamos de  tecnologías de la información (TI) en mercados empresariales (B2B) y únicamente desde una perspectiva de marketing y ventas (y no de desarrollo de tecnología, producción, etc.). Los principales factores de diferencia son los siguientes:

Tamaño del mercado potencial. Cuando se trata de productos realmente innovadores, el tamaño del mercado es difícil de prever. Como primeros elementos de comparación, tanto el tamaño de la economía como el volumen de inversión en TI (como porcentaje de la inversión total) son muy superiores en USA, frente al tradicional déficit de inversión en tecnologías de nuestro país. Obviamente, para un producto particular lo importante es el tamaño en cada país del target que se vaya a atacar y que éste tenga una necesidad real e inmediata de nuestro producto. Si no existe un segmento con una razón para comprar no hay mercado. A este respecto, algunos factores del entorno local (p.ej., la legislación) pueden hacer que productos que en un país son imprescindibles en otro resulten innecesarios, convirtiendo en irrelevante cualquier otra consideración sobre el tamaño del mercado.

Grado de receptividad ante la innovación. Toda innovación produce discontinuidad y cambios y no todos los potenciales clientes reaccionan igual ante ellos. El modo en que los compradores responden ante ese cambio y su disposición a adoptar la innovación condicionan la receptividad del mercado ante el nuevo producto. A este respecto, es evidente que el mercado USA es mucho menos averso al riesgo que el español. Es muy habitual que las nuevas tecnologías empiecen a adoptarse primero en ese mercado, probablemente no tanto por una razón de cercanía a la oferta como porque es más habitual la figura del usuario visionario que está dispuesto a asumir los riesgos de utilizar una nueva tecnología si con ello obtiene beneficios diferenciales. En España hay una menor cultura de explorar nuevas tecnologías (se podría decir que pervive el «que inventen ellos») algunos de cuyos indicios son en el bajo consumo de información de analistas tecnológicos (p.ej., Gartner, Forrester) y la escasa presencia de visitantes españoles en las ferias tecnológicas de ámbito global y que se plasma en pocas empresas españolas que son reconocidas internacionalmente por usos innovadores de la tecnología. Por estas (y por otras razones también ligadas al lado de la oferta) la adopción de las innovaciones en España suele llevar unos años de retraso respecto de USA y otros países.

Existencia de productos competidores y sustitutivos. A la hora de resolver una necesidad de los clientes, la rivalidad puede provenir tanto de competidores dentro de la misma categoría de productos como de productos sustitutivos. En el caso de un producto realmente innovador, sobre todo si está intentando una estrategia de first-mover, es probable que la rivalidad provenga más de productos sustititivos que de unos competidores que todavía no se han desarrollado. En USA (cuna de la mayoría de las innovaciones en TI) es raro que un producto innovador esté solo en el mercado durante mucho tiempo. Si se vislumbra un mercado atractivo -y a menos que las barreras de entrada sean muy altas- la cultura emprendedora y la existencia de inversores que caracterizan ese país harán brotar competidores rápidamente. Por el contrario, si en España se lanza un producto innovador hay menos riesgo de que aparezcan competidores locales o entren extranjeros (que prefieren centrarse antes en mercados más prometedores) debido a un cierto déficit tanto de espíritu emprendedor como de fuentes de inversión. Sin embargo, no menospreciemos a los productos sustitutivos atrincherados en los clientes objetivo. Cuando éste es el caso, a menos que el nuevo producto aporte unos beneficios sustanciales frente al statu quo, los costes de cambio frenarán la adopción de la innovación. En España, con unas empresas poco propensas a acometer cambios, este factor puede ser muy relevante.

Presencia de partners, distribuidores y productos complementarios. Cuando se trata de vender un producto innovador -sobre todo por parte de una empresa con recursos limitados- el disponer de aliados, partners, distribuidores, VARs e incluso productos complementarios con presencia local en el país es imprescindible para conseguir credibilidad, experiencia sectorial o vertical, cobertura de mercado y capacidad de proporcionar una solución completa para las necesidades de los clientes. Este último punto (la construcción del whole product) puede ser imprescindible cuando el producto innovador trata de alcanzar el mainstream market, y especialmente si se trata de un producto plataforma. En este apartado el mercado USA está mucho más desarrollado en cuanto a la presencia de partners, canales de distribución y productos complementarios de toda índole para apoyar la comercialización de cualquier innovación, tanto en cantidad y variedad como en especialización y profesionalidad.

Facilidad de financiación. La introducción de un nuevo producto en un mercado es un proceso difícil y caro, que puede consumir incluso más recursos que el propio desarrollo. Si, como ocurre habituamente, la empresa innovadora no es una gran compañía asentada y «con los bolsillos llenos» sino una startup no sobrada de recursos, es imprescindible que en el país exista un sector de inversores (p.ej., capital riesgo) capaces de entender lo que significa innovar y con una cultura de aceptación del riesgo. En este punto las diferencias entre USA y España son abismales: en el primer caso los venture capitalists son figuras tradicionales y con una relación simbiótica con el sector tecnológico (basta con que empieces a aparecer en los informes de los analistas para que los VCs hagan cola ante tu puerta); por el contrario, en nuestro país las alternativas de financiación para la innovación son escasas e ineficaces.

Disponibilidad de recursos de marketing/ventas. En este epígrafe se incluyen tanto (a) la existencia en el mercado laboral de los perfiles profesionales necesarios (ej: personal directivo, product managers, product marketers, account executives, sales engineers…) competentes en un escenario high-tech, como (b) la disponibilidad de una serie de recursos externos de apoyo a la ejecución de estrategias comerciales en mercados tecnológicos: agencias de estudios de mercado, empresas de marketing directo especializadas, proveedores de listas con los contactos objetivo, agencias de comunicación y relaciones públicas, medios de comunicación (tanto tradicionales como offline) de calidad que sean consultados por nuestros potenciales clientes, analistas tecnológicos, eventos y ferias específicos, comunidades y redes de usuarios de tecnología que puedan servir para dar a conocer nuestra innovación, etc. Nuevamente en este punto la diferencia es enorme: las peculiaridades del high-tech marketing son una materia obligada de los programas de cualquier escuela de negocios de USA y un punto generalmente relegado en España. En cuanto a empresas de servicios especializadas en marketing de la innovación, en USA existen muchas y muy profesionales, generalmente lideradas por ex-directivos de empresas tecnológicas. Lo mismo pasa con medios de comunicación de calidad, comunidades, etc. Al final, los clientes potenciales en España son más difíciles de alcanzar, pero no sólo porque los vehículos locales sean deficientes, sino porque los compradores españoles de TI no suelen buscan activamente información en medios externos. Nuestra experiencia es que si una innovación se comunica globalmente a través de un medio de alcance mundial, se van a recibir consultas y expresiones de interés empezando por USA y pasando por casi cualquier país industrializado… pero probablemente ninguna desde España.

En conclusión, comparando las dificultades de vender TIs innovadoras en España y USA, mi experiencia es que el mercado americano es más favorable en cuanto a potencial, receptividad y recursos de apoyo, pero más difícil en lo que respecta a la competencia. ¿Cuál es vuestra opinión?

2 comentarios

Sin duda ésta es una idea muy extendida entre muchas empresas bien gestionadas del sector tecnológico, empresas que escuchan lo que sus clientes necesitan y que desarrollan productos avanzados para responder a esas necesidades cada vez más sofisticadas (obteniendo una buena rentabilidad en el proceso). Sin embargo, tal como vamos a ver en ocasiones puede revelarse como errónea y ser la razón última del fracaso de empresas líderes.

La idea está fundamentada en el concepto convencional de evolución de las tecnologías en un mercado y de sustitución de unas tecnologías por otras y formalizado en el clásico modelo de Ciclo de Vida de las Tecnologías o curva en S. En esencia, esta curva representa la variación de la funcionalidad o las prestaciones de los productos basados en una tecnología dada (según los criterios imperantes en el mercado de que se trate) en función del tiempo o, más precisamente, del esfuerzo invertido en dicha tecnología. Esta evolución de las prestaciones tiene forma de S, con un tramo inicial de crecimiento lento seguido de un tramo intermedio de crecimiento acelerado de las prestaciones (originado por la mayor experiencia y desarrollo de la tecnología) y terminado en un tramo de rendimiento lento (cuando se empiezan a alcanzar los límites de la tecnología para esa aplicación). Si en un cierto instante una tecnología A se encuentra en ese tramo final de estancamiento y otra nueva tecnología B está en su período de crecimiento y sus prestaciones empiezan a superar a las de la tecnología A, el terreno está abonado para la sustitución de la primera por la segunda.

Sucesión Tecnologías

Aunque esto no quiere decir que la nueva tecnología llegue finalmente a adoptarse, el modelo lleva a pensar que lo que nunca va a ocurrir es que el mercado acabe adoptando una tecnología inferior. Sin embargo de vez en cuando aparecen tecnologías que partiendo de un nivel de prestaciones inaceptable para los usuarios acaban desplazando a las tecnologías dominantes. El análisis más aceptado de este fenómeno es el que hace Clayton Christensen en su libro «The Innovator’s Dilemma», cuando habla de innovaciones disruptivas.

Según él, estas innovaciones vienen de la mano de tecnologías que aunque proporcionan un nivel de prestaciones inferiores a las vigentes (medidas según los criterios imperantes) aportan beneficios en cuanto a sencillez, fiabilidad, facilidad de uso, etc. y nuevas propuestas de valor que las abren a su utilización en aplicaciones alternativas. Sin embargo, estos nuevos mercados no son atractivos para las empresas líderes de los mercados tradicionales, que los consideran alejados de las necesidades de sus clientes, de pequeño tamaño y porvenir incierto y de escasa rentabilidad.

De modo que estas tecnologías disruptivas (que en muchas ocasiones han nacido en los laboratorios de las empresas líderes), tienen que ser desarrolladas en mercados de nicho o marginales por empresas innovadoras que se encuentran libres de las servidumbres a los clientes, mercados y mecanismos de asignación de recursos tradicionales.

Sin embargo, con el tiempo y el esfuerzo de desarrollo invertido para servir a esos mercados alternativos la tecnología disruptiva mejora hasta el punto de que su funcionalidad y prestaciones resultan aceptables para los clientes de los mercados tradicionales (aún cuando sigan siendo inferiores a los de las tecnologías hasta entonces dominantes). Esto, unido a sus ventajas en facilidad de uso, fiabilidad, etc. le permite invadir los mercados establecidos y desplazar a las tecnologías (y a las empresas) dominantes hasta entonces.

Christensen analiza en su libro varios ejemplos de este tipo de disrupción, incluyendo los microprocesadores, las minimills para la fabricación de acero o la tecnología hidráulica en las excavadoras. Algunos procesos de disrupción actualmente en curso están siendo protagonizados por las cámaras digitales o la telefonía IP.

Una de las conclusiones más contraintuitivas (y desasosegantes) del libro de Christensen es que todas esas compañías líderes desplazadas por las innovaciones disruptivas lo han sido precisamente por estar bien gestionadas: han sido las mismas buenas prácticas de gestión que las llevaron al éxito inicial (escuchar a sus clientes, invertir en mercados grandes, buscar la máxima rentabilidad) las que propiciaron que no prestaran atención a la aparición de innovaciones con potencial disruptivo, despreciaran su aplicabilidad y dejaran ese flanco al descubierto, error que en ocasiones llegó a ser definitivo.

¿Cómo deben responder las empresas líderes ante el dilema que plantean las innovaciones disruptivas y aprovechar en su favor esa dinámica de la disrupción? Christensen da algunas ideas:

  • Asignar la responsabilidad de desarrollar y comercializar tecnologías disruptivas a organizaciones cuyos clientes las necesiten. De este modo la demanda de los clientes conseguirá que a esta innovación se le asignen los recursos que necesita.
  • Hacer que estas organizaciones sean independientes de la empresa matriz y de un tamaño suficientemente reducido como para que les resulten estimulantes un mercado pequeño y unos resultados modestos.
  • A la hora de buscar un mercado para una innovación disruptiva asumir la posibilidad de fallos iniciales y en caso de que ocurran conseguir que lo hagan lo antes y del modo más barato posible. No apostar todos los recursos en el primer intento. Considerar los intentos de comercialización como oportunidades de aprendizaje.
  • Utilizar recursos de la empresa matriz, pero no aplicar ni sus procesos ni sus valores. Crear nuevas formas de trabajar en una organización cuyos valores y estructura de costes están adaptados a la tarea disruptiva.
  • Buscar lo antes posible un mercado que valore los atributos actuales del producto disruptivo (con sus ventajas y sus limitaciones) en lugar de forzar un avance tecnológico que le permita competir en el mercado tradicional. El principal reto en la comercialización de una innovación disruptiva es de marketing, más que tecnológico.

Ignorar el potencial de las innovaciones disruptivas es un acto de miopía estratégica, pero estas innovaciones plantean a las empresas establecidas un difícil dilema, ya que requieren un distanciamiento de las prácticas de gestión que han sido fuente del éxito hasta ahora. Entender los principios de la disrupción y orientarlos en nuestro favor nos permitirá aprovechar todo ese potencial de creación de nuevos mercados y de cambio de las reglas en los existentes.

8 comentarios

En mercados conocidos y donde se entienden bien las necesidades de los clientes, el enfoque predictivo convencional para el desarrollo y marketing de productos innovadores -basado en una precisa investigación del mercado, una planificación cuidadosa y una ejecución sin fallos- es crítico para el éxito.

Por el contrario, aplicar dicho enfoque a productos radicalmente nuevos (en el que se trata de descubrir o crear mercados que no existen) puede tener un efecto paralizante al requerir estimaciones, planes y presupuestos detallados que es imposible conocer. En este caso el enfoque convencional basado en recoger toda la información posible para aumentar la probabilidad de éxito no sólo consume mucho tiempo y esfuerzo, sino que debido al particular escenario de volatilidad e incertidumbre de estos proyectos esa información nunca va a ser válida o suficiente.

Por ello no es de extrañar que, para el caso de productos nuevos, en los últimos años hayan tenido aceptación planteamientos que optan por un lanzamiento rápido, que permita capturar las ventajas de una entrada temprana e ir ganado rápidamente experiencia real en el mercado. Algunos de estos enfoques se describen a continuación:

  • G. Hamel y C.K.Prahalad, en su artículo “Corporate Imagination and Expeditionary Marketing”, proponen un marketing expedicionario, basado en realizar incursiones en el mercado (“mini-lanzamientos”) rápidas y aprender de ellas, de modo que con cada una la empresa vaya acumulando conocimiento, clientes y cuota. La estrategia está basada en el aprendizaje: cada una de estas incursiones rápidas y de bajo coste permite a la empresa recalibrar su oferta en cada ocasión, de modo que la combinación de velocidad y aprendizaje aumente las probabilidades de éxito final.
  • Clayton Christensen, en su libro “The Innovator’s Dilemma”, diferencia entre innovaciones de sostenimiento y disruptivas y opta por un planteamiento novedoso para este segundo tipo. Según él, en el caso de innovaciones disruptivas lo único que con certeza se sabe sobre estos mercados es que las previsiones de los expertos van a ser erróneas y, como consecuencia, las estrategias iniciales de entrada van a estar equivocadas. Por lo tanto, en el caso de creación de nuevos mercados, los planes tienen que servir no tanto para ejecutar como para aprender e ir recopilando la información sobre el mercado necesaria para tomar las decisiones adecuadas en cada momento. Christensen llama marketing agnóstico a este proceso para ir descubriendo mercados emergentes que se basa en asumir que ni nosotros ni los clientes sabemos cómo, cuánto o si efectivamente un producto disruptivo va a ser utilizado antes de tener experiencia real usándolo.
  • En el artículo “Marketing and Discontinuous Innovation: The Probe and Learn Process” G. Lynn, J. Morone y A. Paulson analizan innovaciones discontinuas en varios sectores y descubren que el éxito suele estar asociado a un proceso que los autores denominan “Sondear y Aprender” que consiste en introducir versiones iniciales del producto en una variedad de segmentos potenciales, aprender de estos experimentos e ir realizando aproximaciones sucesivas al mercado basadas en la experiencia real. Aquí la pregunta clave no es cómo acertar con el producto a la primera, sino qué pasos hay que dar para generar la máxima información y maximizar el aprendizaje. En otro post hablamos con más detalle del proceso Probe and Learn.
  • En «The Four Steps to the Epiphany» Steve Blank postula que las startups tecnológicas no deben caer en la trampa de centrarse en el proceso tradicional de desarrollo de producto y de escalar prematuramente unos procesos de marketing inestables, sino que deben invertir el tiempo necesario en un proceso iterativo de descubrimiento de sus clientes y de validación de su modelo de negocio que él denomina Customer Development y que describimos en este post. Este método es el precursor del movimiento Lean Startup.
  • Con un alcance menos orientado a lograr el conocimiento de un mercado y más a la panificación de negocio en entornos de alta incertidumbre, R. Gunther McGrath e I. MacMillan proponen en «Discovery-Driven Planning» un enfoque en el que los planes están sujetos a cambios y sus parámetros se van modificando a medida que aparece nueva información.

Bajo estos enfoques, lo que de verdad cuenta no es acertar la primera vez, sino la rapidez con la que una compañía puede aprender y modificar su estrategia y su oferta basándose en su experiencia acumulada en el mercado, y la capacidad para conservar los recursos y la credibilidad suficiente que le permitan realizar este replanteamiento.

Un ejemplo palpable de aplicación de estos principios lo tenemos en la nueva Web 2.0, donde muchos productos se proporcionan como servicios en “beta perpetua” cuya funcionalidad va evolucionando continuamente en función de la utilización que los usuarios (que son tratados como co-desarrolladores) hacen de ellos.

Lamentablemente muchos ejecutivos, cuando afrontan esta forma de dirección bajo incertidumbre, prefieren esperar a que otros hayan definido el mercado. Sin embargo, dadas las poderosas ventajas de entrar en primer lugar cuando se trata de crear nuevos mercados, no queda más remedio que salir de los laboratorios e ir construyendo directamente conocimiento sobre los nuevos clientes y aplicaciones mediante expediciones de descubrimiento en el mercado.

24 comentarios

En estos tiempos de sobreabundancia informativa -y propagandística- la percepción que los posibles usuarios tienen de una nueva tecnología está condicionada por muchas influencias que nada tienen que ver con sus méritos objetivos. Durante los años previos al estallido de la anterior burbuja tecnológica muchas decisiones de inversión en tecnologías de la información se tomaron por criterios de «moda» y no de valor para el negocio. ¿A alguien le vienen a la cabeza siglas como SCM, CRM o E-business?

Por el contrario, en un momento actual caracterizado por presupuestos más restrictivos, las empresas buscan criterios que les ayuden a identificar las situaciones de «exuberancia irracional» que se crean alrededor de ciertas tecnologías y que podrían llevarles a decisiones de inversión de las que más tarde tendrían que arrepentirse. Una herramienta muy utilizada es el modelo de Hype Cycle de la conocida firma de análisis Gartner Group.

El modelo representa la evolución de lo que denomina visibilidad de una tecnología emergente (aunque sería más correcto llamarlo expectativas despertadas por esa tecnología) en función del tiempo. Una evolución que progresa desde un entusiasmo exagerado, pasando por un período de desilusión hasta una eventual comprensión de la relevancia de la tecnologia y de su papel en un mercado o dominio. En «Understanding Hype Cycles» Gartner describe el modelo y las etapas típicas en las que se divide, que reciben los alegóricos nombres de Technology Trigger, Peak of Inflated Expectations, Trough of Disillusionment, Slope of Enlightenment y Plateau of Productivity (ver figura).

Gartner Hype Cycle

El Hype Cycle describe no tanto una tecnología como las percepciones y la actitud de las personas ante la innovación. El modelo se justifica por la influencia de dos fuerzas principales que conforman las expectativas que se crean alrededor de una nueva tecnología:

  • En primer lugar, el ruido de comunicación (noticias, publicidad…) sobre dicha tecnología, que es el factor predominante durante las primeras fases de su vida, y que fomenta inicialmente la creación de expectativas especulativas y en muchos casos infundadas y posteriormente (si la tecnología no cumple sus promesas) la caída en la percepción pública hasta niveles incluso inferiores a los que le corresponderían aplicando criterios realistas.
  • Posteriormente, la madurez de la tecnología (desde un punto de vista técnico y de negocio) que conlleva una mejora en las prestaciones, su adopción por parte de los clientes, etc. y que va regenerando las expectativas hasta un nivel acorde con los méritos de la tecnología y los beneficios que aporta. Esta regeneración no está ya basada en la especulación sino en experiencias reales.

Por supuesto, no quiere decirse que todas las tecnologías sigan exactamente este patrón: las hay que evolucionan sin experimentar un pico de expectativas claro, protagonizando varios picos y valles, etc.

El Hype Cycle se une así a otros modelos de ciclo de vida que se aplican a las tecnologías (el clásico ciclo de vida de un producto o tecnología, la curva en S, el TALC…), aunque con algunas diferencias: el Hype Cycle es más útil desde la perspectiva del comprador de tecnología (no del proveedor), tiene un carácter eminentemente descriptivo y su utilidad predictiva y de definición de planes de acción es menor.

Hay que mencionar que Gartner publica periódicamente informes donde se analiza la posición en cada momento de diversas tecnologías (p.ej., Linux, gestión de datos, tecnologías emergentes) en el Hype Cycle. Por eso, aunque en la descripción del Peak of Inflated Expectations esta empresa menciona que durante esta fase “las únicas empresas que ganan dinero son los organizadores de conferencias y los editores de revistas” no sería injusto incluir a los analistas en ese privilegiado grupo.

La principal enseñanza del Hype Cycle es que las empresas no deberían invertir en una tecnología únicamente porque está generando mucho ruido ni deberían desdeñarla sólo porque no está cumpliendo unas expectativas iniciales exageradas. Por el contrario, los usuarios deberían identificar qué tecnologías son potencialmente beneficiosas para su negocio (y cuánto) e invertir teniendo en cuenta los riesgos asociados a su grado de madurez.

Como curiosidad, Gartner cita como ejemplo de informe de Hype Cycle singularmente influyente el que publicó en noviembre de 1999 sobre las tecnologías de E-Business y en el que se anticipaba el estallido de la burbuja puntocom que se produjo en la primavera del 2000.

4 comentarios

El primer requisito para innovar con éxito es entender lo que necesitan los clientes pero a veces para averiguarlo es mejor no escucharlos… sino irse a vivir con ellos.

Las técnicas tradicionales de investigación de mercados (entrevistas, focus groups, encuestas, análisis conjunto…) han demostrado su utilidad en escenarios de relativamente baja innovación, con mercados y categorías de producto establecidas. Por su parte, muchos estudios demuestran que el éxito en el desarrollo de nuevos productos está relacionado con la comprensión de las necesidades de los clientes potenciales. Y es en escenarios con necesidades desconocidas o soluciones nuevas cuando los métodos tradicionales tienden a fracasar.

De hecho, en el caso de muchos productos radicalmente innovadores que han alcanzado el éxito se comprobó a posteriori que- si bien se había realizado una investigación de mercado convencional- sus resultados fueron imprecisos o erróneos y posteriormente dejados de lado en el proceso de desarrollo de la innovación. Y es que resulta difícil identificar necesidades que los usuarios no expresan, encontrar aplicación a tecnologías que sólo conocen sus descubridores o validar productos que no existen.

Entonces ¿qué técnicas de investigación de mercado deberíamos emplear a la hora de innovar? La clave -como es habitual- está en el grado de innovación de cada caso. D. Leonard-Barton, E. Wilson y J. Doyle, en su artículo “Commercializing Technology: Imaginative Understanding of User Needs” analizan las técnicas de investigación en un contexto de innovación en función de dos variables: el nivel de conocimiento de la necesidad (conocida, anticipada, incierta) y el grado de novedad de la solución (mejorada, nueva, en evolución). El marco del análisis se representa en la siguiente figura:

En este continuo de innovación, la zona más próxima al lado izquierdo representa los casos en que un producto mejorado (no radicalmente nuevo) trata de alinearse con un mercado actualmente existente; por el contrario, la zona cercana al lado derecho significa la creación de nuevos mercados (a veces, aplicando nuevas tecnologías y modelos de negocio).

Desde el punto de vista de las técnicas de investigación, los autores distinguen tres zonas (ver figura):

  • En la zona izquierda (producto alineado con mercados existentes) las técnicas tradicionales (p. ej., entrevistas) de investigación son válidas porque los clientes y productos son conocidos y las necesidades son actuales y comunicables.
  • En la zona derecha (creación de mercado) y debido a su elevada incertidumbre, lo mejor es aplicar la intuición guiada, la generación de escenarios y la experimentación en el mercado. En este caso el proceso generalmente es más difícil de sistematizar y estructurar.
  • La zona central está ocupada por una serie de técnicas que se aplican en casos de incertidumbre y riesgo intermedios (pero que también son aplicables ante determinadas situaciones en los escenarios extremos de alineación de producto y creación de mercados) y que los autores denominan diseño empático. Estas técnicas se basan en alcanzar un profundo conocimiento del entorno actual del usuario no mediante la consulta, sino mediante la observación, la participación y la inmersión en su propio ambiente para entender sus objetivos, problemas, frustraciones, uso de productos y actitudes ante estos, limitaciones que detectan en ellos, etc. Algunas de estas técnicas son el análisis de lead users, la etnografía, incorporar a usuarios como diseñadores, etc. Las posibilidades de estas técnicas se desarrollan al máximo cuando se trata de proponer soluciones nuevas para todo tipo de necesidades del usuario, tanto conocidas como anticipadas.

Sin embargo, y a pesar de estos enfoques, cuando se trata de desarrollar innovaciones realmente radicales la única manera de conocer el mercado es explorándolo mediante la experimentación real.

Probablemente una de las mayores dificultades a la hora de descubrir necesidades es llegar a un acuerdo sobre qué se entiende por ese término. Aunque todos tenemos una noción intuitiva de qué constituye una necesidad, los diversos significados que se suelen atribuir a esta palabra (requisitos, atributos, especificaciones, beneficios…) pueden introducir ambigüedad y contradicciones en los intentos reales de estudiarlas. En otras entradas hablamos de cómo definir las necesidades del cliente y de algunos medios para identificarlas.

Una solución es la que propone Clayton Christensen, quien asimila necesidad al “trabajo” que un producto debe realizar para su usuario (job-to-be-done). En “Finding the Right Job For Your Product” Christensen clasifica las técnicas más adecuada para analizar los mercados desde una óptica del “trabajo a realizar”, alineándose totalmente con las propuestas de Leonard-Barton, Wilson y Doyle. Nuevamente, la clave está en el grado de innovación:

  • Cuando el trabajo es conocido y existen productos para realizarlo, se pueden utilizar herramientas de investigación convencionales.
  • Cuando los clientes saben qué trabajo necesitan (o, aunque no puedan expresarlo, son capaces de construir “atajos” para resolverlo) pero no existen productos, lo mejor es la observación de los clientes en su contexto, el descubrimiento empático y el análisis de lead users.
  • Cuando una tecnología tiene potencial para liberar nuevas aplicaciones pero los clientes no pueden articular qué trabajos querrían resolver, la empresa y los clientes deben descubrir juntos esos nuevos trabajos y productos, saliendo al mercado rápidamente con un producto flexible que permita experimentar nuevas maneras de aportar más valor al cliente. Este enfoque, que Christensen llama “coevolución”, es más un proceso de innovación que un método de investigación.

Con todo, no pretendemos convertir las recomendaciones  anteriores en un recetario de cumplimiento obligatorio. No olvidemos que la investigación no es un fin en sí mismo, sino un medio y lo más importante de todo es qué queremos conseguir con ella, cuál es el objetivo en cada caso. Sólo teniendo claro qué información deseamos conseguir podremos elegir el método más adecuado para lograrlo.

21 comentarios

Todo blog centrado en el marketing de productos tecnológicos debe dedicar al menos un post a las ideas de Geoffrey Moore. Durante los años 1980 Moore estuvo trabajando en la empresa de consultoría de Regis McKenna en el Silicon Valley y como resultado de esa actividad en 1991 publicó su principal obra “Crossing the Chasm”, a la que posteriormente se le unieron “Inside the Tornado” y otras secuelas. Posteriormente fundó sus propias empresas de consultoría y formación: Chasm Group, Chasm Institute, TCG Advisors. A pesar del tiempo transcurrido, Moore sigue siendo uno de los expertos más influyentes del high-tech marketing y sus obras continúan utilizándose como libros de texto para esta materia en las principales escuelas de negocios.

Las teorías de Geoffrey Moore se basan en el modelo de difusión de la innovación de Everett Rogers, que él adapta para el caso de innovaciones discontinuas y cuyas categorías de potenciales clientes renombra como Technology Enthusiasts, Visionaries, Pragmatists, Conservatives y Skeptics. La principal  aportación de Moore es que los clientes pertenecientes a cada una de estas categorías adoptan la innovación por motivos fundamentalmente diferentes y eso impide que un grupo acepte un nuevo producto del mismo modo que el grupo inmediatamente anterior. Se crean así discontinuidades, brechas de credibilidad que hacen que la comunicación se interrumpa y el marketing pierda impulso y que dificultan el ir progresando de un grupo a otro.

Y la más importante de todas estas discontinuidades es la que existe entre lo que Moore llama el Early Market y el Mainstream Market -en la frontera entre los Visionarios y los Pragmáticos- y que él denominó The Chasm (el Abismo), porque puede pasar desapercibido y llegar a estrangular el desarrollo de la empresa en su inicio. Para salir de este bloqueo Moore propone una estrategia basada en seleccionar un -y sólo uno- segmento objetivo (que él llama «Cabeza de Playa») y construir una solución completa (whole product) para dicho segmento que nos asegure su dominio.

Los criterios que Moore propone para elegir la cabeza de playa (un ejercicio de segmentación y targeting) son:

  • ¿Hay un comprador identificable, accesible y con presupuesto?
  • ¿Su problema/necesidad es suficientemente importante y urgente como para comprar?
  • ¿Podemos (con ayuda de partners) ofrecer una solución completa?
  • ¿Hay ya competidores atrincherados en ese segmento?
  • ¿Tenemos ya relaciones con los partners que necesitamos para servir al segmento?
  • ¿Tenemos canal de venta y distribución para llegar al segmento?
  • ¿Es el precio de la solución completa adecuado al valor que aporta y permite que todos ganen?
  • ¿Es nuestra empresa creíble como suministrador?
  • ¿Podemos aprovechar lo desarrollado en ese segmento para entrar en otros?

El whole product, concepto popularizado inicialmente por Theodore Levitt en “The Marketing Imagination”, está constituido por los productos y servicios necesarios para que los clientes del segmento objetivo satisfagan su razón para comprar. Una vez conquistada esa cabeza de playa se debe ir saltando a otros segmentos contiguos, desarrollando soluciones completas adaptadas a ellos, en un escenario que Moore gráficamente denomina «Pista de Bolos».

La estrategia de Moore causa cierto rechazo inicial, ya que básicamente se resume en que para cruzar el abismo hay que apostar por “poner todos los huevos en la misma cesta”. Sin embargo, insiste él, no perseguir una cabeza de playa inicial e intentar ofrecer un producto bueno para todos los usuarios lleva a dispersar los esfuerzos para al final no conseguir un producto excelente para nadie.

Moore llegó a redefinir el Ciclo de Vida de Adopción de la Tecnología para el caso de innovaciones discontinuas, dividiéndolo en varias fases, en cada una de las cuales se deben aplicar estrategias diferentes (ver figura):

  1. El Mercado Inicial, donde se trata de que el nuevo producto sea adoptado por entusiastas de la tecnología y usuarios visionarios.
  2. El Abismo, donde la brecha de credibilidad entre usuarios visionarios y pragmáticos produce el estancamiento de la empresa. Para salir del Abismo es imprescindible seleccionar un único segmento objetivo y construir una solución completa para dicho segmento.
  3. La Pista de Bolos, donde el dominio sobre la cabeza de plaza permite ir abordando segmentos contiguos, que comparten clientes o aplicación con los ya abordados, usando soluciones completas específicas para cada uno (como unos bolos que hacen caer a otros).
  4. El Tornado, fase de demanda acelerada donde el mercado general cambia al nuevo paradigma y se produce su aceptación en masa y se trata ofrecer una solución estandarizada.
  5. La Calle Principal, donde el nuevo producto ha sido adoptado por el gran mercado.
  6. El Final de Ciclo, donde el producto empieza a ser reemplazado por un nuevo paradigma.

Un aspecto muy llamativo de estas estrategias es que en muchos aspectos son opuestas de una fase a otra. Por ejemplo, en el early market no hay que enfocarse en ningún segmento; sin embargo para cruzar el Abismo (y para avanzar por la Pista de Bolos) es imprescindible enfocarse en un segmento que sirva de cabeza de playa (para ir posteriormente expandiéndose hacia segmentos contiguos); finalmente, durante el Tornado (y una vez que el producto se ha estandarizado) hay que renunciar al enfoque para llegar a todo el mercado.

Las teorías de Geoffrey Moore han sido muy criticadas durante los últimos años por motivos que van desde la falta de rigor científico hasta el carácter de prescripción estratégica de sus recomendaciones y a su escasa aplicabilidad en algunos escenarios. En particular su énfasis en aplicar un foco extremo para saltar del early market al mainstream market puede ser contraproducente en el caso de productos con externalidades de red.

Sin embargo, estudios recientes sobre difusión de la innovación han validado algunos de sus descubrimientos. En concreto, se ha comprobado que en muchos mercados el incremento de ventas no es monótono sino que experimenta un súbito descenso después del crecimiento inicial (en la línea del Abismo). Este efecto se conoce como curva en “silla de montar” por su forma con pico inicial, descenso y nuevo pico de ventas que supera al inicial y se ha explicado tanto por interacciones entre consumidores como por heterogeneidades en la población: dos grupos distintos que adoptan la innovación con tasas muy diferentes (por ejemplo, debido a una débil comunicación entre ellos), lo que ratificaría algunas de las conclusiones a las que a principios de los 1990 llegó Geoffrey Moore.

17 comentarios