Conversis Consulting – Marketing orientado a resultados para mercados tecnológicos

Posts from the ‘adopción de la innovación’ category

Siempre ha sido difícil que los clientes adopten las innovaciones, pero esto está poniéndose cada vez peor… En un mundo tan interconectado como el actual, los mercados se comportan cada vez más como redes donde la gran interdependencia entre agentes (proveedores, clientes, competidores, partners, productos complementarios, etc.) está introduciendo barreras a la difusión de las innovaciones. En esencia, los mercados tienden por su propia naturaleza a alcanzar un statu quo caracterizado por un cierto equilibrio en las expectativas y los comportamientos y si algo caracteriza a las innovaciones (debido a la discontinuidad que introducen) es que socavan ese equilibrio.

Cuando la adopción de un nuevo producto por un agente depende de su adopción por otros participantes, debe producirse una modificación de comportamientos en todo el sistema antes de que el cambio pueda tener lugar. Las palancas tradicionales que se utilizan para lanzar productos (enfoque en segmentos con potencial, propuestas de valor atractivas) no pueden asegurar que dicho cambio suceda. Si el marketing se concentra únicamente en cambiar el comportamiento de los early adopters pero no induce cambios de comportamiento entre los diferentes intervinientes, el mercado volverá a un status quo que se autorefuerza.

Para asegurar la adopción de un nuevo producto, el innovador debe analizar las causas del equilibrio actual y deconstruirlo cuidadosamente. A continuación, debe crear un nuevo statu quo consiguiendo que una gran parte de los participantes en la red elijan su producto como su nueva mejor opción. Para ello, el innovador debe orquestar un cambio de comportamiento a través de todo el mercado, de modo que un número suficientemente grande de agentes adopte su oferta o emprenda acciones que anime a otros a hacerlo. Pero ¿cómo conseguirlo? ¿Cómo convencer a todos los participantes de una red de que saldrán beneficiados si se adopta una innovación?

En “The New Rules for Bringing Innovations to Market”, Bhaskar Chakravorti aplica la teoría de juegos para darnos algunas claves:

  • Razona hacia atrás desde una situación de fin de partida deseada. Visualiza el final que deseas para el proceso, anticipa las respuestas y contrarespuestas de los otros agentes y a continuación desarrolla estrategias que sustenten ese resultado futuro.
  • Complementa a los participantes del mercado con mayor poder. Posiciona tu innovación como complementaria de las ofertas de los agentes más influyentes, de modo que ayuden a propagar las ventajas del nuevo producto.
  • Coordina los incentivos para el cambio. Alinea los incentivos para potenciales usuarios, distribuidores y otros agentes clave que los motive a optar por tu producto, de manera que cada uno salga ganando porque los otros lo adopten.
  • Mantén la flexibilidad. Diseña un producto y unos planes de marketing fáciles de adaptar.

En resumen, ninguna innovación es una isla y los directivos de marketing harían bien en concebir el proceso de difusión como el paso de una situación de statu quo a un nuevo equilibrio en el que la adopción de la innovación por unos agentes refuerza la adopción por parte de los otros.

9 comentarios

Dadas las enormes dificultades de lanzar al mercado un producto innovador, es natural que muchos ejecutivos de empresas de tecnología cifren la base del éxito en ganar los primeros clientes (que son los más difíciles), en la esperanza de que el resto siga ese mismo camino con menos esfuerzo. Esta esperanza se basa en muchos factores, que van desde el comportamiento de los clientes en mercados más tradicionales, las referencias y el efecto “boca a boca”, hasta las externalidades de red, típicas de los productos tecnológicos.

Las estrategias de marketing basadas en una gestión proactiva del proceso de difusión a través del enfoque inicial en los segmentos de clientes más proclives a adoptar la innovación y en el fomento de los mecanismos de comunicación e interacción entre los potenciales clientes empezaron a demostrar su efectividad en los años 70 y 80 del pasado siglo y parecían capaces de dar una respuesta afirmativa a la pregunta que da título a este post.

Lamentablemente, en el caso de productos tecnológicos pronto se descubrieron fallos en el modelo. Nos vamos a referir a dos fenómenos que pueden tener consecuencias devastadoras sobre los ingresos de las empresas innovadoras:

  • la “brecha” entre los segmentos de los clientes innovadores y la mayoría del mercado
  • el efecto “enfriador” que sobre el crecimiento pueden tener las externalidades de red.

Durante los últimos años 1980 llegó a ser un patrón muy repetido que las nuevas empresas tecnológicas llegaran a tener un cierto éxito inicial para pasar después a una fase de estancamiento fatal. La clave para explicar este fenómeno vino de la mano de las teorías de Geoffrey Moore, consultor en Silicon Valley, quien en su libro “Crossing the Chasm” cambió las bases del marketing tecnológico. Para Moore, el Ciclo de Vida de Adopción de la Tecnología (TALC) asumido desde los trabajos de Everett Rogers es fundamentalmente válido pero hay que revisarlo para incorporar discontinuidades entre las categorías de usuarios.

Moore encontró que, en el caso de innovaciones discontinuas, las diversas categorías del TALC (que él pasó a llamar Technology Enthusiasts, Visionaries, Pragmatists, Conservatives y Skeptics) adoptan una innovación por motivos fundamentalmente diferentes y eso impide que un grupo acepte un nuevo producto del mismo modo que el grupo inmediatamente anterior. Se crean así discontinuidades,  brechas de credibilidad que hacen que la comunicación se interrumpa y el marketing pierda impulso y que dificultan el ir progresando de un grupo a otro.

Y la más importante de todas estas discontinuidades es la que existe entre lo que Moore llama el Early Market y el Mainstream Market -en la frontera entre los Visionarios y los Pragmáticos- y que él denominó The Chasm (el Abismo), porque puede pasar desapercibido y llegar a estrangular el desarrollo de la empresa en su inicio (ver figura).

Chasm

La causa fundamental de este abismo que se da en innovaciones discontinuas es que, al contrario de los Visionarios, que buscan mejoras radicales que les otorguen ventajas competitivas y para ello están dispuestos a aplicar tecnologías innovadoras (y no suficientemente probadas), los Pragmáticos buscan soluciones probadas y completas que les permitan mejorar la productividad de las operaciones actuales. Para un Pragmático, el uso de una nueva tecnología que hacen los Visionarios no sólo es en cierto modo “perturbador” y “peligroso”, sino que nunca constituye una referencia. Esta dificultad para que los clientes visionarios sirvan de palanca para llegar a los pragmáticos crea un bloqueo que hace que las empresas innovadoras, una vez conquistada su cuota de early adopters, se estanquen sin ser capaces de penetrar en el gran mercado y lleguen a perecer, una vez consumidos sus recursos.

Como vimos en otro post, para salir de este bloqueo Moore propone una estrategia basada en seleccionar un  segmento nicho objetivo y construir una solución completa para dicho segmento que nos asegure su dominio.

Recientemente, estudios más sistemáticos han confirmado la existencia de una forma no monótonamente creciente del ciclo de vida de adopción, conocida como curva en “silla de montar” por su forma caracterizada por un pico inicial, un descenso y un nuevo pico de ventas que supera al inicial. Esta forma se ha explicado tanto por interacciones entre consumidores como por heterogeneidades en la población: dos grupos distintos que adoptan la innovación a velocidades muy diferentes (por ejemplo, debido a una débil comunicación entre ellos). En cierto modo, esto daría la razón a Moore en sus conclusiones.

En cuanto al efecto de las externalidades de red, intuitivamente se cree que las externalidades deberían crear un crecimiento del mercado más rápido debido al aumento de valor del producto y a la incorporación de los nuevos usuarios. Sin embargo, tal como exponen J. Goldenberg, B. Libay y E. Muller en  “The Chilling Effects of Network Externalities”, se ha comprobado que las externalidades pueden crear también un efecto de ralentización porque muchos clientes potenciales  adoptan un comportamiento de “esperar y ver” y posponen su decisión hasta que otros adoptadores les proporcionen mayor utilidad antes de adoptar ellos mismos.

El crecimiento de bienes con efectos de red sigue típicamente una evolución con dos etapas: una difusión lenta inicialmente, seguida  posteriormente de un crecimiento muy rápido, en una curva que se suele denominar de “stick de hockey”. Lamentablemente, se ha comprobado que el crecimiento rápido posterior no llega a compensar el impacto financiero provocado por el inicio lento y el valor actualizado neto de los ingresos de un producto con efectos de red suele ser menor que el de uno sin dichos efectos.

En resumen, los efectos de red tienen un efecto global negativo, de enfriamiento o ralentización, sobre la rentabilidad de nuevos productos y aunque protegen de la posterior entrada de competidores (aportan una ventaja competitiva), también ralentizan el cash-flow (desventaja financiera). De hecho, se ha comprobado que las externalidades tienen un efecto negativo tanto sobre el crecimiento en las fases tempranas del mercado como en la supervivencia de los pioneros.

En un próximo post hablaremos  de cómo modular los diversos componentes de la estrategia de lanzamiento de un producto con externalidades para aprovechar al máximo sus efectos de realimentación positiva y reducir el impacto de sus efectos negativos.

En conclusión, la perspectiva de caer en una fase de ralentización de las ventas es una realidad para muchas empresas innovadoras. Lo importante es ser capaz de reconocerlo y gestionarlo adecuadamente, tanto en lo que se refiere al mercado y los clientes -aplicando las estrategias adecuadas- como desde el punto de vista de los recursos y los inversores.

24 comentarios

Sin duda ésta es una de las preguntas que con mayor frecuencia se hacen los ejecutivos de las empresas innovadoras. Lamentablemente, en muchos casos, la respuesta correcta es “porque tu producto no proporciona ningún beneficio significativo” o “porque estás cometiendo errores fatales en la estrategia o la ejecución de tu marketing”.

En otros casos la respuesta es menos obvia y tiene que ver con el hecho de que todo nuevo producto significa un cambio y con la aversión de sus potenciales clientes a asumir los costes asociados a dicho cambio. El proceso de adopción de la innovación ha sido estudiado desde los años 60 y formalizado en lo que se conoce como modelos de difusión por académicos como Everett Rogers, quien en su libro “Diffusion of Innovations” describe cómo una innovación se extiende a través de los diversos perfiles de usuarios (definidos en parte por su propensión a aceptar riesgos) y las variables que influyen en dicha difusión (ventaja relativa, compatibilidad, complejidad, etc.).

Esencialmente estas teorías asumen que los usuarios adoptan los productos que objetivamente proporcionan más valor que los actualmente existentes y que todos los agentes hacen evaluaciones insesgadas de las alternativas. Por este motivo, en los últimos años han sido puestas en tela de juicio por no incorporar los sesgos psicológicos que se ha demostrado que afectan a la toma de decisiones.

Muchos de los marcos conceptuales que actualmente se utilizan para clasificar una innovación distinguen entre las ventajas que aporta y el cambio de comportamiento que exige. En su artículo “Eager Sellers and Stony Buyers” John Gourville identifica esta segunda variable como la clave para que las empresas innovadoras puedan beneficiarse del valor de su innovación: según él, las empresas crean más valor cuanto mayor es el cambio en el producto, pero capturan mejor dicho valor minimizando el cambio de comportamiento necesario para adoptar dicha innovación. Dicho cambio implica unos costes que pueden ser más o menos objetivos, predecibles, cuantificables y gestionables (infraestructura, migración, reingeniería, formación…) pero otros costes son menos obvios y difíciles de reconocer o admitir. Hablamos de los sesgos psicológicos que imponen barreras a la adopción de nuevos productos.Algunos de estos sesgos (cuyo descubrimiento, entre otras aportaciones, llevaron a Daniel Kahneman a recibir el Premio Nobel en Economía) son el endowment effect y el status quo bias y su principal consecuencia es que las personas sobrevaloramos irracionalmente los beneficios de lo que ya poseemos frente a nuevas alternativas. Algunos estudios empíricos han demostrado que esta sobrevaloración es de entre dos y cuatro veces. Otra característica importante es que, aunque estos sesgos son universales, la mayoría de las personas no son conscientes de ellos y no los reconocen.

Desde el punto de vista de introducción de un nuevo producto, estos sesgos implican que los potenciales clientes sobrevaloran por un factor de aproximadamente tres su producto actual frente a uno nuevo que ofreciera beneficios similares, frenando así la adopción de éste. Curiosamente, desde el punto de vista de los ejecutivos de la empresa innovadora el status quo está representado por el nuevo producto mientras que la alternativa es el producto actualmente en uso por el mercado por lo que debido a los mismos sesgos psicológicos tienden a sobrevalorar por un factor de aproximadamente tres al primero. Surge así una diferencia de valoración del nuevo producto de 1 a 9 entre la empresa y los consumidores y que está en el origen de la pregunta que daba título a esta nota. Y en cierto modo también en la base del famoso “factor 10x” que Andrew Grove de Intel cita en “Only the Paranoid Survive” cuando dice que para transformar un sector una innovación debe aportar ventajas diez veces superiores a las que aportan las alternativas existentes.

¿Y qué hacer entonces para no perder la batalla frente a estas fuerzas contrarias a la innovación? Gourville plantea una serie de estrategias que responden a dos modelos:

  • Aceptar y gestionar esta resistencia, por ejemplo, preparándose para una adopción lenta (y gestionando adecuadamente los recursos en el tiempo) o proporcionando ventajas diez veces superiores a las actuales.
  • Minimizar esta resistencia, por ejemplo, haciendo productos compatibles desde el punto de vista del comportamiento o dirigiéndolos a consumidores que no estén atrincherados en los productos actuales.

En definitiva, gran parte del éxito de un nuevo producto está en las mentes de las personas. Hasta que las empresas innovadoras no entiendan, anticipen y respondan a los sesgos psicológicos que tanto sus consumidores como sus ejecutivos incorporan a las decisiones los nuevos productos continuarán fracasando.

16 comentarios

Las innovaciones plantean retos específicos a la hora de llevarlas al mercado, tanto mayores cuanto mayor es el grado de innovación del producto o tecnología de que se trate. La pregunta entonces es ¿cómo medir el grado de innovación de un producto o tecnología de forma significativa a efectos de su estrategia de marketing?. La respuesta servirá para modular las estrategias y técnicas comerciales.

Tradicionalmente la innovación se ha asociado a la idea de discontinuidad. Un producto es tanto más innovador cuanto más rompe con las formas tradicionales de cubrir una necesidad y aporta ventajas más diferenciales, aunque probablemente a cambio de exigir cambios de comportamiento en los usuarios y en el mercado.

Con este enfoque, la innovación se mide en una escala de grado de discontinuidad, que en un extremo tiene a los productos que representan innovaciones continuas (suelen ser extensiones de productos existentes, no requieren cambios de uso, son compatibles con la infraestructura actual, aportan beneficios incrementales) y en el extremo opuesto a los productos que representan innovaciones discontinuas (maneras radicalmente nuevas de hacer las cosas, exigen cambios de comportamiento, son incompatibles con la infraestructura y la cadena de valor existentes y aportan ventajas sustanciales).

Esta visión de la cuestión se vio complementada por los trabajos de Clayton Christensen, que en su libro “The Innovator’s Dilemma” sostenía que la mayoría de las innovaciones pertenecen a la categoría que él llama de sostenimiento (sustaining innovations), innovaciones que permiten ofrecer al mercado productos considerados mejores según los parámetros al uso. Por ejemplo, una nueva tecnología de procesador que permitiera fabricar PCs más rápidos. Las sustaining innovations van destinadas a satisfacer a los clientes más exigentes del mercado y son habitualmente introducidas por los fabricantes líderes, en su continua búsqueda de más cuota y rentabilidad. Dentro de las innovaciones de sostenimiento hay un amplio espectro que va desde lo incremental a lo más radical.

En contraposición a estas innovaciones más habituales, Christensen define las innovaciones disruptivas (disruptive innovations) como aquéllas que permiten ofrecer al mercado productos paradójicamente “peores” según los parámetros al uso (velocidad, etc.) y que por lo tanto no pueden ser vendidos a los clientes más exigentes, pero que por el contrario aportan una propuesta de valor diferente. Habitualmente estos productos disruptivos son más fáciles de usar, fiables y baratos que los productos actualmente en el mercado, de modo que pueden captar el interés de nuevos segmentos de consumidores y, en muchos casos, desplazar a largo plazo a los productos tradicionales. Ejemplos de innovaciones disruptivas son el PC frente al miniordenador o la telefonía IP frente a la convencional. Una innovación disruptiva impone verdaderos retos desde el punto de vista de marketing, tanto para el proveedor innovador que intenta que el mercado la adopte, como para los proveedores incumbentes que se plantean defenderse de ella o impulsarla ellos mismos.

Sin embargo, desde el punto de vista del marketing de una innovación lo más importante es conseguir su adopción por su mercado objetivo, y estas maneras “unidimensionales” de medir la innovación pierden de vista un factor muy importante: la separación entre los beneficios de adoptar una innovación y los costes asociados. Muchos productos innovadores que han fallado en el mercado lo han sido porque se concentraron en ofrecer ventajas radicales a los clientes, sin ocuparse de contrarrestar o minimizar los costes (no sólo económicos, sino psicológicos) que su adopción significaba para los usuarios.

En consecuencia, muchos enfoques de marketing de tecnología recogen esta dualidad beneficio-pérdida:

  • Geoffrey Moore, en su libro “Inside the Tornado”, presenta un modelo en que la discontinuidad que caracteriza a un producto innovador tiene dos dimensiones: application breakthrough (los beneficios que aporta) y paradigm shock (el impacto sobre comportamientos de usuarios, infraestructura, etc.) que actúan como el acelerador y el freno para la adopción de la innovación.
  • En su artículo “Eager Sellers and Stony Buyers” John Gourville presenta un modelo en que los consumidores valoran una innovación en términos de lo que ganan y lo que pierden en comparación a los productos que usan actualmente. Gourville llama a esas variables grado de cambio de producto y grado de cambio de comportamiento y en conjunto definen un plano que incluye desde productos que requieren un cambio de comportamiento masivo sin aportar ventajas claras (que él llama sure failures, p.ej., el teclado Dvorak) a otros que proporcionan beneficios revolucionarios sin exigir cambios significativos (smash hits, p.ej., Google).

En definitiva cualquier empresa innovadora que se olvide de las dos caras que definen la innovación desde el punto de vista de los clientes está arriesgándose a cometer un error fatal.

32 comentarios

¿Alguna vez os habéis preguntado cuáles son las diferencias entre intentar vender un mismo producto innovador en España y en USA? Lo que sigue son mis opiniones sobre el tema, basadas en algunas experiencias propias y otras que me son muy cercanas trabajando en multinacionales tanto españolas como americanas que venden en ambos países. Hay que hacer la salvedad de que hablamos de  tecnologías de la información (TI) en mercados empresariales (B2B) y únicamente desde una perspectiva de marketing y ventas (y no de desarrollo de tecnología, producción, etc.). Los principales factores de diferencia son los siguientes:

Tamaño del mercado potencial. Cuando se trata de productos realmente innovadores, el tamaño del mercado es difícil de prever. Como primeros elementos de comparación, tanto el tamaño de la economía como el volumen de inversión en TI (como porcentaje de la inversión total) son muy superiores en USA, frente al tradicional déficit de inversión en tecnologías de nuestro país. Obviamente, para un producto particular lo importante es el tamaño en cada país del target que se vaya a atacar y que éste tenga una necesidad real e inmediata de nuestro producto. Si no existe un segmento con una razón para comprar no hay mercado. A este respecto, algunos factores del entorno local (p.ej., la legislación) pueden hacer que productos que en un país son imprescindibles en otro resulten innecesarios, convirtiendo en irrelevante cualquier otra consideración sobre el tamaño del mercado.

Grado de receptividad ante la innovación. Toda innovación produce discontinuidad y cambios y no todos los potenciales clientes reaccionan igual ante ellos. El modo en que los compradores responden ante ese cambio y su disposición a adoptar la innovación condicionan la receptividad del mercado ante el nuevo producto. A este respecto, es evidente que el mercado USA es mucho menos averso al riesgo que el español. Es muy habitual que las nuevas tecnologías empiecen a adoptarse primero en ese mercado, probablemente no tanto por una razón de cercanía a la oferta como porque es más habitual la figura del usuario visionario que está dispuesto a asumir los riesgos de utilizar una nueva tecnología si con ello obtiene beneficios diferenciales. En España hay una menor cultura de explorar nuevas tecnologías (se podría decir que pervive el «que inventen ellos») algunos de cuyos indicios son en el bajo consumo de información de analistas tecnológicos (p.ej., Gartner, Forrester) y la escasa presencia de visitantes españoles en las ferias tecnológicas de ámbito global y que se plasma en pocas empresas españolas que son reconocidas internacionalmente por usos innovadores de la tecnología. Por estas (y por otras razones también ligadas al lado de la oferta) la adopción de las innovaciones en España suele llevar unos años de retraso respecto de USA y otros países.

Existencia de productos competidores y sustitutivos. A la hora de resolver una necesidad de los clientes, la rivalidad puede provenir tanto de competidores dentro de la misma categoría de productos como de productos sustitutivos. En el caso de un producto realmente innovador, sobre todo si está intentando una estrategia de first-mover, es probable que la rivalidad provenga más de productos sustititivos que de unos competidores que todavía no se han desarrollado. En USA (cuna de la mayoría de las innovaciones en TI) es raro que un producto innovador esté solo en el mercado durante mucho tiempo. Si se vislumbra un mercado atractivo -y a menos que las barreras de entrada sean muy altas- la cultura emprendedora y la existencia de inversores que caracterizan ese país harán brotar competidores rápidamente. Por el contrario, si en España se lanza un producto innovador hay menos riesgo de que aparezcan competidores locales o entren extranjeros (que prefieren centrarse antes en mercados más prometedores) debido a un cierto déficit tanto de espíritu emprendedor como de fuentes de inversión. Sin embargo, no menospreciemos a los productos sustitutivos atrincherados en los clientes objetivo. Cuando éste es el caso, a menos que el nuevo producto aporte unos beneficios sustanciales frente al statu quo, los costes de cambio frenarán la adopción de la innovación. En España, con unas empresas poco propensas a acometer cambios, este factor puede ser muy relevante.

Presencia de partners, distribuidores y productos complementarios. Cuando se trata de vender un producto innovador -sobre todo por parte de una empresa con recursos limitados- el disponer de aliados, partners, distribuidores, VARs e incluso productos complementarios con presencia local en el país es imprescindible para conseguir credibilidad, experiencia sectorial o vertical, cobertura de mercado y capacidad de proporcionar una solución completa para las necesidades de los clientes. Este último punto (la construcción del whole product) puede ser imprescindible cuando el producto innovador trata de alcanzar el mainstream market, y especialmente si se trata de un producto plataforma. En este apartado el mercado USA está mucho más desarrollado en cuanto a la presencia de partners, canales de distribución y productos complementarios de toda índole para apoyar la comercialización de cualquier innovación, tanto en cantidad y variedad como en especialización y profesionalidad.

Facilidad de financiación. La introducción de un nuevo producto en un mercado es un proceso difícil y caro, que puede consumir incluso más recursos que el propio desarrollo. Si, como ocurre habituamente, la empresa innovadora no es una gran compañía asentada y «con los bolsillos llenos» sino una startup no sobrada de recursos, es imprescindible que en el país exista un sector de inversores (p.ej., capital riesgo) capaces de entender lo que significa innovar y con una cultura de aceptación del riesgo. En este punto las diferencias entre USA y España son abismales: en el primer caso los venture capitalists son figuras tradicionales y con una relación simbiótica con el sector tecnológico (basta con que empieces a aparecer en los informes de los analistas para que los VCs hagan cola ante tu puerta); por el contrario, en nuestro país las alternativas de financiación para la innovación son escasas e ineficaces.

Disponibilidad de recursos de marketing/ventas. En este epígrafe se incluyen tanto (a) la existencia en el mercado laboral de los perfiles profesionales necesarios (ej: personal directivo, product managers, product marketers, account executives, sales engineers…) competentes en un escenario high-tech, como (b) la disponibilidad de una serie de recursos externos de apoyo a la ejecución de estrategias comerciales en mercados tecnológicos: agencias de estudios de mercado, empresas de marketing directo especializadas, proveedores de listas con los contactos objetivo, agencias de comunicación y relaciones públicas, medios de comunicación (tanto tradicionales como offline) de calidad que sean consultados por nuestros potenciales clientes, analistas tecnológicos, eventos y ferias específicos, comunidades y redes de usuarios de tecnología que puedan servir para dar a conocer nuestra innovación, etc. Nuevamente en este punto la diferencia es enorme: las peculiaridades del high-tech marketing son una materia obligada de los programas de cualquier escuela de negocios de USA y un punto generalmente relegado en España. En cuanto a empresas de servicios especializadas en marketing de la innovación, en USA existen muchas y muy profesionales, generalmente lideradas por ex-directivos de empresas tecnológicas. Lo mismo pasa con medios de comunicación de calidad, comunidades, etc. Al final, los clientes potenciales en España son más difíciles de alcanzar, pero no sólo porque los vehículos locales sean deficientes, sino porque los compradores españoles de TI no suelen buscan activamente información en medios externos. Nuestra experiencia es que si una innovación se comunica globalmente a través de un medio de alcance mundial, se van a recibir consultas y expresiones de interés empezando por USA y pasando por casi cualquier país industrializado… pero probablemente ninguna desde España.

En conclusión, comparando las dificultades de vender TIs innovadoras en España y USA, mi experiencia es que el mercado americano es más favorable en cuanto a potencial, receptividad y recursos de apoyo, pero más difícil en lo que respecta a la competencia. ¿Cuál es vuestra opinión?

2 comentarios

En estos tiempos de sobreabundancia informativa -y propagandística- la percepción que los posibles usuarios tienen de una nueva tecnología está condicionada por muchas influencias que nada tienen que ver con sus méritos objetivos. Durante los años previos al estallido de la anterior burbuja tecnológica muchas decisiones de inversión en tecnologías de la información se tomaron por criterios de «moda» y no de valor para el negocio. ¿A alguien le vienen a la cabeza siglas como SCM, CRM o E-business?

Por el contrario, en un momento actual caracterizado por presupuestos más restrictivos, las empresas buscan criterios que les ayuden a identificar las situaciones de «exuberancia irracional» que se crean alrededor de ciertas tecnologías y que podrían llevarles a decisiones de inversión de las que más tarde tendrían que arrepentirse. Una herramienta muy utilizada es el modelo de Hype Cycle de la conocida firma de análisis Gartner Group.

El modelo representa la evolución de lo que denomina visibilidad de una tecnología emergente (aunque sería más correcto llamarlo expectativas despertadas por esa tecnología) en función del tiempo. Una evolución que progresa desde un entusiasmo exagerado, pasando por un período de desilusión hasta una eventual comprensión de la relevancia de la tecnologia y de su papel en un mercado o dominio. En «Understanding Hype Cycles» Gartner describe el modelo y las etapas típicas en las que se divide, que reciben los alegóricos nombres de Technology Trigger, Peak of Inflated Expectations, Trough of Disillusionment, Slope of Enlightenment y Plateau of Productivity (ver figura).

Gartner Hype Cycle

El Hype Cycle describe no tanto una tecnología como las percepciones y la actitud de las personas ante la innovación. El modelo se justifica por la influencia de dos fuerzas principales que conforman las expectativas que se crean alrededor de una nueva tecnología:

  • En primer lugar, el ruido de comunicación (noticias, publicidad…) sobre dicha tecnología, que es el factor predominante durante las primeras fases de su vida, y que fomenta inicialmente la creación de expectativas especulativas y en muchos casos infundadas y posteriormente (si la tecnología no cumple sus promesas) la caída en la percepción pública hasta niveles incluso inferiores a los que le corresponderían aplicando criterios realistas.
  • Posteriormente, la madurez de la tecnología (desde un punto de vista técnico y de negocio) que conlleva una mejora en las prestaciones, su adopción por parte de los clientes, etc. y que va regenerando las expectativas hasta un nivel acorde con los méritos de la tecnología y los beneficios que aporta. Esta regeneración no está ya basada en la especulación sino en experiencias reales.

Por supuesto, no quiere decirse que todas las tecnologías sigan exactamente este patrón: las hay que evolucionan sin experimentar un pico de expectativas claro, protagonizando varios picos y valles, etc.

El Hype Cycle se une así a otros modelos de ciclo de vida que se aplican a las tecnologías (el clásico ciclo de vida de un producto o tecnología, la curva en S, el TALC…), aunque con algunas diferencias: el Hype Cycle es más útil desde la perspectiva del comprador de tecnología (no del proveedor), tiene un carácter eminentemente descriptivo y su utilidad predictiva y de definición de planes de acción es menor.

Hay que mencionar que Gartner publica periódicamente informes donde se analiza la posición en cada momento de diversas tecnologías (p.ej., Linux, gestión de datos, tecnologías emergentes) en el Hype Cycle. Por eso, aunque en la descripción del Peak of Inflated Expectations esta empresa menciona que durante esta fase “las únicas empresas que ganan dinero son los organizadores de conferencias y los editores de revistas” no sería injusto incluir a los analistas en ese privilegiado grupo.

La principal enseñanza del Hype Cycle es que las empresas no deberían invertir en una tecnología únicamente porque está generando mucho ruido ni deberían desdeñarla sólo porque no está cumpliendo unas expectativas iniciales exageradas. Por el contrario, los usuarios deberían identificar qué tecnologías son potencialmente beneficiosas para su negocio (y cuánto) e invertir teniendo en cuenta los riesgos asociados a su grado de madurez.

Como curiosidad, Gartner cita como ejemplo de informe de Hype Cycle singularmente influyente el que publicó en noviembre de 1999 sobre las tecnologías de E-Business y en el que se anticipaba el estallido de la burbuja puntocom que se produjo en la primavera del 2000.

4 comentarios

Todo blog centrado en el marketing de productos tecnológicos debe dedicar al menos un post a las ideas de Geoffrey Moore. Durante los años 1980 Moore estuvo trabajando en la empresa de consultoría de Regis McKenna en el Silicon Valley y como resultado de esa actividad en 1991 publicó su principal obra “Crossing the Chasm”, a la que posteriormente se le unieron “Inside the Tornado” y otras secuelas. Posteriormente fundó sus propias empresas de consultoría y formación: Chasm Group, Chasm Institute, TCG Advisors. A pesar del tiempo transcurrido, Moore sigue siendo uno de los expertos más influyentes del high-tech marketing y sus obras continúan utilizándose como libros de texto para esta materia en las principales escuelas de negocios.

Las teorías de Geoffrey Moore se basan en el modelo de difusión de la innovación de Everett Rogers, que él adapta para el caso de innovaciones discontinuas y cuyas categorías de potenciales clientes renombra como Technology Enthusiasts, Visionaries, Pragmatists, Conservatives y Skeptics. La principal  aportación de Moore es que los clientes pertenecientes a cada una de estas categorías adoptan la innovación por motivos fundamentalmente diferentes y eso impide que un grupo acepte un nuevo producto del mismo modo que el grupo inmediatamente anterior. Se crean así discontinuidades, brechas de credibilidad que hacen que la comunicación se interrumpa y el marketing pierda impulso y que dificultan el ir progresando de un grupo a otro.

Y la más importante de todas estas discontinuidades es la que existe entre lo que Moore llama el Early Market y el Mainstream Market -en la frontera entre los Visionarios y los Pragmáticos- y que él denominó The Chasm (el Abismo), porque puede pasar desapercibido y llegar a estrangular el desarrollo de la empresa en su inicio. Para salir de este bloqueo Moore propone una estrategia basada en seleccionar un -y sólo uno- segmento objetivo (que él llama «Cabeza de Playa») y construir una solución completa (whole product) para dicho segmento que nos asegure su dominio.

Los criterios que Moore propone para elegir la cabeza de playa (un ejercicio de segmentación y targeting) son:

  • ¿Hay un comprador identificable, accesible y con presupuesto?
  • ¿Su problema/necesidad es suficientemente importante y urgente como para comprar?
  • ¿Podemos (con ayuda de partners) ofrecer una solución completa?
  • ¿Hay ya competidores atrincherados en ese segmento?
  • ¿Tenemos ya relaciones con los partners que necesitamos para servir al segmento?
  • ¿Tenemos canal de venta y distribución para llegar al segmento?
  • ¿Es el precio de la solución completa adecuado al valor que aporta y permite que todos ganen?
  • ¿Es nuestra empresa creíble como suministrador?
  • ¿Podemos aprovechar lo desarrollado en ese segmento para entrar en otros?

El whole product, concepto popularizado inicialmente por Theodore Levitt en “The Marketing Imagination”, está constituido por los productos y servicios necesarios para que los clientes del segmento objetivo satisfagan su razón para comprar. Una vez conquistada esa cabeza de playa se debe ir saltando a otros segmentos contiguos, desarrollando soluciones completas adaptadas a ellos, en un escenario que Moore gráficamente denomina «Pista de Bolos».

La estrategia de Moore causa cierto rechazo inicial, ya que básicamente se resume en que para cruzar el abismo hay que apostar por “poner todos los huevos en la misma cesta”. Sin embargo, insiste él, no perseguir una cabeza de playa inicial e intentar ofrecer un producto bueno para todos los usuarios lleva a dispersar los esfuerzos para al final no conseguir un producto excelente para nadie.

Moore llegó a redefinir el Ciclo de Vida de Adopción de la Tecnología para el caso de innovaciones discontinuas, dividiéndolo en varias fases, en cada una de las cuales se deben aplicar estrategias diferentes (ver figura):

  1. El Mercado Inicial, donde se trata de que el nuevo producto sea adoptado por entusiastas de la tecnología y usuarios visionarios.
  2. El Abismo, donde la brecha de credibilidad entre usuarios visionarios y pragmáticos produce el estancamiento de la empresa. Para salir del Abismo es imprescindible seleccionar un único segmento objetivo y construir una solución completa para dicho segmento.
  3. La Pista de Bolos, donde el dominio sobre la cabeza de plaza permite ir abordando segmentos contiguos, que comparten clientes o aplicación con los ya abordados, usando soluciones completas específicas para cada uno (como unos bolos que hacen caer a otros).
  4. El Tornado, fase de demanda acelerada donde el mercado general cambia al nuevo paradigma y se produce su aceptación en masa y se trata ofrecer una solución estandarizada.
  5. La Calle Principal, donde el nuevo producto ha sido adoptado por el gran mercado.
  6. El Final de Ciclo, donde el producto empieza a ser reemplazado por un nuevo paradigma.

Un aspecto muy llamativo de estas estrategias es que en muchos aspectos son opuestas de una fase a otra. Por ejemplo, en el early market no hay que enfocarse en ningún segmento; sin embargo para cruzar el Abismo (y para avanzar por la Pista de Bolos) es imprescindible enfocarse en un segmento que sirva de cabeza de playa (para ir posteriormente expandiéndose hacia segmentos contiguos); finalmente, durante el Tornado (y una vez que el producto se ha estandarizado) hay que renunciar al enfoque para llegar a todo el mercado.

Las teorías de Geoffrey Moore han sido muy criticadas durante los últimos años por motivos que van desde la falta de rigor científico hasta el carácter de prescripción estratégica de sus recomendaciones y a su escasa aplicabilidad en algunos escenarios. En particular su énfasis en aplicar un foco extremo para saltar del early market al mainstream market puede ser contraproducente en el caso de productos con externalidades de red.

Sin embargo, estudios recientes sobre difusión de la innovación han validado algunos de sus descubrimientos. En concreto, se ha comprobado que en muchos mercados el incremento de ventas no es monótono sino que experimenta un súbito descenso después del crecimiento inicial (en la línea del Abismo). Este efecto se conoce como curva en “silla de montar” por su forma con pico inicial, descenso y nuevo pico de ventas que supera al inicial y se ha explicado tanto por interacciones entre consumidores como por heterogeneidades en la población: dos grupos distintos que adoptan la innovación con tasas muy diferentes (por ejemplo, debido a una débil comunicación entre ellos), lo que ratificaría algunas de las conclusiones a las que a principios de los 1990 llegó Geoffrey Moore.

17 comentarios

En un post anterior hablamos de la difusión como el proceso social por el cual una innovación se extiende a través de un mercado y presentamos dos de los modelos de difusión clásicos:

  • La teoría de Everett Rogers explica la difusión por la heterogeneidad de los potenciales clientes, que se pueden clasificar en categorías que se diferencian por su diversa propensión a adoptar la innovación (Innovadores, Adoptadores Tempranos, etc.).
  • El modelo de Frank Bass explica la difusión por la interacción entre el proveedor del nuevo producto y sus potenciales clientes (externa) y de dichos clientes entre sí (interna).

Ambos modelos predicen un incremento monótono en las ventas una vez sobrepasada la fase de despegue y han influido enormemente en los enfoques de marketing de productos tecnológicos, especialmente en una serie de estrategias orientadas a:

  • No lanzar un nuevo producto atacando a todo el mercado, sino enfocándose inicialmente en las categorías de usuarios más proclives a adoptar la innovación (early market).
  • Ir progresando por la curva de adopción, elaborando  ofertas, soluciones y programas de marketing adaptados a los diferentes perfiles.
  • Priorizar y fomentar los tipos de comunicación e interacción en el mercado (tanto externas como internas) más adecuadas para reducir el riesgo percibido de los adoptadores y transmitir los beneficios del nuevo producto y así favorecer y extender la adopción.

Además de los anteriores aspectos relacionados con el mercado, Everett Rogers estudió qué factores intrínsecos de un nuevo producto o servicio podían fomentar o acelerar su adopción. Y llegó a la conclusión que la mayor parte de la diferencia entre las velocidades de difusión de nuevos productos se debe a cinco factores:

  • Ventaja relativa (+), grado en el que un nuevo producto es mejor que el producto al que sustituye.
  • Compatibilidad (+), consistencia del producto con los valores y experiencias existentes.
  • Complejidad (-), dificultad para aprender y usar el producto.
  • Facilidad para probar (+), para experimentar con el producto.
  • Observabilidad (+), visibilidad del uso y de los resultados del producto.

Así definidos, todos los anteriores factores facilitan la difusión (signo +), excepto la complejidad (signo -) que la dificulta. Además, su definición debe hacerse desde la percepción del potencial usuario.

Desde hace unos años, y especialmente a raíz de los complejos escenarios que crean los nuevos productos tecnológicos, se han detectado limitaciones en los modelos clásicos de difusión más básicos. Algunos de estos nuevos escenarios, extraidos de «Innovation Diffusion and New Product Growth Models: A Critical Review and Research Directions» de R. Peres, V. Mahajan y E. Muller,  se discuten a continuación.

Especialmente importante es la presencia de otras interacciones entre clientes, no solamente la comunicación interpersonal directa. El caso más importante es el de las externalidades de red (también conocidas como bandwagon effect), muy ligadas a las tecnologías de la información y las comunicaciones.

Existen externalidades de red cuando la utilidad de un nuevo producto para un individuo aumenta a medida que más usuarios adoptan dicho producto. Las externalidades pueden ser

  • Directas: la utilidad viene dada directamente por el número de otros usuarios del mismo producto (el caso del teléfono es el ejemplo clásico).
  • Indirectas: la utilidad aumenta con el número de usuarios de otros productos complementarios (por ejemplo, las aplicaciones disponibles sobre un cierto sistema operativo).

Las externalidades de red constituyen un nuevo driver de crecimiento que no necesita de la comunicación interpersonal para funcionar. Aunque intuitivamente se considera que tienen un efecto positivo sobre las ventas y la penetración de un producto debido a la realimentación que introducen, algunos estudios recientes han demostrado que su efecto puede ser negativo tanto sobre el crecimiento en las fases tempranas del mercado como en la supervivencia de los proveedores pioneros.

Los efectos de red no contradicen el modelo clásico de de Bass y otros basados en él, que postulan que las ventas actuales son función de la adopción acumulada (sin entrar en la razón concreta). Las externalidades y otros efectos son drivers de crecimiento que se ajustan al modelo ya que en esencia implican que la probabilidad de compra aumenta con el número de adoptadores previos.

Otro aspecto novedoso es la aparición de nuevas formas de la curva del ciclo de vida. Se ha comprobado que en muchos mercados el incremento de ventas no es monótono, sino que experimenta un súbito descenso después del crecimiento inicial. Esto fue observado inicialmente por el consultor y autor Geoffrey Moore (un efecto que él denominó “el abismo” en su libro clásico “Crossing the Chasm”). Este nuevo perfil del ciclo de vida se conoce como curva en “silla de montar” por su forma caracterizada por un pico inicial, un descenso y un nuevo pico de ventas que supera al inicial (ver figura, obtenida del artículo de Peres, Mahajan y Muller) y se ha explicado tanto por interacciones entre consumidores como por heterogeneidades en la población.

En conclusión, hay que ampliar el modelo clásico de difusión para incluir factores que reflejen la interacción y la influencia de los clientes (no sólo la interconexión directa) y otros elementos tales como los efectos del marketing mix, de la competencia o de los efectos entre países.

21 comentarios

Si hay un concepto que resume las diferencias entre los mercados de productos tecnológicos e innovadores y los que no lo son, ése es el proceso de difusión. Los productos tradicionales son ya conocidos por los clientes y han sido adoptados por ellos. Sin embargo, toda innovación produce una cierta discontinuidad y riesgos: en cuanto al nivel de conocimiento de los potenciales usuarios, en que exige cambios en el comportamiento de estos y en la infraestructura para soportar su uso, etc. Esto hace necesario que el nuevo producto tenga que ser conocido y aceptado a lo largo del mercado al que va dirigido en un proceso social de adopción que se conoce como difusión.

Históricamente, el no tener en cuenta la difusión e intentar aplicar un estilo clásico de marketing (“a lo Procter & Gamble”, por así decirlo) a las innovaciones discontinuas ha producido en general resultados impredecibles y decepcionantes. Necesitamos conocer cómo funciona el proceso de difusión para poder predecirlo y gestionarlo de una manera activa. Para conseguirlo, en los años 1960 el marketing adoptó una serie de modelos originarios de las ciencias sociales que explican la manera en que las comunidades adoptan la innovación. Existen dos grandes modelos clásicos de difusión: el de E. Rogers y el de F. Bass.

Everett Rogers estudió a través de diversas comunidades y sistemas sociales cómo los diferentes perfiles de sus miembros (los potenciales “adoptadores”) incidían en la adopción de una innovación. En su obra fundacional “Diffusion of Innovations” clasifica a los usuarios en una serie de perfiles psicográficos en función de una variable principal: su respuesta a la discontinuidad y su propensión a adoptar la innovación. Rogers asignó a estas categorías de usuarios los nombres ya clásicos (y bastante expresivos) de Innovators, Early Adopters, Early Majority, Late Majority y Laggards, ordenados de mayor a menor disposición a aceptar la innovación.  Incluso llegó a postular una forma de campana de Gauss para la curva de adopción y unos porcentajes determinados para cada categoría de usuarios, como se representa en la figura:

Aplicado al marketing de nuevos productos, el modelo de Rogers fue conocido como el Ciclo de Vida de Adopción de la Tecnología (TALC, Technology Adoption Life Cycle). Cuando una innovación discontinua se lanza al mercado es necesario conseguir inicialmente el respaldo de las categorías de usuarios más innovadores (menos aversos al riesgo y más dispuestos a experimentar) para posteriormente ir adaptando el marketing y avanzando hacia esa mayoría de usuarios (más conservadores) que constituyen nuestro último objetivo. Aunque el modelo se basa en la heterogeneidad de los potenciales clientes -en cuanto a su respuesta frente a la innovación- sigue asumiendo una cierta conectividad entre ellos en el sentido de que una vez ganada una categoría de usuarios, y apoyándonos en ella, podemos ganar la siguiente. Este enfoque se aplicó con relativo éxito al marketing de tecnología en los años 1980 y logró que se popularizaran términos como Early Adopters (el primer blanco de todo high-tech marketer).

Por su parte Frank Bass propuso en “A New Product Growth Model for Consumer Durables” un modelo matemático sobre cómo la información acerca de un nuevo producto se pasa  entre los individuos de un sistema social y cómo eso afecta al momento de adopción. Básicamente, un individuo adopta la innovación como resultado de dos tipos de influencias:

  • La actividad  en el mercado de la empresa que proporciona el nuevo producto, incluyendo el atractivo de la propia innovación y otras actividades para informar e influir en los compradores (ej: publicidad y otras comunicaciones). Esta actividad se refleja en el parámetro (p) de influencia externa del modelo.
  • Las actividades internas al propio mercado, resultado de la interacción entre adoptadores y potenciales adoptadores dentro del sistema social (ej: boca a boca, comunicaciones interpersonales). Esta actividad se refleja en el parámetro (q) de influencia interna, que captura la magnitud de la influencia de un adoptador sobre un no adoptador.

Los valores de p y q son específicos de cada producto. La siguiente gráfica presenta el perfil de la curva de adopción de Bass para diferentes valores de los parámetros:

El modelo de Bass asume que la red social está totalmente conectada y es homogénea (los valores de los parámetros son los mismos para todos los individuos). Por lo tanto, a diferencia del modelo de Rogers, el driver del crecimiento del mercado es la interacción entre consumidores, más que la heterogeneidad de estos.

Tanto el modelo de Rogers como el de Bass representan la difusión de la nueva categoría de producto en su conjunto (es decir, no las ventas de un proveedor en particular). En ambos casos, si en lugar de la evolución de la adopción en el tiempo presentáramos la adopción acumulada tendríamos la típica curva en S que exhibe un crecimiento monótono hasta llegar a la saturación del mercado.

En un próximo post hablaremos del uso de estos modelos en el marketing de productos tecnológicos y de algunas de las limitaciones que presentan.

23 comentarios