Crecimiento de productos tecnológicos

Decía Mark Twain que «el arte de la profecía es muy difícil – especialmente con respecto al futuro». Lo mismo podemos afirmar de la previsón de ventas de un nuevo producto – especialmente si es nuevo de verdad (no sólo para el proveedor, sino para todo el mundo).

Antes de lanzar un nuevo producto el marketing convencional exige realizar una cuidadosa investigación de mercados y clientes y una previsión de la posible demanda (forecasting) que permita evaluar la viabilidad del negocio, prever su posible velocidad de adopción, tomar decisiones de precio, planificar actividades, comprometer recursos, elaborar presupuestos, etc. con el objetivo último de aumentar al máximo las probabilidades de éxito de todo el proyecto.

Por lo que respecta a la investigación de mercado, en otro post estuvimos analizando las dificultades para realizarla cuando el producto era sustancialmente nuevo y aquellos casos en los que era mejor no escuchar al cliente, sino sumergirnos en su contexto para mejor entender sus necesidades.

Del mismo modo, en lo que respecta a la previsión de demanda también existe una gran gama de técnicas y la selección de las más adecuadas en cada caso depende del grado de innovación del producto. Por ejemplo, R. Levary y D. Han en su artículo “Choosing a Technological Forecasting Method” presentan diversos métodos que incluyen desde el tratamiento de series temporales, pasando por el método Delphi basado en la opinión de expertos, hasta al análisis de datos de productos análogos o los modelos matemáticos que tienen en cuenta la difusión del nuevo producto.

Pero ¿cuál es el resultado que proporcionan todas estas técnicas en el caso de un producto realmente nuevo, que crea una categoría o inaugura un mercado? En lo que respecta a la previsión de demanda los resultados son decepcionantes, con porcentajes de exactitud del 40% o inferiores (según los estudios). La evidencia empírica sugiere que las mismas técnicas de previsión que funcionan extraordinariamente con innovaciones incrementales fracasan estrepitosamente en mercados o aplicaciones que todavía no existen. Este comportamiento obedece a múltiples causas:

  • Al tratarse de productos totalmente nuevos no existen datos históricos (probablemente, ni siquiera de productos análogos), con lo que se invalidan los métodos basados en series temporales.
  • En el momento del estudio probablemente no están todavía definidos o no son conocidos el rango de aplicaciones del producto, los segmentos de clientes objetivo, las necesidades a cubrir o los competidores y en cualquier caso, en un escenario de alta volatilidad éstos van a estar cambiando continuamente.
  • Las opiniones de los expertos internos (ejecutivos de la empresa) son interesadas o están sesgadas en el sentido de sobrevalorar irracionalmente el nuevo producto.
  • Las opiniones de los potenciales clientes también están sesgadas: en particular, las preferencias expresadas en encuestas suelen ser totalmente diferentes al comportamiento de compra real, que se caracteriza por mantener el statu quo y evitar los riesgos.
  • Puede que no existan expertos externos en lo relacionado con el nuevo producto o mercado.

Muchas veces la empresa se conforma con tener una idea del «mercado potencial» en términos de ventas absolutas o de número de clientes que pueden llegar a comprar el producto. Para calcularlo suele aplicarse un proceso «de arriba abajo» en el que se parte de una cifra de TAM (Total Addressable Market), que evalúa cuánto se podía llegar  a vender si todos nuestros potenciales clientes compraran el producto. Esta cifra se va recortando posteriormente mediante una serie de coeficientes -basados principalmente en juicios subjetivos- que expresan la parte del mercado potencial a la que nuestra empresa puede llegar comercialmente de manera efectiva, la proporción de clientes que realmente están en situación de comprar, la cuota que nos van a dejar nuestros competidores, etc.

Al final se llega a una estimación que suele tomar una forma similar a «un mercado potencial de 50.000 millones, del que aunque únicamente consigamos el 1% significa unos ingresos de 500 millones» y sobre la que se han construido tantos planes de negocio que después no han resistido el primer contacto con la realidad del mercado. Lo peligroso en estos casos no es sólo enfocarse en unos números irreales que suelen ser el resultado de un exceso de optimismo, sino olvidarse de las asunciones (tamaño del mercado potencial, adopción por los clientes, cuotas de los competidores …) que subyacen a su cálculo.

Pero tratar de representar la demanda de un nuevo producto con una única cifra es peligroso porque -como sabemos- los nuevos productos están sujetos a un proceso de difusión que define cómo van siendo adoptados por el mercado. Y ello implica que la evolución de la demanda a lo largo del tiempo no va a ser ni mucho menos constante ni lineal y va a tener una influencia clave y específica en el perfil de los ingresos y en la rentabilidad del producto. Y aunque los modelos matemáticos de difusión (que suelen ser modificaciones del modelo básico de Bass) se han ido sofisticando para tener en cuenta aspectos tales como la influencia de marketing-mix o de los competidores de la empresa, todavía queda mucho para que puedan predecir adecuadamente el perfil de adopción en escenarios tan complejos como los actuales.

Por eso en muchos escenarios de innovación radical lo más aconsejable es no invertir demasiados recursos en intentar elaborar unas previsiones y unos presupuestos exhaustivamente precisos (ya que debido a la incertidumbre inherente a estas situaciones nunca vamos a disponer de la información necesaria) sino salir al mercado con unos planes y unos productos suficientemente flexibles como para ir adaptándonos iterativamente a la respuesta real de los clientes. A veces la mejor manera de descubrir y llegar a comprender un mercado es lanzarnos a él y tratar de aprender lo más rápidamente posible.

Porque -finalmente- el tamaño y la evolución de la demanda de un nuevo producto no vienen dados ni por un supuesto tamaño global del mercado ni por el valor de los parámetros de un complejo modelo de difusión. De hecho, ni siquiera por la sofisticación o las características del propio producto. El factor más importante para predecir la demanda lo constituyen la importancia y la urgencia del problema (o el «dolor») del cliente que ese producto viene a resolver.

13 comentarios

Cada vez más empresas tecnológicas quieren convertirse en el platform leader de su sector, conseguir que sus productos sean la base sobre la cual otras empresas construyen sus productos u ofrecen sus servicios. En este contexto “plataforma” significa un producto que aporta su máximo valor cuando funciona como el núcleo de un sistema de componentes proporcionados por distintas empresas. Los ejemplos de producto plataforma son numerosos: vídeo doméstico, red para telefonía móvil, distribución de señal de televisión digital… y en especial la industria del software proporciona algunos muy conocidos: sistemas operativos, gestores de bases de datos, middleware, etc.

El valor de una plataforma está ligado a la cantidad y variedad de productos complementarios que existen sobre ella (ej: películas en formato DVD, aplicaciones informáticas sobre Linux…), de modo que el aumento de complementarios y la adopción de la plataforma están interconectados en un circuito de realimentación positiva: cuanto más extendida está una plataforma mayor es el incentivo para lanzar nuevos productos complementarios, lo que estimula a los usuarios a utilizar esos complementarios y la plataforma en que se basan, lo que crea más incentivos para la innovación en productos complementarios, y así sucesivamente. Esta idea ha sido subrayada por Andrew Grove, de Intel, que considera a los complementarios como una sexta fuerza del mercado (junto a las cinco fuerzas clásicas de Porter que determinan la estructura y la rentabilidad de un sector).

Pero ¿cómo llegar a ser un platform leader? ¿En que se diferencia su marketing del de productos complementarios y aplicaciones?

El concepto de plataforma líder está muy ligado al de estándar por lo que muchas estrategias para alcanzar el liderazgo se basan en dominar las dinámicas que en cada mercado llevan a la formación de un estándar. Carl Sapiro y Hal Varian, en su libro “Information Rules” , afirman que la variable clave en una guerra de estándares es la magnitud de los costes de cambio o, más generalmente, los costes de adopción de cada una de las tecnologías rivales respecto a la tecnología actualmente en uso. En su opinión, la capacidad para vencer en este tipo de contienda depende de la posesión de ciertos recursos clave: control sobre una base instalada de usuarios, derechos de propiedad intelectual, capacidad para innovar, first-mover advantages, capacidad de producción, presencia en productos complementarios, marca y reputación. Sus principales consejos para ganar una guerra de estándares son:

  • Antes de afrontar la batalla, conseguir aliados: consumidores, fabricantes de complementarios, incluso competidores.
  • La anticipación es una táctica clave: desarrollo rápido de producto, conseguir clientes representativos, aplicar precios que faciliten la penetración en el mercado…
  • Gestionar las expectativas de los usuarios: persuadir a los clientes y a los fabricantes de complementarios que vamos a ser el ganador (muy importante cuando las externalidades de red son fuertes).
  • Una vez ganada la guerra, no dormirse en los laureles: cuidar de la base instalada y seguir innovando.

Los platform leaders y los innovadores en productos complementarios tienen grandes incentivos para cooperar porque sus efectos combinados pueden aumentar el tamaño potencial del pastel para todos. Michael Cusumano y Annabelle Gawer, en su libro “Platform Leadership”, identifican los mecanismos que los líderes de plataforma utilizan para extender su influencia sobre los fabricantes de complementarios:

  • Alcance de la empresa: qué productos complementarios fabrica el productor de la plataforma frente a los que permite o estimula que sean producidos por otras empresas.
  • Tecnología de la plataforma (arquitectura, interfaces y propiedad intelectual): modularidad, grado de apertura e información que se hace accesible a empresas externas.
  • Relaciones con fabricantes de productos complementarios: colaboración frente a competencia, cómo alcanzar consensos y tratar conflictos.
  • Organización interna para gestionar los conflictos de intereses tanto internos como externos.

Todo lo anterior es válido en un contexto general, pero ¿qué ocurre con un producto plataforma que crea una categoría o inaugura un mercado? ¿Cómo pueden afectar al proceso las previsibles discontinuidades?

Para dar una respuesta puede ser útil acudir a las ideas de Geoffrey Moore, quien en sus libros “Crossing the Chasm” e “Inside the Tornado” propone un ciclo de adopción de las innovaciones discontinuas dividido en varias etapas, en cada una de los cuales se deben aplicar estrategias diferentes, y con un claro «abismo» entre el Early Market y el Mainstream Market.

Lo que esto tiene de particular en el caso de un producto plataforma es que, para cruzar el Abismo y llegar con éxito a la mayoría del mercado (a través de lo que Moore llama la Pista de Bolos) es necesario desarrollar soluciones completas que resuelvan los problemas de los usuarios de negocio de aquellos segmentos a atacar. Ello significa arropar la plataforma con un conjunto de productos y servicios complementarios, en definitiva disfrazar (y vender) la plataforma como una aplicación y esto, aparte de difícil, puede resultar antinatural para los ejecutivos de la empresa. Como consecuencia los productos plataforma son los más difíciles de llevar a través del Abismo. Por el contrario, cuando empieza el Tornado un producto plataforma es más fácil de estandarizar (dado su carácter intrínsecamente horizontal) y juega con ventaja en ese campo.

En definitiva, en el caso de una plataforma que introduce innovación discontinua, los productos complementarios no sólo son importantes para establecer esa plataforma como estándar, sino para aportar credibilidad y ofrecer soluciones válidas a los usuarios menos innovadores de las primeras etapas del ciclo de adopción. En general, los platform leaders tienen que gestionar un complicado equilibrio entre competir y colaborar con los fabricantes de productos complementarios, para crear un ecosistema que favorezca la demanda de su plataforma.

11 comentarios

Uno de los temas más polémicos dentro del marketing de productos innovadores es si las estrategias basadas en ser el primero en entrar en un nuevo mercado son efectivas, en otras palabras, si existe realmente una first-mover advantage.

El concepto de first-mover advantage, que ha tenido defensores como Michael Porter (Universidad de Harvard) o Andrew Grove (Intel) es muy intuitivo y de innegable atractivo teórico. En esencia implica que la primera empresa que entra en un mercado puede aprovechar una serie de ventajas derivadas del hecho de encontrarse en una situación de monopolio temporal. Entre ellas:

  • Dominar las tecnologías clave e influir en la definición de estándares.
  • Crear una base de clientes fieles y/o a los que resulte difícil cambiar de proveedor.
  • Apropiarse de recursos clave y escasos: alianzas, distribuidores, personal cualificado, etc.
  • Construir marca, reputación e imagen innovadora.

En mercados de alta tecnología, donde los ciclos de vida de los productos son cortos y el time-to-market es esencial, el recurso a las estrategias de first-mover es muy habitual. De hecho, durante la anterior burbuja tecnológica este concepto estuvo de moda y fue la base de muchas estrategias (detrás de las cuales en muchos casos no existía ningún modelo de negocio).

El estallido de esa burbuja y otras circunstancias llevaron a que el concepto se pusiera en tela de juicio, de modo que en estos últimos años por cada estudio que defiende la existencia de la first-mover advantage hay otro que dice que lo que en realidad existe es una first-mover disadvantage y es muy habitual oír que las ventajas de ser primero son un mito porque en la mayoría de los mercados que en su día fueron innovadores (desde los PCs a los buscadores en Internet, pasando por las hojas de cálculo y los browsers) el líder actual no es la empresa que entró en primer lugar. Las principales first-mover disadvantages son:

  • Mayores incertidumbres: de desarrollar una tecnología que funcione, de que el producto tenga aceptación entre los clientes…
  • Mayores costes: de desarrollar la tecnología, de educar al mercado, de crear canales de distribución…
  • Riesgos de invertir y construir los recursos inadecuados: tecnología, procesos…
  • Imposibilidad de construir barreras de entrada para los competidores: lealtad y costes de cambio de clientes, protección de la tecnología, acceso a recursos clave…

Debido a estas desventajas, muchos piensan que lo más sensato es renunciar a entrar el primero y aplicar una estrategia de fast-follower.

Entonces ¿existe realmente una first-mover advantage o a los pioneros en los mercados tecnológicos les pasa lo mismo que a los del antiguo Far West: y llevan flechas clavadas en la espalda? ¿Hay que dejar “que inventen ellos”?

La clave está en qué se entiende por éxito de una estrategia de entrada. Si por tal entendemos un liderazgo mantenido en el mercado, incluso muchos años después de su creación, entonces los casos de éxito de una first-mover advantage son excepcionales. Si por éxito entendemos crear unas ventajas competitivas (a corto o a largo plazo) que permiten explotar ese mercado de manera rentable, entonces coincidiremos en que una estrategia de primer entrante bien concebida y ejecutada puede ser muy exitosa.

Clayton Chistensen, en «The Innovator’s Dilemma», sostiene que crear nuevos mercados es significativamente menos arriesgado y más rentable que entrar en mercados ya establecidos contra unos competidores atrincherados. El análisis de diversos sectores le sirve a Chistensen para afirmar que en el caso de innovaciones de sostenimiento el ser pionero en llevarlas al mercado no proporciona ninguna ventaja (o desventaja) significativa ni duradera sobre los seguidores. Por el contrario, cuando se trata de entrar en los nuevos mercados que habilitan las innovaciones disruptivas, aquellas empresas que entran durante los primeros años tras su creación es mucho más probable que tengan éxito que aquéllas que entran más tarde. Además, sus ingresos promedio son mucho más elevados.

Christensen justifica esta diferencia diciendo que las empresas que entran temprano en nuevos mercados han optado por un riesgo de mercado (el riesgo de que finalmente no acabe emergiendo un mercado para la tecnología disruptiva) en lugar de por un riesgo de competidores (el riesgo de entrar en un mercado con competidores atrincherados).

Por su parte, Fernando Suárez y Gianvito Lanzolla, en su artículo «The Half-Truth of First-Mover Advantage» concluyen que la first-mover advantage existe pero que no se puede dar por sentada y diferencian entre ventajas a corto plazo y ventajas duraderas y entre ventajas inmediatas y ventajas retardadas. Para ellos, la probabilidad de obtener estas ventajas depende principalmente de dos variables: la velocidad de evolución del mercado y el ritmo de cambio de la tecnología del producto. Además, para capturar estas ventajas es necesario disponer de los recursos adecuados para cada situación: I+D, marketing, producción, distribución, financiación, etc.

Por ejemplo, en un escenario de rápida expansión del mercado pero lenta evolución de la tecnología es muy posible que el primer entrante obtenga una ventaja a corto plazo pero también es probable una ventaja duradera si se dispone de recursos suficientes.

A modo de conclusión podríamos decir que:

  • Competir en el tiempo es importante en mercados rápidos. El momento de entrada en un nuevo mercado en un valioso componente de la estrategia, pero hay que evitar caer presa del síndrome “Preparados, Listos, Ya” y analizar cuidadosamente cuál es ese mejor momento.
  • La first-mover advantage existe. Entrar en primer lugar confiere ventajas, pero no categóricas. Todo depende de las circunstancias y de la velocidad del mercado y del cambio tecnológico.
  • Los riesgos y costes de esta estrategia son los más altos, pero también lo son las recompensas. Es necesario aplicar sin fallos todas las técnicas y herramientas del high-tech marketing, incluyendo alianzas, licenciamientos, etc. No hacerlo así provoca graves vulnerabilidades.
  • Entrar es sólo el primer paso. Es imprescindible no dormirse e los laureles y enfocarse en los clientes para entender sus necesidades, adaptarse a los cambios en el mercado y mantener la ventaja en la creación de productos mejores que los de los competidores y que se conviertan en el estándar del mercado.

Como comentario final, recordemos que se ha hablado mucho de la famosa “Guerra de los Browsers” entre Netscape y Microsoft y se ha utilizado como ejemplo de que ser primero en el mercado no garantiza el éxito. Sin embargo, Marc Andreessen y sus socios vendieron Netscape en 1998 por varios miles de millones de dólares. ¿Es esto o no un caso de first-mover advantage?

18 comentarios

Dadas las enormes dificultades de lanzar al mercado un producto innovador, es natural que muchos ejecutivos de empresas de tecnología cifren la base del éxito en ganar los primeros clientes (que son los más difíciles), en la esperanza de que el resto siga ese mismo camino con menos esfuerzo. Esta esperanza se basa en muchos factores, que van desde el comportamiento de los clientes en mercados más tradicionales, las referencias y el efecto “boca a boca”, hasta las externalidades de red, típicas de los productos tecnológicos.

Las estrategias de marketing basadas en una gestión proactiva del proceso de difusión a través del enfoque inicial en los segmentos de clientes más proclives a adoptar la innovación y en el fomento de los mecanismos de comunicación e interacción entre los potenciales clientes empezaron a demostrar su efectividad en los años 70 y 80 del pasado siglo y parecían capaces de dar una respuesta afirmativa a la pregunta que da título a este post.

Lamentablemente, en el caso de productos tecnológicos pronto se descubrieron fallos en el modelo. Nos vamos a referir a dos fenómenos que pueden tener consecuencias devastadoras sobre los ingresos de las empresas innovadoras:

  • la “brecha” entre los segmentos de los clientes innovadores y la mayoría del mercado
  • el efecto “enfriador” que sobre el crecimiento pueden tener las externalidades de red.

Durante los últimos años 1980 llegó a ser un patrón muy repetido que las nuevas empresas tecnológicas llegaran a tener un cierto éxito inicial para pasar después a una fase de estancamiento fatal. La clave para explicar este fenómeno vino de la mano de las teorías de Geoffrey Moore, consultor en Silicon Valley, quien en su libro “Crossing the Chasm” cambió las bases del marketing tecnológico. Para Moore, el Ciclo de Vida de Adopción de la Tecnología (TALC) asumido desde los trabajos de Everett Rogers es fundamentalmente válido pero hay que revisarlo para incorporar discontinuidades entre las categorías de usuarios.

Moore encontró que, en el caso de innovaciones discontinuas, las diversas categorías del TALC (que él pasó a llamar Technology Enthusiasts, Visionaries, Pragmatists, Conservatives y Skeptics) adoptan una innovación por motivos fundamentalmente diferentes y eso impide que un grupo acepte un nuevo producto del mismo modo que el grupo inmediatamente anterior. Se crean así discontinuidades,  brechas de credibilidad que hacen que la comunicación se interrumpa y el marketing pierda impulso y que dificultan el ir progresando de un grupo a otro.

Y la más importante de todas estas discontinuidades es la que existe entre lo que Moore llama el Early Market y el Mainstream Market -en la frontera entre los Visionarios y los Pragmáticos- y que él denominó The Chasm (el Abismo), porque puede pasar desapercibido y llegar a estrangular el desarrollo de la empresa en su inicio (ver figura).

Chasm

La causa fundamental de este abismo que se da en innovaciones discontinuas es que, al contrario de los Visionarios, que buscan mejoras radicales que les otorguen ventajas competitivas y para ello están dispuestos a aplicar tecnologías innovadoras (y no suficientemente probadas), los Pragmáticos buscan soluciones probadas y completas que les permitan mejorar la productividad de las operaciones actuales. Para un Pragmático, el uso de una nueva tecnología que hacen los Visionarios no sólo es en cierto modo “perturbador” y “peligroso”, sino que nunca constituye una referencia. Esta dificultad para que los clientes visionarios sirvan de palanca para llegar a los pragmáticos crea un bloqueo que hace que las empresas innovadoras, una vez conquistada su cuota de early adopters, se estanquen sin ser capaces de penetrar en el gran mercado y lleguen a perecer, una vez consumidos sus recursos.

Como vimos en otro post, para salir de este bloqueo Moore propone una estrategia basada en seleccionar un  segmento nicho objetivo y construir una solución completa para dicho segmento que nos asegure su dominio.

Recientemente, estudios más sistemáticos han confirmado la existencia de una forma no monótonamente creciente del ciclo de vida de adopción, conocida como curva en “silla de montar” por su forma caracterizada por un pico inicial, un descenso y un nuevo pico de ventas que supera al inicial. Esta forma se ha explicado tanto por interacciones entre consumidores como por heterogeneidades en la población: dos grupos distintos que adoptan la innovación a velocidades muy diferentes (por ejemplo, debido a una débil comunicación entre ellos). En cierto modo, esto daría la razón a Moore en sus conclusiones.

En cuanto al efecto de las externalidades de red, intuitivamente se cree que las externalidades deberían crear un crecimiento del mercado más rápido debido al aumento de valor del producto y a la incorporación de los nuevos usuarios. Sin embargo, tal como exponen J. Goldenberg, B. Libay y E. Muller en  “The Chilling Effects of Network Externalities”, se ha comprobado que las externalidades pueden crear también un efecto de ralentización porque muchos clientes potenciales  adoptan un comportamiento de “esperar y ver” y posponen su decisión hasta que otros adoptadores les proporcionen mayor utilidad antes de adoptar ellos mismos.

El crecimiento de bienes con efectos de red sigue típicamente una evolución con dos etapas: una difusión lenta inicialmente, seguida  posteriormente de un crecimiento muy rápido, en una curva que se suele denominar de “stick de hockey”. Lamentablemente, se ha comprobado que el crecimiento rápido posterior no llega a compensar el impacto financiero provocado por el inicio lento y el valor actualizado neto de los ingresos de un producto con efectos de red suele ser menor que el de uno sin dichos efectos.

En resumen, los efectos de red tienen un efecto global negativo, de enfriamiento o ralentización, sobre la rentabilidad de nuevos productos y aunque protegen de la posterior entrada de competidores (aportan una ventaja competitiva), también ralentizan el cash-flow (desventaja financiera). De hecho, se ha comprobado que las externalidades tienen un efecto negativo tanto sobre el crecimiento en las fases tempranas del mercado como en la supervivencia de los pioneros.

En un próximo post hablaremos  de cómo modular los diversos componentes de la estrategia de lanzamiento de un producto con externalidades para aprovechar al máximo sus efectos de realimentación positiva y reducir el impacto de sus efectos negativos.

En conclusión, la perspectiva de caer en una fase de ralentización de las ventas es una realidad para muchas empresas innovadoras. Lo importante es ser capaz de reconocerlo y gestionarlo adecuadamente, tanto en lo que se refiere al mercado y los clientes -aplicando las estrategias adecuadas- como desde el punto de vista de los recursos y los inversores.

24 comentarios

Sin duda ésta es una de las preguntas que con mayor frecuencia se hacen los ejecutivos de las empresas innovadoras. Lamentablemente, en muchos casos, la respuesta correcta es “porque tu producto no proporciona ningún beneficio significativo” o “porque estás cometiendo errores fatales en la estrategia o la ejecución de tu marketing”.

En otros casos la respuesta es menos obvia y tiene que ver con el hecho de que todo nuevo producto significa un cambio y con la aversión de sus potenciales clientes a asumir los costes asociados a dicho cambio. El proceso de adopción de la innovación ha sido estudiado desde los años 60 y formalizado en lo que se conoce como modelos de difusión por académicos como Everett Rogers, quien en su libro “Diffusion of Innovations” describe cómo una innovación se extiende a través de los diversos perfiles de usuarios (definidos en parte por su propensión a aceptar riesgos) y las variables que influyen en dicha difusión (ventaja relativa, compatibilidad, complejidad, etc.).

Esencialmente estas teorías asumen que los usuarios adoptan los productos que objetivamente proporcionan más valor que los actualmente existentes y que todos los agentes hacen evaluaciones insesgadas de las alternativas. Por este motivo, en los últimos años han sido puestas en tela de juicio por no incorporar los sesgos psicológicos que se ha demostrado que afectan a la toma de decisiones.

Muchos de los marcos conceptuales que actualmente se utilizan para clasificar una innovación distinguen entre las ventajas que aporta y el cambio de comportamiento que exige. En su artículo “Eager Sellers and Stony Buyers” John Gourville identifica esta segunda variable como la clave para que las empresas innovadoras puedan beneficiarse del valor de su innovación: según él, las empresas crean más valor cuanto mayor es el cambio en el producto, pero capturan mejor dicho valor minimizando el cambio de comportamiento necesario para adoptar dicha innovación. Dicho cambio implica unos costes que pueden ser más o menos objetivos, predecibles, cuantificables y gestionables (infraestructura, migración, reingeniería, formación…) pero otros costes son menos obvios y difíciles de reconocer o admitir. Hablamos de los sesgos psicológicos que imponen barreras a la adopción de nuevos productos.Algunos de estos sesgos (cuyo descubrimiento, entre otras aportaciones, llevaron a Daniel Kahneman a recibir el Premio Nobel en Economía) son el endowment effect y el status quo bias y su principal consecuencia es que las personas sobrevaloramos irracionalmente los beneficios de lo que ya poseemos frente a nuevas alternativas. Algunos estudios empíricos han demostrado que esta sobrevaloración es de entre dos y cuatro veces. Otra característica importante es que, aunque estos sesgos son universales, la mayoría de las personas no son conscientes de ellos y no los reconocen.

Desde el punto de vista de introducción de un nuevo producto, estos sesgos implican que los potenciales clientes sobrevaloran por un factor de aproximadamente tres su producto actual frente a uno nuevo que ofreciera beneficios similares, frenando así la adopción de éste. Curiosamente, desde el punto de vista de los ejecutivos de la empresa innovadora el status quo está representado por el nuevo producto mientras que la alternativa es el producto actualmente en uso por el mercado por lo que debido a los mismos sesgos psicológicos tienden a sobrevalorar por un factor de aproximadamente tres al primero. Surge así una diferencia de valoración del nuevo producto de 1 a 9 entre la empresa y los consumidores y que está en el origen de la pregunta que daba título a esta nota. Y en cierto modo también en la base del famoso “factor 10x” que Andrew Grove de Intel cita en “Only the Paranoid Survive” cuando dice que para transformar un sector una innovación debe aportar ventajas diez veces superiores a las que aportan las alternativas existentes.

¿Y qué hacer entonces para no perder la batalla frente a estas fuerzas contrarias a la innovación? Gourville plantea una serie de estrategias que responden a dos modelos:

  • Aceptar y gestionar esta resistencia, por ejemplo, preparándose para una adopción lenta (y gestionando adecuadamente los recursos en el tiempo) o proporcionando ventajas diez veces superiores a las actuales.
  • Minimizar esta resistencia, por ejemplo, haciendo productos compatibles desde el punto de vista del comportamiento o dirigiéndolos a consumidores que no estén atrincherados en los productos actuales.

En definitiva, gran parte del éxito de un nuevo producto está en las mentes de las personas. Hasta que las empresas innovadoras no entiendan, anticipen y respondan a los sesgos psicológicos que tanto sus consumidores como sus ejecutivos incorporan a las decisiones los nuevos productos continuarán fracasando.

16 comentarios

Las innovaciones plantean retos específicos a la hora de llevarlas al mercado, tanto mayores cuanto mayor es el grado de innovación del producto o tecnología de que se trate. La pregunta entonces es ¿cómo medir el grado de innovación de un producto o tecnología de forma significativa a efectos de su estrategia de marketing?. La respuesta servirá para modular las estrategias y técnicas comerciales.

Tradicionalmente la innovación se ha asociado a la idea de discontinuidad. Un producto es tanto más innovador cuanto más rompe con las formas tradicionales de cubrir una necesidad y aporta ventajas más diferenciales, aunque probablemente a cambio de exigir cambios de comportamiento en los usuarios y en el mercado.

Con este enfoque, la innovación se mide en una escala de grado de discontinuidad, que en un extremo tiene a los productos que representan innovaciones continuas (suelen ser extensiones de productos existentes, no requieren cambios de uso, son compatibles con la infraestructura actual, aportan beneficios incrementales) y en el extremo opuesto a los productos que representan innovaciones discontinuas (maneras radicalmente nuevas de hacer las cosas, exigen cambios de comportamiento, son incompatibles con la infraestructura y la cadena de valor existentes y aportan ventajas sustanciales).

Esta visión de la cuestión se vio complementada por los trabajos de Clayton Christensen, que en su libro “The Innovator’s Dilemma” sostenía que la mayoría de las innovaciones pertenecen a la categoría que él llama de sostenimiento (sustaining innovations), innovaciones que permiten ofrecer al mercado productos considerados mejores según los parámetros al uso. Por ejemplo, una nueva tecnología de procesador que permitiera fabricar PCs más rápidos. Las sustaining innovations van destinadas a satisfacer a los clientes más exigentes del mercado y son habitualmente introducidas por los fabricantes líderes, en su continua búsqueda de más cuota y rentabilidad. Dentro de las innovaciones de sostenimiento hay un amplio espectro que va desde lo incremental a lo más radical.

En contraposición a estas innovaciones más habituales, Christensen define las innovaciones disruptivas (disruptive innovations) como aquéllas que permiten ofrecer al mercado productos paradójicamente “peores” según los parámetros al uso (velocidad, etc.) y que por lo tanto no pueden ser vendidos a los clientes más exigentes, pero que por el contrario aportan una propuesta de valor diferente. Habitualmente estos productos disruptivos son más fáciles de usar, fiables y baratos que los productos actualmente en el mercado, de modo que pueden captar el interés de nuevos segmentos de consumidores y, en muchos casos, desplazar a largo plazo a los productos tradicionales. Ejemplos de innovaciones disruptivas son el PC frente al miniordenador o la telefonía IP frente a la convencional. Una innovación disruptiva impone verdaderos retos desde el punto de vista de marketing, tanto para el proveedor innovador que intenta que el mercado la adopte, como para los proveedores incumbentes que se plantean defenderse de ella o impulsarla ellos mismos.

Sin embargo, desde el punto de vista del marketing de una innovación lo más importante es conseguir su adopción por su mercado objetivo, y estas maneras “unidimensionales” de medir la innovación pierden de vista un factor muy importante: la separación entre los beneficios de adoptar una innovación y los costes asociados. Muchos productos innovadores que han fallado en el mercado lo han sido porque se concentraron en ofrecer ventajas radicales a los clientes, sin ocuparse de contrarrestar o minimizar los costes (no sólo económicos, sino psicológicos) que su adopción significaba para los usuarios.

En consecuencia, muchos enfoques de marketing de tecnología recogen esta dualidad beneficio-pérdida:

  • Geoffrey Moore, en su libro “Inside the Tornado”, presenta un modelo en que la discontinuidad que caracteriza a un producto innovador tiene dos dimensiones: application breakthrough (los beneficios que aporta) y paradigm shock (el impacto sobre comportamientos de usuarios, infraestructura, etc.) que actúan como el acelerador y el freno para la adopción de la innovación.
  • En su artículo “Eager Sellers and Stony Buyers” John Gourville presenta un modelo en que los consumidores valoran una innovación en términos de lo que ganan y lo que pierden en comparación a los productos que usan actualmente. Gourville llama a esas variables grado de cambio de producto y grado de cambio de comportamiento y en conjunto definen un plano que incluye desde productos que requieren un cambio de comportamiento masivo sin aportar ventajas claras (que él llama sure failures, p.ej., el teclado Dvorak) a otros que proporcionan beneficios revolucionarios sin exigir cambios significativos (smash hits, p.ej., Google).

En definitiva cualquier empresa innovadora que se olvide de las dos caras que definen la innovación desde el punto de vista de los clientes está arriesgándose a cometer un error fatal.

32 comentarios

La semana pasada tuvo lugar en Boston la cuarta B2B Demand Generation Summit de la Costa Oeste de MarketingSherpa. Lo que sigue resume algunas de las principales preocupaciones e inquietudes que allí se suscitaron entre los responsables de generar demanda en mercados B2B de productos tecnológicos. Más información en MarketingSherpa’s Boston Summit Wrap-Up Report o Top 5 Challenges for B2B Demand Generation Marketers.

Los comités de compras siguen creciendo. Incluso en empresas pequeñas (100-500 empleados) el número medio de personas involucradas en una decisión es de 6,8. Eso significa que para vender hay que responder a las preguntas de todos ellos, cada uno con preocupaciones y puntos de vista diferentes.

Proporcionar información relevante es clave. No sólo es necesario proporcionar contenidos específicos para cada perfil de comprador o decisor, sino también para cada etapa en el ciclo de compra. Esto es más cierto en cuanto que los diferentes participantes tienden a involucrarse más en etapas diferentes del proceso.

Conseguir resultados con presupuestos más ajustados. Algunas tácticas de relativo bajo coste que pueden ayudar son: construir y optimizar landing pages y microsites (pueden mejorar los ratios de conversión en un 40%), utilizar blogs, vídeos de bajo coste, etc.

Estar allí donde los clientes buscan. El 80% de los decisores dice que son ellos quienes encuentran a sus proveedores (y no al revés). Eso quiere decir que para vender es imprescindible resultar fácil de encontrar cuando los compradores están buscando. Algunos consejos: concentrarse en los sitios donde los clientes empiezan a buscar (motores de búsqueda, y principalmente Google) y realizar múltiples campañas en diversos medios a lo largo del año (en lugar de una o dos principales).

Gestionar adecuadamente los leads. Menos del 25% de los leads que entran por un sitio web están en situación de ser traspasados al departamento de ventas. Por eso, las empresas que utilizan las técnicas adecuadas (lead scoring, lead nurturing…) para ir construyendo una relación con aquellos leads cualificados que no están en situación de comprar obtienen mejores resultados. Estas empresas que aplican las mejores prácticas pasan menos leads a ventas pero cierran más operaciones. Eso quiere decir que tienen más ingresos pero también menos costes, al utilizar más eficientemente un recurso tan caro como la fuerza de ventas.

El reto de la Web 2.0. En USA, exceptuando las grandes empresas la Web 2.0 todavía no ha sido muy adoptada como medio de difundir información comercial: menos del 20% de las medianas y pequeñas empresas utilizan blogs, podcasts o feeds y aproximadamente sólo el 20% utiliza redes sociales.

¿Estáis de acuerdo? ¿Son éstas vuestras principales preocupaciones como high-tech marketers?

5 comentarios

La importancia de la marca en el marketing de productos tecnológicos en mercados B2B es un tema actualmente sujeto a debate.

Durante el anterior boom de Internet una empresa tecnológica necesitaba presentarse como un player, cuanto más avanzado e innovador, mejor. El éxito tenía que ver con una marca sofisticada y un marketing llamativo que captara la imaginación de mercado y la atención de los inversores. Después del estallido de aquella burbuja, la atención de las empresas tecnológicas se reorientó a la más prosaica realidad de generar demanda para alimentar el pipeline. El criterio clave para el éxito no estaba en vender una visión, sino en demostrar que podemos vender nuestros productos. Eso ha llevado a una situación en que con frecuencia se oye la queja “Necesitamos aumentar nuestro reconocimiento de marca para mejorar nuestros resultados de marketing” que suele encontrar una respuesta del tipo “Sal ahí fuera y vende. El reconocimiento de marca no importa”.

Entonces ¿cuánto de importante es la marca para una empresa tecnológica en un mercado B2B? ¿Vale la pena invertir nuestros (escasos) recursos en construir una marca fuerte?

Contrariamente a lo que algunos opinan, los estudios muestran que el reconocimiento de marca sigue siendo importante en estos mercados. Por ejemplo, el Business Technology Marketing Benchmark Guide 2006 de MarketingSherpa muestra que la marca afecta al proceso de compra: un alto reconocimiento de marca tiene un impacto positivo sobre aspectos como la asociación de mensajes y la intención de compra en una relación 2:1 frente a un bajo reconocimiento de marca. Otros estudios muestran que la marca también tiene un impacto positivo sobre la generación de demanda: si una empresa es conocida, sean cuales sean las técnicas de generación de leads que utilice, es más probable que éstas funcionen mejor (aunque esto se presta a interpretaciones sobre “cuál es el huevo y cuál la gallina”).

Además, una marca eficaz no sólo refuerza los programas de generación de demanda: es una de las pocas maneras en que una empresa tecnológica puede facilitar su tránsito por los procesos de decisión de sus potenciales clientes, aumentando su reconocimiento entre los directivos de primer nivel (CXO) que toman la decisión final. Algunos sostienen que en el caso de productos tecnológicos de gran complejidad, con ciclos de vida cada vez más rápidos y que se enfrentan a competidores sofisticados la marca es casi más importante que en mercados de consumo, ya que ante la dificultad de evaluar en detalle las alternativas los clientes pueden usar la reputación de una marca como medio de disminuir el riesgo. Finalmente, una marca fuerte permite cargar los productos con una prima de precio y disminuir los riesgos en el lanzamiento de productos innovadores.

Entonces, si la marca sigue siendo importante ¿debe ser una inversión prioritaria en nuestro mix de marketing? No olvidemos que construir una marca exige, entre otras cosas, una continuidad en la aplicación de unas herramientas (habitualmente, publicidad y relaciones públicas) de alto coste. Uno de los problemas más habituales es que si no se invierte lo suficiente como para alcanzar y mantener los objetivos perseguidos de notoriedad, preferencia, etc. esa inversión se pierde, con lo que al final paradójicamente se acaba gastando demasiado.

En los tempos actuales, de recorte en los presupuestos de marketing y de medida de esta actividad por criterios de ROI, es muy común en las empresas tecnológicas el error de desviar el presupuesto de branding a la generación directa de demanda. A primera vista parece una decisión fácil de tomar: se sacrifican campañas de creación de marca difíciles de cuantificar en aras de una generación de leads totalmente medible que aporta una contribución más obvia a los ingresos.

En este contexto el peor escenario es el de una empresa con recursos de marketing limitados que desea introducir una innovación discontinua (y desconocida) en el mercado ¿Cuándo y cómo construir su marca? La respuesta viene de la mano de los modelos de difusión de la innovación. Sin duda, para los clientes del Early Market (Entusiastas de la Tecnología y Visionarios, según la terminología de Geoffrey Moore), la marca no va a ser tan importante como lo novedoso de la tecnología y las ventajas competitivas que se pueden obtener de un uso pionero de ésta. Sin embargo, para los clientes del Mainstream Market (Pragmáticos, Conservadores y Escépticos), la garantía de una marca sí que puede ser un argumento de compra. Por lo tanto, en este escenario particular parece acertado no invertir en campañas específicas de construcción de marca durante las primeras fases de desarrollo del mercado y dedicar los limitados recursos de marketing a la generación de demanda.

¿Quiere eso decir que debemos abandonar la creación de una marca? No exactamente. Si conseguimos que esas campañas de lead generation sirvan además para ir construyendo marca (mediante un targeting, una consistencia en la identidad y el posicionamiento a través de todos los canales y una continuidad adecuados), cuando llegue el momento de atacar el Mainstream Market contaremos con un activo de un enorme valor.

7 comentarios

En estos tiempos de nuevas herramientas de marketing (algunas basadas en la Web 2.0: blogs, redes sociales…) la prospección telefónica «en frío» (o «a puerta fría»), sin contacto previo, ya no es suficientemente sexy como para llamar la atención de los especialistas si no es para denigrarla. En los últimos tiempos se ha argumentado que el cold-calling aplicado a la generación de leads (no a su cualificación o a otras actividades) en mercados B2B es caro y tiene un bajo índice de éxito. En definitiva, que no funciona.

Entonces, en un escenario de venta de productos tecnológicos en mercados B2B ¿está el cold-calling muerto (más que frío)? ¿Debería abandonarse en favor de otras técnicas más eficaces o más «modernas»?

Mi opinión es que, parafraseando a Mark Twain, «los rumores sobre su muerte son exagerados» y la prospección en frío tiene todavía mucho que decir. Es cierto que el cold-calling puede llegar a ser una alternativa cara y de resultados pobres, pero la razón está en que esta técnica (como todas) no funciona si se aplica mal. Y se ha venido aplicando rematadamente mal. Algunos de los peores «crímenes» cometidos en el uso de la prospección telefónica en frío (muchos de ellos, inspirados por una aplicación convencional de esta técnica en otros mercados) son:

  • Se utiliza para intentar vender, en lugar de cómo un primer paso para establecer una relación con el prospect. Cuando el cold-calling se usa para intentar vender productos complejos (y caros) a clientes empresariales se está optando a un fracaso seguro.
  • Se plantea como un juego de grandes números: «tengo una lista con 1.000 nombres, de los cuales voy a poder contactar con 100, de los cuales van a estar interesados 10, de los cuales a corto plazo voy a vender a 1». Con estos números no es de extrañar que al final acabe resultando una estrategia muy cara.
  • No se insiste lo suficiente. Por sistema, un nombre de la lista se abandona tras 2-3 intentos infructuosos de contactar con él (y, tal vez, después de haber dejado un mensaje anodino en su buzón de voz).
  • Se encomienda la labor de llamar a personal a quien no le gusta hacerlo, que no está motivado para ello (y que siempre encuentra otras cosas «más urgentes» que hacer) o que no ha sido suficientemente formado. En productos complejos esto es un error fatal.

La prospección telefónica en frío ha ganado muy mala fama porque se le acusa de no proporcionar resultados y de ser molesta para el llamado (aunque igualmente molesta y mucho más frustrante para el llamante). Pero la realidad es que el cold-calling funciona si se hace bien. Antes de ver cómo conseguirlo aportaremos algunos datos que justifican esta afirmación.

MarketingSherpa ha dedicado varios estudios a este tema:

  • En una encuesta a prospects en mercados B2B que habían recibido llamadas de prospección, el 53% declaró haber incorporado al proveedor a su base de datos de suministradores para considerarlo en el futuro y el 40% lo invitó a suministrar más información por otros medios (email, entrevista…).
  • Según el Business Technology Marketing Benchmark Guide, lo que más valoran los prospects que han recibido cold-calling es el respeto con su tiempo, seguido de una actitud de escucha en el llamante, y de un follow-up en el que se aporte información relevante. En cuanto a la receptividad de los llamados, el 92% de los decisores (y el 83% de los otros participantes en el proceso de decisión) consideran aceptable o útil recibir llamadas de prospección telefónica, siempre que sean respetuosos con su tiempo y aporten información relevante.
  • En una revisión de campañas de cold-calling ya ejecutadas se encontró que el número medio de intentos para completar una conversación es de casi 4; sin embargo cuando el destinatario es un miembro de la alta dirección (CXO) ese número es de aproximadamente 7 intentos. En promedio el 75% de todas las llamadas acaban en un buzón de voz.
  • En cuanto a los resultados, en media el 12% de los nombres de una lista acaban siendo conectados; de ellos, el 59% son fallidos (sin interés) y el resto son leads más o menos cualificados (entre ellos, el 25% son «tibios» y el 16% «calientes»). El coste por contacto en campañas realizadas en USA es de 17,9 $ de media, dentro de unos límites habituales de 9-50 $ y con la mayoría entre 15 y 20 $.

Por otra parte, en una encuesta a proveedores B2B sobre las vías utilizadas para generar leads de calidad, RainToday encontró que el cold-calling es casi la más valorada, sólo superada por las referencias (especialmente, las aportadas por clientes y partners).

Así pues, en marcados B2B el cold-calling es una herramienta valorada por los profesionales del marketing y aceptada (si se hace adecuadamente) por los destinatarios de las llamadas. En un próximo post nos ocuparemos de qué podemos hacer para mejorar sus resultados.

5 comentarios

¿Alguna vez os habéis preguntado cuáles son las diferencias entre intentar vender un mismo producto innovador en España y en USA? Lo que sigue son mis opiniones sobre el tema, basadas en algunas experiencias propias y otras que me son muy cercanas trabajando en multinacionales tanto españolas como americanas que venden en ambos países. Hay que hacer la salvedad de que hablamos de  tecnologías de la información (TI) en mercados empresariales (B2B) y únicamente desde una perspectiva de marketing y ventas (y no de desarrollo de tecnología, producción, etc.). Los principales factores de diferencia son los siguientes:

Tamaño del mercado potencial. Cuando se trata de productos realmente innovadores, el tamaño del mercado es difícil de prever. Como primeros elementos de comparación, tanto el tamaño de la economía como el volumen de inversión en TI (como porcentaje de la inversión total) son muy superiores en USA, frente al tradicional déficit de inversión en tecnologías de nuestro país. Obviamente, para un producto particular lo importante es el tamaño en cada país del target que se vaya a atacar y que éste tenga una necesidad real e inmediata de nuestro producto. Si no existe un segmento con una razón para comprar no hay mercado. A este respecto, algunos factores del entorno local (p.ej., la legislación) pueden hacer que productos que en un país son imprescindibles en otro resulten innecesarios, convirtiendo en irrelevante cualquier otra consideración sobre el tamaño del mercado.

Grado de receptividad ante la innovación. Toda innovación produce discontinuidad y cambios y no todos los potenciales clientes reaccionan igual ante ellos. El modo en que los compradores responden ante ese cambio y su disposición a adoptar la innovación condicionan la receptividad del mercado ante el nuevo producto. A este respecto, es evidente que el mercado USA es mucho menos averso al riesgo que el español. Es muy habitual que las nuevas tecnologías empiecen a adoptarse primero en ese mercado, probablemente no tanto por una razón de cercanía a la oferta como porque es más habitual la figura del usuario visionario que está dispuesto a asumir los riesgos de utilizar una nueva tecnología si con ello obtiene beneficios diferenciales. En España hay una menor cultura de explorar nuevas tecnologías (se podría decir que pervive el «que inventen ellos») algunos de cuyos indicios son en el bajo consumo de información de analistas tecnológicos (p.ej., Gartner, Forrester) y la escasa presencia de visitantes españoles en las ferias tecnológicas de ámbito global y que se plasma en pocas empresas españolas que son reconocidas internacionalmente por usos innovadores de la tecnología. Por estas (y por otras razones también ligadas al lado de la oferta) la adopción de las innovaciones en España suele llevar unos años de retraso respecto de USA y otros países.

Existencia de productos competidores y sustitutivos. A la hora de resolver una necesidad de los clientes, la rivalidad puede provenir tanto de competidores dentro de la misma categoría de productos como de productos sustitutivos. En el caso de un producto realmente innovador, sobre todo si está intentando una estrategia de first-mover, es probable que la rivalidad provenga más de productos sustititivos que de unos competidores que todavía no se han desarrollado. En USA (cuna de la mayoría de las innovaciones en TI) es raro que un producto innovador esté solo en el mercado durante mucho tiempo. Si se vislumbra un mercado atractivo -y a menos que las barreras de entrada sean muy altas- la cultura emprendedora y la existencia de inversores que caracterizan ese país harán brotar competidores rápidamente. Por el contrario, si en España se lanza un producto innovador hay menos riesgo de que aparezcan competidores locales o entren extranjeros (que prefieren centrarse antes en mercados más prometedores) debido a un cierto déficit tanto de espíritu emprendedor como de fuentes de inversión. Sin embargo, no menospreciemos a los productos sustitutivos atrincherados en los clientes objetivo. Cuando éste es el caso, a menos que el nuevo producto aporte unos beneficios sustanciales frente al statu quo, los costes de cambio frenarán la adopción de la innovación. En España, con unas empresas poco propensas a acometer cambios, este factor puede ser muy relevante.

Presencia de partners, distribuidores y productos complementarios. Cuando se trata de vender un producto innovador -sobre todo por parte de una empresa con recursos limitados- el disponer de aliados, partners, distribuidores, VARs e incluso productos complementarios con presencia local en el país es imprescindible para conseguir credibilidad, experiencia sectorial o vertical, cobertura de mercado y capacidad de proporcionar una solución completa para las necesidades de los clientes. Este último punto (la construcción del whole product) puede ser imprescindible cuando el producto innovador trata de alcanzar el mainstream market, y especialmente si se trata de un producto plataforma. En este apartado el mercado USA está mucho más desarrollado en cuanto a la presencia de partners, canales de distribución y productos complementarios de toda índole para apoyar la comercialización de cualquier innovación, tanto en cantidad y variedad como en especialización y profesionalidad.

Facilidad de financiación. La introducción de un nuevo producto en un mercado es un proceso difícil y caro, que puede consumir incluso más recursos que el propio desarrollo. Si, como ocurre habituamente, la empresa innovadora no es una gran compañía asentada y «con los bolsillos llenos» sino una startup no sobrada de recursos, es imprescindible que en el país exista un sector de inversores (p.ej., capital riesgo) capaces de entender lo que significa innovar y con una cultura de aceptación del riesgo. En este punto las diferencias entre USA y España son abismales: en el primer caso los venture capitalists son figuras tradicionales y con una relación simbiótica con el sector tecnológico (basta con que empieces a aparecer en los informes de los analistas para que los VCs hagan cola ante tu puerta); por el contrario, en nuestro país las alternativas de financiación para la innovación son escasas e ineficaces.

Disponibilidad de recursos de marketing/ventas. En este epígrafe se incluyen tanto (a) la existencia en el mercado laboral de los perfiles profesionales necesarios (ej: personal directivo, product managers, product marketers, account executives, sales engineers…) competentes en un escenario high-tech, como (b) la disponibilidad de una serie de recursos externos de apoyo a la ejecución de estrategias comerciales en mercados tecnológicos: agencias de estudios de mercado, empresas de marketing directo especializadas, proveedores de listas con los contactos objetivo, agencias de comunicación y relaciones públicas, medios de comunicación (tanto tradicionales como offline) de calidad que sean consultados por nuestros potenciales clientes, analistas tecnológicos, eventos y ferias específicos, comunidades y redes de usuarios de tecnología que puedan servir para dar a conocer nuestra innovación, etc. Nuevamente en este punto la diferencia es enorme: las peculiaridades del high-tech marketing son una materia obligada de los programas de cualquier escuela de negocios de USA y un punto generalmente relegado en España. En cuanto a empresas de servicios especializadas en marketing de la innovación, en USA existen muchas y muy profesionales, generalmente lideradas por ex-directivos de empresas tecnológicas. Lo mismo pasa con medios de comunicación de calidad, comunidades, etc. Al final, los clientes potenciales en España son más difíciles de alcanzar, pero no sólo porque los vehículos locales sean deficientes, sino porque los compradores españoles de TI no suelen buscan activamente información en medios externos. Nuestra experiencia es que si una innovación se comunica globalmente a través de un medio de alcance mundial, se van a recibir consultas y expresiones de interés empezando por USA y pasando por casi cualquier país industrializado… pero probablemente ninguna desde España.

En conclusión, comparando las dificultades de vender TIs innovadoras en España y USA, mi experiencia es que el mercado americano es más favorable en cuanto a potencial, receptividad y recursos de apoyo, pero más difícil en lo que respecta a la competencia. ¿Cuál es vuestra opinión?

2 comentarios