Crecimiento de productos tecnológicos

Sin duda ésta es una idea muy extendida entre muchas empresas bien gestionadas del sector tecnológico, empresas que escuchan lo que sus clientes necesitan y que desarrollan productos avanzados para responder a esas necesidades cada vez más sofisticadas (obteniendo una buena rentabilidad en el proceso). Sin embargo, tal como vamos a ver en ocasiones puede revelarse como errónea y ser la razón última del fracaso de empresas líderes.

La idea está fundamentada en el concepto convencional de evolución de las tecnologías en un mercado y de sustitución de unas tecnologías por otras y formalizado en el clásico modelo de Ciclo de Vida de las Tecnologías o curva en S. En esencia, esta curva representa la variación de la funcionalidad o las prestaciones de los productos basados en una tecnología dada (según los criterios imperantes en el mercado de que se trate) en función del tiempo o, más precisamente, del esfuerzo invertido en dicha tecnología. Esta evolución de las prestaciones tiene forma de S, con un tramo inicial de crecimiento lento seguido de un tramo intermedio de crecimiento acelerado de las prestaciones (originado por la mayor experiencia y desarrollo de la tecnología) y terminado en un tramo de rendimiento lento (cuando se empiezan a alcanzar los límites de la tecnología para esa aplicación). Si en un cierto instante una tecnología A se encuentra en ese tramo final de estancamiento y otra nueva tecnología B está en su período de crecimiento y sus prestaciones empiezan a superar a las de la tecnología A, el terreno está abonado para la sustitución de la primera por la segunda.

Sucesión Tecnologías

Aunque esto no quiere decir que la nueva tecnología llegue finalmente a adoptarse, el modelo lleva a pensar que lo que nunca va a ocurrir es que el mercado acabe adoptando una tecnología inferior. Sin embargo de vez en cuando aparecen tecnologías que partiendo de un nivel de prestaciones inaceptable para los usuarios acaban desplazando a las tecnologías dominantes. El análisis más aceptado de este fenómeno es el que hace Clayton Christensen en su libro «The Innovator’s Dilemma», cuando habla de innovaciones disruptivas.

Según él, estas innovaciones vienen de la mano de tecnologías que aunque proporcionan un nivel de prestaciones inferiores a las vigentes (medidas según los criterios imperantes) aportan beneficios en cuanto a sencillez, fiabilidad, facilidad de uso, etc. y nuevas propuestas de valor que las abren a su utilización en aplicaciones alternativas. Sin embargo, estos nuevos mercados no son atractivos para las empresas líderes de los mercados tradicionales, que los consideran alejados de las necesidades de sus clientes, de pequeño tamaño y porvenir incierto y de escasa rentabilidad.

De modo que estas tecnologías disruptivas (que en muchas ocasiones han nacido en los laboratorios de las empresas líderes), tienen que ser desarrolladas en mercados de nicho o marginales por empresas innovadoras que se encuentran libres de las servidumbres a los clientes, mercados y mecanismos de asignación de recursos tradicionales.

Sin embargo, con el tiempo y el esfuerzo de desarrollo invertido para servir a esos mercados alternativos la tecnología disruptiva mejora hasta el punto de que su funcionalidad y prestaciones resultan aceptables para los clientes de los mercados tradicionales (aún cuando sigan siendo inferiores a los de las tecnologías hasta entonces dominantes). Esto, unido a sus ventajas en facilidad de uso, fiabilidad, etc. le permite invadir los mercados establecidos y desplazar a las tecnologías (y a las empresas) dominantes hasta entonces.

Christensen analiza en su libro varios ejemplos de este tipo de disrupción, incluyendo los microprocesadores, las minimills para la fabricación de acero o la tecnología hidráulica en las excavadoras. Algunos procesos de disrupción actualmente en curso están siendo protagonizados por las cámaras digitales o la telefonía IP.

Una de las conclusiones más contraintuitivas (y desasosegantes) del libro de Christensen es que todas esas compañías líderes desplazadas por las innovaciones disruptivas lo han sido precisamente por estar bien gestionadas: han sido las mismas buenas prácticas de gestión que las llevaron al éxito inicial (escuchar a sus clientes, invertir en mercados grandes, buscar la máxima rentabilidad) las que propiciaron que no prestaran atención a la aparición de innovaciones con potencial disruptivo, despreciaran su aplicabilidad y dejaran ese flanco al descubierto, error que en ocasiones llegó a ser definitivo.

¿Cómo deben responder las empresas líderes ante el dilema que plantean las innovaciones disruptivas y aprovechar en su favor esa dinámica de la disrupción? Christensen da algunas ideas:

  • Asignar la responsabilidad de desarrollar y comercializar tecnologías disruptivas a organizaciones cuyos clientes las necesiten. De este modo la demanda de los clientes conseguirá que a esta innovación se le asignen los recursos que necesita.
  • Hacer que estas organizaciones sean independientes de la empresa matriz y de un tamaño suficientemente reducido como para que les resulten estimulantes un mercado pequeño y unos resultados modestos.
  • A la hora de buscar un mercado para una innovación disruptiva asumir la posibilidad de fallos iniciales y en caso de que ocurran conseguir que lo hagan lo antes y del modo más barato posible. No apostar todos los recursos en el primer intento. Considerar los intentos de comercialización como oportunidades de aprendizaje.
  • Utilizar recursos de la empresa matriz, pero no aplicar ni sus procesos ni sus valores. Crear nuevas formas de trabajar en una organización cuyos valores y estructura de costes están adaptados a la tarea disruptiva.
  • Buscar lo antes posible un mercado que valore los atributos actuales del producto disruptivo (con sus ventajas y sus limitaciones) en lugar de forzar un avance tecnológico que le permita competir en el mercado tradicional. El principal reto en la comercialización de una innovación disruptiva es de marketing, más que tecnológico.

Ignorar el potencial de las innovaciones disruptivas es un acto de miopía estratégica, pero estas innovaciones plantean a las empresas establecidas un difícil dilema, ya que requieren un distanciamiento de las prácticas de gestión que han sido fuente del éxito hasta ahora. Entender los principios de la disrupción y orientarlos en nuestro favor nos permitirá aprovechar todo ese potencial de creación de nuevos mercados y de cambio de las reglas en los existentes.

8 comentarios

En mercados conocidos y donde se entienden bien las necesidades de los clientes, el enfoque predictivo convencional para el desarrollo y marketing de productos innovadores -basado en una precisa investigación del mercado, una planificación cuidadosa y una ejecución sin fallos- es crítico para el éxito.

Por el contrario, aplicar dicho enfoque a productos radicalmente nuevos (en el que se trata de descubrir o crear mercados que no existen) puede tener un efecto paralizante al requerir estimaciones, planes y presupuestos detallados que es imposible conocer. En este caso el enfoque convencional basado en recoger toda la información posible para aumentar la probabilidad de éxito no sólo consume mucho tiempo y esfuerzo, sino que debido al particular escenario de volatilidad e incertidumbre de estos proyectos esa información nunca va a ser válida o suficiente.

Por ello no es de extrañar que, para el caso de productos nuevos, en los últimos años hayan tenido aceptación planteamientos que optan por un lanzamiento rápido, que permita capturar las ventajas de una entrada temprana e ir ganado rápidamente experiencia real en el mercado. Algunos de estos enfoques se describen a continuación:

  • G. Hamel y C.K.Prahalad, en su artículo “Corporate Imagination and Expeditionary Marketing”, proponen un marketing expedicionario, basado en realizar incursiones en el mercado (“mini-lanzamientos”) rápidas y aprender de ellas, de modo que con cada una la empresa vaya acumulando conocimiento, clientes y cuota. La estrategia está basada en el aprendizaje: cada una de estas incursiones rápidas y de bajo coste permite a la empresa recalibrar su oferta en cada ocasión, de modo que la combinación de velocidad y aprendizaje aumente las probabilidades de éxito final.
  • Clayton Christensen, en su libro “The Innovator’s Dilemma”, diferencia entre innovaciones de sostenimiento y disruptivas y opta por un planteamiento novedoso para este segundo tipo. Según él, en el caso de innovaciones disruptivas lo único que con certeza se sabe sobre estos mercados es que las previsiones de los expertos van a ser erróneas y, como consecuencia, las estrategias iniciales de entrada van a estar equivocadas. Por lo tanto, en el caso de creación de nuevos mercados, los planes tienen que servir no tanto para ejecutar como para aprender e ir recopilando la información sobre el mercado necesaria para tomar las decisiones adecuadas en cada momento. Christensen llama marketing agnóstico a este proceso para ir descubriendo mercados emergentes que se basa en asumir que ni nosotros ni los clientes sabemos cómo, cuánto o si efectivamente un producto disruptivo va a ser utilizado antes de tener experiencia real usándolo.
  • En el artículo “Marketing and Discontinuous Innovation: The Probe and Learn Process” G. Lynn, J. Morone y A. Paulson analizan innovaciones discontinuas en varios sectores y descubren que el éxito suele estar asociado a un proceso que los autores denominan “Sondear y Aprender” que consiste en introducir versiones iniciales del producto en una variedad de segmentos potenciales, aprender de estos experimentos e ir realizando aproximaciones sucesivas al mercado basadas en la experiencia real. Aquí la pregunta clave no es cómo acertar con el producto a la primera, sino qué pasos hay que dar para generar la máxima información y maximizar el aprendizaje. En otro post hablamos con más detalle del proceso Probe and Learn.
  • En «The Four Steps to the Epiphany» Steve Blank postula que las startups tecnológicas no deben caer en la trampa de centrarse en el proceso tradicional de desarrollo de producto y de escalar prematuramente unos procesos de marketing inestables, sino que deben invertir el tiempo necesario en un proceso iterativo de descubrimiento de sus clientes y de validación de su modelo de negocio que él denomina Customer Development y que describimos en este post. Este método es el precursor del movimiento Lean Startup.
  • Con un alcance menos orientado a lograr el conocimiento de un mercado y más a la panificación de negocio en entornos de alta incertidumbre, R. Gunther McGrath e I. MacMillan proponen en «Discovery-Driven Planning» un enfoque en el que los planes están sujetos a cambios y sus parámetros se van modificando a medida que aparece nueva información.

Bajo estos enfoques, lo que de verdad cuenta no es acertar la primera vez, sino la rapidez con la que una compañía puede aprender y modificar su estrategia y su oferta basándose en su experiencia acumulada en el mercado, y la capacidad para conservar los recursos y la credibilidad suficiente que le permitan realizar este replanteamiento.

Un ejemplo palpable de aplicación de estos principios lo tenemos en la nueva Web 2.0, donde muchos productos se proporcionan como servicios en “beta perpetua” cuya funcionalidad va evolucionando continuamente en función de la utilización que los usuarios (que son tratados como co-desarrolladores) hacen de ellos.

Lamentablemente muchos ejecutivos, cuando afrontan esta forma de dirección bajo incertidumbre, prefieren esperar a que otros hayan definido el mercado. Sin embargo, dadas las poderosas ventajas de entrar en primer lugar cuando se trata de crear nuevos mercados, no queda más remedio que salir de los laboratorios e ir construyendo directamente conocimiento sobre los nuevos clientes y aplicaciones mediante expediciones de descubrimiento en el mercado.

24 comentarios

En estos tiempos de sobreabundancia informativa -y propagandística- la percepción que los posibles usuarios tienen de una nueva tecnología está condicionada por muchas influencias que nada tienen que ver con sus méritos objetivos. Durante los años previos al estallido de la anterior burbuja tecnológica muchas decisiones de inversión en tecnologías de la información se tomaron por criterios de «moda» y no de valor para el negocio. ¿A alguien le vienen a la cabeza siglas como SCM, CRM o E-business?

Por el contrario, en un momento actual caracterizado por presupuestos más restrictivos, las empresas buscan criterios que les ayuden a identificar las situaciones de «exuberancia irracional» que se crean alrededor de ciertas tecnologías y que podrían llevarles a decisiones de inversión de las que más tarde tendrían que arrepentirse. Una herramienta muy utilizada es el modelo de Hype Cycle de la conocida firma de análisis Gartner Group.

El modelo representa la evolución de lo que denomina visibilidad de una tecnología emergente (aunque sería más correcto llamarlo expectativas despertadas por esa tecnología) en función del tiempo. Una evolución que progresa desde un entusiasmo exagerado, pasando por un período de desilusión hasta una eventual comprensión de la relevancia de la tecnologia y de su papel en un mercado o dominio. En «Understanding Hype Cycles» Gartner describe el modelo y las etapas típicas en las que se divide, que reciben los alegóricos nombres de Technology Trigger, Peak of Inflated Expectations, Trough of Disillusionment, Slope of Enlightenment y Plateau of Productivity (ver figura).

Gartner Hype Cycle

El Hype Cycle describe no tanto una tecnología como las percepciones y la actitud de las personas ante la innovación. El modelo se justifica por la influencia de dos fuerzas principales que conforman las expectativas que se crean alrededor de una nueva tecnología:

  • En primer lugar, el ruido de comunicación (noticias, publicidad…) sobre dicha tecnología, que es el factor predominante durante las primeras fases de su vida, y que fomenta inicialmente la creación de expectativas especulativas y en muchos casos infundadas y posteriormente (si la tecnología no cumple sus promesas) la caída en la percepción pública hasta niveles incluso inferiores a los que le corresponderían aplicando criterios realistas.
  • Posteriormente, la madurez de la tecnología (desde un punto de vista técnico y de negocio) que conlleva una mejora en las prestaciones, su adopción por parte de los clientes, etc. y que va regenerando las expectativas hasta un nivel acorde con los méritos de la tecnología y los beneficios que aporta. Esta regeneración no está ya basada en la especulación sino en experiencias reales.

Por supuesto, no quiere decirse que todas las tecnologías sigan exactamente este patrón: las hay que evolucionan sin experimentar un pico de expectativas claro, protagonizando varios picos y valles, etc.

El Hype Cycle se une así a otros modelos de ciclo de vida que se aplican a las tecnologías (el clásico ciclo de vida de un producto o tecnología, la curva en S, el TALC…), aunque con algunas diferencias: el Hype Cycle es más útil desde la perspectiva del comprador de tecnología (no del proveedor), tiene un carácter eminentemente descriptivo y su utilidad predictiva y de definición de planes de acción es menor.

Hay que mencionar que Gartner publica periódicamente informes donde se analiza la posición en cada momento de diversas tecnologías (p.ej., Linux, gestión de datos, tecnologías emergentes) en el Hype Cycle. Por eso, aunque en la descripción del Peak of Inflated Expectations esta empresa menciona que durante esta fase “las únicas empresas que ganan dinero son los organizadores de conferencias y los editores de revistas” no sería injusto incluir a los analistas en ese privilegiado grupo.

La principal enseñanza del Hype Cycle es que las empresas no deberían invertir en una tecnología únicamente porque está generando mucho ruido ni deberían desdeñarla sólo porque no está cumpliendo unas expectativas iniciales exageradas. Por el contrario, los usuarios deberían identificar qué tecnologías son potencialmente beneficiosas para su negocio (y cuánto) e invertir teniendo en cuenta los riesgos asociados a su grado de madurez.

Como curiosidad, Gartner cita como ejemplo de informe de Hype Cycle singularmente influyente el que publicó en noviembre de 1999 sobre las tecnologías de E-Business y en el que se anticipaba el estallido de la burbuja puntocom que se produjo en la primavera del 2000.

4 comentarios

El primer requisito para innovar con éxito es entender lo que necesitan los clientes pero a veces para averiguarlo es mejor no escucharlos… sino irse a vivir con ellos.

Las técnicas tradicionales de investigación de mercados (entrevistas, focus groups, encuestas, análisis conjunto…) han demostrado su utilidad en escenarios de relativamente baja innovación, con mercados y categorías de producto establecidas. Por su parte, muchos estudios demuestran que el éxito en el desarrollo de nuevos productos está relacionado con la comprensión de las necesidades de los clientes potenciales. Y es en escenarios con necesidades desconocidas o soluciones nuevas cuando los métodos tradicionales tienden a fracasar.

De hecho, en el caso de muchos productos radicalmente innovadores que han alcanzado el éxito se comprobó a posteriori que- si bien se había realizado una investigación de mercado convencional- sus resultados fueron imprecisos o erróneos y posteriormente dejados de lado en el proceso de desarrollo de la innovación. Y es que resulta difícil identificar necesidades que los usuarios no expresan, encontrar aplicación a tecnologías que sólo conocen sus descubridores o validar productos que no existen.

Entonces ¿qué técnicas de investigación de mercado deberíamos emplear a la hora de innovar? La clave -como es habitual- está en el grado de innovación de cada caso. D. Leonard-Barton, E. Wilson y J. Doyle, en su artículo “Commercializing Technology: Imaginative Understanding of User Needs” analizan las técnicas de investigación en un contexto de innovación en función de dos variables: el nivel de conocimiento de la necesidad (conocida, anticipada, incierta) y el grado de novedad de la solución (mejorada, nueva, en evolución). El marco del análisis se representa en la siguiente figura:

En este continuo de innovación, la zona más próxima al lado izquierdo representa los casos en que un producto mejorado (no radicalmente nuevo) trata de alinearse con un mercado actualmente existente; por el contrario, la zona cercana al lado derecho significa la creación de nuevos mercados (a veces, aplicando nuevas tecnologías y modelos de negocio).

Desde el punto de vista de las técnicas de investigación, los autores distinguen tres zonas (ver figura):

  • En la zona izquierda (producto alineado con mercados existentes) las técnicas tradicionales (p. ej., entrevistas) de investigación son válidas porque los clientes y productos son conocidos y las necesidades son actuales y comunicables.
  • En la zona derecha (creación de mercado) y debido a su elevada incertidumbre, lo mejor es aplicar la intuición guiada, la generación de escenarios y la experimentación en el mercado. En este caso el proceso generalmente es más difícil de sistematizar y estructurar.
  • La zona central está ocupada por una serie de técnicas que se aplican en casos de incertidumbre y riesgo intermedios (pero que también son aplicables ante determinadas situaciones en los escenarios extremos de alineación de producto y creación de mercados) y que los autores denominan diseño empático. Estas técnicas se basan en alcanzar un profundo conocimiento del entorno actual del usuario no mediante la consulta, sino mediante la observación, la participación y la inmersión en su propio ambiente para entender sus objetivos, problemas, frustraciones, uso de productos y actitudes ante estos, limitaciones que detectan en ellos, etc. Algunas de estas técnicas son el análisis de lead users, la etnografía, incorporar a usuarios como diseñadores, etc. Las posibilidades de estas técnicas se desarrollan al máximo cuando se trata de proponer soluciones nuevas para todo tipo de necesidades del usuario, tanto conocidas como anticipadas.

Sin embargo, y a pesar de estos enfoques, cuando se trata de desarrollar innovaciones realmente radicales la única manera de conocer el mercado es explorándolo mediante la experimentación real.

Probablemente una de las mayores dificultades a la hora de descubrir necesidades es llegar a un acuerdo sobre qué se entiende por ese término. Aunque todos tenemos una noción intuitiva de qué constituye una necesidad, los diversos significados que se suelen atribuir a esta palabra (requisitos, atributos, especificaciones, beneficios…) pueden introducir ambigüedad y contradicciones en los intentos reales de estudiarlas. En otras entradas hablamos de cómo definir las necesidades del cliente y de algunos medios para identificarlas.

Una solución es la que propone Clayton Christensen, quien asimila necesidad al “trabajo” que un producto debe realizar para su usuario (job-to-be-done). En “Finding the Right Job For Your Product” Christensen clasifica las técnicas más adecuada para analizar los mercados desde una óptica del “trabajo a realizar”, alineándose totalmente con las propuestas de Leonard-Barton, Wilson y Doyle. Nuevamente, la clave está en el grado de innovación:

  • Cuando el trabajo es conocido y existen productos para realizarlo, se pueden utilizar herramientas de investigación convencionales.
  • Cuando los clientes saben qué trabajo necesitan (o, aunque no puedan expresarlo, son capaces de construir “atajos” para resolverlo) pero no existen productos, lo mejor es la observación de los clientes en su contexto, el descubrimiento empático y el análisis de lead users.
  • Cuando una tecnología tiene potencial para liberar nuevas aplicaciones pero los clientes no pueden articular qué trabajos querrían resolver, la empresa y los clientes deben descubrir juntos esos nuevos trabajos y productos, saliendo al mercado rápidamente con un producto flexible que permita experimentar nuevas maneras de aportar más valor al cliente. Este enfoque, que Christensen llama “coevolución”, es más un proceso de innovación que un método de investigación.

Con todo, no pretendemos convertir las recomendaciones  anteriores en un recetario de cumplimiento obligatorio. No olvidemos que la investigación no es un fin en sí mismo, sino un medio y lo más importante de todo es qué queremos conseguir con ella, cuál es el objetivo en cada caso. Sólo teniendo claro qué información deseamos conseguir podremos elegir el método más adecuado para lograrlo.

21 comentarios

Todo blog centrado en el marketing de productos tecnológicos debe dedicar al menos un post a las ideas de Geoffrey Moore. Durante los años 1980 Moore estuvo trabajando en la empresa de consultoría de Regis McKenna en el Silicon Valley y como resultado de esa actividad en 1991 publicó su principal obra “Crossing the Chasm”, a la que posteriormente se le unieron “Inside the Tornado” y otras secuelas. Posteriormente fundó sus propias empresas de consultoría y formación: Chasm Group, Chasm Institute, TCG Advisors. A pesar del tiempo transcurrido, Moore sigue siendo uno de los expertos más influyentes del high-tech marketing y sus obras continúan utilizándose como libros de texto para esta materia en las principales escuelas de negocios.

Las teorías de Geoffrey Moore se basan en el modelo de difusión de la innovación de Everett Rogers, que él adapta para el caso de innovaciones discontinuas y cuyas categorías de potenciales clientes renombra como Technology Enthusiasts, Visionaries, Pragmatists, Conservatives y Skeptics. La principal  aportación de Moore es que los clientes pertenecientes a cada una de estas categorías adoptan la innovación por motivos fundamentalmente diferentes y eso impide que un grupo acepte un nuevo producto del mismo modo que el grupo inmediatamente anterior. Se crean así discontinuidades, brechas de credibilidad que hacen que la comunicación se interrumpa y el marketing pierda impulso y que dificultan el ir progresando de un grupo a otro.

Y la más importante de todas estas discontinuidades es la que existe entre lo que Moore llama el Early Market y el Mainstream Market -en la frontera entre los Visionarios y los Pragmáticos- y que él denominó The Chasm (el Abismo), porque puede pasar desapercibido y llegar a estrangular el desarrollo de la empresa en su inicio. Para salir de este bloqueo Moore propone una estrategia basada en seleccionar un -y sólo uno- segmento objetivo (que él llama «Cabeza de Playa») y construir una solución completa (whole product) para dicho segmento que nos asegure su dominio.

Los criterios que Moore propone para elegir la cabeza de playa (un ejercicio de segmentación y targeting) son:

  • ¿Hay un comprador identificable, accesible y con presupuesto?
  • ¿Su problema/necesidad es suficientemente importante y urgente como para comprar?
  • ¿Podemos (con ayuda de partners) ofrecer una solución completa?
  • ¿Hay ya competidores atrincherados en ese segmento?
  • ¿Tenemos ya relaciones con los partners que necesitamos para servir al segmento?
  • ¿Tenemos canal de venta y distribución para llegar al segmento?
  • ¿Es el precio de la solución completa adecuado al valor que aporta y permite que todos ganen?
  • ¿Es nuestra empresa creíble como suministrador?
  • ¿Podemos aprovechar lo desarrollado en ese segmento para entrar en otros?

El whole product, concepto popularizado inicialmente por Theodore Levitt en “The Marketing Imagination”, está constituido por los productos y servicios necesarios para que los clientes del segmento objetivo satisfagan su razón para comprar. Una vez conquistada esa cabeza de playa se debe ir saltando a otros segmentos contiguos, desarrollando soluciones completas adaptadas a ellos, en un escenario que Moore gráficamente denomina «Pista de Bolos».

La estrategia de Moore causa cierto rechazo inicial, ya que básicamente se resume en que para cruzar el abismo hay que apostar por “poner todos los huevos en la misma cesta”. Sin embargo, insiste él, no perseguir una cabeza de playa inicial e intentar ofrecer un producto bueno para todos los usuarios lleva a dispersar los esfuerzos para al final no conseguir un producto excelente para nadie.

Moore llegó a redefinir el Ciclo de Vida de Adopción de la Tecnología para el caso de innovaciones discontinuas, dividiéndolo en varias fases, en cada una de las cuales se deben aplicar estrategias diferentes (ver figura):

  1. El Mercado Inicial, donde se trata de que el nuevo producto sea adoptado por entusiastas de la tecnología y usuarios visionarios.
  2. El Abismo, donde la brecha de credibilidad entre usuarios visionarios y pragmáticos produce el estancamiento de la empresa. Para salir del Abismo es imprescindible seleccionar un único segmento objetivo y construir una solución completa para dicho segmento.
  3. La Pista de Bolos, donde el dominio sobre la cabeza de plaza permite ir abordando segmentos contiguos, que comparten clientes o aplicación con los ya abordados, usando soluciones completas específicas para cada uno (como unos bolos que hacen caer a otros).
  4. El Tornado, fase de demanda acelerada donde el mercado general cambia al nuevo paradigma y se produce su aceptación en masa y se trata ofrecer una solución estandarizada.
  5. La Calle Principal, donde el nuevo producto ha sido adoptado por el gran mercado.
  6. El Final de Ciclo, donde el producto empieza a ser reemplazado por un nuevo paradigma.

Un aspecto muy llamativo de estas estrategias es que en muchos aspectos son opuestas de una fase a otra. Por ejemplo, en el early market no hay que enfocarse en ningún segmento; sin embargo para cruzar el Abismo (y para avanzar por la Pista de Bolos) es imprescindible enfocarse en un segmento que sirva de cabeza de playa (para ir posteriormente expandiéndose hacia segmentos contiguos); finalmente, durante el Tornado (y una vez que el producto se ha estandarizado) hay que renunciar al enfoque para llegar a todo el mercado.

Las teorías de Geoffrey Moore han sido muy criticadas durante los últimos años por motivos que van desde la falta de rigor científico hasta el carácter de prescripción estratégica de sus recomendaciones y a su escasa aplicabilidad en algunos escenarios. En particular su énfasis en aplicar un foco extremo para saltar del early market al mainstream market puede ser contraproducente en el caso de productos con externalidades de red.

Sin embargo, estudios recientes sobre difusión de la innovación han validado algunos de sus descubrimientos. En concreto, se ha comprobado que en muchos mercados el incremento de ventas no es monótono sino que experimenta un súbito descenso después del crecimiento inicial (en la línea del Abismo). Este efecto se conoce como curva en “silla de montar” por su forma con pico inicial, descenso y nuevo pico de ventas que supera al inicial y se ha explicado tanto por interacciones entre consumidores como por heterogeneidades en la población: dos grupos distintos que adoptan la innovación con tasas muy diferentes (por ejemplo, debido a una débil comunicación entre ellos), lo que ratificaría algunas de las conclusiones a las que a principios de los 1990 llegó Geoffrey Moore.

17 comentarios

En un post anterior hablamos de la difusión como el proceso social por el cual una innovación se extiende a través de un mercado y presentamos dos de los modelos de difusión clásicos:

  • La teoría de Everett Rogers explica la difusión por la heterogeneidad de los potenciales clientes, que se pueden clasificar en categorías que se diferencian por su diversa propensión a adoptar la innovación (Innovadores, Adoptadores Tempranos, etc.).
  • El modelo de Frank Bass explica la difusión por la interacción entre el proveedor del nuevo producto y sus potenciales clientes (externa) y de dichos clientes entre sí (interna).

Ambos modelos predicen un incremento monótono en las ventas una vez sobrepasada la fase de despegue y han influido enormemente en los enfoques de marketing de productos tecnológicos, especialmente en una serie de estrategias orientadas a:

  • No lanzar un nuevo producto atacando a todo el mercado, sino enfocándose inicialmente en las categorías de usuarios más proclives a adoptar la innovación (early market).
  • Ir progresando por la curva de adopción, elaborando  ofertas, soluciones y programas de marketing adaptados a los diferentes perfiles.
  • Priorizar y fomentar los tipos de comunicación e interacción en el mercado (tanto externas como internas) más adecuadas para reducir el riesgo percibido de los adoptadores y transmitir los beneficios del nuevo producto y así favorecer y extender la adopción.

Además de los anteriores aspectos relacionados con el mercado, Everett Rogers estudió qué factores intrínsecos de un nuevo producto o servicio podían fomentar o acelerar su adopción. Y llegó a la conclusión que la mayor parte de la diferencia entre las velocidades de difusión de nuevos productos se debe a cinco factores:

  • Ventaja relativa (+), grado en el que un nuevo producto es mejor que el producto al que sustituye.
  • Compatibilidad (+), consistencia del producto con los valores y experiencias existentes.
  • Complejidad (-), dificultad para aprender y usar el producto.
  • Facilidad para probar (+), para experimentar con el producto.
  • Observabilidad (+), visibilidad del uso y de los resultados del producto.

Así definidos, todos los anteriores factores facilitan la difusión (signo +), excepto la complejidad (signo -) que la dificulta. Además, su definición debe hacerse desde la percepción del potencial usuario.

Desde hace unos años, y especialmente a raíz de los complejos escenarios que crean los nuevos productos tecnológicos, se han detectado limitaciones en los modelos clásicos de difusión más básicos. Algunos de estos nuevos escenarios, extraidos de «Innovation Diffusion and New Product Growth Models: A Critical Review and Research Directions» de R. Peres, V. Mahajan y E. Muller,  se discuten a continuación.

Especialmente importante es la presencia de otras interacciones entre clientes, no solamente la comunicación interpersonal directa. El caso más importante es el de las externalidades de red (también conocidas como bandwagon effect), muy ligadas a las tecnologías de la información y las comunicaciones.

Existen externalidades de red cuando la utilidad de un nuevo producto para un individuo aumenta a medida que más usuarios adoptan dicho producto. Las externalidades pueden ser

  • Directas: la utilidad viene dada directamente por el número de otros usuarios del mismo producto (el caso del teléfono es el ejemplo clásico).
  • Indirectas: la utilidad aumenta con el número de usuarios de otros productos complementarios (por ejemplo, las aplicaciones disponibles sobre un cierto sistema operativo).

Las externalidades de red constituyen un nuevo driver de crecimiento que no necesita de la comunicación interpersonal para funcionar. Aunque intuitivamente se considera que tienen un efecto positivo sobre las ventas y la penetración de un producto debido a la realimentación que introducen, algunos estudios recientes han demostrado que su efecto puede ser negativo tanto sobre el crecimiento en las fases tempranas del mercado como en la supervivencia de los proveedores pioneros.

Los efectos de red no contradicen el modelo clásico de de Bass y otros basados en él, que postulan que las ventas actuales son función de la adopción acumulada (sin entrar en la razón concreta). Las externalidades y otros efectos son drivers de crecimiento que se ajustan al modelo ya que en esencia implican que la probabilidad de compra aumenta con el número de adoptadores previos.

Otro aspecto novedoso es la aparición de nuevas formas de la curva del ciclo de vida. Se ha comprobado que en muchos mercados el incremento de ventas no es monótono, sino que experimenta un súbito descenso después del crecimiento inicial. Esto fue observado inicialmente por el consultor y autor Geoffrey Moore (un efecto que él denominó “el abismo” en su libro clásico “Crossing the Chasm”). Este nuevo perfil del ciclo de vida se conoce como curva en “silla de montar” por su forma caracterizada por un pico inicial, un descenso y un nuevo pico de ventas que supera al inicial (ver figura, obtenida del artículo de Peres, Mahajan y Muller) y se ha explicado tanto por interacciones entre consumidores como por heterogeneidades en la población.

En conclusión, hay que ampliar el modelo clásico de difusión para incluir factores que reflejen la interacción y la influencia de los clientes (no sólo la interconexión directa) y otros elementos tales como los efectos del marketing mix, de la competencia o de los efectos entre países.

21 comentarios

Probablemente la pregunta más crucial que se hace una empresa que acaba de desarrollar una tecnología innovadora es “Ya tenemos la tecnología ¿Cómo la convertimos en ingresos?” En definitiva, se enfrenta a la cuestión de ¿Qué vender?

La respuesta más obvia sería “Construye un producto basado en esa tecnología y véndelo a clientes que lo necesiten.” Sin embargo, ésa no es la única opción y en muchos casos no es la mejor. Y esto as así porque la propia tecnología, entendida como conocimiento o know-how, tiene en sí misma un valor susceptible de comercializar. Es decir, la tecnología puede ser el producto o puede dar lugar al producto.

Una empresa que se enfrenta a esta decisión tiene ante sí un abanico de opciones, que van desde licenciar el know-how hasta vender soluciones completas, y que se diferencian principalmente en el gasto que es necesario que el cliente realice para alcanzar los beneficios de la tecnología con posterioridad a -y además de- la inversión inicial (p.ej.: adaptación/personalización, productos complementarios, formación, soporte…). En ”Marketing in Technology-Intensive Markets: Toward a Conceptual Framework” se explican en detalle algunas de estas posibilidades. Ordenadas de mayor a menor gasto adicional necesario, estas opciones son:

  1. Vender o licenciar únicamente el know-how. Por ejemplo, una empresa química puede vender (o licenciar) los derechos sobre una nueva molécula a las empresas fabricantes. Con la venta se produce una completa transferencia de derechos en la que el comprador obtiene el know-how y puede utilizarlo libremente. Los acuerdos de licencia, por el contrario, son restrictivos en términos de volumen, plazos y propósito del uso.
  2. Vender “prueba de concepto”. La venta incluye un prototipo o planta piloto para comprobar que realmente se puede hacer que el know-how funcione.
  3. Vender componentes o subsistemas de categoría comercial a OEMs (Original Equipment Manufacturer). Se venden componentes que están listos para incorporarse al proceso de fabricación de otra empresa.
  4. Vender un producto final o un sistema con todos los componentes esenciales, listo para su uso por los clientes.
  5. Vender una solución completa, extremo a extremo, que aporte todos los beneficios buscados por los clientes sin necesidad realizar gastos adicionales en elementos complementarios.
  6. Vender el proceso de negocio del cliente como un servicio, de modo que pueda ser externalizado y contratado por éste en modo suscripción, sin necesidad de realizar la inversión inicial ni la explotación directa.

En conjunto, estas posibilidades conforman un continuo de opciones de comercialización. Para ilustrar estas posibilidades consideremos la tecnología de motores de impresión láser desarrollada por Canon en los años 80. Alguna de sus alternativas para responder a la pregunta “¿Qué vender?” pudieron haber sido:

  • Vender (o licenciar) directamente el know-how sobre los motores láser.
  • Vender componentes (el motor láser sin más) o subsistemas (el motor láser combinado con el necesario software de bajo nivel) a fabricantes de sistemas de impresión como HP.
  • Vender el producto (impresora, incluyendo motor láser, software de bajo nivel, otros componentes hardware, lenguaje de descripción de páginas de alto nivel, etc.)
  • Comercializar una solución completa alrededor del producto (impresora complementada con otros productos y servicios, p.ej., soporte).
  • Comercializar servicios de impresión utiizando su equipamiento.

Históricamente las empresas tecnológicas han estado más cerca de vender al nivel del usuario final. Aunque obviamente la comparación no es homogénea los ingresos por royalties (provenientes de la licencia sobre know-how) tradicionalmente han sido mínimos comparados con los ingresos por venta de producto final. Incluso en determinado sectores los ingresos por royalties son menores que el propio gasto en I+D.

Para elegir su posición -o sus posiciones- en este continuo una empresa debe tener en cuenta, entre otros, los siguientes factores (algunos de ellos, explicados con más detalle en “Marketing and Technology: A Strategic Coalignment”):

  • ¿La tecnología encaja con la misión, negocio, actividades, recursos, procesos… de la empresa?
  • ¿Cuál es la ventana de oportunidad para explotar la tecnología? ¿Ser pionero en el mercado nos conferiría ventajas defendibles? ¿Puede la empresa moverse sufcientemente rápido?
  • ¿Tiene el know-how alguna característica que dificulte su comercialización bajo esa forma (p.ej., una alta proporción de conocimiento tácito)?
  • ¿Tiene la tecnología potencial para crear nuevos mercados? ¿Y para cambiar las reglas de los existentes?
  • ¿Qué grado de discontinuidad introduce la tecnología? ¿Sus productos obligan a cambios en el comportamiento de los usuarios? ¿Son compatibles con la infraestructura existente?
  • ¿Cuál es el volumen potencial, crecimiento previsto, rentabilidad… del mercado? ¿Es suficientemente atractivo?
  • ¿Explotar directamente la tecnología exige entrar en otras tecnologías diferentes? ¿Es fácil definir y mezclar componentes?
  • ¿Cuáles van a ser las dinámicas del mercado? ¿Se va a caracterizar por externalidades de red (rentabilidades crecientes del lado de la demanda)? ¿Su evolución va a depender de que emerja un estándar?
  • ¿Cómo conseguir que los nuevos productos se difundan y adopten en el mercado? ¿Cómo vencer la resistencia al cambio de los usuarios? ¿Cómo llegar tanto a los clientes innovadores como a la mayoría del mercado?
  • ¿La empresa tiene capacidades y recursos para abordar todos los segmentos del mercado?

El posicionamiento de una empresa en ese continuo de opciones de comercialización no tiene porqué ser único y lo habitual es que vaya cambiando a medida que el mercado para la tecnología va desarrollándose y madurando. Cada vez más empresas intentan conseguir ingresos de múltiples puntos en este continuo, por ejemplo, licenciando know-how en un mercado y comercializando producto completo en otro. Volviendo al caso de Canon, ellos optaron por vender simultáneamente subsistemas de impresión a HP, Apple y QMS e impresoras listas para su uso (el modelo LBP4) a clientes finales.

2 comentarios

Pocos términos en el campo de la gestión (marketing incluido) han sido tan manoseados como el de “valor”. Y, sin embargo, rara vez nos paramos a pensar si realmente entendemos en qué consiste. Lo primero que tenemos que recordar es que el valor no lo definen los atributos de nuestro producto, sino la opinión de los clientes y, para ellos, nuestro producto tiene valor en tanto que constituye una herramienta que les ayuda a conseguir unos resultados.

Algunas de las mejores reflexiones que conozco sobre qué es y de dónde proviene el valor para el cliente son obra de Mohanbir Sawhney, catedrático y director del Center for Research in Technology & Innovation de la Kellogg School of Management. En “Fundamentals of Customer Value” Sawhney define el valor para el cliente como “la utilidad percibida del conjunto de beneficios que recibe un cliente a cambio del coste total de una oferta, teniendo en consideración otras ofertas y precios competitivos”.

Esta definición es muy parecida a la que Anderson y Narus proponen en “Business Marketing: Understand What Customers Value” y que  aparece en nuestro post sobre propuestas de valor. En cualquier caso, encierra varias lecciones muy importantes:

  • El valor lo definen los clientes (no nosotros): lo que un cliente compra y considera valioso no es un producto sino una utilidad, es decir lo que un producto hace por él. Para entender cómo definen el valor los clientes tenemos que enfocarnos en los resultados que estos desean conseguir cuando usan nuestros productos. Además, esa reflexión nos dará idea de en qué negocio estamos realmente.
  • Es opaco: como son los clientes quienes lo definen, tendríamos que meternos en su cabeza para entenderlo de verdad. Y éste es un empeño imposible por muchas razones: nosotros no entendemos a los clientes, ellos mismos muchas veces no entienden sus propias motivaciones ni pueden articular sus necesidades y ellos y nosotros hablamos idiomas diferentes. La mejor manera de entender el valor para los clientes es “ponernos en su pellejo” y pasar tiempo con ellos en su entorno natural para comprender sus problemas, temores y ambiciones.
  • Es contextual: resulta irrelevante hablar del valor de un producto sin conocer el contexto en el cual éste va a ser evaluado, comprado y usado. Y este contexto tiene tres dimensiones importantes: quién es el usuario final, qué pretende conseguir (aplicación) y cuál es su entorno.
  • Es multidimensional: hay un mito en marketing que consiste en que los clientes eligen productos basándose puramente en sus características y funcionalidad. Pero aunque este valor funcional es muy importante, debe operar en conjunción con otros dos componentes: el valor emocional (beneficios psicológicos) y el económico.
  • Es un compromiso: el valor representa una comparación entre los beneficios percibidos totales de un bien y los costes totales en los que se incurre. Por lo tanto tenemos dos maneras de incrementar el valor: aumentar los beneficios que ofrecemos o disminuir el coste para el cliente. Además, tanto beneficios como costes pueden ser más o menos ocultos y difíciles de cuantificar monetariamente; incluso pueden tener un origen emocional e irracional. Esto último es muy importante a la hora de comercializar innovaciones discontinuas, ya que las personas sufrimos sesgos psicológicos que pueden dificultar su adopción por el mercado.
  • Es relativo: los clientes siempre evalúan el valor de nuestra oferta en relación a las alternativas disponibles, en particular a la mejor alternativa excluida la nuestra. Los clientes siempre tienen alguna alternativa (incluso aunque nosotros creamos que no es así) y si no conocemos cual es esa otra mejor alternativa podemos estar compitiendo contra el rival equivocado. Esa alternativa puede ser la oferta de un competidor o, simplemente, seguir haciendo las cosas como hasta ahora. El statu quo es un rival muchas veces ignorado por los proveedores pero muy querido por los clientes ya que habitualmente significa la opción con menor riesgo.
  • El valor es una actitud: la gestión basada en el valor es mucho más que una serie de modelos o procesos, es una actitud que nace de la creencia de que el propósito de nuestra empresa es crear valor para sus clientes (y ser recompensada por ello). Por lo tanto, todo lo que la empresa haga debe girar alrededor de sus clientes y no de sus productos, Y eso significa que muchas veces no podemos ofrecer verdadero valor para nuestros  clientes sin cambiar nuestros propios valores.

Incluso en épocas económicas difíciles, una empresa que se esfuerce en definir el valor desde la óptica de los clientes y en diseñar ofertas basadas en lo que los clientes valoran tiene asegurada su supervivencia y crecimiento.

Otros posts relacionados con el valor para el cliente:

17 comentarios

En general en el gran público existe la percepción de que basta con poseer una gran tecnología para alcanzar el éxito en el mercado. Deslumbrados por el éxito de empresas como Google o Microsoft, nos olvidamos de las decenas de “googles” y “microsofts” que intentaron hacer lo mismo antes que ellas pero que no lo consiguieron y cayeron en el olvido. La realidad es que cuando se trata de llevar tecnologías o productos innovadores al mercado, la proporción de fracasos es superior que cuando se trata de competir en mercados más asentados.

¿Por qué muchos productos/tecnologías innovadores fracasan en el mercado? Para muchos, la respuesta es obvia: son tecnologías que no funcionan o sin un mercado claro. Sin embargo, en la realidad la mayoría de fallos se debe a un marketing deficiente, a una incapacidad de las empresas innovadoras para llevar sus tecnologías al mercado y conseguir que sean adoptadas por los clientes. A veces este fracaso del marketing se ha achacado a que se siguen aplicando “recetas” tradicionales cuando la realidad de la comercialización de productos innovadores impone unas reglas de juego diferentes.

Pero, ¿realmente es necesario un marketing diferente cuando se trata de vender tecnologías innovadoras? ¿Qué tienen de particular esos mercados, qué retos imponen a la labor de marketing y qué nuevos enfoques y herramientas son necesarios para abordarlos?

En primer lugar las tecnologías y productos innovadores están sujetos a mayores riesgos e incertidumbres:

  • Riesgos asociados al propio producto/tecnología: ¿Cómo incorporar las demandas del mercado? ¿Podemos fabricarlo? ¿Funcionará?
  • Riesgos asociados a los clientes: ¿Cubre el producto sus necesidades adecuadamente? ¿Impone cambios de comportamiento en los clientes? ¿Cómo se comportan éstos ante una innovación? ¿Cómo educar al mercado y conseguir que los clientes la adopten? ¿Cómo estimar el potencial y prever la demanda de un mercado que no está creado?
  • Riesgos asociados a los competidores: ¿Pueden copiárnoslo fácilmente? ¿Aparecerá otra tecnología que nos supere?

Y todo ello en un escenario más complejo y rápido de lo habitual en lo tocante a áreas como

  • ¿Cómo gestionar las relaciones entre Marketing e I+D y las previsibles tensiones y problemas de comunicación?
  • ¿Cuándo entrar en el mercado? ¿Debería ser pionero o, por el contrario, esperar que otro corra con esos riesgos y adoptar una estrategia de fast follower? (Después de todo “a los pioneros se les distingue porque tienen flechas clavadas en la espalda”.)
  • ¿Cómo capturar el máximo valor de la innovación, combinando estrategias de licenciamiento, alianzas, etc?

Por lo tanto, sí existe un “marketing de productos innovadores y de alta tecnología” en el sentido de que este escenario obliga a modular las estrategias y técnicas de marketing y usar algunos enfoques y técnicas específicas, atendiendo al grado de innovación y otras características particulares de la nueva tecnología o producto de que se trate.

Las empresas que no tengan en cuenta estos factores están siguiendo el camino de muchas otras que acabaron en el olvido o siguen operando como “muertos en vida”, sin lograr despegar en el mercado.

Por cierto, es conveniente distinguir este concepto del de nuevas tecnologías aplicadas al marketing, que se centra en el uso de herramientas innovadoras, muchas de ellas basadas en Internet (CRM, inteligencia de negocio, clientes y mercados, publicidad online, optimización en buscadores, marketing en buscadores, sindicación de contenidos, blogs, podcasts, eventos virtuales,…) en la comercialización de todo tipo de productos/servicios y en todo tipo de mercados.

Pero para empezar a recorrer este camino probablemente el primer paso es evaluar cuán innovador es un producto o tecnología…

4 comentarios

Si hay un concepto que resume las diferencias entre los mercados de productos tecnológicos e innovadores y los que no lo son, ése es el proceso de difusión. Los productos tradicionales son ya conocidos por los clientes y han sido adoptados por ellos. Sin embargo, toda innovación produce una cierta discontinuidad y riesgos: en cuanto al nivel de conocimiento de los potenciales usuarios, en que exige cambios en el comportamiento de estos y en la infraestructura para soportar su uso, etc. Esto hace necesario que el nuevo producto tenga que ser conocido y aceptado a lo largo del mercado al que va dirigido en un proceso social de adopción que se conoce como difusión.

Históricamente, el no tener en cuenta la difusión e intentar aplicar un estilo clásico de marketing (“a lo Procter & Gamble”, por así decirlo) a las innovaciones discontinuas ha producido en general resultados impredecibles y decepcionantes. Necesitamos conocer cómo funciona el proceso de difusión para poder predecirlo y gestionarlo de una manera activa. Para conseguirlo, en los años 1960 el marketing adoptó una serie de modelos originarios de las ciencias sociales que explican la manera en que las comunidades adoptan la innovación. Existen dos grandes modelos clásicos de difusión: el de E. Rogers y el de F. Bass.

Everett Rogers estudió a través de diversas comunidades y sistemas sociales cómo los diferentes perfiles de sus miembros (los potenciales “adoptadores”) incidían en la adopción de una innovación. En su obra fundacional “Diffusion of Innovations” clasifica a los usuarios en una serie de perfiles psicográficos en función de una variable principal: su respuesta a la discontinuidad y su propensión a adoptar la innovación. Rogers asignó a estas categorías de usuarios los nombres ya clásicos (y bastante expresivos) de Innovators, Early Adopters, Early Majority, Late Majority y Laggards, ordenados de mayor a menor disposición a aceptar la innovación.  Incluso llegó a postular una forma de campana de Gauss para la curva de adopción y unos porcentajes determinados para cada categoría de usuarios, como se representa en la figura:

Aplicado al marketing de nuevos productos, el modelo de Rogers fue conocido como el Ciclo de Vida de Adopción de la Tecnología (TALC, Technology Adoption Life Cycle). Cuando una innovación discontinua se lanza al mercado es necesario conseguir inicialmente el respaldo de las categorías de usuarios más innovadores (menos aversos al riesgo y más dispuestos a experimentar) para posteriormente ir adaptando el marketing y avanzando hacia esa mayoría de usuarios (más conservadores) que constituyen nuestro último objetivo. Aunque el modelo se basa en la heterogeneidad de los potenciales clientes -en cuanto a su respuesta frente a la innovación- sigue asumiendo una cierta conectividad entre ellos en el sentido de que una vez ganada una categoría de usuarios, y apoyándonos en ella, podemos ganar la siguiente. Este enfoque se aplicó con relativo éxito al marketing de tecnología en los años 1980 y logró que se popularizaran términos como Early Adopters (el primer blanco de todo high-tech marketer).

Por su parte Frank Bass propuso en “A New Product Growth Model for Consumer Durables” un modelo matemático sobre cómo la información acerca de un nuevo producto se pasa  entre los individuos de un sistema social y cómo eso afecta al momento de adopción. Básicamente, un individuo adopta la innovación como resultado de dos tipos de influencias:

  • La actividad  en el mercado de la empresa que proporciona el nuevo producto, incluyendo el atractivo de la propia innovación y otras actividades para informar e influir en los compradores (ej: publicidad y otras comunicaciones). Esta actividad se refleja en el parámetro (p) de influencia externa del modelo.
  • Las actividades internas al propio mercado, resultado de la interacción entre adoptadores y potenciales adoptadores dentro del sistema social (ej: boca a boca, comunicaciones interpersonales). Esta actividad se refleja en el parámetro (q) de influencia interna, que captura la magnitud de la influencia de un adoptador sobre un no adoptador.

Los valores de p y q son específicos de cada producto. La siguiente gráfica presenta el perfil de la curva de adopción de Bass para diferentes valores de los parámetros:

El modelo de Bass asume que la red social está totalmente conectada y es homogénea (los valores de los parámetros son los mismos para todos los individuos). Por lo tanto, a diferencia del modelo de Rogers, el driver del crecimiento del mercado es la interacción entre consumidores, más que la heterogeneidad de estos.

Tanto el modelo de Rogers como el de Bass representan la difusión de la nueva categoría de producto en su conjunto (es decir, no las ventas de un proveedor en particular). En ambos casos, si en lugar de la evolución de la adopción en el tiempo presentáramos la adopción acumulada tendríamos la típica curva en S que exhibe un crecimiento monótono hasta llegar a la saturación del mercado.

En un próximo post hablaremos del uso de estos modelos en el marketing de productos tecnológicos y de algunas de las limitaciones que presentan.

24 comentarios