Conversis Consulting – Marketing orientado a resultados para mercados tecnológicos

Posts from the ‘ciclo de vida de tecnologías’ category

Recientemente cayeron en mis manos un par de artículos que tratan de manera complementaria (incluso antagónica, como veremos) un asunto de gran actualidad: la innovación en modelos de negocio.

El modelo de negocio es algo sobre lo que casi todos tenemos una noción más o menos informal, del tipo “es el modo en que un negocio aspira a ganar dinero de manera sostenible y escalable” (ésta es mi versión). Es también un concepto que cuando se habla de innovación ha permanecido tradicionalmente en un segundo plano, eclipsado por las innovaciones de producto / servicio (más o menos radicales) y las de proceso. Sin embargo, recientemente ha adquirido protagonismo como uno de los caballos de batalla de la innovación en el presente siglo, gracias a su capacidad para dar nueva forma a sectores enteros.

En 2005, el informe “Business 2010: Embracing the challenge of change” elaborado por la  Intelligence Unit de The Economist (y patrocinado por el gigante del software SAP) a partir de una encuesta a 4,000 ejecutivos senior de todo el mundo reveló que según el 54% de los encuestados, los nuevos modelos de negocio constituirán una fuente de ventaja competitiva  más importante incluso que los nuevos productos y servicios. Es decir, el modo en que las organizaciones hacen negocios será a menudo más importante que lo que ofrecen al mercado. Las empresas tendrán que revisar y adaptar regularmente sus modelos de negocio y la tecnología estará en el centro de los esfuerzos para conseguirlo: según el 41% de los encuestados, los avances tecnológicos serán los que ejerzan la mayor influencia sobre estos modelos.

En el primer artículo al que me refería “Darwin and the Demon: Innovating Within Established Enterprises” Geoffrey Moore (el célebre autor de “Crossing the Chasm” y otros títulos) presenta una taxonomía de la innovación que va desde su versión más radical (discontinuidad tecnológica, creación de nuevos mercados), pasando por la innovación de aplicación, la de producto, la de proceso … hasta llegar a la de modelo de negocio. Y la pregunta es: con todas estas clases de innovación ¿cómo pueden decidir los directivos de las empresas cuál es la más adecuada y dónde concentrarse?

Para Moore, la respuesta está en el ciclo de vida de desarrollo de un mercado, que favorece diferentes tipos de innovación en cada una de sus fases:

  1. Las fases iniciales de un mercado (que coinciden con el ciclo de vida de adopción de una tecnología) suelen ir unidas a la innovación más radical, de aplicación o de producto.
  2. Las fases medias de un mercado se caracterizan por innovaciones de procesos, de experiencia de cliente o de marketing.
  3. Finalmente, durante las fases de declive y fin de ciclo las empresas sólo pueden escapar de la “comoditización” de su mercado reinventándose,  innovando en su modelo de negocio o alterando la estructura del sector.

Por lo tanto -según el punto de vista expresado por Moore en este artículo- la innovación de procesos de negocio no sólo no es habitual en las fases iniciales del ciclo de vida de un mercado, sino que su principal aplicación estaría en un uso defensivo orientado a evitar la banalización de la oferta en las fases finales del ciclo.

Por el contrario, en el artículo “Reinventing Your Business Model” el catedrático de Harvard Clayton Christensen, junto a Mark Johnson y Henning Kagermann (este último co-CEO de SAP) presentan una perspectiva más amplia. Para ellos, un nuevo modelo de negocio puede ser un ingrediente indispensable de todo tipo de innovaciones y en muchas ocasiones la innovación de producto y de negocio van inseparablemente unidas.

En un próximo post entraremos a analizar con más detalle estas ideas.

Anuncios
12 comentarios

Sin duda ésta es una idea muy extendida entre muchas empresas bien gestionadas del sector tecnológico, empresas que escuchan lo que sus clientes necesitan y que desarrollan productos avanzados para responder a esas necesidades cada vez más sofisticadas (obteniendo una buena rentabilidad en el proceso). Sin embargo, tal como vamos a ver en ocasiones puede revelarse como errónea y ser la razón última del fracaso de empresas líderes.

La idea está fundamentada en el concepto convencional de evolución de las tecnologías en un mercado y de sustitución de unas tecnologías por otras y formalizado en el clásico modelo de Ciclo de Vida de las Tecnologías o curva en S. En esencia, esta curva representa la variación de la funcionalidad o las prestaciones de los productos basados en una tecnología dada (según los criterios imperantes en el mercado de que se trate) en función del tiempo o, más precisamente, del esfuerzo invertido en dicha tecnología. Esta evolución de las prestaciones tiene forma de S, con un tramo inicial de crecimiento lento seguido de un tramo intermedio de crecimiento acelerado de las prestaciones (originado por la mayor experiencia y desarrollo de la tecnología) y terminado en un tramo de rendimiento lento (cuando se empiezan a alcanzar los límites de la tecnología para esa aplicación). Si en un cierto instante una tecnología A se encuentra en ese tramo final de estancamiento y otra nueva tecnología B está en su período de crecimiento y sus prestaciones empiezan a superar a las de la tecnología A, el terreno está abonado para la sustitución de la primera por la segunda.

Sucesión Tecnologías

Aunque esto no quiere decir que la nueva tecnología llegue finalmente a adoptarse, el modelo lleva a pensar que lo que nunca va a ocurrir es que el mercado acabe adoptando una tecnología inferior. Sin embargo de vez en cuando aparecen tecnologías que partiendo de un nivel de prestaciones inaceptable para los usuarios acaban desplazando a las tecnologías dominantes. El análisis más aceptado de este fenómeno es el que hace Clayton Christensen en su libro “The Innovator’s Dilemma”, cuando habla de innovaciones disruptivas.

Según él, estas innovaciones vienen de la mano de tecnologías que aunque proporcionan un nivel de prestaciones inferiores a las vigentes (medidas según los criterios imperantes) aportan beneficios en cuanto a sencillez, fiabilidad, facilidad de uso, etc. y nuevas propuestas de valor que las abren a su utilización en aplicaciones alternativas. Sin embargo, estos nuevos mercados no son atractivos para las empresas líderes de los mercados tradicionales, que los consideran alejados de las necesidades de sus clientes, de pequeño tamaño y porvenir incierto y de escasa rentabilidad.

De modo que estas tecnologías disruptivas (que en muchas ocasiones han nacido en los laboratorios de las empresas líderes), tienen que ser desarrolladas en mercados de nicho o marginales por empresas innovadoras que se encuentran libres de las servidumbres a los clientes, mercados y mecanismos de asignación de recursos tradicionales.

Sin embargo, con el tiempo y el esfuerzo de desarrollo invertido para servir a esos mercados alternativos la tecnología disruptiva mejora hasta el punto de que su funcionalidad y prestaciones resultan aceptables para los clientes de los mercados tradicionales (aún cuando sigan siendo inferiores a los de las tecnologías hasta entonces dominantes). Esto, unido a sus ventajas en facilidad de uso, fiabilidad, etc. le permite invadir los mercados establecidos y desplazar a las tecnologías (y a las empresas) dominantes hasta entonces.

Christensen analiza en su libro varios ejemplos de este tipo de disrupción, incluyendo los microprocesadores, las minimills para la fabricación de acero o la tecnología hidráulica en las excavadoras. Algunos procesos de disrupción actualmente en curso están siendo protagonizados por las cámaras digitales o la telefonía IP.

Una de las conclusiones más contraintuitivas (y desasosegantes) del libro de Christensen es que todas esas compañías líderes desplazadas por las innovaciones disruptivas lo han sido precisamente por estar bien gestionadas: han sido las mismas buenas prácticas de gestión que las llevaron al éxito inicial (escuchar a sus clientes, invertir en mercados grandes, buscar la máxima rentabilidad) las que propiciaron que no prestaran atención a la aparición de innovaciones con potencial disruptivo, despreciaran su aplicabilidad y dejaran ese flanco al descubierto, error que en ocasiones llegó a ser definitivo.

¿Cómo deben responder las empresas líderes ante el dilema que plantean las innovaciones disruptivas y aprovechar en su favor esa dinámica de la disrupción? Christensen da algunas ideas:

  • Asignar la responsabilidad de desarrollar y comercializar tecnologías disruptivas a organizaciones cuyos clientes las necesiten. De este modo la demanda de los clientes conseguirá que a esta innovación se le asignen los recursos que necesita.
  • Hacer que estas organizaciones sean independientes de la empresa matriz y de un tamaño suficientemente reducido como para que les resulten estimulantes un mercado pequeño y unos resultados modestos.
  • A la hora de buscar un mercado para una innovación disruptiva asumir la posibilidad de fallos iniciales y en caso de que ocurran conseguir que lo hagan lo antes y del modo más barato posible. No apostar todos los recursos en el primer intento. Considerar los intentos de comercialización como oportunidades de aprendizaje.
  • Utilizar recursos de la empresa matriz, pero no aplicar ni sus procesos ni sus valores. Crear nuevas formas de trabajar en una organización cuyos valores y estructura de costes están adaptados a la tarea disruptiva.
  • Buscar lo antes posible un mercado que valore los atributos actuales del producto disruptivo (con sus ventajas y sus limitaciones) en lugar de forzar un avance tecnológico que le permita competir en el mercado tradicional. El principal reto en la comercialización de una innovación disruptiva es de marketing, más que tecnológico.

Ignorar el potencial de las innovaciones disruptivas es un acto de miopía estratégica, pero estas innovaciones plantean a las empresas establecidas un difícil dilema, ya que requieren un distanciamiento de las prácticas de gestión que han sido fuente del éxito hasta ahora. Entender los principios de la disrupción y orientarlos en nuestro favor nos permitirá aprovechar todo ese potencial de creación de nuevos mercados y de cambio de las reglas en los existentes.

8 comentarios

En estos tiempos de sobreabundancia informativa -y propagandística- la percepción que los posibles usuarios tienen de una nueva tecnología está condicionada por muchas influencias que nada tienen que ver con sus méritos objetivos. Durante los años previos al estallido de la anterior burbuja tecnológica muchas decisiones de inversión en tecnologías de la información se tomaron por criterios de “moda” y no de valor para el negocio. ¿A alguien le vienen a la cabeza siglas como SCM, CRM o E-business?

Por el contrario, en un momento actual caracterizado por presupuestos más restrictivos, las empresas buscan criterios que les ayuden a identificar las situaciones de “exuberancia irracional” que se crean alrededor de ciertas tecnologías y que podrían llevarles a decisiones de inversión de las que más tarde tendrían que arrepentirse. Una herramienta muy utilizada es el modelo de Hype Cycle de la conocida firma de análisis Gartner Group.

El modelo representa la evolución de lo que denomina visibilidad de una tecnología emergente (aunque sería más correcto llamarlo expectativas despertadas por esa tecnología) en función del tiempo. Una evolución que progresa desde un entusiasmo exagerado, pasando por un período de desilusión hasta una eventual comprensión de la relevancia de la tecnologia y de su papel en un mercado o dominio. En “Understanding Hype Cycles” Gartner describe el modelo y las etapas típicas en las que se divide, que reciben los alegóricos nombres de Technology Trigger, Peak of Inflated Expectations, Trough of Disillusionment, Slope of Enlightenment y Plateau of Productivity (ver figura).

Gartner Hype Cycle

El Hype Cycle describe no tanto una tecnología como las percepciones y la actitud de las personas ante la innovación. El modelo se justifica por la influencia de dos fuerzas principales que conforman las expectativas que se crean alrededor de una nueva tecnología:

  • En primer lugar, el ruido de comunicación (noticias, publicidad…) sobre dicha tecnología, que es el factor predominante durante las primeras fases de su vida, y que fomenta inicialmente la creación de expectativas especulativas y en muchos casos infundadas y posteriormente (si la tecnología no cumple sus promesas) la caída en la percepción pública hasta niveles incluso inferiores a los que le corresponderían aplicando criterios realistas.
  • Posteriormente, la madurez de la tecnología (desde un punto de vista técnico y de negocio) que conlleva una mejora en las prestaciones, su adopción por parte de los clientes, etc. y que va regenerando las expectativas hasta un nivel acorde con los méritos de la tecnología y los beneficios que aporta. Esta regeneración no está ya basada en la especulación sino en experiencias reales.

Por supuesto, no quiere decirse que todas las tecnologías sigan exactamente este patrón: las hay que evolucionan sin experimentar un pico de expectativas claro, protagonizando varios picos y valles, etc.

El Hype Cycle se une así a otros modelos de ciclo de vida que se aplican a las tecnologías (el clásico ciclo de vida de un producto o tecnología, la curva en S, el TALC…), aunque con algunas diferencias: el Hype Cycle es más útil desde la perspectiva del comprador de tecnología (no del proveedor), tiene un carácter eminentemente descriptivo y su utilidad predictiva y de definición de planes de acción es menor.

Hay que mencionar que Gartner publica periódicamente informes donde se analiza la posición en cada momento de diversas tecnologías (p.ej., Linux, gestión de datos, tecnologías emergentes) en el Hype Cycle. Por eso, aunque en la descripción del Peak of Inflated Expectations esta empresa menciona que durante esta fase “las únicas empresas que ganan dinero son los organizadores de conferencias y los editores de revistas” no sería injusto incluir a los analistas en ese privilegiado grupo.

La principal enseñanza del Hype Cycle es que las empresas no deberían invertir en una tecnología únicamente porque está generando mucho ruido ni deberían desdeñarla sólo porque no está cumpliendo unas expectativas iniciales exageradas. Por el contrario, los usuarios deberían identificar qué tecnologías son potencialmente beneficiosas para su negocio (y cuánto) e invertir teniendo en cuenta los riesgos asociados a su grado de madurez.

Como curiosidad, Gartner cita como ejemplo de informe de Hype Cycle singularmente influyente el que publicó en noviembre de 1999 sobre las tecnologías de E-Business y en el que se anticipaba el estallido de la burbuja puntocom que se produjo en la primavera del 2000.

3 comentarios

Todo blog centrado en el marketing de productos tecnológicos debe dedicar al menos un post a las ideas de Geoffrey Moore. Durante los años 1980 Moore estuvo trabajando en la empresa de consultoría de Regis McKenna en el Silicon Valley y como resultado de esa actividad en 1991 publicó su principal obra “Crossing the Chasm”, a la que posteriormente se le unieron “Inside the Tornado” y otras secuelas. Posteriormente fundó sus propias empresas de consultoría y formación: Chasm Group, Chasm Institute, TCG Advisors. A pesar del tiempo transcurrido, Moore sigue siendo uno de los expertos más influyentes del high-tech marketing y sus obras continúan utilizándose como libros de texto para esta materia en las principales escuelas de negocios.

Las teorías de Geoffrey Moore se basan en el modelo de difusión de la innovación de Everett Rogers, que él adapta para el caso de innovaciones discontinuas y cuyas categorías de potenciales clientes renombra como Technology Enthusiasts, Visionaries, Pragmatists, Conservatives y Skeptics. La principal  aportación de Moore es que los clientes pertenecientes a cada una de estas categorías adoptan la innovación por motivos fundamentalmente diferentes y eso impide que un grupo acepte un nuevo producto del mismo modo que el grupo inmediatamente anterior. Se crean así discontinuidades, brechas de credibilidad que hacen que la comunicación se interrumpa y el marketing pierda impulso y que dificultan el ir progresando de un grupo a otro.

Y la más importante de todas estas discontinuidades es la que existe entre lo que Moore llama el Early Market y el Mainstream Market -en la frontera entre los Visionarios y los Pragmáticos- y que él denominó The Chasm (el Abismo), porque puede pasar desapercibido y llegar a estrangular el desarrollo de la empresa en su inicio. Para salir de este bloqueo Moore propone una estrategia basada en seleccionar un -y sólo uno- segmento objetivo (que él llama “Cabeza de Playa”) y construir una solución completa (whole product) para dicho segmento que nos asegure su dominio.

Los criterios que Moore propone para elegir la cabeza de playa (un ejercicio de segmentación y targeting) son:

  • ¿Hay un comprador identificable, accesible y con presupuesto?
  • ¿Su problema/necesidad es suficientemente importante y urgente como para comprar?
  • ¿Podemos (con ayuda de partners) ofrecer una solución completa?
  • ¿Hay ya competidores atrincherados en ese segmento?
  • ¿Tenemos ya relaciones con los partners que necesitamos para servir al segmento?
  • ¿Tenemos canal de venta y distribución para llegar al segmento?
  • ¿Es el precio de la solución completa adecuado al valor que aporta y permite que todos ganen?
  • ¿Es nuestra empresa creíble como suministrador?
  • ¿Podemos aprovechar lo desarrollado en ese segmento para entrar en otros?

El whole product, concepto popularizado inicialmente por Theodore Levitt en “The Marketing Imagination”, está constituido por los productos y servicios necesarios para que los clientes del segmento objetivo satisfagan su razón para comprar. Una vez conquistada esa cabeza de playa se debe ir saltando a otros segmentos contiguos, desarrollando soluciones completas adaptadas a ellos, en un escenario que Moore gráficamente denomina “Pista de Bolos”.

La estrategia de Moore causa cierto rechazo inicial, ya que básicamente se resume en que para cruzar el abismo hay que apostar por “poner todos los huevos en la misma cesta”. Sin embargo, insiste él, no perseguir una cabeza de playa inicial e intentar ofrecer un producto bueno para todos los usuarios lleva a dispersar los esfuerzos para al final no conseguir un producto excelente para nadie.

Moore llegó a redefinir el Ciclo de Vida de Adopción de la Tecnología para el caso de innovaciones discontinuas, dividiéndolo en varias fases, en cada una de las cuales se deben aplicar estrategias diferentes (ver figura):

  1. El Mercado Inicial, donde se trata de que el nuevo producto sea adoptado por entusiastas de la tecnología y usuarios visionarios.
  2. El Abismo, donde la brecha de credibilidad entre usuarios visionarios y pragmáticos produce el estancamiento de la empresa. Para salir del Abismo es imprescindible seleccionar un único segmento objetivo y construir una solución completa para dicho segmento.
  3. La Pista de Bolos, donde el dominio sobre la cabeza de plaza permite ir abordando segmentos contiguos, que comparten clientes o aplicación con los ya abordados, usando soluciones completas específicas para cada uno (como unos bolos que hacen caer a otros).
  4. El Tornado, fase de demanda acelerada donde el mercado general cambia al nuevo paradigma y se produce su aceptación en masa y se trata ofrecer una solución estandarizada.
  5. La Calle Principal, donde el nuevo producto ha sido adoptado por el gran mercado.
  6. El Final de Ciclo, donde el producto empieza a ser reemplazado por un nuevo paradigma.

Un aspecto muy llamativo de estas estrategias es que en muchos aspectos son opuestas de una fase a otra. Por ejemplo, en el early market no hay que enfocarse en ningún segmento; sin embargo para cruzar el Abismo (y para avanzar por la Pista de Bolos) es imprescindible enfocarse en un segmento que sirva de cabeza de playa (para ir posteriormente expandiéndose hacia segmentos contiguos); finalmente, durante el Tornado (y una vez que el producto se ha estandarizado) hay que renunciar al enfoque para llegar a todo el mercado.

Las teorías de Geoffrey Moore han sido muy criticadas durante los últimos años por motivos que van desde la falta de rigor científico hasta el carácter de prescripción estratégica de sus recomendaciones y a su escasa aplicabilidad en algunos escenarios. En particular su énfasis en aplicar un foco extremo para saltar del early market al mainstream market puede ser contraproducente en el caso de productos con externalidades de red.

Sin embargo, estudios recientes sobre difusión de la innovación han validado algunos de sus descubrimientos. En concreto, se ha comprobado que en muchos mercados el incremento de ventas no es monótono sino que experimenta un súbito descenso después del crecimiento inicial (en la línea del Abismo). Este efecto se conoce como curva en “silla de montar” por su forma con pico inicial, descenso y nuevo pico de ventas que supera al inicial y se ha explicado tanto por interacciones entre consumidores como por heterogeneidades en la población: dos grupos distintos que adoptan la innovación con tasas muy diferentes (por ejemplo, debido a una débil comunicación entre ellos), lo que ratificaría algunas de las conclusiones a las que a principios de los 1990 llegó Geoffrey Moore.

17 comentarios

Si hay un concepto que resume las diferencias entre los mercados de productos tecnológicos e innovadores y los que no lo son, ése es el proceso de difusión. Los productos tradicionales son ya conocidos por los clientes y han sido adoptados por ellos. Sin embargo, toda innovación produce una cierta discontinuidad y riesgos: en cuanto al nivel de conocimiento de los potenciales usuarios, en que exige cambios en el comportamiento de estos y en la infraestructura para soportar su uso, etc. Esto hace necesario que el nuevo producto tenga que ser conocido y aceptado a lo largo del mercado al que va dirigido en un proceso social de adopción que se conoce como difusión.

Históricamente, el no tener en cuenta la difusión e intentar aplicar un estilo clásico de marketing (“a lo Procter & Gamble”, por así decirlo) a las innovaciones discontinuas ha producido en general resultados impredecibles y decepcionantes. Necesitamos conocer cómo funciona el proceso de difusión para poder predecirlo y gestionarlo de una manera activa. Para conseguirlo, en los años 1960 el marketing adoptó una serie de modelos originarios de las ciencias sociales que explican la manera en que las comunidades adoptan la innovación. Existen dos grandes modelos clásicos de difusión: el de E. Rogers y el de F. Bass.

Everett Rogers estudió a través de diversas comunidades y sistemas sociales cómo los diferentes perfiles de sus miembros (los potenciales “adoptadores”) incidían en la adopción de una innovación. En su obra fundacional “Diffusion of Innovations” clasifica a los usuarios en una serie de perfiles psicográficos en función de una variable principal: su respuesta a la discontinuidad y su propensión a adoptar la innovación. Rogers asignó a estas categorías de usuarios los nombres ya clásicos (y bastante expresivos) de Innovators, Early Adopters, Early Majority, Late Majority y Laggards, ordenados de mayor a menor disposición a aceptar la innovación.  Incluso llegó a postular una forma de campana de Gauss para la curva de adopción y unos porcentajes determinados para cada categoría de usuarios, como se representa en la figura:

Aplicado al marketing de nuevos productos, el modelo de Rogers fue conocido como el Ciclo de Vida de Adopción de la Tecnología (TALC, Technology Adoption Life Cycle). Cuando una innovación discontinua se lanza al mercado es necesario conseguir inicialmente el respaldo de las categorías de usuarios más innovadores (menos aversos al riesgo y más dispuestos a experimentar) para posteriormente ir adaptando el marketing y avanzando hacia esa mayoría de usuarios (más conservadores) que constituyen nuestro último objetivo. Aunque el modelo se basa en la heterogeneidad de los potenciales clientes -en cuanto a su respuesta frente a la innovación- sigue asumiendo una cierta conectividad entre ellos en el sentido de que una vez ganada una categoría de usuarios, y apoyándonos en ella, podemos ganar la siguiente. Este enfoque se aplicó con relativo éxito al marketing de tecnología en los años 1980 y logró que se popularizaran términos como Early Adopters (el primer blanco de todo high-tech marketer).

Por su parte Frank Bass propuso en “A New Product Growth Model for Consumer Durables” un modelo matemático sobre cómo la información acerca de un nuevo producto se pasa  entre los individuos de un sistema social y cómo eso afecta al momento de adopción. Básicamente, un individuo adopta la innovación como resultado de dos tipos de influencias:

  • La actividad  en el mercado de la empresa que proporciona el nuevo producto, incluyendo el atractivo de la propia innovación y otras actividades para informar e influir en los compradores (ej: publicidad y otras comunicaciones). Esta actividad se refleja en el parámetro (p) de influencia externa del modelo.
  • Las actividades internas al propio mercado, resultado de la interacción entre adoptadores y potenciales adoptadores dentro del sistema social (ej: boca a boca, comunicaciones interpersonales). Esta actividad se refleja en el parámetro (q) de influencia interna, que captura la magnitud de la influencia de un adoptador sobre un no adoptador.

Los valores de p y q son específicos de cada producto. La siguiente gráfica presenta el perfil de la curva de adopción de Bass para diferentes valores de los parámetros:

El modelo de Bass asume que la red social está totalmente conectada y es homogénea (los valores de los parámetros son los mismos para todos los individuos). Por lo tanto, a diferencia del modelo de Rogers, el driver del crecimiento del mercado es la interacción entre consumidores, más que la heterogeneidad de estos.

Tanto el modelo de Rogers como el de Bass representan la difusión de la nueva categoría de producto en su conjunto (es decir, no las ventas de un proveedor en particular). En ambos casos, si en lugar de la evolución de la adopción en el tiempo presentáramos la adopción acumulada tendríamos la típica curva en S que exhibe un crecimiento monótono hasta llegar a la saturación del mercado.

En un próximo post hablaremos del uso de estos modelos en el marketing de productos tecnológicos y de algunas de las limitaciones que presentan.

23 comentarios
A %d blogueros les gusta esto: