Crecimiento de productos tecnológicos

Posts from the ‘tácticas de marketing’ category

El perfil de vendedor Challenger es el que más éxito tiene en entornos de venta compleja y crisis, y este éxito se debe a una combinación de habilidades: enseñar, adaptar y asumir el control.

En otras ocasiones hemos hablado en este blog del modelo de venta basada en provocación o insights y del nuevo perfil comercial ganador en entornos de venta compleja: el Challenger. Estas ideas provienen en gran medida de un estudio sobre el rendimiento en venta compleja realizado por el Corporate Executive Board (ahora parte de Gartner) en el que analizó a 6.000 comerciales de 83 empresas en diferentes sectores de actividad y que se plasmó en el famoso libro “The Challenger Sale” de M. Dixon y B. Adamson.

Un vendedor Challenger es capaz de aportar a sus clientes ideas y puntos de vista originales sobre su negocio -oportunidades y problemas de los que no eran conscientes- y guiarlos hacia las soluciones que él comercializa, que son las que mejor les pueden habilitar para aprovechar esas oportunidades o resolver esos problemas.

Venta ChallengerCon ese fin, el Challenger aplica tres habilidades que le sirven para crear una tensión constructiva en el cliente:

  • Enseñar
  • Adaptar
  • Asumir el control

En este post vamos a ver en qué consisten y cómo funcionan estas habilidades.

Enseñar para diferenciarse

La característica que realmente distingue a los Challengers es su capacidad para enseñar a los clientes cosas nuevas y valiosas sobre cómo competir en su mercado. En este contexto “enseñar” significa ofrecer a los clientes nuevas perspectivas sobre su negocio (inicialmente no sobre nuestro producto o solución).

Por ejemplo imaginemos un sector donde la práctica generalizada es comprar aplicaciones informáticas best-of-breed optimizadas para cada función. Un proveedor de suites software integradas para ese sector podría revelar a sus clientes que esa práctica en realidad les está costando dinero en términos de funcionalidades redundantes, procesos desintegrados y costes de interoperación.

En las metodologías de venta consultiva, habituales durante los últimos treinta años, hemos aprendido a preguntar para conocer a nuestro cliente tan bien como él mismo. Pero ¿y si el cliente no sabe lo que necesita? En ese caso, más que preguntárselo lo mejor es decirle lo que necesita: en eso consiste la venta basada en insights.

En metodología Challenger a este tipo de enseñanza se le llama Enseñanza Comercial y desde luego no consiste en proporcionar formación gratuita y que el resultado de esta enseñanza, materializado en forma de nuevos proyectos e iniciativas, lo capitalicen otros proveedores. Enseñanza Comercial significa enseñar a los clientes algo valioso sobre SU negocio de modo que lleve a una victoria comercial para NOSOTROS. Para ello sus características son:

  • Guía hacia aquellas fortalezas en las que somos únicos. Debe conectarse directamente hacia aquellas características en las que somos superiores a los competidores. Ello requiere descubrir oportunidades para el cliente, estar seguros de que podemos ayudar y conocer nuestras fortalezas únicas.
  • Desafía las asunciones de los clientes. Debe hablar directamente a su mundo de una forma en la que no habían pensado o no habían descubierto: se trata de “reformular” o “reencuadrar” (en inglés, reframe) la forma en la que piensan sobre su negocio, no confirmar o validar sus conceptos previos. Para ser capaces de ofrecer una reformulación hay que conocer el negocio del cliente mejor que él mismo… al menos en la parte de éste que tiene que ver con nuestra área de solución. Si ante nuestro intento de reformulación el cliente responde con una reacción del tipo “Estoy totalmente de acuerdo”, aunque sea un resultado aparentemente favorable en realidad no lo es porque significa que no le hemos enseñado nada, sino que le hemos mostrado cosas que él ya conocía. Se trata de reformular, NO de “sintonizar”: hay que buscar una reacción del tipo “Nunca había pensado en ello de esa manera”.
  • Cataliza la acción. Hay que ayudar a los clientes a entender los costes en los que están incurriendo o los ingresos a los que están renunciando por no actuar sobre la oportunidad que les hemos enseñado. Más que nada hay que conseguir que deseen perseguir el reframe (aunque inicialmente no insistamos en posicionar nuestros productos). Antes de comprar nada necesitan entender en qué les beneficia resolver el problema.
  • Escalar a través de los clientes. Para que el proceso escale hay que desplegar el proceso segmento a segmento, no cliente a cliente. Para ello hay que utilizar una segmentación basada en necesidades y realizar un desarrollo de insights a nivel de empresa, donde poseemos las capacidades y la variedad de insights necesaria, no a nivel de vendedor.

En el próximo post profundizaremos en esta habilidad clave de los Challenger.

Adaptar para sintonizar

La capacidad para adaptar el mensaje a diferentes tipos de clientes –y de diferentes individuos dentro de la organización cliente– es lo que hace que el mensaje cale y perdure en el cliente. La tendencia a vender soluciones más complejas y la crisis económica han provocado el auge de la compra por consenso (la necesidad de tener a una gran parte de la organización de acuerdo antes de avanzar), lo que ha aumentado el número y variedad de involucrados en la compra.

La adaptación del mensaje se puede hacer a nivel de sector, empresa, rol e individuo. Las personas (arquetipos) centradas en los diferentes roles de participantes en el proceso de compra, y que incorporen sus respectivos objetivos, resultados deseados, área de foco, preocupaciones, drivers de valor, etc. nos pueden ayudar a sistematizar esta adaptación. Después se pueden desarrollar argumentarios para posicionar y demostrar el valor de nuestra solución para cada una de esas personas.

Asumir el control de la venta

Los Challengers poseen la capacidad para reivindicar y mantener el control sobre la venta. Ser asertivo no significa ser agresivo y mucho menos molesto o abusivo. Tiene que ver con la disposición y la habilidad del vendedor para mantener su posición cuando el cliente ofrece resistencia o le empuja a retroceder. Esta asertividad suele tomar dos formas: controlar la discusión sobre precios y dinero y presionar el proceso de toma de decisiones del cliente para llegar a una decisión más rápidamente y superar la “inercia de la indecisión”. Los Challengers están más cómodos hablando de dinero y son capaces de “empujar” al cliente. Tienen capacidad para demostrar y afianzarse en el valor de sus soluciones y para mantener el empuje a través de todo el proceso. Estas habilidades están sustentadas por la confianza en el valor superior que van a proporcionar al cliente. También crean impulso en el proceso: siempre piensan y buscan consenso sobre los siguientes pasos.

  • Asumir el control no es negociar: en realidad es algo que ocurre desde el principio del proceso, cuando el vendedor busca expandir su acceso dentro de la organización cliente y entender las motivaciones y objetivos de todos los involucrados en el proceso.
  • Asumir el control no es solo respecto a asuntos de dinero: por supuesto que pueden “empujar” al cliente en términos de dinero y en el avance del proceso, pero lo más importante es que lo asumen respecto a las ideas, cambiando al manera de pensar que los clientes tienen sobre su negocio y sus retos.
  • Asumir el control no es ser agresivo: es ser asertivo, usar lenguaje directo pero no intimidante ni ofensivo, perseguir sus objetivos de una manera constructiva, con respeto y sensibilidad sobre cómo reacciona la otra parte.

¿Y cuál de estas habilidades es la más importante? Pues en realidad es la combinación de habilidades lo que importa. Estas tres habilidades son como las  tres patas de un taburete: si falla alguna de ellas la construcción no se mantiene. Si enseñamos sin adaptar podemos caer en la irrelevancia, si adaptamos sin enseñar podemos ser indiferenciados, si controlamos sin aportar insights podemos resultar molestos. Es su aplicación sinérgica la que confiere al Challenger su ventaja.

En el próximo post hablaremos de cómo articular una conversación dirigida por insights y de cómo cambiar la organización para implementar un modelo Challenger.

El post “Implementando un modelo Challenger de marketing y ventas (1)” se publicó primero en “Marketing & Innovación”.

[¿Quieres aprender a aplicar estas ideas en tu empresa? Nuestros talleres sobre Venta de productos tecnológicos y Marketing estratégico para empresas tecnológicas te pueden ayudar.]

Deja un comentario

El uso de analítica predictiva en marketing B2B añade nuevas fuentes masivas de datos externos a los datos internos sobre clientes ya disponibles en nuestros sistemas y aplica la ciencia de datos para permitirnos entender a nuestros mejores clientes, encontrar más como ellos y crecer en los clientes actuales, vendiéndoles más.

La analítica predictiva siempre ha sido una aspiración para muchos marketers B2B, que miran a sus colegas en mercados de consumo (B2C) con envidia: desde hace tiempo ellos contaban con la información sobre los comportamientos, las actitudes y los eventos en la vida de sus clientes y las herramientas analíticas para tratarlos, una situación que se ha visto acentuada por la disponibilidad en la web de datos más ricos y accesibles.

Por suerte las cosas están empezando a cambiar. El big data ha transformado el paradigma del marketing B2B, permitiendo a los marketers que venden a otros negocios saber mucho más sobre sus prospects y mejorar su capacidad para analizar la información.

De la automatización de marketing a la analítica predictiva

Analítica predictiva en marketingLas herramientas de automatización de marketing permiten hacer un scoring de leads basado en su “lenguaje corporal digital”. Los leads que muestran actividad con los emails y los sitios web de la empresa tienen una alta puntuación y se envían a ventas. Típicamente este scoring consiste en sumar una puntuación predeterminada por cada actividad del prospect (ej., descargarse un white paper) y tiene poco poder predictivo.

Esta capacidad para enfocar el esfuerzo comercial se mejoró adicionalmente con la analítica predictiva que ayudaba a descubrir los patrones adecuados de los perfiles de aquellos clientes y prospects que con mayor probabilidad van a comprar o que tienen el mayor potencial de ingresos. El uso de tecnologías de aprendizaje automático permite identificar el perfil ideal (o, como le gusta decir a algunos, el “ADN”) de los clientes. Estos modelos valoran cada nueva señal detectada en un prospect para predecir la verosimilitud de que se produzca una conversión en un plazo determinado. En una palabra, el motor de analítica predictiva puede considerar una variedad enormemente más amplia de datos y predecir sistemáticamente la composición de los mejores leads.

La explosión de datos

Con el advenimiento del big data los marketers pueden aprovechar fuentes de datos más diversas y procesarlas para optimizar el foco y el gasto de su marketing. Los datos disponibles incluyen tanto los datos internos procedentes de las plataformas de automatización de marketing como datos de intención y comportamiento procedentes de la web.

Entre estos nuevos datos, que se han incorporado de manera masiva a los procesos analíticos, están la información pública sobre situación financiera,  datos de personal, ofertas de trabajo, uso de plataformas tecnológicas en sus interacciones con el exterior, tácticas de marketing y ventas, fuentes de datos públicas (listas de contratantes con la administración, solicitudes de patentes…), análisis semántico de la huella digital de la empresa (sitio web, notas de prensa, sitios de noticias, presencia y actividad en redes sociales…)

Las herramientas de analítica predictiva permiten “industrializar” el procesamiento de estos datos sobre millones de empresas, para generar indicadores de encaje, involucración e intención útiles para el marketing. Toda esa información sobre sus mercados objetivo ha dado a los marketers B2B la posibilidad de desarrollar estrategias basadas en una información corporativa más profunda, en triggers en tiempo real y en datos sobre comportamiento.

Como ejemplo de esas señales de interés para el marketing imaginemos que estamos interesados en saber si nuestros potenciales clientes usan Microsoft SQL Server¿cómo podríamos inferir esa señal a partir de datos externos? Se pueden escanear multitud de datos: ofertas de trabajo publicadas por la empresa con un título relacionado con ese producto o que lo incluyen entre los requisitos, puestos en la organización que tienen ese nombre o atribuciones, referencias a partnerships con Microsoft o menciones al producto en el sitio web de la empresa, casos de estudio, notas de prensa o noticias en sitios de terceros… Estos puntos de datos se combinan mediante data science para obtener una probabilidad de que dicha empresa tenga esa tecnología instalada.

Analítica predictiva a lo largo de todo el viaje del cliente

El uso de estas herramientas no sólo se centra en las fases iniciales del funnel, para descubrir cuentas totalmente nuevas en las que enfocarse o para hacer scoring de leads. También se aplica para la priorización y gestión de oportunidades de venta o para las iniciativas de venta adicional y fidelización en clientes actuales:

  • Desarrollo de perfil de cliente ideal e identificación de potenciales clientes en los que enfocarse. La analítica predictiva analiza cientos de variables y descubre qué rasgos poseen las empresas que tienen la más alta propensión a comprar. Las empresas que más se ajustan a ese perfil se usan para refinar las listas de cuentas objetivo y para conducir programas de account based marketing.
  • Gestión de leads. Scoring, cultivo y cualificación de leads basados en la aplicación de modelado avanzado y aprendizaje automático sobre grandes conjuntos de datos que permite estimar la propensión de los leads a convertirse en clientes. Definición de mensajes y campañas adaptados específicamente a esos perfiles.
  • Gestión de oportunidades. El análisis predictivo hace posible estimar probabilidad de cierre, tamaño de la operación y fecha de cierre, permitiendo a los vendedores concentrarse en las oportunidades más prometedores y aumentando la exactitud de las previsiones de venta.
  • Gestión de cuentas. Se analizan los datos sobre los clientes actuales para predecir cuáles de ellos ofrecen más potencial de ingresos adicionales o presentan más posibilidad de abandono y poder dirigir actividades de cross-sell y upsell o fidelización sobre ellos.

La analítica predictiva nos permite aumentar la conversión enfocándonos y cultivando nuestros prospects más valiosos  a través del funnel de marketing completo.

El post “Analítica predictiva en marketing B2B” se publicó primero en “Marketing & Innovación”.

[¿Quieres aprender a aplicar estas ideas en tu empresa? Nuestros talleres sobre Marketing estratégico para empresas tecnológicas y El nuevo marketing digital en mercados tecnológicos te pueden ayudar.]

Deja un comentario

El fraude en publicidad display es masivo y muy difícil de erradicar porque los incentivos perversos para los diferentes agentes contribuyen a perpetuar el statu quo. Sólo tomando conciencia e implicándonos podremos hacer cambiar las cosas.

No BotsEn el post anterior presentamos el problema creado por el gran nivel de fraude en la publicidad digital display, describiendo sus variedades y analizando quiénes son los ganadores y perdedores de esta situación. Hoy vamos a estudiar el impacto del fraude en diferentes modalidades publicitarias y analizaremos por qué es tan difícil combatirlo y qué hacer, como marketers, para protegernos de él.

Impacto del fraude

Aunque el fraude es rampante en todos los tipos y medios de publicidad display su prevalencia no es la misma en todos ellos:

  • El impacto en los anuncios de video (donde los bots causan el 23% de todas las impresiones) es más alto que en display (11%).
  • El fraude varía enormemente según los ad exchanges: aquéllos con una escasa reputación de calidad padecen un fraude del 25-50%, mientras que los ad exchanges más reputados lo sufren menos del 10%.
  • Los medios con CPMs (coste por mil impresiones) más altos son más vulnerables a los bots, ya que esos segmentos proporcionan un incentivo económico más alto para que los operadores de botnets cometan fraude. En el estudio Bot Baseline de ANA se encontró que cuando el CPM era superior a 10 dólares el fraude de bots era un 39% más alto.
  • La compra de tráfico (cualquier método por el cual los sitios web adquieren más visitantes recurriendo a terceros) resulta por lo general en un mayor fraude. En el estudio de ANA el tráfico comprado tenía un porcentaje de bots tres veces más que el promedio.
  • El fraude varía por tipo de compra. Según el estudio de ANA la compra programática (especialmente de video) experimentó un mayor fraude que la compra directa:
    • La compra programática de anuncios display tenía un 14% más de bots que la media del estudio.
    • Los anuncios programáticos de video tenían un 73% más de bots que la media del estudio.
    • Los anuncios directos de video tenían un 59% menos de bots que la media del estudio.
    • Los anuncios display de compra directa tenían un 14% menos de bots que la media del estudio.

¿Por qué es tan difícil de evitar?

Como en todos los grandes problemas que perduran, en este caso una combinación de factores contribuye a un entorno que hace que el problema sea posible y duradero. Como siempre en estos casos, una buena medida es preguntarse a quién beneficia la situación.

  • Los inconvenientes de un mercado abierto. El ecosistema de la publicidad programática es muy abierto: prácticamente cualquiera puede participar. Esto, que es una ventaja para los pequeños agentes y que eleva la innovación en el sector tiene la contrapartida de que muchos jugadores sin escrúpulos encuentran abiertas las puertas.
  • El fraude en publicidad no es técnicamente ilegal. Encuentra vacíos legales y no está muy perseguido, con lo cual los riesgos para los estafadores son bajos. Eso, unido a su potencial de lucro lo convierten en una actividad delictiva muy atractiva.
  • Incentivos perversos para la mayoría de los agentes. La publicidad display es un negocio que se mueve por el volumen de transacciones, medidas principalmente como impresiones (modelo CPM). Eso crea incentivos en casi todos los agentes (DSP, SSP, DMP, ad exchanges, publishers, agencias) para escalar el negocio mediante prácticas cuestionables, aunque sea en detrimento de la eficacia y calidad. Algunas voces ha denunciado incluso los sobornos a las agencias por parte de las redes publicitarias en forma de “descuentos por volumen” para que actúen como intermediarios en la venta de esas impresiones inútiles.

En esas circunstancias todos los agentes tienen incentivos para preservar el statu quo. Los perjudicados inmediatos de estas prácticas son los anunciantes y marketers y, a largo plazo, todos los usuarios de la web que se ven acosados por más anuncios cada vez, un tracking excesivo, una abundancia de malware y una proliferación de sitios con contenidos de baja calidad.

¿Cómo protegerse?

Algunas consideraciones, principalmente sacadas del estudio Bot Baseline de ANA, que potencialmente podrían disminuir nuestra exposición al fraude, especialmente de bots:

  • Tomar conciencia e implicarse. El fraude perjudica principalmente a los anunciantes, así que estos deben ser los primeros en ser conscientes de su gravedad y tomar una posición activa y visible en la lucha contra él y así generar un cambio positivo en la industria. Si ellos no empiezan a moverse nadie lo hará. Un primer paso puede consistir en cambiar los KPIs de coste por impresión o CPM a coste por adquisición, lo que aumenta la exigencia de una interacción humana.
  • Entender la cadena de valor de la publicidad programática y exigir transparencia de inventario (especialmente en aquellas compras que tienen el CPM más alto y los mayores niveles de fraude, como por ejemplo el video). Loa anunciantes deberían informarse del papel de cada agente en el proceso, conocer a los partners de sus partners y solicitar transparencia de inventario para saber dónde se ejecuta su publicidad programática. Del mismo modo que no usaríamos ciegamente la publicidad en medios offline  como la prensa o la televisión sin conocer los detalles de las redes o publicaciones donde aparecen nuestros anuncios no deberíamos conformarnos con menos en publicidad programática.
  • Exigir transparencia sobre la compra de tráfico y las prácticas de extensión de la audiencia. La compra de tráfico y la extensión de audiencias (por la que un publisher presenta sus contenidos en sitios de terceros) tienen una alta correlación con niveles elevados de bots. Es recomendable que los anunciantes exijan a los publishers transparencia sobre sus prácticas de compra de tráfico y extensión de audiencias y que incluyan cláusulas en sus contratos y pedidos de inserción para que se identifiquen todas las fuentes externas de tráfico y audiencia. Los anunciantes deberían incluso poder ejecutar sus anuncios exclusivamente sobre el tráfico orgánico del sitio original operado por un publisher.
  • Incluir cláusulas sobre tráfico no humano en las condiciones de servicio. Los pedidos deberían recogen cláusulas especificando que la empresa no va a pagar por las impresiones a bots.
  • Usar proveedores de monitorización para asegurar la conformidad con políticas antifraude. Monitoriza todo el tráfico de manera exhaustiva con una herramienta consistente para extraer el máximo valor de la inversión publicitaria. Usa monitorización y detección de bots para revelar los bots en las campañas de retargeting, eliminar los bots de las métricas de audiencia y proteger el inventario de mayor valor que pudiera estar más expuesto al fraude. Exije a los proveedores de medidas de calidad que demuestren poseer una tecnología antifraude eficaz y que proporcionen transparencia en las medidas.
  • Usar listas negras que se actualicen frecuentemente. Para que las listas negras sean eficaces deben ser actualizadas al menos diariamente, deben ser muy específicas (micro listas negras) y deben acompañar a otras medidas defensivas.
  • Anunciar tu política antifraude a todos los partners externos. En combinación con las prácticas encubiertas de monitorización continua el “efecto perro guardián” cambiará el comportamiento, reducirá el fraude y animará a otros a unirse a la lucha.
  • Asóciate con un partner antifraude de confianza, a ser posible que trabaje en línea con la iniciativa TAG (Trustworthy Accountability Group), un programa sectorial conjunto marketing-medios diseñado para erradicar el fraude en la publicidad digital, el malware y otras deficiencias en la cadena de valor de la comunicación digital.

El fraude en publicidad display cuesta a los marketers miles de millones al año. Sólo tomando conciencia del problema, implicándonos y dejando claro a los agentes del ecosistema publicitario que ya no vamos a consentir ciertas prácticas  podremos empezar a erradicarlo.

El post “Combatiendo el fraude en pubicidad display” se publicó primero en “Marketing & Innovación”.

[¿Quieres aprender a aplicar estas ideas en tu empresa? Nuestros talleres sobre Marketing estratégico para empresas tecnológicas y El nuevo marketing digital en mercados tecnológicos te pueden ayudar.]

Deja un comentario

El fraude en publicidad display online es masivo pero parece que a casi nadie le interesa hablar de él y -mucho menos- resolverlo. En este post explicamos en qué consiste y sus consecuencias.

La famosa frase atribuida al pionero de los grandes almacenes John Wanamaker (“la mitad del dinero que gasto en publicidad se desperdicia; el problema es que no sé qué mitad”) durante mucho tiempo sintetizó la impotencia de los marketers para medir los resultados de la publicidad en medios tradicionales.

Alerta fraudeMás recientemente la publicidad digital, con sus enormes posibilidades de medida y control, prometió relegar esa frase a la historia. Las nuevas técnicas de publicidad display, especialmente la publicidad programática, iban a permitir entregar a cada usuario el anuncio más enfocado y relevante en cada momento, en unos procesos totalmente trazables que harían posible evaluar los resultados de cada campaña y reducir los temores de Wanamaker a algo sin fundamento.

Pero tristemente esto no ha sido así. La publicidad display, especialmente la basada en Real-Time Bidding, no sólo está incumpliendo su promesa de control, sino que ni siquiera está presentando sus anuncios ante seres humanos: el fraude es enorme y debido tanto a anuncios que son totalmente invisibles como a audiencias no humanas (constituidas por bots). Como resultado, miles de anunciantes son esquilmados económicamente –algunos con pérdidas multimillonarias al año– pagando por impresiones e interacciones ineficaces.

Los números son espectaculares:

  • comScore realizó un análisis de miles de campañas cuyo resultado más notable fue que el 54% de los anuncios display no tienen oportunidad de ser vistos por un consumidor humano.
  • En otro estudio llevado a cabo por Google  se encontró que el 56% de las impresiones servidas por sus plataformas de display, incluyendo DoubleClick, no son visibles.
  • En la última edición del estudio Bot Baseline que la ANA (Association of National Advertisers) viene realizando con el proveedor White Ops  se estima que sólo el tráfico no humano va a provocar en 2016 unas pérdidas de 7.200 millones de dólares.
  • Según el estudio del IAB (Interactive Advertising Bureau) sobre el impacto del fraude y otras conductas en la industria del marketing y los medios en EE.UU. estos están costando al sector 8.200 millones de dólares al año, de los que más de la mitad son debidos al tráfico no humano y el resto a los bloqueadores de anuncios, el malware y la piratería de contenidos.

Estos estudios coinciden en el hecho de que más de la mitad de los anuncios display que las redes publicitarias, los compradores de medios y las agencias han estado vendiendo a sabiendas a los clientes no se han presentado nunca ante los ojos de seres humanos vivos. Lo más sangrante del caso es que durante varios años casi nadie entre los grandes medios se ha hecho eco de este problema, permitiendo que el fraude (una situación en la que muchos agentes salen beneficiados) avanzara y se estableciera.

Modalidades de fraude

Sin duda, el modelo de fraude que más está captando la atención de los medios de comunicación es el tráfico no humano generado por bots. Estos bots pueden ser desde scripts sencillos que se ejecutan desde direcciones fijas y son fáciles de detectar y combatir, hasta botnets con secuencias complejas que emulan a usuarios reales, capaces de navegar e incluso rellenar formularios, que se ejecutan desde redes de ordenadores particulares que han sido invadidos por malware y que son muy difíciles de combatir.

Pero el tráfico no humano no es la única fuente de fraude. Algunas de las más habituales consisten en tráfico humano pero impresiones esencialmente no visibles: anuncios que se comprimen en espacios de 1×1 pixels o pilas de anuncios que se presentan superpuestos y de los que sólo es visible el último. Todas ellas cuentan como impresiones para los anunciantes pero en realidad nadie ha visto el anuncio.

Y también existen otras técnicas que tienen que ver con la suplantación de sitios y visitantes: domain spoofing, ad injection, cookie stuffing…

¿A quién beneficia?

En el entramado del fraude de la publicidad display hay muchos agentes que se benefician directamente del dinero que los anunciantes pagan para realizar sus campañas:

  • Las agencias reciben ese dinero para que compren publicidad display en nombre de los anunciantes.
  • Las redes publicitarias reciben el dinero de las agencias. Como contrapartida, devuelven parte de ese dinero a las propias agencias en forma de “descuentos por volumen”.
  • Los publishers reciben el dinero de las redes publicitarias por la presentación de los anuncios en sus sitios web.

Todo este dinero fluye con independencia de que los anuncios sean realmente visibles por humanos.

En montajes donde los publishers pagan a “brokers de tráfico” para que aumenten sus cifras de visitantes existe además otra cadena de proveedores que reciben dinero: el bróker que vende tráfico de “baja calidad” basado en bots y los defraudadores que se dedican a montar servidores de bots o a infectar máquinas de terceros para que inadvertidamente participen en botnets.

En definitiva, una larga cadena de “valor añadido” que se beneficia fraudulentamente de un dinero pagado para conseguir impresiones reales y que en una altísima proporción se va por el desagüe de las impresiones no visibles.

En el próximo post analizaremos en qué áreas del display es más frecuente el fraude y qué hacer para protegernos.

El post “Pubicidad display online: un fraude de miles de millones” se publicó primero en “Marketing & Innovación”.

[¿Quieres aprender a aplicar estas ideas en tu empresa? Nuestros talleres sobre Marketing estratégico para empresas tecnológicas y El nuevo marketing digital en mercados tecnológicos te pueden ayudar.]

1 comentario

El SEO debe evolucionar para adaptarse a los cambios en los propios motores de búsqueda. Pero su mayor potencial está en integrarse dentro de una estrategia de marketing inbound.

Como colofón a esta serie de posts hablando de SEO (aquí y aquí) vamos a dedicar esta entrada a resumir algunas tendencias en este campo y a aventurar cómo debería ser un SEO “a prueba de futuro”.

Tendencias SEO

Los estudios sobre factores de ranking en buscadores confirman la importancia de entender la intención de los usuarios y el menor peso de los enlaces de baja calidad. Si en un post anterior analizábamos las conclusiones del último informe de Moz, aquí tenéis los insights más importantes del reciente informe de Searchmetrics, en sus propias palabras:

El contenido relevante y holístico es más importante que nunca

La importancia del contenido relevante y de alta calidad no se puede subestimar. Factores de ranking tales como el número de palabras y el índice de legibilidad están aumentando su peso en los últimos años, lo que lleva en general a textos más largos que sean más fáciles de leer. A medida que la tendencia evoluciona desde las palabras clave hacia el contenido relevante, los sitios con alto ranking están cambiando su foco desde el uso de palabras clave basadas en las consultas de búsqueda a tratar de entender la intención del usuario en su conjunto y reflejar esto en un contenido de calidad y estructurado lógicamente.

Experiencia de usuario más allá del desktop

Si bien “Mobilegeddon” (la actualización móvil de Google) no causó tanta turbulencia como se esperaba, el número de sitios mobile-friendly entre los 30 primeros resultados de búsqueda está aumentando. De los datos parece desprenderse que el diseño responsivo puede estar teniendo un efecto positivo en los rankings. A medida que crece el número de usuarios que buscan desde su móvil, optimizar el sitio para diferentes dispositivos finales continúa creciendo en importancia.

Las palabras clave se están quedando obsoletas

Bien se trate de enlaces internos o externos o de de nombres de dominio, las correlaciones con las palabras clave en conjunto están disminuyendo. Además, cada vez más URLs de alto ranking no usan la palabra clave correspondiente ni en el cuerpo ni en la descripción. Esto se corresponde con una tendencia desde las palabras clave hacia el contenido que parece que va a continuar próximamente. Las palabras clave son sin duda un elemento orgánico del buen contenido, pero no tienen sentido sin relevancia y estructura.

Enlaces entrantes: su influencia decrece

Aunque los enlaces entrantes siguen mostrando una alta correlación con los rankings la época de construir enlaces antinaturales -y tal vez enlaces en general- puede llegar pronto a su fin. Desde la introducción de la herramienta de desautorización de enlaces (disavow) es posible saber exactamente qué enlaces tiene en cuenta Google en sus rankings. En general, las correlaciones en esta categoría van descendiendo año a año y los datos sugieren que esta tendencia decreciente va a continuar. Si bien no parece que la táctica de “construir enlaces” esté finiquitada, es en “ganar enlaces” donde deberíamos enfocarnos. Y por supuesto evitar participar en prácticas de compra de enlaces: “granjas” de enlaces, directorios generalistas y verticales, esquemas de intercambio / ruedas de enlaces, etc.

Señales sociales: un plus para el ranking orgánico

La pregunta de cómo las señales sociales (tales como número de seguidores, tuits, me gusta, +1s) aumentan los rankings permanece abierta. Google mantiene que no usa directamente esas señales como factores de ranking, pero los datos muestran una correlación positiva entre las señales sociales y el ranking que puede ser debida a una causalidad subyacente común (como veíamos en el anterior post): el contenido excelente atrae tanto enlaces como comparticiones sociales y eso produce esa correlación. Lo que sí es cierto es que las señales sociales continúan siendo importantes para el conocimiento de marca y contribuyen a aportar tráfico orgánico hacia los sitios de mayor ranking.

¿El SEO del futuro?

Actualmente, el “buen SEO” ya no es “sólo SEO”. Me explico: hasta hace unos años, el SEO se basaba en conseguir que tu sitio fuera crawleable, generar contenido centrado en palabras clave, construir enlaces y -como resultado de todo ello- alcanzar el objetivo primordial de obtener buenos rankings.

SEO del futuro

 

Últimamente el “buen SEO” es más amplio y holístico y -además de los elementos tradicionales- incorpora dimensiones y técnicas de muy diverso cariz: diseño y UX, medios sociales, internacionalización, localización, velocidad, accesibilidad, movilidad, lucha contra el spam web… y todo ello con el objetivo final de conseguir clics y no sólo ranking.

Pero lo más importante es que el SEO no es una estrategia, sino una táctica al servicio de una estrategia de marketing inbound. El SEO no se puede gestionar como algo aislado, sino como un eje imprescindible de ese marketing inbound -cuyas otras dimensiones principales son el marketing de contenidos y el social- y que se basa en

  1. Entender a nuestros clientes actuales y potenciales
  2. Crear el contenido que estos desean
  3. Hacerlo accesible y difundirlo a través de todos los canales posibles
  4. Medir y optimizar todo.

Si tuviera que resumir estos últimos posts en un par de Mandamientos Estratégicos del SEO, estos serían:

  • Temas y topics, más que palabras clave. Elaborar contenidos que respondan a una intención del usuario y que no utilicen hasta el aburrimiento una palabra clave, sino que proporcionen variedad dentro de un cierto tema.
  • Calidad, más que cantidad de contenidos. Crear contenido “magnético” (único, relevante, útil, valioso) que la gente quiera enlazar y compartir, que los influenciadores quieran difundir y que atraiga a nuestros clientes.
  • Hacerse merecedor de enlaces y comparticiones sociales. En lo que respecta a los enlaces, debemos ganarlos más que construirlos: nuestro contenido debe atraer enlaces naturales y legítimos, de fuentes con autoridad. En cuanto a medios sociales, nuestro contenido no sólo debe incluir botones de compartición e incorporar marcado social (Twitter Cards, Facebook Open Graph…) sino dar una buena razón para usarlos. Antes de publicar cualquier material deberíamos tener una buena respuesta a esta pregunta: “¿Quién va a amplificar este contenido y por qué?”
  • Experiencia de usuario multidispositivo. Asegurarse de que el contenido se puede consumir fácil y cómodamente desde cualquier dispositivo, especialmente desde móviles (smartphone, tablet).

¿Cómo lo veis? ¿Vuestro SEO sigue anclado en enfoques del pasado?

El post “El futuro del SEO” se publicó primero en “Marketing & Innovación”.

[¿Quieres aprender a aplicar estas ideas en tu empresa? Nuestros talleres sobre Marketing Digital y Marketing de Producto te pueden ayudar.]

Deja un comentario

En el mundo del SEO hay factores cuya influencia no es bien entendida o cuyo peso está cambiando como resultado de las actualizaciones de Google. En este post te señalamos algunas ideas y tácticas de optimización en buscadores cuyo efecto no es el que piensas o el que solía ser.

Tal como vimos en el post anterior, informes como el que bienalmente publica Moz tratan de identificar aquellos atributos de páginas y sitios web que pueden ayudar -o dañar- su visibilidad en los motores de búsqueda. Hoy vamos a ver cómo utilizar las pistas que nos dan esos informes para modular (o desterrar) algunas tácticas de nuestro SEO. Y empezamos por las siempre controvertidas “señales sociales”.

¿De verdad tiene en cuenta Google las “señales sociales”?

Un tema que sigue siendo polémico en el sector del SEO es si Google tiene directamente en cuenta las señales sociales (número de seguidores, comparticiones de un contenido…) incorporándolas a su algoritmo como un factor de ranking explícito.

Los datos estadísticos muestran que un ranking alto en buscadores y un número elevado de comparticiones sociales suelen venir juntos (correlación entre 0,2 y 0,3, según las diferentes variables y estudios) y eso lleva a muchas personas a la conclusión de que el algoritmo de Google tiene en cuenta directamente esas señales sociales, lo que supondría una relación causal entre ambos.

Pero como sabemos, la correlación no implica causalidad. Y de hecho Google ha desmentido varias veces que tenga en cuenta específicamente las métricas sociales en su algoritmo (ver aquí Matt Cutts) y ha aclarado que trata a Facebook, Twitter, etc. como al resto de páginas web. Es decir, esos contadores de tuits, me gusta, etc. que aparecen en una página son indexadas por Google como números sin un significado especial.

Entonces ¿a qué puede deberse esta correlación? Es cierto que a veces se dan correlaciones totalmente inexplicables entre variables (tenéis algunos ejemplos realmente divertidos en Spurious Correlations), pero ese no parece ser el caso del ranking y las señales sociales. La correlación entre estos factores parece verosímilmente  explicable por la existencia de una causalidad subyacente común, que afecta en paralelo a ambos.

Por ejemplo, la alta correlación existente entre el consumo de helados y el número de muertes por ahogamiento se puede explicar por las temperaturas ambiente, que cuando son altas provocan que la gente las combata comiendo helados o tomando un baño (aumentando así el riesgo de ahogamiento) y hacen que ambas variables se muevan en la misma dirección.

Google y las señales sociales

Del mismo modo, la asociación entre un alto ranking y un elevado número de comparticiones sociales se puede explicar porque se trata de contenidos de excepcional calidad e interés, que invitan a ser enlazados y compartidos (ver imagen). Y, por supuesto, análogamente (aunque en sentido contrario) con el contenido de baja calidad, que cosecha escasos enlaces y malos números sociales.

De todos modos esta explicación también es controvertida y hay muchos que opinan que específicamente Google+ sí es un factor directo de ranking y que con el nuevo acuerdo entre Twitter y Google –además de hacer que los tuits se muestren entre los resultados de búsqueda– la interacción conseguida por una página en dicha red social sí va a influir explícitamente en su posición en esos resultados.

En cualquier caso, aunque las señales sociales parezcan no forman parte del algoritmo de Google, sí que tienen un papel protagonista en el tráfico, la notoriedad y el rendimiento online general de un dominio.

Tácticas y mitos SEO que deberías ir abandonando

Hay otros conceptos erróneos que en estos tiempos de Pandas, Penguins y Hummingbirds pueden perjudicar a nuestro SEO. Aquí tenéis unos cuantos:

Google Authorship. Aunque esta manera de enlazar tu perfil en Google+ y tus contenidos tuvo su minuto de gloria y se nos presentó como la mejor forma de conseguir visibilidad y clics en la página de resultados, se fue tan rápido como vino y Google lo canceló en agosto de 2014 (probablemente porque perjudicaba su negocio de publicidad).

Link building. Después de la actualización Google Penguin, dedicada a penalizar el web spam y específicamente centrada en combatir los enlaces de baja calidad (comprados, de sitios dudosos, antinaturales…) los enlaces han pasado a ser un juego de calidad, no de cantidad. En lugar del link building (especialmente si es black hat) debemos practicar el link earning, y concentrarnos en crear contenido interesante que nos haga ganar enlaces.

Optimización de palabras clave (que además deben coincidir exactamente con la consulta). Desde la actualización Hummingbird Google ya no se limita a intentar “casar” las palabras clave de la consulta de búsqueda con las palabras clave del contenido sino que intenta discernir la intención detrás de una consulta de usuario y entregar contenido relevante para ella. Por eso, en lugar de optimizar respecto a unas palabras exactas debemos buscar una variedad de términos dentro de una intención o tema.

El SEO consiste esencialmente en conseguir ranking. En realidad, el SEO debe estar enfocado en lograr clics. De nada sirve aparecer en los primeros lugares de la página de resultados si el snippet de nuestro contenido que presenta el buscador es tan poco atractivo o tan confuso que nadie hace clic. A veces es mejor invertir nuestro esfuerzo en dar a los motores todas las pistas para que generen un buen snippet que forzar la máquina para lograr aparecer en las primeras posiciones. Un buen uso de los metadatos y los nuevos tipos de marcado semántico nos pueden ayudar a conseguirlo.

En el próximo post hablaremos de cómo deberíamos enfocar una estrategia SEO de futuro.

El post ““El algoritmo de Google tiene en cuenta directamente las señales sociales”… y otros mitos SEO que deberías dejar de lado” se publicó primero en “Marketing & Innovación”.

[¿Quieres aprender a aplicar estas ideas en tu empresa? Nuestros talleres sobre Marketing Digital y Marketing de Producto te pueden ayudar.]

Deja un comentario

A todos nos gustaría saber cómo funcionan los algoritmos de Google y así obtener los mejores rankings en los resultados de búsqueda. Pero a falta de información de primera mano más actuable, los paneles de expertos en SEO y los análisis estadísticos de correlación pueden proporcionar pistas muy valiosas.

A pesar de algunas voces que llevan tiempo anunciando su decadencia, el SEO sigue siendo importante para el marketing. Especialmente para cierto tipo de soluciones y productos (p.ej., B2B) ser encontrable en buscadores generalistas resulta primordial para el descubrimiento de una marca y su relación con el mercado.

No olvidemos que  Google procesa más de 100.000 millones de consultas al mes y -aunque la búsqueda en redes sociales y sitios de vídeo es cada vez más masiva y sofisticada- nuestro sitio web sigue siendo el principal canal propio de marketing online. (Y tal vez el único que merece ese calificativo, ya que no depende de otras plataformas… pero eso es otra historia).

Por eso hay mucha gente interesada en descubrir cómo funcionan realmente Google y los otros grandes motores de búsqueda. Y teniendo en cuenta que -por razones perfectamente comprensibles- la información que ofrecen los propios buscadores es ambigua y poco actuable (p.ej., el caso de Matt Cutts en Google) los SEOs y marketers deben recurrir a otras fuentes.

Algunos de los recursos -gratuitos- más útiles para entender el funcionamiento de los algoritmos de los motores de búsqueda son los informes periódicos que publican algunos proveedores de herramientas para SEO y marketing inbound tales como Moz (antes SEOmoz) y Searchmetrics. Estos informes tratan de identificar aquellos atributos de las páginas y los sitios web que pueden ayudar -o dañar- su visibilidad en los motores de búsqueda.

Aprovechando que el informe Search Engine Ranking Factors 2015 de Moz acaba de ser publicado vamos a explicar cómo se elabora y cuáles son las conclusiones más importantes de esta edición. Como en las anteriores, el informe de Moz -centrado en Google- utiliza dos enfoques y tiene dos capítulos complementarios que describimos a continuación:

  • Encuesta a expertos
  • Análisis de correlación.

Estudio Moz 2015: encuesta a expertos

Este año, Moz encuestó a más de 150 marketers que aportaron sus opiniones acerca de la influencia de más de 90 factores que se cree que son usados en los algoritmos de Google. Ver los resultados aquí.

El resumen de estas opiniones se presenta en la siguiente infografía de Moz.

Search Engine Ranking Factors 2015

En resumen, las tres áreas de factores con una influencia más positiva sobre el ranking en Google -de acuerdo a los expertos consultados- son:

  1. Características de enlaces a nivel de dominio: métricas de enlaces y citaciones a la raíz y los subdominios del dominio, métricas de confianza, PageRank a nivel de dominio, etc.
  2. Características de enlaces a nivel de página: PageRank, métricas de confianza, número de dominios raíz que enlazan a la página, distribución de los textos ancla, características de calidad/spam de las fuentes de enlaces, etc.
  3. Características basadas en palabras clave y contenido a nivel de página: relevancia del contenido, optimización del uso de palabras clave en la página, relación con topics, cantidad y calidad del contenido, etc.

Pero no todos los factores son positivos. Es importante tener en cuenta que el número total de enlaces antinaturales se considera la señal negativa de ranking más fuerte, seguida del contenido superficial y duplicado.

Finalmente, un conjunto de factores siempre sujeto a controversia como es el de las señales sociales (tuits, me gusta, +1s… sobre el contenido) tiene una influencia relativamente baja y de mucho menor peso que los anteriores. (Recordemos que estamos analizando su influencia sobre el ranking en buscadores, no sobre el tráfico, la visibilidad o el engagement total de una marca).

Estudio Moz 2015: análisis de correlación

El estudio Moz de correlación aplica técnicas estadísticas para medir qué atributos de las páginas y los sitios web están asociados con un ranking más alto en los resultados de búsqueda en Google. Este año se han analizado características tales como el uso de palabras clave, la velocidad de carga de la página, los textos ancla… y otros 170 atributos más. Ver los resultados aquí.

Hay que aclarar que el estudio no nos dice si Google usa realmente esos atributos en su algoritmo de ranking: sólo nos señala las características de páginas y sitios web que tienden a exhibir rankings altos. Como sabemos, la correlación no implica causalidad y aunque ésta es una diferencia muy importante los datos de correlación nos siguen aportando pistas muy valiosas.

Estos son los hallazgos más significativos del análisis de correlación de 2015, según Moz:

  • Seguimos viendo correlaciones menores entre el uso de palabras clave en la página y el ranking. Esto se debe probablemente a que Google es más inteligente cuando se trata de entender lo que las páginas significan (mediante palabras relacionadas, sinónimos, variantes próximas y entidades) sin tener que depender de las frases clave exactas. Como consecuencia de actualizaciones como Hummingbird y el Knowledg Graph creemos que atender a la intención esencial del usuario es de la mayor importancia para obtener un ranking alto.
  • Si bien la longitud de la página, el uso de hreflang (etiquetado de idioma) y el número total de enlaces muestran una asociación moderada con los rankings de Google, hemos encontrado que el uso de HTTPS tiene una correlación positiva muy baja. Entre los factores con una asociación negativa están el tiempo de respuesta del servidor y la longitud total de la URL.
  • A pesar de los rumores en sentido contrario, los datos continúan mostrando una de las mayores correlaciones entre el ranking y el número de enlaces a una página dada.
  • Aunque existe una cierta correlación entre rankings y dominios cuyo nombre se corresponde exactamente con la palabra clave (p.ej., redwidgets.com) ésta se debe probablemente a la preponderancia del texto ancla, uso de palabras clave y otras señales, en lugar de un sesgo algorítmico a favor de esos dominios.
  • El estudio mostró una baja correlación entre el tipo de dominio de alto nivel (.com, .org, etc.) y el ranking.
  • Si bien no es tan fuerte como en el caso de las métricas de enlaces a nivel de página, el número total de enlaces a la raíz y a los subdominios de un sitio mostró una correlación razonablemente fuerte con el ranking. Creemos que los enlaces continúan teniendo un papel predominante en los algoritmos de Google (aunque según diversos estudios esta influencia podría estar disminuyendo paulatinamente).
  • El uso de texto ancla fue otra de las características más notorias de los resultados de alto ranking, encabezados por el número de dominios únicos que enlazan usando texto ancla con matching parcial.
  • Siempre controvertido, el número de comparticiones sociales que acumula una página tiende a mostrar una correlación positiva con el ranking. Si bien hay buenas razones para creer que Google no usa los números de comparticiones sociales directamente en su algoritmo, se pueden ganar muchos otros beneficios SEO secundarios mediante una buena compartición social.
  • El período hasta la expiración del registro del dominio resultó moderadamente correlado con los rankings más altos, mientras que el registro privado mostró una pequeña correlación negativa.
  • Las métricas de engagement mostraron que las páginas con ratios de rebote más bajos, número de páginas vistas más altos y mejores métricas de tiempo en el sitio estaban asociados con rankings más altos.

Espero que este pequeño resumen del estudio Moz 2015 os sea útil, aunque lo que os recomiendo es que leáis el informe completo. En los próximos posts hablaremos del futuro del SEO y de si éste debe ser cada vez más social.

El post “Factores de ranking en motores de búsqueda en 2015” se publicó primero en “Marketing & Innovación”.

[¿Quieres aprender a aplicar estas ideas en tu empresa? Nuestros talleres sobre Marketing Digital y Marketing de Producto te pueden ayudar.]

Deja un comentario

Un post muy breve para apuntaros hacia algunas de las cosas que hacemos en Daedalus y que sin duda van a interesar a aquellos marketers preocupados por la evolución hacia enfoques semánticos del ecosistema del marketing digital (motores de búsqueda, medios sociales, sitios de noticias…).

rich snippetEn este post hablamos de cómo a medida que los motores de búsqueda evolucionan hacia un comportamiento centrado en las entidades (y no tanto en las palabras clave) toda organización con presencia online va a verse obligada a hacer explícito el significado de sus contenidos web.La tecnología de marcado semántico puede ayudar a hacer los contenidos más relevantes para los motores y más atractivos para los usuarios.

En este post analizamos los beneficios del marcado semántico para el marketing inbound (SEO, social, agregadores…) y algunos de sus retos y presentamos herramientas útiles para implementarlo.

Deja un comentario

En la primera parte de este post hablamos de los retos a los que se enfrenta el marketing en el escenario actual, especialmente en productos de compra compleja. Un escenario en el que los clientes son más autónomos, están más informados y reclaman el control, en el que los procesos de compra son cada vez más complejos  y escasos, en el que nuestros procesos de Marketing y Ventas siguen anclados en el pasado y en el que el marketing digital se mueve a demasiada velocidad.

En esta segunda parte planteamos algunas ideas para mejorar la situación, que básicamente consisten en Adaptarse, Publicar, Atraer, Cultivar y Medir:

  • Adaptarse. No se trata únicamente de entender y asumir la nueva situación, sino también de conocer a nuestros clientes y acomodar nuestros procesos de marketing y ventas al modo en que estos compran. El uso de buyer personas -arquetipos que representan a nuestros compradores en acción y que reflejan sus fuentes y consumo de información- es la base para definir procesos, propuestas de valor y mensajes comerciales. Pero además, esta adaptación debe ser dinámica: si algo cambia hay que readaptarse. La flexibilidad y la agilidad son primordiales en el nuevo Marketing.
  • Publicar. Es imprescindible generar contenidos relevantes, útiles, memorables y contagiosos para nuestros compradores, que satisfagan sus necesidades de información, resuelvan sus dudas y temores y les ayuden a avanzar en su proceso de compra. Unos contenidos que inviten a ser compartidos y reenviados y puedan expandirse de manera exponencial por la red, aumentando nuestra visibilidad, autoridad y encontrabilidad en buscadores y medios sociales. Nunca antes habíamos dispuesto de tantos formatos y medios (ni tan baratos). Pero no perdamos de vista que lo importante no es el formato, sino la información que queremos transmitir, la historia que queremos contar y la acción que queremos motivar.
  • Atraer. No basta con publicar: hay que difundir y promocionar activamente esos contenidos magnéticos para que atraigan a los compradores hacia nuestro negocio. Si no hace muchos años proclamábamos  que “el Contenido es el Rey” el nuevo mantra ha pasado a ser “las Conversaciones son el Rey (el contenido es únicamente algo de lo que hablar)”.  Lamentablemente, el problema con muchas tácticas de pago es que cuando dejamos de inyectar dinero su efecto se desvanece. Aun cuando el marketing pagado tenga un indudable valor táctico ello no es sustituto para la construcción de una serie de activos online (presencia web propia, ranking orgánico en buscadores, conversaciones en medios sociales) que refuercen nuestra visibilidad, alcance, autoridad e interés para nuestros clientes. Unos activos cuyo valor no desaparece instantáneamente cuando dejamos de gastar en ellos y que acaban funcionando –igual que el equipamiento de una fábrica– como una máquina de atracción y conversión.
  • Cultivar. La inmensa mayoría de los leads que captamos (especialmente en productos de compra compleja) no están preparados para comprar. Sin embargo, con el tiempo muchos de ellos acaban comprándole a algún proveedor (aunque tal vez no a nosotros). No nos podemos permitir desperdiciar ese potencial, limitándonos a cualificar superficialmente los leads generados y a traspasándoselos a Ventas (que pronto descubre que no hay negocio inmediato y deja de trabajarlos). La gestión de leads permite ir incubando y monitorizando esas oportunidades incipientes, ayudando a avanzar al potencial comprador en su proceso de investigación y evaluación, de modo que cuando llegue el momento de la decisión de compra estemos en primera línea. Y un ingrediente primordial es el cultivo de esa relación, suministrando proactivamente los contenidos informativos más relevantes (y provocadores) para el comprador en cada fase de su proceso. Pero ese cultivo no se debe restringir únicamente a nuestros potenciales clientes: su verdadero potencial se alcanza cuando desarrollamos la relación con nuestros clientes actuales, facilitando las compras adicionales y cruzadas y fomentando la referencia y la promoción.
  • Medir. Decía Lord Kelvin que “lo que no se puede medir no se puede mejorar”. Afortunadamente el marketing digital es mucho más medible que el tradicional y no solo desde el punto de vista de los indicadores operativos (clics, seguidores…), también desde las métricas más cercanas al negocio (participación, preferencia, recomendación…) y su conexión con las financieras (ventas, ROI). Pero no se trata de medir sin más: hay que poner la medida en el centro de un ciclo continuo de experimentación, análisis y optimización que nos permita ir mejorando todas las facetas de nuestro marketing. No basta con experimentar y optimizar nuestras páginas de aterrizaje o ratios de conversión, también hay que ir descubriendo y validando nuevos segmentos objetivo y propuestas de valor en la línea de adaptación a los clientes y al entorno que mencionábamos en el primer punto.

En resumen, un Marketing centrado en el cliente, basado en conseguir y merecer su atención y su confianza y fundamentado en un proceso continuo de experimentación, medida, análisis y optimización.

Este post en “Marketing & Innovación”.

[Conceptualizar nuestros problemas de marketing y ventas desde un punto de vista interno puede confundirnos. Descubre en este documento cómo definir tus verdaderos problemas de marketing desde la perspectiva del cliente.]

2 comentarios

El marketing ha sufrido una transformación radical durante los últimos años. Pero no solo en cuanto a medios y tácticas, también en cuanto a filosofía y objetivos. En este post analizamos por qué muchas empresas tienen dificultades para adaptar su marketing a este nuevo entorno y damos algunas claves para mejorar su situación.

El marketing está experimentando una transformación radical y las tácticas que aplicábamos hace tan solo cinco años han dejado de ser válidas. Tanto es así que en los mercados  laborales más avanzados ser un profesional del marketing con muchos años de experiencia -y a menos que se acredite un empeño por actualizarse en los nuevos paradigmas- comienza a verse como algo negativo: como si alguien que ha ejercido el marketing en el mundo anterior a la web social estuviera inevitablemente anclado en unas prácticas que ya no funcionan.

Recientemente tuve la oportunidad de impartir la sesión de clausura de un curso sobre marketing digital en una gran empresa. En lugar de intentar hacer la típica recapitulación decidimos tratar de indagar en los retos actuales del marketing y en las causas por las cuales -especialmente en productos de compra compleja– no estamos obteniendo los mejores resultados. Como contrapartida (y para tratar de ganarnos nuestros honorarios) también ofrecimos algunas ideas para intentar salir airosos en este nuevo escenario.

Este post es el resultado de esas reflexiones. En esta primera parte pasamos revista a las causas del problema, que podemos enumerar así:

  • Los clientes ya no son lo que eran. En este mundo hiperconectado  nuestros clientes tienen una participación social más intensa (tanto online como offline) e inician sus procesos de compra buscando información, recabando opiniones y comparando productos en buscadores, foros y redes sociales. Son mucho más autónomos, controlan el proceso y evitan el contacto con los vendedores si no les resulta imprescindible (les gusta pensar que son ellos quienes descubren a los proveedores, no al revés). Más ocupados y estresados que nunca, desoyen los mensajes del marketing y usan la tecnología (p. ej.: filtros de spam) para bloquear sus intrusivos intentos de comunicación. Lo que es peor: un paso en falso en cuanto a publicidad, calidad de producto o atención al cliente y nuestra empresa puede acabar en el centro de una tormenta en medios sociales que impacte radicalmente sobre su reputación.
  • Los procesos de compra son más complejos… y escasos. Hace tiempo que la compra de tecnología dejó de estar exclusivamente en manos de los tecnólogos: la incorporación de los responsables de negocio ha aumentado el número de personas y roles involucrados, las fases del proceso y la extensión y complejidad general de la compra. Por otra parte, los nuevos hábitos de consumo de información online han modificado el “viaje del comprador”, que ya no es lineal (si es que alguna vez lo fue, aparte del modelo AIDA) y en su mayor parte transcurre a espaldas de los proveedores. El funnel de marketing y ventas, antaño secuencial y controlado por el proveedor, ha pasado a ser una especie de río lleno de meandros, a tramos subterráneo e imposible de encauzar. Por si fuera poco, el enorme nivel de ruido online tampoco ayuda a los marketers a destacar y a conseguir que su mensaje sea oído. Finalmente, la crisis económica ha provocado recortes presupuestarios en los clientes y hace que cualquier compra esté sujeta a un férreo escrutinio.
  • Nuestro Marketing (y Ventas) sigue anclado en el pasado. Nuestros procesos de generación de ingresos siguen estando diseñados de dentro afuera -sin tener en cuenta en nuevo escenario- aplicando una organización y unas prácticas que supuestamente “funcionan” (¿hasta ahora?). Su tradicional dependencia de unos canales push y unos medios pagados cada vez más ineficientes y de unas actividades de venta intensivas en mano de obra cara han acrecentado sus ineficacias y sus costes. El Marketing tradicional es considerado generalmente como un nebuloso pero necesario centro de costes y un gasto para la empresa (no un generador de ingresos o una inversión). Además, la dificultad para medir y controlar su actividad y demostrar sus resultados (o incluso para decidir cuáles deberían ser esos resultados) han contribuido a su baja credibilidad interna.
  • El panorama del marketing digital se mueve a toda velocidad. Ya no es solo que cada día aparezca una nueva red social o aplicación móvil en la que “hay que estar”. Canales y medios como la publicidad display, las relaciones públicas o el marketing  en motores de búsqueda, social y móvil están transformándose día a día. Una transformación que se produce  mediante procesos de redefinición de la cadena de valor (p. ej.: ad networks, ad exchanges, data brokers…), de innovación tecnológica que hace posible mejores prestaciones y targeting, o de influencia mutua y convergencia (p. ej.: motores de búsqueda-medios sociales-medios tradicionales). Los nuevos hábitos online de los compradores están haciendo que los medios pagados de marketing (anuncios, patrocinios, emailings a listas compradas) están cediendo su protagonismo ante el avance de los medios “ganados” (ranking natural en buscadores, conversaciones sociales, contactos que nos han dado su permiso para continuar el diálogo) y propios (sitio web, blog, páginas sociales de empresa). La lucha es constante por merecer la atención de los compradores, sin duda el recurso más escaso y valioso. En este panorama, muchas empresas se lanzan a los nuevos canales sin objetivos claros y ningún tipo de estrategia, lo que no hace más que agravar el problema.

Hasta aquí los problemas del marketing actual, en la segunda parte trataremos de plantear algunas posibles soluciones. Mientras tanto, ¿alguna idea?

Este post en “Marketing & Innovación”.

[Conceptualizar nuestros problemas de marketing y ventas desde un punto de vista interno puede confundirnos. Descubre en este documento cómo definir tus verdaderos problemas de marketing desde la perspectiva del cliente.]

2 comentarios