La semana pasada, la consultora financiera Lazard lanzaba la duodécima edición de su ya famoso Levelized Cost of Energy Analysis donde realiza un análisis comparativo del coste medio que tiene producir un MWh con tecnologías de generación (aquí el pdf completo). Desde el año 2008 que se lanzó la primera edición, ha sido una referencia en el sector para ver cómo las renovables iban reduciendo el coste de generación y acercándose a lo que parecía hace unos años una quimera: el grid parityPero la noticia es que eso ya no es noticia: que las renovables (eólica y solar) son ya claramente más competitivas en nueva instalación que las convencionales es algo que ya casi nadie (con algo de criterio) discute. Ahora el objetivo es lo que yo llamaría el punto de no retorno de las renovables: que nuevas instalaciones de eólica o solar sean más baratas que mantener convencionales ya amortizadas.

Y esto es lo que, por primera vez, indica el informe de Lazard que puede estar pasando. De ahí que todos los titulares de diversos medios como PV Magazine o El periódico de la Energía hayan destacado este hecho. Profundicemos un poco más en el informe de Lazard sobre LCoE:

  1. Nueva instalación renovables vs coste marginal convencionales

Como ya se ha comentado, esta es la gran noticia. Según Lazard, en determinados casos, tanto la eólica como la solar de nueva instalación (ambas sin subsidios) pueden tener un coste de generación más bajo que el coste de generación de centrales de carbón o nucleares que ya están amortizadas y que, por tanto, su coste es el marginal de operación, combustible, mantenimiento, etc.

  • Lo primero que sorprende es que estemos ya en ese punto. Bloomberg NEF, que probablemente sea la consultora más reputada del sector, publicaba este año su New Energy Outlook donde vaticinaba que ese punto se alcanzaría como pronto en 2028 en proyectos en Alemania y en 2030 en China, en ambos casos versus instalaciones de Carbón. Si la comparación es con instalaciones de gas, la fecha se adelanta a 2022 y 2023 para China y Alemania respectivamente. Ya se sabe que la profesión de adivinador es especialmente difícil en el mundo de la enegía pero 10-12 años de diferencia es mucho incluso para este mundillo. Seguro que hay una explicación para tal diferencia (criterios, asunciones, etc) pero yo personalmente, si tengo que elegir una de las dos fuentes, me quedo con Bloomberg.
  • Las consecuencias de alcanzar este punto son muy relevantes: para empezar, daría vía libre a forzar cierres de plantas muy contaminantes (ej. Carbón) sin dañar económicamente a los operadores. Esto, junto con iniciativas privadas de las propias utilities, aceleraría la penetración de las renovables.
  • Aparentemente, el punto anterior parece muy positivo, pero si vamos un poco más allá, una introducción masiva de renovables provocaría una caída del precio del pool, con lo que haría menos atractivos los proyectos sin PPA, cosa que podría ser muy perjudicial para las propias renovables.

2. Wind vs Solar

Otra cosa que me llama la atención del informe es el bajísimo LCoE de la eólica (29 $/MWh) mientras que la solar más barata está en 26 $/MWh. Es llamativo porque los niveles de precio que se están alcanzando en las subastas parecen indicar que el suelo de la solar es más bajo que el de la eólica. Veamos algunos detalles relevantes en esta comparación

  • Analizando las asunciones del análisis, vemos que el factor de capacidad de Wind Onshore se fija en una horquilla de 55-38%. Ese 55% corresponde al valor mínimo de 29$/MWh y personalmente me parece algo irreal para proyectos onshore. Me cuesta pensar que haya proyectos con 4.800 heq netas. Es más, la horquilla del offshore es 55-45% que parece más real pero que el rango máximo de ambas horquillas coincida es muy raro. Yo pondría un rango de 50-30% para onshore.
  • En cuanto a la vida útil de las instalaciones, se asumen 20 años para eólica. Para Onshore puede tener sentido (la extensión de vida actualmente tiene asociado capex) pero para Offshore claramente debería ser 25 o incluso 30 años.
  • Los ratios históricos de reducción son espectaculares pero parecen indicar cierto suelo para la eólica mientras que la solar parece lejos de alcanzar algún suelo (Bloomberg vaticina en solar una reducción adicional del 30% de aquí a 2025)

  • Parece claro que la solar va a ser más barata que la eólica (si no lo es ya) y esto unido a ser menos intensivo en capital, tener menos riesgo tecnológico y plazos de instalación muy cortos, hace que parezca un rival imbatible en futuras subastas multitecnología. Pero como dijo Jose Luis Blanco, CEO de Nordex-Acciona en el reciente evento del EnerCluster de Navarra: “aunque la solar pueda ser más barata, el valor del MWh eólica siempre será mayor”. Y esto es algo que deberían tener muy presentes los legisladores a la hora de planificar las futuras subastas: para regiones como Navarra o países como España o incluso para Europa, el retorno de la inversión en eólica es altísimo ya que un gran porcentaje de la inversión es local o regional mientras que, en solar, la tendencia es que cada vez la fabricación de todo el HW se centre más en China.

Sea como sea la tendencia es imparable: las renovables ya son la fuente de generación más instalada y lo serán aún más en los próximos años. Ahora es el turno de los legisladores y planificadores del mercado de poner los mecanismos adecuados para que no haya riesgo de morir de éxito.

Cuando trabajaba en Gamesa, desarrollamos un proyecto de satisfacción de clientes que se basaba en realizar entrevistas cara a cara a todos los clientes donde se recogían las respuestas a más de 50 preguntas cerradas y 30 abiertas. Era un proyecto muy potente donde se hacían más de 100 entrevistas en 20 países diferentes. La información que se obtenía era valiosísima y la presentábamos con distintas segmentaciones y KPI’s de forma que de dicha información se sacaban conclusiones de negocio y se lanzaba un plan de acción a fin de corregir aspectos mejorables o de reforzar cosas que eran muy bien percibidas. Este plan de acción con sus resultados se presentaba posteriormente a los clientes a los que se le había realizado la entrevista con lo que el círculo de feedback quedaba cerrado y preparado para empezar otra ronda de encuestas. Como se puede adivinar, era un proyecto complejo que duraba 18-24 meses y que involucraba a mucha gente en la compañía.

El caso es que cuento esto no porque yo sea uno de los padres del proyecto sino porque recuerdo que hace unos 5 o 6 años estaba en una de las auditorías externas y tras contarle todas las excelencias del proyecto al auditor, éste me dice “todo eso está muy bien pero… ¿cuál es vuestro NPS?”

 

Para mí, esta anécdota viene a condensar lo mejor y lo peor del famosísimo Net Promoter Score™ o NPS: es una métrica sencilla y conocida por casi todo el mundo pero a su vez es capaz de eclipsar el verdadero objetivo de las encuestas de satisfacción de clientes.

 

Antes de pasar a profundizar en el análisis del NPS, recordemos que fue una métrica creada en 2003 por Frederick F. Reichheld, Bain & Company y Satmetrix. Se basa en realizar la pregunta “¿cómo de probable es que recomiende nuestro producto a un colega o amigo?” siendo la respuesta una escala de 0 a 10 siendo 0 lo más improbable y 10 lo más probable. Lo novedoso de la métrica era la segmentación de las respuestas y el resumir los resultados en un valor final NPS que sólo tiene en cuenta las puntuaciones más altas y más bajas.

NPS metric explained

Lo cierto es que visto así no cabe duda de que es una métrica muy atractiva por su sencillez y capacidad de sintetizar aspectos como lealtad a la marca, crecimiento potencial, percepción de cliente, etc. Y fue precisamente esto lo que hizo del NPS la métrica preferida por los analistas ya que era sencilla y se podía correlar con crecimiento futuro. Esto provocó no sólo que se midiera externamente a las compañías por su NPS sino que muchas compañías lo utilizaran como métrica interna muchas veces asociada a pago de variables o bonus. Y ya se sabe que pasa cuando se asocia algo a la remuneración: qué el objetivo pasa a ser mejorar el NPS como métrica y no el producto o servicio para que el NPS salga mejor.

 

Veamos más en detalle algunas limitaciones que me he encontrado a la hora de aplicar el NPS:

  1. Tiene que responder el decisor: esto hace al NPS perfecto para B2C pero la limita mucho en el B2B. En relaciones entre compañías donde la decisión de compra no depende de una sola persona, la respuesta a la pregunta de NPS no deja de ser una percepción subjetiva del entrevistado. Esto se puede paliar con varias entrevistas a diferentes contactos, pero sigue siendo muy subjetivo y deja fuera muchos aspectos clave en las relaciones B2B
  2. Todas las respuestas valen lo mismo: es perfecto para carteras de clientes muy homogéneas, pero imaginemos una cartera de 10 clientes donde el cliente1 y cliente2 suponen el 80% de la facturación. En un caso extremo, podría darse el caso de todos los clientes fueran promotores excepto cliente1 y cliente2 que fueran detractores. En ese caso, el NPS sería 60%, cifra más que respetable y que no reflejaría la situación crítica de estar a punto de perder el 80% de los ingresos.
  3. La pregunta es personal: esto es clave para asociar la respuesta a fidelización, lealtad, etc pero también hace que esté sujeta a interpretación y sobre todo a diferencias culturales. De hecho, esto es un verdadero problema ya que el tema de recomendar a un familiar o amigo se interpreta de manera muy distinta dependiendo del país.

 

Lo que propongo para aprovechar las ventajas y minimizar las limitaciones es correlar el NPS con alguna otra métrica que recoja las respuestas sobre la experiencia del cliente.

Como se explica en la matriz de arriba, esto es una buena forma de chequear si la segmentación de NPS coincide con la satisfacción media obtenida a través de diversas preguntas sobre la relación comercial.

 

En conclusión, el NPS es una métrica muy útil especialmente en compañías B2C con gran componente de venta por marca pero no debe convertirse en un objetivo en sí mismo sino en una herramienta más de un proyecto más amplio que debe ser medir la satisfacción y percepción del cliente para asi poder tomas mejores decisiones a la hora de mejorar el producto o servicio.

Hace unos meses leía el libro Cómo todo acabó y volvió a empezar de uno de mis escritores preferidos, el gran E.L.Doctorow, donde se narra la dura vida de los primeros pueblos del salvaje oeste que se creaban en plena fiebre del oro. Mucha gente acudía llamada por la posibilidad de encontrar oro, pero realmente las posibilidades de que se diera ese caso eran muy bajas y los riesgos altísimos. Al mismo tiempo, en el libro se describe la vida de algunos “proveedores de servicios” de dichos asentamientos mineros: el almacén de suministros, el saloon, el herrero, etc. En un pasaje del libro, uno de los mineros se queja de que todo el dinero que va ganando extrayendo el mineral se lo acaba gastando en provisiones y diversión…

Estos proveedores de servicios consiguen la cuadratura del círculo: tener unos ingresos recurrentes y con riesgo limitado (sin contar los propios de operar en el salvaje oeste, claro) en un sector con altísimo riesgo como era el de los buscadores de oro. ¿es este ejemplo extrapolable a nuestros días? ¿se puede diseñar un producto o servicio para un sector de alto riesgo y limitar al mismo tiempo la exposición a dicho riesgo? ¿es posible entrar en un sector volátil y conseguir unos ingresos estables?

A priori parece difícil ya que el beneficio y el riesgo están intrínsicamente relacionados, pero si analizamos más en profundidad, todos los sectores con mucho riesgo tienen nichos de riesgo moderado que seguro no tendrán los potenciales retornos del sector pero que pueden suponer una fuente de ingresos creciente. Veamos algunos ejemplos:

  • Criptomonedas

Posiblemente uno de los sectores con más volatilidad y riesgo del momento. El bitcoin valía $958 en Dic’16 y en 12 meses pasó a valer $19.343, es decir, se revalorizó un increíble 1.919%!! actualmente está en $6.500 lo que supone que en 10 meses ha perdido un 66% de su valor

Este es un escenario donde cualquier producto asociado al valor del bitcoin tendrá un riesgo muy alto. Pero hay servicios que el sector de las criptomonedas necesita para operar como por ejemplo el floreciente negocio de los proveedores de mining gear o lo que es lo mismo, infraestructura informática para hacer minería de bitcoins. Son la versión actualizada de los vendedores de suministros para los antiguos buscadores de oro. Las fluctuaciones en el valor del bitcoin están muy amortiguadas en su cuenta de resultados ya que muchos de sus ingresos son tarifas fijas. Mientras haya mineros de bitcoin, sus servicios serán necesarios. Han conseguido aislar el riesgo de sus clientes del suyo propio y creen que el mercado se lo va a reconocer por lo que algunos de ellos ya están preparando su salida a bolsa como Canaan y Ebang. Son compañías con indudable éxito como Bitmain que se estima tiene unos ingresos anuales superiores a $2.500mill

 

  • E-Commerce

De nuevo un sector con gran dinamismo y elevado riesgo. Hoy en día el e-commerce está muy asentado pero sigue teniendo unas tasas de fracaso elevadísimas (algunos las sitúan entre el 80% y el 97%). El crecimiento en este campo se prevé muy acentuado especialmente por al irrupción de las compras a través del móvil (m-commerce), que según algunos estudios podría suponer en 2021 el 73% de todo el e-commerce.

Sin embargo, hay servicios intrínsecamente relacionados con el e-commerce que son independientes del éxito o fracaso del negocio como por ejemplo los servicios de pago. Este es uno de los sectores de más éxito actualmente. Son compañías que ofrecen plataformas de pago para aplicaciones web y móviles. Los grandes de internet como Amazon, Google o Paypal ya tienen plataformas de este tipo pero hay multitud de nuevos players que están innovando en estos servicios como Stripe o Square en USA o PayU o LemonWay en Europa.

 

De nuevo el esquema es sencillo: obtener ingresos regulares mediante comisiones en un mercado con gran volatilidad.

 

Si alguien está pensando entrar en un sector de alto riesgo pero limitar dichos riesgos, ahí van algunos consejos:

  1. Estudiar bien la cadena de valor del sector identificando a los distintos players.
  2. Identificar los drivers de riesgo. En el caso del bitcoin será la volatilidad en el precio, así como la liquidez limitada
  3. Buscar servicios de apoyo que dependan lo menos posible del éxito o fracaso de las compañías. Normalmente serán actividades de infraestructura, pero también puede ser consultoría de lanzamiento o servicios de puesta en marcha.
  4. Diseñar una estructura de ingresos con un porcentaje mayoritario de fijos y un minoritario de variables en función de evolución del mercado.

 

Evidentemente son consejos de sentido común que dependerá de la fuerza de negociación para poder cumplirlos, pero la conclusión a estas reflexiones sería que nunca hay que descartar un sector o mercado de alto riesgo a priori ya que en todos hay nichos con riesgo limitado.

Todos los que creemos que el coche eléctrico (EV) es el futuro del transporte centramos nuestras esperanzas en la rápida reducción de costes de las baterías que hará que en pocos años el precio medio de un EV sea inferior a los tradicionales de combustión interna (ICE). Pero este escenario tiene un pequeño problema: supone que los ICEs no mejoran (o lo hacen al ritmo que conocemos). Y lo que está claro es que un ICE muy mejorado en consumo, ruido y precio sería el verdadero competidor de los EVs.

 

Según Bloomberg, los EVs podrían ser más baratos que los ICEs de aquí a 7 años.

Pero como se aprecia en el gráfico anterior, se supone que el precio de los ICEs es plano. Es cierto que el sector del automóvil no se ha destacado nunca por sus saltos tecnológicos ni por sus bruscos avances competitivos, pero suponer que la mayor industria mundial no va a mejorar sus productos es bastante arriesgado.

 

Hay multitud de teorías que tratan de explicar porqué el automóvil es comparativamente uno de los inventos tecnológicos que menos ha evolucionado en el tiempo. En más de 100 años de vida, el concepto básico con el que nació se mantiene actualmente. Los avances han sido relativamente modestos si los comparamos con otros inventos similares como el avión, el tren o el teléfono y siempre se han producido en función de nuevos materiales, electrónica y normativas de seguridad. Más allá de teorías conspiranoides que circulan por la red, yo creo que esto de debe a 2 razones fundamentales:

  • Es una industria de grandes volúmenes e intensiva en capital donde el objetivo no es buscar una revolución que obsolete todo el activo sino buscar formas de rentabilizar mejor la inversión. Es por ello que la reducción de costes es siempre prioritaria.
  • Nunca ha existido una presión de los clientes ni de otros competidores por buscar algo radicalmente distinto. La competencia se ha basado más en creación de marca y segmentación que en revoluciones tecnológicas.

Pero de pronto esto ha cambiado: hay nuevos competidores con conceptos novedosos, el mercado espera un cambio, los clientes exigen opciones limpias de transporte, la regulación presiona para eliminar las emisiones…¿es el final de los ICEs?

 

Viajemos a finales de 1998. Yo acababa de terminar la carrera y empezaba a trabajar en Madrid en la empresa de telecomunicaciones Lucent Technologies. Llegaba a una ciudad que ya empezaba a estar patas arriba por las zanjas de las empresas del cable. En pleno boom de las .com, España entera era una gran zanja que pretendía llevar el cable (fibra + coaxial) a todas las casas y con ella un paquete de servicios muy competitivos para la época: telefonía, internet hasta 300kbps, multitud de canales de TV, pay-per-view, etc…en resumen, nuevos competidores ofreciendo un producto novedoso y de mayor calidad que el existente hasta ese momento… ¿no suena similar al caso EV vs ICE?

Teléfonica, hasta ese momento con el monopolio, se enfrentaba a una presión competitiva desconocida hasta la fecha. Tenía una red de cobre que llegaba a todas las casas de España pero la verdad es que nadie daba un duro por ese activo: era una red obsoleta que nunca podría, decían los expertos, soportar velocidades de más de 64kbps (¿quién no recuerda esos módems de 33 y 56kbps?). Pero en el mismo 1998 se publica un estándar que a todos os sonará: ADSL. De pronto las líneas de cobre podían soportar hasta 8Mbps con una inversión mínima. Teléfonica lanzó su primera oferta ADSL en 1.999, en Lucent no dabamos abasto para cubrir la demanda de equipos y lo demás es historia: el ADSL se comió al cable con mejoras sucesivas y no ha sido hasta el 2017 cuando las líneas de fibra han superado por primera vez a las de xDSL. Aún así todavía se mejora el ADSL llegando a ofrecerse velocidades de 300Mbps de forma comercial y con pruebas en laboratorio de hasta 1 Gbps!!

Líneas de banda ancha en España

Lo curioso de esta historia y que mucha gente no sabe es que el ADSL se había inventado en los laboratorios Bell de Lucent en los años 80 y estuvo guardado en el cajón hasta que la presión competitiva del cable hizo que las grandes TelCos necesitaran una solución para actualizar sus servicios sobre red de cobre. El ADSL fue un negocio redondo para Lucent y Alcatel como fabricantes, pero sobre todo para Telefónica que amortizó su red de cobre, eliminó competidores y ganó 15 años para construir una oferta de fibra ganadora (Fusión).

La moraleja de esta bonita historia es que es seguro que algunos fabricantes de coches lucharán para amortizar sus activos actuales y yo apostaría porque veremos en unos años el ADSL del automóvil: ¿quizás una nueva generación de motores de gasolina con consumos de <1 l/100km, bajo ruido y reducido mantenimiento? Veremos, pero si ese es el caso, la irrupción masiva de los EVs se retrasaría unos años, los nuevos competidores lo tendrían difícil para sobrevivir y los fabricantes tradicionales habrían conseguido ganar tiempo y así transformar la revolución en lo que mejor saben hacer: otra evolución.

¿Qué se necesita para montar un sistema de Competitive Intelligence (CI)? ¿hay software específico? ¿es muy complicado? ¿es caro?… éstas son algunas de las preguntas más frecuentes que surgen cuando alguien se plantea lanzar un proyecto de CI.

 

La inteligencia competitiva o CI se basa en 4 pasos:

  1. Planificar los objetivos del proyecto en función de las necesidades de negocio.
  2. Recabar información sobre competidores, estructurarla y almacenarla.
  3. Analizarla y obtener claves o insights útiles para el propio desarrollo de producto y para la actividad comercial. La calidad de estos insights dependerá de la calidad de la información recogida, así como del expertise del equipo de CI.
  4. Crear reportes y difundir la información a los usuarios objetivo.

 

Centrémonos pues en los procesos 2 y 4: recogida de información y su posterior difusión. Veamos las opciones que tenemos a la hora de montar un sistema:

  • Software comercial autogestionado: existen varias herramientas comerciales que pueden ser compradas e instaladas en los servidores locales. En futuros posts revisaremos algunas de ellas, pero ya adelanto que por su potencia y precio son soluciones que se adaptan mejor a grandes organizaciones.
  • Software como servicio (SaaS): están sustituyendo a las anteriores. Básicamente se subcontrata a un especialista todo el proceso de recogida de información y el cliente accede via web a una herramienta de reporting. Son soluciones muy flexibles que se pueden adaptar a todo tipo de clientes.
  • Sistema “JP” (Juan Palomo, yo me lo guiso…): utilizar herramientas sencillas (la mayoría gratuitas) para crear un sistema básico de CI.

 

Indudablemente el sistema “JP” tiene 2 ventajas claras: coste y adquisición de conocimiento. En mi experiencia, es una muy buena forma de ser consciente de cuales son las necesidades reales de tu negocio en materia de CI con lo que, si al final se opta por un software comercial, será mucho más sencillo identificar cuál es el más adecuado.

 

Repasemos de forma rápida algunos ejemplos de herramientas que nos pueden ayudar. Lo primero es identificar el tipo de información que queremos recoger así como las fuentes. En nuestro ejemplo, vamos a recoger información de los principales productos de los competidores. Para ello nos vamos a centrar en noticias de producto, datos financieros, patentes, marcas, especificaciones técnicas y contratos. Veamos cómo conseguir esta información:

  • Noticias: la mayoría de los softwares comerciales trabajan en este campo: ordenando noticias en base a palabras clave. Lo más normal es trabajar con Google directamente pero hay herramientas como Feedly que nos facilitan enormemente el trabajo. Puedes estructurar tus fuentes (incluyendo google news) e incluso por poco dinero tienes la versión premium con opciones colaborativas para equipos.
  • Datos financieros: si la compañía es cotizada, Google finance o Yahoo finance son buenas opciones gratuitas aunque mi preferida es Wall Street Journal. Si no es cotizada, lo mejor es ir a la web y buscar en presentaciones para inversores. Sin no hay información disponible, la mejor opción es comprar los informes online de compañías como AxesorEinforma, que por un módico precio consolidan toda la información pública disponible en España.
  • Patentes: Google patent search es una herramienta muy potente y cubre los principales mercados. El obtener insights de esta información probablemente quede fuera del alcance de un equipo de CI pero al menos sirve como indicador de actividad tecnológica.
  • Marcas: existen buscadores tanto para marcas EU (TMView) como en USA (TESS). Lo más cómodo es utilizar TMView ya que incluye resultados de todos los países del mundo.
  • Documentos: lo mejor es almacenar los pdf, ppt, etc relacionados con el competidor en un gestor documental pero si no se dispone de ninguno, al menos hay que definir una política de nombres de archivo y directorios de manera que quede toda la información bien catalogada y preparada para una futura migración a un gestor documental.

 

En cuanto a distribuir la información, es recomendable elaborar primero listas de usuarios según el tipo de información que buscan. Como mínimo deberá haber 3 grupos: estrategia, tecnología y comercial. En cuanto a soportes, los principales son:

  • Newsletters: el principal soporte tipo push. Para elaborarlas hay multitud de herramientas. Si quieres una solución cuasiprofesional pero gratuita lo mejor es MailChimp. Como solución casera siempre está diseñar la newsletter en word y enviarla con Outlook o similar.
  • Portal intranet: el principal soporte tipo pull. Si tienes algún conocimiento básico y soporte IT, la mejor opción es WordPress. Si necesitas entorno colaborativo, el verdadero estándar es MS Sharepoint (no gratuito).
  • Entorno colaborativo: tipo pull-push. Desde listas en Whatsapp hasta utilizar herramientas tipo SlackYammer o Alfresco. Son muy útiles para obtener feedback directo de los usuarios y abrir canales de información por ejemplo en una feria o cuando un competidor lanza un producto nuevo.

 

Mi recomendación final para quien quiera lanzar un proceso CI en su compañía es que empiece de forma casera para identificar necesidades, usuarios tipo, fuentes de información y reports y cuando tenga todo eso claro, decida qué herramientas son más adecuadas en función del volumen de información, número de usuarios, recursos disponibles, etc. En otras palabras, que las herramientas deben estar al servicio del proceso y nunca al revés.

¿Qué es la gestión de producto? ¿en qué consiste? ¿cómo ayuda a mejorar la competitividad de un producto? Parte de estas preguntas y otras intenté responderlas en el primer post de este mismo blog pero está claro que, o no fui muy claro o no fue muy leído porque la gente me sigue preguntando a qué se dedica WeMake. Así que lo intentaré explicar mejor a través de un caso práctico: Madonna

 

Las referencias en gestión de producto han ido variando en el tiempo. En los ochenta, los grandes conglomerados industriales como GE o Siemens eran el ejemplo en manejo de diferentes productos de éxito. En los noventa, fueron las multinacionales de consumo como Nestlé o Procter&Gamble las que revolucionaron el mundillo con su gestión de portafolio de marcas. Ya entrados en el nuevo milenio, todos los suplementos sepia de negocios destacaban a LVMH como gurú de la gestión de marcas/productos. ¿Y quiénes serían ahora los referentes en este campo? A todo el mundo le viene a la cabeza Apple como gran creador de marca y productos, pero yo creo que los que mejor están gestionando productos ahora mismo son las compañías de management de deportistas y artistas en general. Grandes del sector como CAA o Excel mgmt son probablemente quienes más y más intensamente despliegan todas las herramientas de la gestión y el marketing de producto.

Veamos un ejemplo universal para ilustrar esto: Madonna. Unos la definirán como cantante, otros como artista, quizás algún osado como actriz pero lo cierto es que es un producto de consumo global y muy exitoso.

Si nos fijamos en la carrera de Madonna, se ajusta muy bien a la clásica curva de desarrollo de producto:

  • Introducción: Madonna apareció en los 80 de manera fulgurante. Like a virgin y True Blue fueron sus 2 primeros discos de masas de los que vendió la friolera de 21 y 25 millones de copia respectivamente.

 

  • Crecimiento: discos como Like a prayer o bedtime stories y sus escándalos asociados le permitió crecer y asentarse como ídolo de masas

 

  • Madurez: con Ray of light y sobre todo con Confessions… logra su cénit: aúna por primera vez éxito de masas y reconocimiento de la crítica. Pasa a ser un icono musical que crea tendencia.

 

  • Declive: sus últimos discos han pasado bastante desapercibidos y sobre todo, sus movimientos ya no generan tendencia

 

¿Cómo ha conseguido Madonna y su equipo crear este producto de éxito durante más de 30 años? Ahí van 3 claves

  1. Crea un buen producto

Independiente de los gustos musicales de cada uno, es indiscutible que Madonna siempre ha ofrecido un producto de calidad. Para ello se ha rodeado de los mejores productores, compositores, directores de vídeos o diseñadores. Un buen producto no es fruto de la casualidad sino del trabajo de muy buenos profesionales

  1. Conoce a tus clientes y posiciónate

La oferta de Madonna ha sabido evolucionar adaptándose a los que su público demandaba. No tiene nada que ver la actitud provocativa, sus estilismos e incluso los vídeos de la primera época con la sofisticación y los detalles de su época de madurez.

3. Evoluciona, mejora, reinvéntate

Quizás sólo Bowie puede compararse a la capacidad de reinvención de Madonna. Con cada disco se ha creado un nuevo producto mejorado de la marca de éxito “Madonna”. Cada nuevo “producto” incluía no sólo la música sino nuevos sonidos, nueva estética, vídeos impactantes e incluso nuevos escándalos públicos y privados (que casualmente coincidían con los periodos de lanzamiento del “producto)

 

En conclusión, la marca Madonna lleva 35 años lanzando productos de éxito al mercado…veremos cual es su próximo upgrade de producto. Yo apuesto por las giras mundiales con un guiño a la nostalgia para atraer al público de 30-50 años que está dispuesto a pagar mucho dinero por asistir a quizás la última gira de la reina del pop.

Si por algo se caracteriza el mercado hoy en día es por su dinamismo. Los ciclos de vida de los productos son cada vez más cortos para poder adaptarse a las necesidades cambiantes del mercado y a la presión que la competencia introduce. Pero sigue habiendo productos muy complejos cuyos ciclos de desarrollo son muy largos, con lo que tienen alto riesgo de sufrir la mayor pesadilla del product manager: nacer para morir.

Veamos el caso del mercado de los cohetes espaciales para lanzar satélites. Estos cohetes tienen ciclos de desarrollo de más de 8 años. ESA y ULA han sido los dominadores tradicionales con un cuasimonopolio. Cuando ambos lanzaron el desarrollo de su nueva generación de cohetes, SpaceX era solo el sueño de Elon Musk: diseñar cohetes reutilizables y reducir el coste del lanzamiento un 50%. Casi nadie creyó que fuera posible. Los fabricantes tradicionales lanzaron sus nuevos desarrollos con objetivos y especificaciones adecuados a las viejas reglas semi-monopolísticas.

Pero a veces los sueños se hacen realidad y SpaceX ha conseguido,  mediante la reutilización de componentes, la modularidad y la simplificación, reducir los costes un 40-50% con lo que los nuevos productos de los fabricantes tradicionales van a tener un problema de competitividad muy grave. Más aún con otros nuevos actores que se quieren sumar al nuevo mercado como Blue Origin.

Diseñar un cohete al igual que otros muchos productos complejos no es sencillo por lo que siempre tendrán ciclos de desarrollo largos. Pero hay formas de reducir el riesgo de “nacimiento obsoleto”. Se me ocurren algunos ejemplos:

  • Modularización: tratar de diseñar módulos genéricos y no productos específicos. SpaceX desarrolló su cohete grande (Falcon Heavy) más rápido al constar de 3 módulos del Falcon 9. Otro ejemplo que he vivido en primera persona es como Gamesa consiguió reducir el ciclo de desarrollo de aerogeneradores gracias a la estrategia de diseño de plataformas de producto, cuyos módulos son después utilizados para configurar de forma rápida productos específicos para las cambiantes necesidades del mercado
  • Plataformas de desarrollo: diseñar un juego es complejo y largo si se pretende desarrollar todas las herramientas desde cero. EPIC Games desarrolla una plataforma de desarrollo (Unreal engine) cuyo ciclo de vida es largo para permitir a sus clientes desarrollar juegos en ciclos cortos. La idea es mover las herramientas básicas más complejas al ciclo largo y dejar todo lo que tiene que ver con la experiencia del usuario en el ciclo corto de desarrollo.
  • Postponement: en productos con mucha personalización y requerimientos cambiantes, se puede desarrollar un producto genérico y desarrollar kits de personalización de forma ágil para atender las necesidades del mercado.

En conclusión, como la bola de cristal para el product manager no está todavía perfeccionada, éste deberá lanzar acciones que mitiguen los riesgos en casos de ciclos largos de desarrollo y deberá hacer un seguimiento detallado de la competitividad del producto en los hitos intermedios para, llegado el caso extremo, recomendar su abandono.