Avec une prise de conscience collective du potentiel de valeur du Big data, boostée par l’Intelligence Artificielle, les équipes travaillant sur ces types de produits ont le vent en poupe et bon nombre ont intégré des Product Managers. Pourquoi ce choix et comment se sont-ils adaptés à ce domaine si spécifique ?
La data est partout : qu’elle serve à améliorer la prise de décision, à automatiser des processus ou même qu’elle devienne un nouveau levier de monétisation, ce sujet a largement dépassé le cadre de l’IT pour devenir un élément de premier plan dans la stratégie des entreprises. Certains diront que l’arrivée de ChatGPT a été l’élément déclencheur. Il a mis sur le devant de la scène un acteur qui opérait en coulisses une révolution silencieuse, notamment avec le développement des algorithmes de Machine Learning. Comprenant l’intérêt business de ces sujets, les organisations ont senti le besoin de s’armer en conséquence et ont vu dans le Product Management la pièce manquante à même de libérer un potentiel de valeur jusqu’alors inexploité.
🤔 Pourquoi le Product Management s’est imposé au domaine de la data
Avoir un Product Manager (PM) pour gérer son produit data n’est plus une option. Il répond à 3 grandes problématiques.
#1 Un besoin de rapprocher la data du Business
Bon nombre d’organisations ont vu l’Agilité puis le Product Management casser les silos existants entre la Tech et le Business pour créer de meilleurs produits.
Un même désilotage s’est imposé peu à peu comme nécessaire entre la data et le Business. A l’origine de ce besoin, un même problème : deux entités qui ne parlent pas le même langage, n’ont pas les mêmes objectifs et, in fine, n'avancent pas de manière collective. Le Business en veut toujours plus, veut aller toujours plus vite. De son côté, la data est concentrée sur le développement du produit, est soumise aux contraintes (capacitaires et techniques) et apparaît de facto comme un frein dans l’ambition du Business.
Face à cette situation, le PM a un important rôle d’entremetteur à jouer pour rapprocher ces deux parties et fédérer tout le monde autour d’une feuille de route commune, à la fois ambitieuse et réaliste. Marc Skwarski, PM chez Thiga, a vécu cette situation chez Invivo, un grand groupe d’agriculture : “Certains côté métier ne comprennent pas la complexité inhérente aux sujets Data qui sont nouveaux. Du coup, je passe une grande partie de mon temps à évangéliser, vulgariser et donner de la visibilité sur l’avancement.”
Toujours dans ce sens, Pauline Minary, data PM chez Leboncoin, parlait récemment de l’importance de l’évangélisation des parties prenantes : “L’incertitude est vraiment un élément primordial, très différenciant par rapport à un produit classique. Avec le Machine Learning, on ne peut pas savoir avant de commencer à quel point ça va fonctionner ou pas, quelle performance on va atteindre. Il faut partager cette réalité avec les parties prenantes et insister sur le fait que le Machine Learning, ce n’est pas de la magie avec du 100% de précision.”
Avoir un PM capable de jouer ce rôle d’évangéliste est clé pour une organisation efficace, car il est vu comme un facilitateur capable de discuter avec les deux parties et donc d’arbitrer.
#2 L’urgence de répondre au défi de l’innovation
Avec l’arrivée de ChatGPT, l’IA était sur toutes les lèvres au moment de définir sa roadmap 2024. Bien que l’intérêt pour le Big data et le Machine Learning ne date pas d’hier, ChatGPT a créé une vraie "hype".
Stratégiquement, le Business s’intéresse davantage à ces sujets et ça "brainstorme" de partout pour trouver le bon cas d’utilisation. Victor Billette de Villemeur, ex-PM Data chez L’Oréal, nous partage son point de vue sur la situation actuelle : “Le côté très tendance de la data - et surtout de l’IA - amène les sponsors à lancer des projets juste parce que c’est bien vu par les actionnaires ou la hiérarchie (quand ce n’est pas, en plus, un un élément marketing). Avoir un PM permet de remettre l’église (la valeur) au milieu du village et toujours repartir d’un besoin à adresser, tout en trouvant avec ses équipes la meilleure manière de le faire.” Spoiler alert : l’IA n’est pas toujours la solution.
Mais il faut tout de même reconnaître que l’IA et le Big data sont de puissants facteurs d’innovation. Et qui de mieux que des PMs pour porter ces sujets ? Julien Ngboda, Lead PM chez Thiga, témoigne de l’apport du Product Management à la data Factory de Decathlon : “Avant, la data Factory était vue comme un centre de services où les métiers avaient l'habitude d'aller chercher une information ou d’exprimer un besoin. Le challenge des PMs qui ont intégré cette data Factory ? Amener une proactivité dans l’identification des besoins actuels et futurs.” Ces besoins peuvent concerner l’évolution d’un dashboard ou d’un produit existant, mais ils peuvent aussi amener à la création d’un nouveau produit.
L’une des révolutions que nous sommes en train de vivre concerne surtout l’accessibilité à ces modèles, notamment ceux de Generative AI. Plus besoin d’armées de data scientists pour intégrer des fonctionnalités avec de l’IA. Ce plafond de verre, qui a volé en éclat, a favorisé l’innovation et on ne compte plus le nombre d’organisations ayant créé leur propre hackathon pour trouver un cas pratique lié à leur business où l’IA serait un catalyseur.
#3 Une capacité à piloter par la valeur
Le Product Manager a pour mission ultime de maximiser la valeur délivrée par le produit. Sa capacité à arbitrer en se basant sur l’impact et l’effort alloué est primordiale dans un domaine tel que la data où il est simple de se perdre à la recherche du modèle parfait.
Le plus dur pour un PM Data est de décider s’il faut mettre en production ou pas. Pour un PM classique, il suffit de tester… C’est assez binaire.
Marc nous raconte son expérience chez Invivo : “En arrivant, mon enjeu numéro 1 était de simplifier les choses pour pouvoir livrer l’attendu le plus rapidement possible. Les profils techniques ont tendance à tout complexifier et à vouloir la perfection. Nous, en tant que PMs, on arrive avec une vision ROIste et une culture du Test & Learn.”
Stop ou encore ? Voici le type de problématiques qui peuvent paraître anodines pour un PM classique, mais qui sont beaucoup plus prenantes et moins simples à traiter dans le domaine de la data. Zacharie Treister, coach chez Thiga ayant travaillé sur des produits data chez Deezer et Qwant, témoigne : “Le plus dur pour un PM Data est de décider s’il faut mettre en production ou pas. Pour un PM classique, il suffit de tester… C’est assez binaire. Pour le PM Data, il faut définir des seuils de performance de l’algorithme. À partir de quel seuil considère-t-on que le résultat est si faux qu’il en devient néfaste ? À partir de quel seuil considère-t-on avoir un résultat vraiment bénéfique ? Et dans la zone grise, que fait-on ? Par exemple, si j’ai un résultat vrai à 65% mais qui me fait gagner 2h par jour, même en repassant manuellement sur les mauvais résultats, le jeu en vaut peut-être la chandelle.”
Ces questions de “potentiel de performance” et de “potentiel d’amélioration atteignable” sont des problématiques récurrentes qui ne s’estompent quasi jamais. Comme un bon investisseur qui raisonne avec un budget et des capacités de développement limités, le PM doit lutter contre le piège de la surqualité… Et dans la data, la tentation est très forte.
🛠️ Les adaptations du PM au domaine de la data
Je n’ai jamais été PM Data mais je me suis déjà posé la question : “Comment faire en arrivant dans un tel contexte et quelles sont les spécificités du métier ?” Aujourd’hui et grâce aux confidences de mes pairs PMs data, je note trois différences principales.
#1 Une discovery basée quasi exclusivement sur la data
Appliqués aux produits data, les grands principes de la discovery et du Design Thinking sont toujours pertinents. Marc confie la genèse d’un sujet traité avec du Machine Learning chez SeLoger : “On s’est attaqué au sujet d’un contournement que certains professionnels utilisent pour booster gratuitement leurs annonces. Notre première mission a été de vérifier avec la data l’ampleur du problème. Le chiffre était hallucinant ! On en a conclu qu’il y avait un réel problème à adresser.”
Haoitif Dellaoui, PM chez Thiga et en mission à La Centrale sur l’outil de détection automatique des fraudes nous partage son organisation pour détecter en continu de nouvelles opportunités d’améliorations : “Chaque mois avec le service client, on étudie les arnaques qui ont eu lieu ainsi que celles détectées à tort. On essaye de voir s’il y a une évolution du modèle possible et s’il y a des règles de gestion qui seraient applicables. Parfois, on se rend compte que le problème vient de l’interface et de la manière de saisir la donnée qui peut prêter à confusion. Si on ne s’intéressait qu’à notre périmètre, on ne ferait que mettre un pansement sur une jambe de bois.”
Qu’on soit à la recherche d’améliorations comme Haoitif ou en train de s’attaquer à un gros sujet comme Marc, ce qui change clairement, c’est la manière de faire de la discovery. “Il y a une grosse partie de ta discovery qui se fait au travers des données, et non avec des interviews utilisateurs comme on peut le faire de manière plus classique” confie Zacharie.
Avoir un problème identifié c’est bien, mais est-ce possible d’avoir un modèle qui résout ce besoin ? Pour répondre à cette question, deux variables sont à prendre en compte : d’une part l’algorithme en lui-même et son potentiel d’évolutivité ; d'autre part la quantité et qualité des données. Concernant les données disponibles, c’est l’un des éléments sur lesquels il est important de s’attarder en discovery. Zacharie peut témoigner de leur importance : “Chez Jellysmack, le métier est venu avec un problème. Sur le papier, c’était simple. Puis on est allé regarder la donnée disponible et on s’est rendu compte qu’on n’avait pas les bonnes. On a demandé au métier de commencer par enregistrer les informations nécessaires. La discovery sert aussi à valider ces pré-requis avant de se lancer dans le delivery.”
Ce qui change aussi, c’est l’implication des data Scientists et data Analysts. Vu l’importance de la data dans la discovery et leur maîtrise du sujet, ils sont quasi autant impliqués et importants sur la phase de discovery que sur la phase de delivery.
#2 Travailler avec des profils différents
Hormis si vous avez un passé de data Scientist, data Engineer ou data Analyst, évoluer dans une équipe data demande une période d’adaptation. Marc Skwarski, PM chez Thiga confie : “Au début, j’écoutais, je questionnais et dès que j’entendais un terme que je ne connaissais pas, mon premier réflexe était d’aller trouver une définition sur internet.”
La data ne fait pas exception : pour réussir, il faut repartir de l’essence-même de l’Agilité et du Lean en remettant l’humain au cœur des échanges entre le PM et son équipe.
De son côté, le PM doit aussi apporter une nouvelle culture et un nouveau regard aux équipes data. Victor nous parle de ce qu’il a vu : “De par leur profil plus “chercheur”, certains peuvent manquer de pragmatisme et de rationalité économique. C’est au PM de leur apporter cet aspect.”
Souvent motivés par les challenges techniques, le PM se doit parfois de freiner leurs ardeurs en pensant toujours ROI (Return On Investment). Un exemple classique de cela ? Penser que l’IA est la solution à tous les problèmes. Le premier réflexe d’un PM et d’une équipe data doit être de se demander s’il est possible de développer une règle de gestion (plus efficace et plus rapide à mettre en place) pour traiter le cas d’utilisation souhaité avant de penser à le faire via l’IA.
Dans cette quête de compréhension mutuelle, il est important que chacun fasse un pas vers l’autre. Haoitif témoigne : “La data ne fait pas exception : pour réussir, il faut repartir de l’essence-même de l’Agilité et du Lean en remettant l’humain au cœur des échanges entre le PM et son équipe. C’est en comprenant la complexité du métier de l’autre, ses intérêts personnels, son univers et en acceptant d’adapter pour de bonnes raisons sa manière de fonctionner qu’on peut créer une vraie dynamique gagnante.”
#3 Un ROI plein d’incertitudes
Travailler sur des produits data, c’est évoluer sur un temps plus long, sans être certain du résultat et cela peut être frustrant pour un PM.
Mettre en production tous les jours ou toutes les 2 semaines relève de l’utopie (pour l’instant), hormis dans des phases de “fine tuning” de modèle. Développer un algorithme et entraîner un modèle, c’est long, mais rien n’empêche d’adopter quand même une démarche incrémentale. Pour Marc, “on a une volonté de découper le plus finement possible les sujets pour tenter de maîtriser la complexité. Très utile sur des produits classiques, cela devient primordial sur des domaines comme la data”. Rentrer dans un effet tunnel est un risque qui peut donner un intérêt à des méthodologies cadencées comme Scrum ou Shape Up, voire SAFe.
Quant au résultat, il est toujours difficile à appréhender en avance. Zacharie nous éclaire : “Avec un développement front, la durée peut varier mais on sait qu’on va arriver à un résultat. Avec un algorithme de Machine Learning, qu’importe la durée, le résultat sera parfois inatteignable pour diverses raisons (qualité et quantité des données, algorithmes, etc.)”.
Réduire cette incertitude liée à l’industrialisation d’un modèle passe par l'adoption d' une démarche de “Test & Learn”, chère aux PMs. Marc nous raconte comment ça s’est passé sur son produit chez SeLoger : “On a commencé sur une typologie de biens puis on a entraîné notre modèle et on l’a testé sur une zone géographique. C’était vraiment une démarche itérative et incrémentale avant d’appliquer le modèle sur l’ensemble de nos annonces.”
De par l’incertitude intrinsèquement élevée, les sujets data science doivent être abordés comme des sujets de recherche et développement. Se forcer à cadencer peut aider à réduire cette part d’incertitude, tout en se laissant la possibilité de réadapter les plans. Charles De Gaulle disait que “des chercheurs qui cherchent on en trouve. Des chercheurs qui trouvent, on en cherche…” Faisons en sorte que cette itérativité puisse amener toutes les équipes data à intégrer cette deuxième catégorie grâce aux PMs.
En conclusion, les produits reposant sur du Big Data ou du Machine Learning ont prouvé la valeur du Product Management qui apporte une vision ROIste et crée du liant avec le business. Pour arriver à cela, le Product Management a su s’adapter à un domaine où règne expertise et incertitude. Nous sommes désormais à un moment de l’histoire où le besoin de PM Data explose, avec de nouveaux challenges comme l’intégration de la Generative AI qui vont lui demander encore plus d’adaptation mais qui sont de formidables leviers pour innover. Les projecteurs sont braqués sur vous. Mesdames et Messieurs les PM Data, faîtes-nous rêver !
Pour en savoir plus : télécharger Les Clés du Product Management