Merchandising et Big-Data

Big-Data et mesure de la performance merchandising :

Le Big-Data peut il encadrer la prévision de l’efficacité d’un ensemble d’actions merchandising et en conduire les choix ? Ce serait une nette évolution dans un métier où prévaut, à côté de l’intuition nécessaire, un flou sur la mesure de la performance.

La performance d’actions du merchandising se mesure aujourd’hui classiquement par la fréquentation, la durée de passage, le taux de transformation, la valeur du panier, ou bien directement par l’évolution des ventes de produits concernés par un effort particulier de merchandising (promotion, mise en avant, facing excédentaire, pénurisation, secrétisation) ; le croisement des données datées de ticket de vente avec la clientèle identifiée, et les données de fréquentation ne nécessite pas de grosses bases de données. Mais qu’en est-il lorsqu’il s’agit de mesurer dans un assemblage, la puissance d’un produit qui fait vendre, l’influence d’un produit qui cannibalise voire tue la vente, ou bien de mesurer la répétition d’un facing dans plusieurs rayons ou encore mesurer la portée de toute autre technique de présentation ? Comment optimiser, une action d’animation, une équipe d’accompagnement vs un bon affichage tel que préconisé par B.Trujillo ?  Quels sont les chiffres à suivre, comment établir les variables signifiantes ? Quelles données peut-on extraire des fichiers clients avec respect de la protection des données liées à des identifiants notamment universels ?

 

Le Big Data apporte des capacités de stockage d’informations datées et localisées sur les produits par trace des contenants (jusqu’à l’unité de détail), les cheminements des clients, les comportements des clients identifiés… Dans les magasins virtuels, il en est de même sur les chemins suivis et informations subies par l’internaute, acheteur ou prospect (voir les sites réservation en ligne qui font varier leur prix suivant l’intérêt porté par l’internaute)… Quels sont les recoupements rendus possibles par une exploitation de type Big-Data qui aujourd’hui sont utilisés pour réagir plus vite à la pertinence d’un choix merchandising ? Le Big-Data permet-il alors par recoupements statistiques d’estimer les ventes que l’on a manquées ou que l’on va manquer, et de connaitre les actions correctrices ?

 

A.    Conditions de l’étude :

Le modèle que nous avons pu tester sur plus de 46 millions d’actes d’achat, repose intégralement sur la distribution spécialisée. Certaines enseignes nous ont permis d’implanter de tels systèmes de recueils d’informations et de croisements durant des périodes assez longues (au moins 4 ans) pour traiter de la récurrence potentielle des actions.

Les informations dont nous disposons, sont quasi complètes grâce à une structure de données à granularité très faible (l’objet unitaire dans tous ses mouvements) dessinée sous Merise à la fin des années 90 et montée sur les premiers Exadata d’Oracle installés dans des PME :

Ø  Produits :

  • quantité présentée et facing à tout instant (seule la qualité de présentation est ignorée)
  • stock globaux (en cas de réserve immédiatement disponible sinon = qté présentée)
  • lieu ou lieux de présentation (et lieu de préhension grâce à la traçabilité unitaire) –vitrines qualifiées, exposition spécifique – donc composition des assemblages
  • publicité traditionnelle ou en ligne, catalogue, plv, flyer associés aux produits ou à un niveau de nomenclature auquel le produit est attaché
  • promotions, Remise Rabais Ristourne, solde associés aux produits (effets directs et de bordures)

Ø  Personnel qualifié/quantifié :

  • Accompagnement général et spécifique
  • Caisse
  • Propreté, disposition (pliage … ) –
  • Encadrement

Ø  Ventes :

  • Instant de passage en caisse
  • Composition du ticket
  • Remise (fidélité), ristourne ou rabais, solde-promotion
  • Mode de paiement
  • Retour-reprises (Rendus)

Ø  Clients identifiés ou non :

  • Nouveau client
  • Historique daté des achats composés (pour son sexe ou pour un autre) par le client reconnu
  • Mode de paiement des achats
  • Historique des prix et abattements des achats
  • Historique des retours / reprises
  • Actions internet

 

Tous les produits ont été attribués à des univers/rayons/familles…/sous-segments à partir d’une nomenclature à 7 niveaux + taille, couleur, conditionnement, packaging. Cette segmentation atemporelle est complétée d’appartenance à des ensembles temporaires, collections, gammes, images, prix, bundle..,

 

Ce sont plus de 570 millions de mouvements datés, physiques (exposition, vente…) ou logiques (promotions, prix…) d’objets unitaires ou groupés, qui sont stockés avec les 46 millions d’actes groupés d’achats correspondants. Ramené à des CA, de GSA ou de GSB voire de grosses chaînes textile, il s’agit bien de Big Data, ici exploité sous forme de données majoritairement structurées (SGBDR Oracle-Exadata).

 

Les deux techniques de stockage pour le Big Data, les bases de données relationnelles à cœur OLAP (SGBDR type Oracle Exadata, Teradata…), données structurées dans leur cohérence, ou bien des magasins de données de type NoSql (pure Big Data Hbase (facebook), Cassandra (ex facebook)…), ne sont pas opposables, toutes deux savent traiter des croisements d’historiques hyper lourds en moins de quelques secondes. En fonction du mode de stockage, systèmes largement distribués ou non, il sera préféré ou non une stratégie NoSql.

Pour qu’un SGBDR SQL, soit efficace, il faut prévoir avec précision, la construction de l’arborescence des ensembles d’appartenance des données pour éviter l’usage ultérieur excessif de solutions de Business Intelligence ou de vues d’agglomérats (Silos), couplées à des systèmes d’analyse statistiques. L’usage du Big Data permet en merchandising d’établir des similitudes de comportements de futurs assemblages avec le passé ; la modélisation va reproduire sur des ensembles produits/prix réputés similaires la probabilité d’évolution des ventes, pour des actes de marchandisage à venir. La structuration des données, qu’elle soit faite à priori ou à postériori, nécessite des données brutes associées à l’instant où elles sont prises, et des données analysées et assemblées relativement à l’instant.

Exemple d’arborescence d’ensembles d’appartenance : les intervalles de prix, rapprochés dans toute leur vie promotionnelle des prix de la concurrence (proximité, leaders), des prix moyens et prix médians (pour les différents marchés du segment produit, bas, moyen, haut de gamme). Le prix est à la fois une notion relative à l’instant de l’achat, et une valeur numéraire comparée aux autres valeurs qui l’entourent et l’encadrent.

L’opposition classique entre Big-Data SQL et NoSQL, outre la faculté de répartir l’information sur un ensemble large et ultra mouvant de machines distribuées sur le Cloud, porte sur la structuration ou non, dès la récupération, des données stockées. Des données structurées transporteront avec elles tous les éléments relationnels pour en faciliter l’extraction, ce qui rendra, lourd leur transport, et, en l’absence de duplication d’une structure spécialisée dans l’analyse (OLAP[i]) spécifique (donc non totalement efficace en 24/7) , très lourd en raison des requêtes complexes qui intégreraient des données en cours de saisie (OLTP). Une base NoSQL permet de reporter la construction des critères d’étude au moment où l’étude est envisagée et d’être donc plus scalable dans un partage sur de nombreux nœuds. La puissance des machines reliées permet la construction des liaisons, hors indexation préalable et sans passer par des silos opportunément pré-remplis dans une SGBR SQL classique, lorsque la structure spécialisée OLAP a été ‘oubliée’. Les langages d’interrogation du NoSQL n’ont rien d’universels : le nom est devenu Not Only SQL montrant par la même la prédominance du besoin d’un langage structuré. Les systèmes type Exadata , permettent de mixer simplement les deux opportunités : structurer les clés et les actions primordiales en Merise 2 ou UML pour assurer la cohérence première des données, et ouvrir sur des données à granularité très faibles et à large spectre d’informations potentielles, grâce à des machines OLAP travaillant en mémoire vive sans duplication. Les systèmes réduisent drastiquement la taille des transferts avec les données réparties sur de multiples serveurs, des requêtes additionnelles en profitant du langage SQL (ou de traductions en SQL) et de la sécurité de gestion des accès. Donc le débat est ouvert, ce d’autant plus que le goulot d’étranglement de demain, réside dans le réseau lui-même qui véhicule aujourd’hui des trames trop lourdes en accompagnement de l’information nécessaire, répartie sur de plus en plus de machines de stockage et de traitement.

 

 

B.   Premier des axes d’investigations, la mesure de la performance de la composition des assemblages de présentation.

Boucicaut écrivait : « l’art du magasin libre-service… savoir assembler produits qui se vendent et produits qui font vendre ». Tout produit possède une capacité d’attraction mais dans un assemblage, cette attraction peut, être éteinte, cannibaliser, éteindre. La question est donc : dans quel assemblage, le produit s’avère globalement le plus performant pour lui et pour la composition dans laquelle il est présenté et dans quel facing ?

Impossible d’y répondre par de simples données de ticket de vente, de quantité de stockage et de facing statique, ce d’autant plus qu’une des réponses possibles pour certains produits fortement dominants, se trouve dans la multiplication des ensembles d’exposition.

La question se pose également transposée dans tous les ‘états de stimulation’, du produit ou des produits de l’ensemble (promotion, PLV, dissonance…).

Dans un article publié en 2009, nous écrivions :

Tous les produits présentés ne vont pas occuper un facing proportionnel à leur volume de vente potentiel !

Cet illogisme apparent est expliqué par la théorie du besoin de stimulation, étudiée en psychologie et en marketing : chaque individu est caractérisé par un niveau optimum d’excitation auquel il cherche en permanence à se situer.

C’est l’incongruité ou dissonance, la nouveauté, l’ambiguïté, le caractère surprenant émanant d’un produit, qui créent l’excitation ; surtout si cette dissonance jugée ‘positivement’ entre en conflit avec les croyances, attitudes ou normes cognitives de l’individu (Roehrich,1993), parmi ces valeurs, la représentativité attendue d’un produit dans un assortiment segmenté.

Aussi, en cas d’ennui parce que son environnement ne lui procure pas assez de stimuli excitants, l’individu recherchera l’incongruité. C’est pourquoi, l’exposition à un produit incongru dans un ensemble de produits attendus, augmente la volonté de l’essayer (Tuorila., 1998) . A l’opposé lorsque l’excitation dépasse le niveau optimum, cette incongruité ou dissonance positive conduira à se reporter sur le produit qui ramènera au niveau maximal de bien-être. D’où l’utilité dans une stratégie de présentation, de prévoir une mixité des propositions avec les animations et incongruités…

Le BigData offre de croiser les compositions exactes à l’instant de la vente, des assemblages quantifiés et qualifiés par produit, avec la performance de chaque vente par client qualifié en provenance de cet assemblage. Sur des périodes identiques répétées sur plusieurs années, segments de jours de semaine, et grandes périodes évènementielles, sont extraites les équations des relations entre la vitesse de vente et des grandes et petites variables signifiantes, notamment les degrés d’exposition et les ‘états de stimulation’. Les quantités présentées varient au cours, de la journée ou bien de l’évolution des compositions ; chaque vente d’un produit peut être rapprochée de l’environnement exact de présentation et de stimulation, notamment des promotions directes ou indirectes (positives comme négatives-web-) sur les couples produits/prix.

Une étude statistique du type PLS (moindres carrés partiels), suffira le plus souvent à mesurer les variables signifiantes dans leurs incidences complexes et croisées, à sortir les vrais ‘‘outliers’’.
Le merchandiseur d’assemblage-composition connait alors ses équations de variables d’optimisation et peut projeter dans le temps le mode de présentation de l’offre.

Mais très souvent la durée de vie des produits de l’assemblage est trop faible pour corriger efficacement les politiques d’achat à partir des données analysées sur le produit lui-même. La prévision est nécessaire. Cette prévision fait appel à des interrogations complexes sur des Big Data , par simulation de la récurrence potentielle, sur toutes les observations passées donc traitant des données en masse.

Capture

Parmi les données globales, il a été possible de retirer les notions de Direct Product Profit et de participation au Direct Subset Profit (yc charges merchandising), courte période (semaine) moyenne période (mois), longue période (saison ou année) suivant la quantité présentée (largeur de l’offre et visibilité vs visibilité globale de l’ensemble), le prix proposé, le positionnement du prix de vente dans l’échelle de la composition, le positionnement du prix vs concurrence, les promotions, le lieu de présentation, la typologie de clientèle. Ainsi s’il est certain que pour un produit outsider, le client ne vient pas pour acheter un absent, l’absence d’un outsider dont la mission est de faire vendre, peut alors se mesurer dans un assemblage type à composition similaire …

 

C.    Deuxième aide du BigData, la fixation des prix durant la vie du produit.

La présentation à la vente dans un magasin d’un couple produit/prix génère du trafic, de l’image, du chiffre d’affaire et de la marge. Dans chaque phase de la vie du produit, il est nécessaire d’associer un prix et une politique d’affichage de prix, affiché, barré, promu, réduit (globalement, individuellement etc), sur le Net ou non… La mesure de l’incidence de l’évolution du prix du ou des produits, sur chacun des quatre objectifs doit être souvent ultra rapide et croisée avec l’expérience écoulée de l’évolution des courbes de vente et de trafic notamment des clients fidèles.
Exemple simple : un couple produit-basique /prix trop couteux par rapport à l’enseigne leader ou la concurrence de proximité, ne favorise pas le trafic, positionne l’enseigne comme chère ou élitiste, génère un faible CA en regard de la capacité du produit mais laisse une capacité d’accaparation du pouvoir d’achat dirigeable vers d’autres produits challengers à plus forte marge … A l’opposé augmenter le chiffre d’affaire en baissant le prix et donc le taux de marge, peut conduire à la même valeur ajoutée, mais laisse une disponibilité moindre chez le client au pouvoir d’achat limité.

La politique d’affichage de prix a pour but de modifier l’impression de prix en plus d’attirer ou de détourner l’attention du visiteur. Cette impression complexifie la comparaison des prix affichés, bien que les comparateurs de prix jouent à cet égard un rôle de correction pour une population hyper sensible au prix. Identiquement pour le bénéfice des plus grandes surfaces, l’impression de prix liée à la profondeur de l’offre perturbe le discernement, y compris pour des produits basiques ou leaders.

Prix et politique d’affichage de prix sont donc associés à la pente des vitesses de vente suivant les périodes et les évènements au cours desquels le rôle du produit peut évoluer, avec son prix (promotions incluses) ou avec sa stratégie de présentation-disponibilité.

La quantité de données disponibles pour ‘pricer’ correctement le détail de l’offre produit relativement à la concurrence croit fortement avec les offres de comparateurs et la disponibilité des prix sur les réseaux. Le Big-Data offre des perspectives pour la constitution de la base sous forme vectorielle, des évolutions de prix par politique d’affichage, en relations avec les vitesses d’écoulement et les présentations ; l’ensemble est traité comme une requête croisée d’un ensemble de points et de vecteurs, ou bien stocker tous les points et recalculer à la volée par intervalles de temps, les évolutions.

Autre exemple : une enseigne N° 3 du secteur, dans le domaine de l’accessoire plaisir en équipement de la personne, expose environ 4000 références produits dans 6 univers répartis dans environ 120 assemblages. Cette enseigne adopte depuis 2 ans dans le cadre de la recherche de cession de son LBO, pour tous les produits dont le prix se situe au-dessus du prix moyen vendu de la catégorie de produit une politique de prix barrés, pour les produits à prix d’appels une politique de rabais affichés à l’extérieur, et par mois sur un segment de marché et en cœur de gamme des promotions globales publicisées sur flyer, catalogue et affichage Kakemono. Sur internet, ne sont exposés que les produits d’appels et les cœurs de gamme promus… L’observation directe des prix affichés avant toute remise montre qu’ils sont globalement de 15 à 30 % supérieurs à ceux de son concurrent direct et de 20 à 35 % au-dessus des prix du leader ; remisés les prix sont toujours légèrement inférieurs à ceux du N°2 mais équivalents au leader. Sur les premiers prix d’appels, l’enseigne affiche à la fois un CA et une marge très élevée grâce à des coups sur les produits, en Direct Product Profit la performance est moindre en raison des coûts de packaging et de traitement des paiements. Néanmoins c’est un trafic payé au plus bas coût. La remontée des chiffres des centres commerciaux fait observer que les périodes de vente oblatives présentent un net déficit de part de marché, comme les périodes de soldes. Ce qui est une conséquence classique de la vente de remise toute l’année. Une telle politique grossière trouve  ses limites dans la durée, avec une clientèle au comportement fortement hédoniste et sensible aux effets d’aubaine dont le passage à l’acte d’achat est trop lié à la légèreté du poids conjoncturel. Pour sortir de ce cercle vicieux, il faut sans rupture, conduire vers une amélioration de l’image sans baisse du trafic. Le prix doit être ressenti bas et la promotion visible doit continuer sur un spectre plus étroit sans nette perte de marge globale. Chaque taille de magasin, chaque zone de chalandise donne à étudier les variations des ventes, et de trafic, et éventuellement d’image sur les réseaux, en fonction des politiques établies et ce sont des millions d’actes d’achat qui doivent être analysés et comparés pour établir de façon ultra-réactive une nouvelle politique de prix (prix et affichage) au produit. Comme souvent sans capacité d’analyse, ce sera le dernier LBO et une dette remise sur le marché des junk bonds (Kohlberg Enjeux les Echos 07-08/2014).

La fonction prix affiché/promu est dans les faits, très complexe :

  • la Marge et le CA peuvent être directement associés au produit ou à des ventes entrainées,
  • les prix (echelle, écart concurrentiel) positionnent l’image globale de l’enseigne, son accessibilité et le public visé,
  • la remise affichée au produit augmente le niveau d’excitation surtout chez l’amateur d’aubaine mais tue l’image de luxe et même de ‘‘valeur’’ associée au produit,
  • le rabais affiché et publicisé (hors solde) augmente le trafic généré, crée une attente, tue progressivement l’effet attendu et conditionne rapidement l’image de l’enseigne
  • le prix affiché répond à des rattachements à des prix psychologiques et à des besoins de scalabilité de l’offre (possibilité de monter sur l’échelle de prix),
  • l’image du prix est liée à la profondeur de l’offre produit sur le sous ensemble, à l’amplitude de l’offre prix, et au pas de l’échelle des prix
  • le prix conditionne la capacité de transfert du pouvoir d’achat sur d’autres produits, la cannibalisation d’autres couple produit/prix(voir point A),.

 

La tarification optimale est donc loin d’être une fonction simple liée à l’élasticité de la demande sur le produit. Avec les prix affichés électroniquement sur réglettes, les affichages promotionnels sur supports écrans, le prix s’expose de plus en plus dynamiquement donc facilement modifiable en magasin y compris sous les diverses formes promotionnelles. Cette capacité de changement rapide se retrouve sur le net (en sus les prix d’enchère et les prix flottants). Internet où les comparateurs qui fleurissent avec le drive, reprennent en plus le prix magasin, et les avis des réseaux sociaux. La récupération des prix de la concurrence est facilitée par ces services de comparaison mais elle exigerait une saisie de rapprochement de références bien connue des enseignes de blanc/brun dans les années 80 avec les comparateurs de prix mensuels, sauf si justement les données sont récupérées de façon brute sur des exploitation faites en mode texte libre.

Avec la pratique de la remise de fidélité ou des coupons spécifiques, l’enseigne vient largement perturber l’étude du positionnement concurrentiel du prix pratiqué. Et il ne faut pas croire que cette pratique se limite aux enseignes populaires. Les variations des prix et de leurs écarts, trop nombreux et trop théoriques, ne peuvent donc être le facteur déclenchant des études. Ce sont les modifications des comportements habituels d’achat et de fréquentation, qui sont les facteurs déclenchants d’une étude sur la tarification optimale des produits et des promotions. Et dans ce cas il est indispensable d’avoir un délai de réaction ultra rapide et un spectre d’analyses et d’actions sur l’incidence des politiques de prix passées qui nécessite un historique sur l’évolution des habitudes comportementales liées aux prix. Ici les banques de données sont lourdes et les plans d’analyse sur les causes nombreux. L’information stockée est forcément énorme croisant les comportements des différents types de clientèle (souvent suivant leur degré de fidélisation, leur panier d’achat moyen et le montant global de la dépense par grandes périodes évènementielles) , sans être complètement appelées par les études spécifiques menées aujourd’hui. Le coût de ce stockage doit donc être faible à la fois dans la prise d’information (peu structurée) et dans la durée et le coût de maintenance. C’est une des propriétés du Big-Data…

 

 

D.   Le BigData est il un effet de mode ?

Typiques du stockage et de la transmission de données non structurée, Tweeter et Facebook sont aujourd’hui hyper importants pour expliquer des comportements de groupe et de tribus, et prévoir leur incidence sur les ventes, à travers les analyses des flux et des contenus. Le langage pratiqué lui-même y est fortement déstructuré et modal : phonèmes, abréviations, onomatopées…

L’étude de ces données en merchandising s’avère moins importante que pour le marketing, enseigne ou produits. Depuis 2010, les grands SGBDR investissent dans des outils d’analyse de Business Intelligence pour intégrer ces données de réseaux sociaux comme variables signifiantes et on se contente facilement des données datées et qualifiées par tribu sur les quantités de flux positifs ou négatifs associées aux couples marque/enseigne, voir produits/enseigne. Données donc fondamentalement structurées…

Typique également du mode de répartition de stockage Hadoop des Big-data non structurés, les données mondialisées qui sont associées aux grandes marques de produits et de distribution : elles n’ont pas vocation à être concentrées en Data Warehouse dans leur mode brut mais elle peuvent être appelées pour résoudre des problèmes de variables signifiantes dans des analyses à l’écart type trop large. Le merchandising s’appliquant à une culture de comportement de consommation sur de courtes périodes, dans des localisations spécifiques, avec des pouvoirs d’achats différents et des évènements différemment ressentis, il est rare que les données mondiales soient utilement appelées pour des problèmes d’assemblage, de facing ou de politique de prix.

Le Big-data sera plus utile lorsque les données stockées permettront une exploitation statistique par leur quantité et grâce l’imagination des merchandiseurs pour améliorer leur performance. Aujourd’hui le Big-data permet à l’informatique d’être une force de proposition dans l’entreprise et cela doit lui être profitable pour se repositionner dans le BI.

 

[i] Traitement analytique des données en ligne : lit seulement des données (mouvantes ou non) et établit des schémas d’analyse  à partir de croisement et d’index

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


*