Quels impacts de l’usage de l’IA sur le CRM Marketing ? Requêter en langage naturel.

L’IA est intégrée depuis longtemps, avant l’arrivée des LLM,  dans la gestion de campagnes marketing adressées notamment  :

  • Sur l’usage de scores prédictifs (churn, appétence produit … ) avec notamment Splio et l’offre Prédictive IA (ex TinyClues), Data Cook , Optimove ou …
  • La recommandation de produits/services avec les moteurs de recommandation déjà nombreux sur le marché,
  • L’optimisation du moment d’envoi (présent chez quasiment tous les CRM du Middle Market),
  • La génération d’objets et d’accroches performantes basée sur l’émotion ( Cf Persado);
  • etc.

Que peut apporter l’IA générative dans ce contexte au CRM Marketing et à la gestion de campagne ? Quels sont les projets et idées en cours. C’est l’objet d’une série d’articles sur ce sujet .

Je vous propose d’aborder un premier thème avec Le requêtage en langage naturel :

 

  1. Ciblage par langage naturel : requêter sans coder
  2. La démonstration d’Adobe
  3. Le cas Club Med
  4. Est-ce vraiment utile ?
  5. Conclusion

1. Ciblage par langage naturel : simplifier sans sacrifier la précision
La réalisation d’une requête SQL pour effectuer un ciblage ou un comptage peut être longue, source d’erreur et peut nécessiter de bien maîtriser le SQL et le modèle de données de sa base.

Plusieurs prestataires CRM travaillent sur le développement d’une interface permettant à partir d’une requête en langage naturel (par la voix ou écrit) de réaliser la sélection d’une population au sein des différentes données d’un CRM/CDP/DataWharehouse.

Toutefois la réalisation de cette fonction est conditionnée par de nombreuses contraintes.

  • De données fiables et de qualité. Une évidence, mais sans données de qualité, l’IA fournira des résultats faux,
  • D’un dictionnaire de données (à jour aussi !) décrivant avec un détail et un vocabulaire suffisant décrivant les tables, les variables, les jointures, les modalités  pour entrainer l’ IA. Un « data catalog » peut bien sûr aider .
  • Des données mises à jour en temps réel, mais aussi la prise en compte de nouvelles tables. Ces dernières devront nécessiter de retravailler l’entraînement de l’IA  régulièrement…

Enfin l’IA doit savoir requêter correctement les tables et les données adéquates en SQL pour produire un résultat fiable.
On sait qu’une requête SQL doit être rédigée avec soin pour interroger les bonnes tables, faire les bonnes jointures et obtenir un résultat fiable..
Aussi lors du développement de l’outil de ciblage par langage naturel,  il sera nécessaire de vérifier le résultat produit, de corriger l’IA , en bref de l’entraîner.

Je vous propose deux exemples pour illustrer la façon dont peut fonctionner le requêtage en langage naturel.

2. Adobe avec IA assistant

adobe ia crmAdobe a présenté de ce type dispositif en  mai 2024 lors de son summit aux USA .

Le scénario est le suivant : une demande en langage naturel d’exploration de données pour identifier les différents segments de client qui n’ont pas réservé depuis les 12 derniers mois (puis de décider d’une action marketing dans la suite de la vidéo).

requete langage naturel IA et CEM

La réponse de l’assistant IA permet de visualiser la traduction de la demande sur une requête avec les champs et les données (ce qui permet de contrôler à minima la bonne interprétation) .
Dans la suite de la démonstration il est demandé de cerner le plus appétant pour réserver une chambre dans les 30 prochains jours sur les 5 nouveaux hôtels.

ia crm prédictif

Même interprétation en SQL en s’appuyant certainement sur une donnée prédictive de réservation dans les hôtels (ce n’est pas précisé dans le scénario).
Les requêtes SQL présentées sont ici très simples. Il serait intéressant de voir le système tourner sur des demandes plus complexes pour juger de la performance du système

La présentation s’appuie sur les modules  Adobe Experience  + IA assistant + Adobe Campaign et certainement Adobe Real Time CDP) ce qui représente un budget très conséquent.

3. Le cas Club Med – Avisia

ia crm club med Fin 2024,  dans un témoignage fort intéressant,  Club Med a présenté un projet mené avec Avisia, d’un dispositif incluant notamment sur un ‘RAG’ .
L’objectif est de permettre aux collaborateurs de Club Med (pas forcément du département CRM) d’interroger les données de l’entreprise en langage naturel, sans compétences techniques avancées. Ce projet, surnommé le « gentil requetteur », vise à démocratiser l’accès à la data en s’inspirant des assistants vocaux du quotidien comme Siri ou Alexa.​
Il doit permettre de répondre aux questions suivantes : « Quel est le chiffre d’affaires par pays ce trimestre ? » ou « Quels sont les produits les plus vendus en juillet ? ».
L’outil traduit ensuite ces requêtes en langage SQL, interroge la base de données et présente les résultats sous forme de tableaux, graphiques ou réponses textuelles.

Réalisé avec Avisia le schéma technique de l’outil est le suivant

Dans la vidéo, André Bourlat, Head of Data Factory & Innovation du Club Med détaille bien l’intérêt et les enjeux d’un tel dispositif qui de plus se doit d’être ouvert au plus grand nombre (pas seulement à la population CRM).

Lors de la démonstration, il a été demandé de sélectionner le ‘resort’ le plus acheté des 70 sites de Club Med. La requête générée est la suivante :
ia CRM et requêteOn est dans un cas plus complexe et sophistiqué que celui présenté par Adobe avec des jointures et des appels aux comptages et données précédentes.
Cette contextualisation (mémoire) de l’IA est essentielle au bon fonctionnement du requêteur.

La vidéo souligne que plusieurs éléments ont été déterminants dans la réussite de ce projet :

  • Des données en temps réel : la mise en place d’une « data factory » sur Google Cloud Platform (GCP) assure une actualisation constante des données, permettant des analyses précises et à jour.​ Le temps réel est un projet conséquent et pas toujours évident à mettre en place,

  • Un périmètre initialement réduit sur les ventes et les clients : le projet a débuté avec un focus sur les données de ventes et de clients, garantissant une maîtrise du domaine et une pertinence des réponses.​

  • Un modèle de données bien connu et documenté : Une compréhension approfondie des structures de données a permis une traduction « efficace » des requêtes en langage naturel.​ Cela s’appuie notamment sur l’outil datagalaxy

  • Un filtrage intelligent : un système de filtrage empêche les requêtes hors sujet, évitant ainsi des réponses incohérentes ou erronées (!).​ A noter que les requêtes orales peuvent donner des résultats graphiques, export CSV ou des données directement sur l’écran.

  • Un apprentissage continu : grâce à un monitoring régulier, les requêtes sont analysées, corrigées si nécessaire, et intégrées pour améliorer les performances futures de l’outil.

Le retour d’expérience sur cette application souligne sur la nécessité de valider les requêtes générées dans un premier temps pour les diffuser largement ensuite.

A noter que le coût de la requête est systématiquement calculé et présenté à chaque requête.
Exemple de la requête détaillée plus haut « 
Approximative cost : $0,04 (6487 imput token + 475 outpout tokens) ».

Un focus sur les conditions de performance et pérennité de la solution a permis de cerner quelques éléments clefs de réussite à l’issue de la présentation

club med ia crm

4. Le requêtage en langage naturel, est-ce vraiment utile et fiable ?

Le requêtage en langage naturel est-ce bien intéressant dans un contexte CRM Marketing?

Cette fonctionnalité est utile… mais pas pour tout le monde à mon avis.

Elle apporte une vraie valeur pour :

  • les utilisateurs non techniques, frustrés de ne pas pouvoir « accéder » à leurs données,
  • les organisations structurées (data catalog, données fiables, modèles documentés, mise à jour en temps réel),
  • les questions simples, récurrentes, à impact opérationnel.

Mais les conditions de réalisation sont nombreuses :

  • elle repose entièrement sur la qualité et la fraîcheur des données,
  • elle nécessite un véritable entraînement de l’IA sur la structure spécifique de l’entreprise et un suivi lors de l’ajout de nouvelles tables (coût de maintenance),
  • pour des requêtes complexes et à fort enjeu, la vérification humaine du code SQL sera probablement indispensable ,

Enfin l’utilisation de la voix pour exprimer une demande précise comporte des risques. Car on est moins précis que sur un support écrit. Il y a des risques liés à l’ambiguïté du langage naturel.
L’écriture permet une plus grande précision grâce à la possibilité de réviser et de structurer la demande.

Quelques exemples confusants :

  • Donne-moi les clics de la campagne de Noël -> Noël 2023 ou 2024, clics uniques ou multiples ?
  • Donne-moi le nombre d’emails d’abandon de panier entre le 1/07/2024 et le 01/8/204 –> les dates des deux bornes doivent-elles être incluses dans le comptage ?
  • Fais-moi un comptage des nouveaux clients –> pas de date formulée, nouveaux clients =  contacts créés.

L’Ia devra être un garde-fou sur ces dérapages en retraduisant, par exemple, la requête initiale dans les termes du dictionnaire de données avec son propre vocabulaire sur lequel il a été entrainé..

 

5. Conclusion : pas une fonction  presse-bouton, mais un levier intéressant si bien préparé

On le voit bien, ce sont des projets complexes qui doivent reposer sur un environnement data de grande qualité, fiable, mis à jour en temps réel avec une IA bien entrainée et des précautions d’usage bien respectées.
On est loin de la fonction de type « presse bouton. »

De nombreux acteurs de CDP ont dans leur feuille de route la sortie de ces aides à la requête. La gestion des data bien organisée et bien documentée dans un contexte temps réel est normalement dans leur ADN.

 Pour les éditeurs CRM « classiques » ce sera plus compliqué. Néanmoins, pour certains éditeurs comme Klavio spécialisés sur l’Ecommerce, le contexte est plus simple car un modèle E-commerçant est assez  »standard ». Le fonction est proposée depuis 2024.

Le « requêteur oral » peut être un levier puissant pour démocratiser la donnée marketing… à condition de rester lucide sur l’effort nécessaire pour le rendre utile, fiable et légitime dans l’organisation.

Merci Jérôme Mollier, formateur à l’ Email-Academy et Data Scientiste senior chez Relatia pour ta participation à cet article


Retrouver nos deux formations sur l’IA et le CRM en juin  :

  • Utiliser l’IA pour le CRM  et l’emailing : 10 juin
  • Data science, mining et IA: usages pour l’emailing : 25 juin

Deux solutions autour du CRM remarquées au salon All4Customer 2025

Comme chaque année, le salon All4customer (anciennement « E-Marketing ») se tient à Paris, porte de Versailles. La thématique est très orientée relation client, avec une légère touche CRM.

J’ai néanmoins repéré deux entreprises particulièrement intéressantes dans mon domaine de prédilection :

Datacook : la prédiction avec une CDP nativement gonflée à  l’IA

J’avais rencontré la jeune pousse Datacook en 2023, au moment de sa levée de fonds de 1 M€. Cette année, elle revient nettement en montée en puissance.

Son credo ? Concevoir des segmentations ultra-pertinentes en exploitant de nombreuses analyses (signaux faibles notamment) afin d’affiner la connaissance client (appétence produit, churn, moments de vie clés …). L’entreprise permet ensuite l’activation directe des résultats d’analyse dans les outils CRM du marché, grâce à de nombreux connecteurs disponibles.

Depuis peu, Datacook s’appuie sur une CDP  »maison », essentielle pour stocker les informations nécessaires aux modèles prédictifs réguliers.

Atout notable de cette CDP : elle ne nécessite pas d’intégrateur externe (!) .
L’intégration et la structuration des données sont largement pilotées par l’IA (identification et correction des données, formatage des champs, création automatique des jointures, structuration multitable, finale, etc.).
Une démarche intéressante qui sera à tester sur des environnements data très complexes et riches.
À l’issue de cette phase, de nombreux indicateurs et statistiques clients sont générés, accompagnés de suggestions concrètes d’actions marketing basées sur divers scores d’analyse : anticipation du churn, accroissement de la valeur client, optimisation des stratégies d’acquisition….

Exemple illustratif : l’analyse d’une cohorte annuelle montre clairement une faible rétention des nouveaux clients année après année.

Tous ces scores et analyses sont intégrés d’office dans le forfait de base.

Par ailleurs, un accompagnement business systématique est assuré, avec des suggestions stratégiques de campagnes marketing.

Au final, les points différenciants clés de Datacook sur la partie analyse et activation me semblent être:

  • Une technologie IA avancée exploitant finement les signaux faibles pour transformer des informations brutes en opportunités commerciales concrètes.
  • Un focus affirmé sur des résultats mesurables : chaque campagne est évaluée sur des critères business (chiffre d’affaires additionnel, taux de conversion, etc.).
  • Une approche adaptée aussi bien aux grandes entreprises qu’aux structures plus modestes, avec une vraie volonté de démocratiser l’IA marketing.
  • Un accompagnement stratégique personnalisé et des scores d’analyse intelligents pour maximiser la performance des campagnes.

Sur la partie CDP, l’usage de l’IA est déjà présent sur la qualité des données et dans la construction du modèle final chez quelques éditeurs CDP (notamment Octolis racheté par Brevo). Data Cook me semble aller bien plus loin dans l’automatisation des différentes étapes. A évaluer sur des modèles plus complexes ou sur des données autres que marketing quipeuvent être intégrées.

L’outil cible particulièrement les ETI et PME du mid-market, souvent en recherche de solutions pragmatiques sans la complexité des grandes plateformes.

Côté tarifs : un forfait d’essai, incluant une cartographie client et une analyse qualité des données, est proposé à 15 K€. La licence annuelle commence à 20 K€/an, modulée selon le volume de données et la fréquence des mises à jour.
Pour aller plus loin, une interview de la co-fondatrice Élodie Vaillant est disponible sur YouTube.

📽️ pulpin.io : la vidéo personnalisée, réinventée pour 2025

La vidéo personnalisée dans le marketing (une vidéo unique pour chaque client, générée à partir des données CRM) existe depuis 2018 (par exemple, avec Vidata). Pourtant, Pulpin.io, présent cette année au salon, semble changer totalement la donne.

Le concept de Pulpin.io est clair et innovant :

  • Une trame vidéo initialement créée à partir de modèles standards ou sur mesure.
  • Un rendu totalement unique et personnalisé pour chaque destinataire.
  • Une génération en temps réel à partir de données CRM lors de l’activation de la vidéo.

Contrairement aux solutions classiques nécessitant la prégénération massive de vidéos sur des serveurs (impliquant une forte infrastructure et une bande passante importante), Pulpin intègre directement son moteur de personnalisation vidéo dans le navigateur grâce à une technologie propriétaire. La solution peut aussi produire à la demande des vidéos MP4 ou GIF animés.

Dans le contexte d’un email, les données nécessaires à la personnalisation passent directement via le lien intégré à l’email. Résultat ? Une vidéo instantanément personnalisée côté navigateur après un clic, sans besoin préalable de stockage massif.

Cette méthode, plus souple et économique que les approches traditionnelles, est déjà adoptée par certains grands comptes.

Autre avantage notable : l’interactivité embarquée permet d’afficher divers menus et pages au sein même des vidéos, avec des statistiques précises sur les interactions des utilisateurs.

Exemple concret : Engie utilise actuellement Pulpin.io pour produire automatiquement des bilans carbone personnalisés destinés à ses clients. À partir d’un brief initial, Pulpin adapte une animation type (fonctionnement proche d’une agence créative). Chaque client reçoit ainsi une vidéo entièrement personnalisée via un player dédié aux couleurs d’Engie, accessible depuis un lien sécurisé.

Autre exemple :  un bilan d’entretien pour un véhicule cf ci-dessus

Les campagnes ainsi lancées offrent des métriques riches :

  • Séquences vidéo visionnées (selon les appareils : mobile, tablette, ordinateur)
  • Clics réalisés dans différentes parties de la vidéo
  • Durées de visionnage…

Démo convaincante réalisée sur le stand, avec un cas pratique sur l’explication d’une facture d’énergie.  Une déclinaison adaptée aux petites entreprises est prévue pour la fin de l’année.


La pression commerciale : un incontournable des programmes relationnels enfin résolu ?

La pression commerciale dans un programme relationnel est une préoccupation très présente chez de nombreux marketeurs depuis de nombreuses années.

Sur une étude de Tinyclues de 2022, interrogeant des responsables marketing et CRM en Europe et USA 90 % déclarent que la pression commerciale est l’une de leurs préoccupations majeures et seulement  58 % la surveillent régulièrement…

pression commerciale

En 2024 des questions se posent toujours autour de la pression commerciale :.

  • Quelles nouvelles contraintes apporte la délivrabilité sur la pression commerciale ?
  • Dans l’ensemble de mes contacts, comment identifier la pression maximale par groupe de destinataires voire par individu ?
  • En cas de surpression sur un envoi (dépassement d’un seuil de pression maximale) , quel type de communication favoriser ?
  • Comment gérer la pression par canal de contact (sms, email, notification …) voir l’impact de la pression multi-canal ?,
  • Comment suivre l’effet de ma pression commerciale sur ma base et son impact ?
  • Une forte pression commerciale est-elle toujours synonyme d’un fort taux de désabonnement et d’une baisse des métriques emailing ?

Dans ce contexte de préoccupation majeure et pour répondre aux questions précédentes, je vous propose d’aborder les thèmes suivants

  1. Quelle pression mesurer : pression ressentie ou  pression effective ?
  2. Les centres de préférence sont-ils des régulateurs efficaces de la pression commercial ?
  3. Volume d’Emails envoyés versus  Efficacité de la campagne : démystifier les règles d’or de la Pression Commerciale
  4. Outils CRM et CDP : comment abordent t’ils la gestion de la pression ?
  5. L’IA et la Pression Commerciale : Révolution ou Évolution ?

  1. Quelle pression mesurer: pression ressentie versus pression effective ?

Selon que l’on se situe du côté de l’annonceur ou du côté des destinataires, la définition (ou ressentie) de la pression commerciale n’est pas la même.

Chez l’annonceur le volume d’emails envoyé par destinataire sur une période donnée est un ratio standard  de pression  »envoyée ». Il est parfois ventilé en fonction du type de communication (promotion, newsletter information, contenu transactionnel) et des segments de la base.

Une règle simpliste couramment citée (dans la littérature CRM) souligne que les segments les plus engagés avec la marque (ceux qui achètent le plus par exemple) sont les plus susceptibles de recevoir le plus grand nombre de communications sans effet négatif notable.

Mais comment expliquer, dans ce contexte, que dans le segment RFM ‘top star’ d’un des 5 plus importants Ecommerçant français, comptent plus de 35 % d’inactifs email (aucune ouverture ou de clic depuis 12 mois) ?

La pression commerciale ressentie par le destinataire, n’est-elle pas la plus importante?
En fonction de l’appétence à la marque, de l’intérêt voire la passion envers les produits, des services et des sujets traités, la capacité à recevoir un nombre conséquent d’email est variable.

  • Une thèse d’Andrea Michaud, avait montré que les destinataires qui ressentaient la pression commerciale la plus forte étaient ceux qui ouvraient et ne cliquaient jamais sur l’email (déception et inadéquation du contenu lors de la lecture de l’email…).  Un comportement qui ressort comme étant très signifiant dans les calculs de scores prédictifs d’inactivité/tchurn.
  • Rolland Koltchakian précise ce sentiment dans un article ‘Sur quoi repose le ressenti de la pression commerciale en email marketing ?’ toujours d’actualité.

Malheureusement avec le brouillage de l’ouverture chez Apple (sur les clients emails Apple) et sur Gmail, la population identifiée par ce comportement (ouvreur non cliqueurs) s’est considérablement réduite.

Sur le canal email, la perception de la pression ressentie est devenue de plus en plus cruciale avec les contraintes de la délivrabilité qui favorisent les internautes  »engagés » principalement sur les Webmails américains et pour les gestionnaires de boites email français avec la mesure des plaintes et de leur taux .

Dans ce contexte, quittant l’envoi de masse sur les prospects et clients, les marketeurs gestionnaires des programmes relationnels ont évolué en introduisant plus de segmentation (produits, clients, Live Time Value .. ), de personnalisation/recommandation et développant le marketing automation avec l’usage pour de scores prédictifs utilisant ou non l’IA.

2. Le cas des centres de préférences:  régulateur efficace de la pression commerciale ? 

Demander les préférences de fréquence de diffusion, de contenu et d’intérêt est un des principes du préférence center. Bien utilisé, il permet notamment de diminuer le désabonnement en proposant une alternative de fréquence ou de choix de contenu.

Dans le cas de la pression commerciale ressentie, il offre la possibilité de préciser les appétences de l’abonné pour adapter le contenu des communications, voir le canal préféré.
Sur ce principe, il répond à un premier niveau de pression ressentie en poussant des contenus pertinents (en fonctions des déclarations de l’utilisateur).

Par contre il ne répond pas à la question de la fréquence d’envoi optimale (c’est-à-dire acceptable par le destinataire) que peut de son côté calculer le CRM.
On peut bien sûr demander à son destinataire la fréquence de réception maximale souhaitée comme ci-dessous.

Un autre exemple est celui de Veepee.fr qui propose pas moins de 4 fréquences de réception d’email

Les avantages de cette pression déclarative sont les suivants :

  • Gestion de la Réputation : Aide à maintenir une image positive de la marque respectueuse de ses abonnés en évitant la sursollicitation et en offrant un choix transparent et accessible.
  • Réduction du Taux de Désabonnement : En donnant aux clients la possibilité de moduler la pression commerciale à l’abonnement et au désabonnement, on réduit le risque de les voir se désabonner complètement.
  • Amélioration de l’Engagement : Les communications arrivant au rythme souhaité par le destinataire sont  susceptibles d’être mieux acceptées (et générer moins de plaintes)

Quelques inconvénients sont à signaler

  • Risque de diminution de la visibilité de la marque : Avec des communications plus espacées dans la boite aux lettre , il y a un risque de réduire la visibilité de la marque auprès du client et donc de générer moins d’engagements
  • Augmentation des besoins en Contenu : la création de contenus adaptés à différentes fréquences (4 pour Veepee) implique un plus grand nombre de versions de contenu et emails  à produire. Cela peut représenter un défi significatif en termes de ressources créatives et de temps. . .
  • Moins de flexibilité pour faire évoluer le programme relationnel : fixer la fréquence des communications de manière définitive limite les possibilités d’ajustement en fonction de l’engagement du client pour la marque. On peut toutefois proposer
    • de faire évoluer (de façon déclarative) la fréquence de réception en fonction de l’engagement (achats, visites, clics,..) du destinataire.
    • informer les clients qu’ils peuvent manquer des contenus intéressants en raison de leur fréquence limitée
    • proposer lors du recueil de la fréquence, un ajustement de celle-ci en fonction de l’intérêt du destinataire
    • ….
  • Des choix de contenu délicats à réaliser : comment arbitrer si on doit dans un moment donné (mois par exemple) envoyer plusieurs informations intéressantes alors que la fréquence est limitée à un envoi.  On pourra tout regrouper dans un email en sélectionnant les informations les plus engageantes, utiliser d’autres canaux de communication, …

On le voit bien, la gestion de la pression commerciale peut être un carcan assez lourd pour l’évolution du programme relationnel.
Entre une pression choisie par le destinataire et une pression calculée en fonction de l’engagement, de différents scores d’appétence du destinataire, quelle est la solution la plus pertinente et efficace ?

La réponse à cette question complexe nécessite de considérer des règles d’or souvent admises, mais aussi les résultats pratiques observés sur le terrain.
Je vous propose quelques retours d’expérience qui apportent un éclairage intéressant .

 

3.Volume d’Emails envoyés versus  efficacité de la campagne : démystifier les règles d’or de la Pression Commerciale

Il est courant de lire dans des articles ou des livres blancs (pas toujours récents) que plus la pression augmente plus le taux d’ouverture/clic baisse et le taux de désabonnement augmente.

Cette règle de « bon sens » est souvent battue en  brèche si on pratique un marketing relationnel de « bonne qualité » bien ciblé et personnalisé.

Je vous propose de partager quelques analyses recueillies auprès de mes clients ou de témoignages d’éditeurs de solutions CRM

Le premier acteur est un Ecommerçant du nord de la France qui a mené une étude sur son programme relationnel en croisant la pression commerciale sur le taux d’ouverture (à une époque où celui-ci était fiable) . L’étude avait été menée suite à des interrogations de la direction CRM concernant l’impact de la pression commerciale considérée comme trop forte sur la génération de visite (taux de cliqueurs).

Lors de la restitution, de l’étude par le service Data, le graphe ci-dessous a suscité un grand étonnement, voire une remise en question de l’analyse
Plus la pression était forte, plus le taux d’ouverture était important.

Pour l’anecdote, tout le monde a cru à une erreur, mais les chiffres étaient bons !
Le programme de relationnel client était basé sur une segmentation fine avec très peu d’envois massifs. Chaque envoi était segmenté sur une segmentation RFM et l’appétence gamme/produit était systématiquement utilisée pour personnaliser ou recommander un produit.

TinyClues lors d’un club client a partagé une analyse de même type . Rappelons que TinyClues (maintenant CDP Predictive ) permet, sous technologie IA notamment de fabriquer des cibles très appétentes à un produit (ou catégorie de produit). L’usage de la solution  augmente considérablement le nombre de campagnes a réaliser. Aussi ses utilisateurs craignaient de voir leur taux de désabonnement augmenter et celui de l’ouverture et du clic s’effondrer avec le nombre d’emails routés.
La compagnie TUI France (un voyagiste), utilisatrice de la solution,  avait partagé des résultats contraires montrant une diminution du taux de désabonnement et une croissance de l’achat avec le nombre de communications envoyé (avec une certaine surprise).
On observe que les clients ayant reçu le plus d’emails sur la période sont également ceux qui se désabonnent le moins.

Bien sûr le volume de la cible qui reçoit 28 communications est très faible comme le montre le graphe ci-dessous.

 

4.Outils CRM et CDP : comment aborde t’il la gestion de la pression ?

On constate différents niveaux d’approche sur la gestion de la pression commerciale du plus basique aux très sophistiquées. Toutefois elle me parait peu aboutis et mature,  plutôt mal traité dans le monde du CRM.

L’approche classique de la pression commerciale

Les principes « standards » de la gestion de la pression commerciale en programme relationnel peuvent être présentés de la façon suivante.

 

  1. Initialement sont définies des règles de pression globale sur tout ou partie de la base
    • un exemple standard est : pas plus de 1 email par jour et 3 par semaine par destinataire
  2. Ensuite on peut définir des poids/priorité en fonction de la priorité des campagnes
    • les campagnes massives ont une priorité de 1, les segmentés une priorité de 2 et les campagnes automatiques une priorité de 3 ( les plus prioritaires)
    • la granularité des priorités peut être plus importante
  3. Puis vient l’arbitrage quotidien qui va consister à identifier les surpressions et les résoudre ce qui n’est pas toujours simple et chronophage manuellement
    • un destinataire est éligible à recevoir une toute base et sa deuxième relance d’abandon de panier -> c’est l’abandon qui est prioritaire et il ne recevra pas sa toute base
    • un destinataire a reçu une toute base puis doit recevoir sa première relance d’abandon de panier ->  on tolère une surpression
  4. Enfin des rapports de suivi des arbitrages doivent être fournis pour bien comprendre l’impact des règles de pression définies et ajuster les règles.

On voit bien que l’arbitrage quotidien entre :

  • caping de la pression,
  • priorité de campagne,
  • contexte temporel

est loin d’être simple et de nombreux cas sont complexes à résoudre et peuvent prendre du temps.
Dans ce contexte les marketeurs doivent obtenir de leur CRM, un outil simple à programmer leur permettant de contrôler finement les cas importants d’arbitrages sur des campagnes importantes et de passer le moins de temps possible sur le reste des envois.

Nous verrons dans le prochain article , ce que proposent les éditeurs CRM/DMP et l’apport de l’IA dans ce contexte.

Quels impacts IOS 15 pour l’email marketing ? La fin de la pertinence de l’ouverture très certainement !

En juin 2021 Apple a annoncé de nouvelles fonctions de protection de la vie privée pour ses applications de lecture des emails (Apple Mail …) sur ses smartphones et tablettes ainsi que pour le MacOS Monterey.
Je vous propose de partager quelques réflexions et analyses sur ce sujet (très à chaud) qui fait trembler les marketeurs pour la rentrée de septembre :

La fin de la pertinence de l’ouverture pour l’emailing .

Dans le détail et pour que vous compreniez bien d’où vient cette révolution, je vous propose d’aborder les thèmes suivants :

  • Précision sur l’annonce d’Apple
  • L’ouverture, un métrique qui perd année après année, son intérêt,
  • Quel volume impacté par la migration IOS15 ?
  • Comment Apple présente-t-il le nouveau consentement ?
  • Les impacts probables du « blocage » du pixel de tracking ou de sa forte baisse de fiabilité.
  • Que faire pour se préparer à cette évolution ?

Précisions sur l’annonce d’Apple – IOS15

Les fonctionnalités de protection de la confidentialité annoncées par Apple sont les suivantes (Source: communiqué de presse d’Apple):

  1. Empêcher les expéditeurs de savoir si un e-mail a été ouvert
  2. Empêcher les expéditeurs de connaître précisément l’adresse IP du destinataire (la précision région sera conservée)
  3. Permettre aux utilisateurs de s’inscrire à des services avec des adresses e-mail créées au hasard et de garder leurs adresses personnelles privées

Ce ne sont pas uniquement les emails iCloud qui sont touchés, mais tous les emails reçus par les logiciels de lecture des emails de la marque Apple et Apple annonce sur son site

Les esprits des emails marketeurs ne vont pas être tous tranquilles cet été.
En effet, actuellement quand vous sélectionnez le choix de la protection des emails (sur Ipad), le texte suivant apparaît

Sur l’ouverture, Apple annonce (source : conférence pour les développeurs) qu’il précharge (en proxy) les images (et masque l’adresse IP) pour les destinataires même si ceux-ci n’ont pas consulté l’email. Les ouvertures apparaîtront juste après la livraison du message et non lorsque le destinataire ouvre réellement le message.
Autrement dit,  l’ESP devrait recevoir 100 % d’ouverture provenant des clients Apple. A confronter avec la réalité technique d’IOS15 dans sa version finale, car celle-ci est en version Béta.

Ce qui est certain, c’est la promesse de ne pas être tracké sur l’ouverture sur les clients emails d’Apple.

Toutefois on peut se livrer à quelques analyses sur le « stop tracking » de l’ouverture de l’email.

L’ouverture, un métrique qui perd année après année, son intérêt.

Ce n’est pas la première fois que les gestionnaires de boite aux lettres dégradent la fiabilité de la mesure de l’ouverture. En effet :

  • L’ouverture est un métrique d’engagement assez faible, c’est le clic qui est le plus important (sauf exception). Il est facile de faire ouvrir par un objet attrayant,  voire trompeur. Bien plus difficile de faire cliquer. Le clic possède une bien plus grande valeur que l’ouverture
  • De nombreux logiciels/applications (Outlook sur desktop) bloquent les visuels ce qui rend les taux d’ouverture peu fiables ,
  • Gmail/Yahoo ont mis en place depuis plusieurs années un proxy pour les images ce qui bloque la détection du contexte d’ouverture (blocage des informations sur le périphérique d’ouverture par exemple)
  • De nombreux Webmail coupent l’email si celui-ci est trop long, notamment Gmail à partir de 103 Ko et plus récemment le nouveau Webmail d’Orange. Le pixel de tracking étant souvent situé en bas de l’email, celui-ci n’est pas identifié comme ouvert
  • Enfin lecture de l’email n’implique pas la détection de l’ouverture. L’ouverture est une image individuelle qui est chargée par le routeur information à  3 conditions (pas toujours remplies)
    • être connecté à Internet (sur certains clients emails, le code HTML est téléchargé dans la mémoire, mais pas les visuels)
    • afficher les visuels
    • prévisualiser ou afficher dans une fenêtre l’email
      Pour en savoir plus, je vous conseille de lire cet l’article « Quand lecture de l’email ne signifie pas ouverture. L’emailing : média publicitaire ? »

En synthèse l’ouverture est une donnée peu fiable, qui permet des comparaisons entre campagnes et éventuellement détection d’anomalies, mais ne mesure pas un évènement certain qui est la lecture de l’email.
La mesure comparative d’une campagne à l’autre grâce à l’ouverture, restera certainement intéressante, mais l’exploitation marketing ou technique plus précise de l’ouverture souffrira d’une faible fiabilité suite à la migration d’IOS15 (CF paragraphe impact en bas de l’article).

La récente annonce d’Apple va probablement nous obliger à ne plus nous fier à l’ouverture et la remplacer par d’autres métriques et suivant les contextes, c’est  compliqué !

Quel volume impacté par la migration IOS15 ?

En BtoC, plusieurs études montrent que l’usage de logiciel Apple pour lire les emails est très important. La dernière étude de Litmus de mai 2021 sur plusieurs milliards d’ouvertures dans le  monde, souligne que :

  • Apple Iphone plus Apple Mail représentent 60 % des clients utilisés (!)
  • Gmail 18.6 %  avec de nombreuses imprécisions sur ce chiffre (comme le souligne la légende du graphique)

Un étude de Litmus à prendre avec précaution car Gmail et Yahoo avec leur proxy image, masquent le contexte d’ouverture et  Litmus affiche une sur représentation d’Apple Mail et Iphone.

Enfin en échangeant avec quelques confrères membres de la DMA France, l’ouverture sur client email Apple représente entre 35 et 45 % du total des ouvertures en BtoC.
L’impact peut être conséquent si un taux important des utilisateurs choisissent le blocage !

Ces données sont à confirmer sur vos bases spécifiques, pour évaluer l’impact réèl.

Comment Apple présente-t-il le nouveau consentement ?

Sur Iphone, le consentement se présentera de la façon suivante  :

Consentement IOS 15

Quel % d’utilisateur vont cliquer sur ‘Don’t protection Mail activity’ ? 4 % si on le compare avec le consentement donné sur les terminaux Apple pour ne pas bloquer la publicité, (source developer-tech.com)  ! On aura donc 96 % (estimation) de (Protect Mail activity)

Sur Apple Mail, le bandeau serait le suivant :

blocage apple mail

Quelle réaction chez les autres FAI et Webmails ?

La situation est assez paradoxale, car pour des raisons de protection de la vie privée, cheval de bataille d’Apple, l’ouverture sera systématiquement faussée ce qui ne permettra plus de mesurer une certaine forme d’engagement.
Donc Apple privilégie la protection de la vie privée au détriment d’une certaine « qualité » des emails (envoyés aux cibles actives  déterminées par l’ouverture actuellement).

La conséquence pourrait être de recevoir bien plus de Spam sur les lecteurs d’email Apple que sur d’autres applications. 😉

D’autre part Yahoo, Gmail et les acteurs français (Orange, SFR ..) demandent toujours à adresser les destinataires engagés (souvent calculé sur l’ouverture).

On est donc, comme pour la disparition des cookies sur un équilibre entre vie privée et performance marketing.
Dans les deux cas, la récupération des données personnelles permet aux annonceurs de mieux cibler, gérer la fréquence de diffusion, mieux personnaliser …

La disparition de la mesure de l’ouverture comme celle du cookie est une tendance assez incontournable dans un monde ou le consentement sur le tracking digital de l’individu devient la norme.

Comme pour les cookies, les impacts sont conséquents pour l’email marketing

Les impacts probables de la forte baisse de fiabilité de l’ouverture.

Il pourraient être très nombreux et bousculeraient fortement à des pratiques bien ancrées dans notre métier d’email marketeur.

  • Les segments d’utilisateurs engagés base sur des critères d’ouverture (6 à 12 mois de réception d’email sans ouverture), vont petit à petit perdre de leur intérêt et leur volume pertinence diminuer fortement. Ils sont à la base de la gestion de nombreux processus pour optimiser la délivrabilité. L’ouverture ne sera plus le bon métrique d’engagement.
  • Les tests A/B sur les objets auront des difficultés pour comparer à des volumes fiables pour rentrer dans zone de confiance statistique suffisante permet de valider le test. On devra donc se baser sur le clic ce qui n’est pas forcément une mauvaise pratique,
  • Les taux de réactivité seront inutilisables (rapport cliqueurs/ouvreurs)
  • Les algorithmes d’optimisation du moment d’envoi pourront aussi rencontrer quelques difficultés de pertinence.
  • Les mesures de temps d’ouverture, de transfert d’emails et d’impression ne seront plus pertinentes
  • Suivant la technologie employée les images dynamiques ne pourront plus être dynamique et les comptes à rebours, images variables en fonction du stock de la météo … seront faussées ou bloqués (un problème pour les prestataires Movable Ink, Liveclicker et Reelevant)
  • Suivant la technologie employée,  la qualification du device et du contexte d’ouverture (smartphone, ordinateur, usage du Dark Mail,  …) sera (comme sur gmail) imprécise,
  • Les modèles publicitaires basés sur l’ouverture au CPM perdront beaucoup de précision
  • Dans le cadre de la durée légale de conservation des données (CF RGPD) , l’ouverture est parfois utilisée pour montrer l’activité d’une adresse et prolonger sa durée de conservation. Ce ne sera plus fiable et utilisable.
  • Le chauffage des IP, sera plus compliqué à monitorer sans ouverture,

Il faudra toutefois attendre la version finale d’IOS15 livrée par Apple pour bien mesurer les impacts, mais les premières réactions venant des USA où IOS15 est déjà bien implanté montrent bien de très fortes hausses des ouvertures sur tous les domaines.

Il faut donc se préparer à l’arrêt de toute exploitation de ‘l’ouverture que ce soit technique ou marketing.

Que faire pour se préparer à cette évolution ?

Dans ce contexte je vous propose les actions suivantes :

  • Cerner les volumes d’ouvreurs sur les messageries d’Apple pour évaluer l’enjeu de cette menace.
  • Identifier vos campagnes automatiques et segment CRM qui se basent sur l’ouverture et prévoyez de les changer,
  • Il me semble nécessaire de recueillir actuellement le maximum de données dans les bases CRM pour ensuite les travailler et alimenter les data scientistes :
    • Garder une trace des contextes d’ouverture actuels pour analyser la répartition sur les ouvertures avec les clients mail d’Apple. Cela vous permettra de bien cerner l’impact de ces utilisateurs et de segmenter les utilisateurs de messagerie Apple.
      • Si votre ESP n’offre pas cette possibilité, vous pouvez utiliser Litmus sur leur solution d’Email Analytics
      • Sinon la collecte des adresses emails d’ouvreurs connectés sur un matériel Apple (Iphone, Ipad et Mac) est déjà un bon indicateur,
  • Lancer vos dataminer vers une réflexion sur  d’autres scores d’engagement pour les non-ouvreurs Apple.
  • Identifier d’ores et déjà les autres métriques permettant de mesurer la performance des campagnes et
  • Challenger votre prestataire pour cerner comment il compte aborder le sujet et les développements prévus 😉

Techniquement il reste aussi une incertitude sur la possibilité d’identifier les ouvertures généralisées des clients Apple une fois IOS15 déployé.
Apple va bien sûr les masquer, mais il est fort possible que l’on puisse les identifier, étant donné leur volume. Cela permettra peut-être de segmenter la base des ouvreurs Apple des autres ouvreurs pour appliquer des analyses différenciées. A confirmer avec la version finale d’IOS

On se retrouve à la rentrée pour faire le point sur ce sujet brulant !

Quels outils et rapports pour suivre sa délivrabilité ?

La délivrabilité reste un souci constant pour bon nombre d’annonceurs et sa surveillance peut être chronophage (et la résolution des blocages délicate).

Dans ce contexte je vous propose de partager mes retours d’expérience diagnostic et de surveillance délivrabilité réalisés en BtoC et BtoB.
J’ai ainsi identifié 7 rapports principaux autour de la délivrabilité qui sont

  1. L’analyse des métriques emailing ventilé par domaine ou hébergeur (BtoB) : incontournable
  2. L’usage d’adresses témoins (seed liste) : bien utile, mais pas essentiel
  3. Le monitoring de sa réputation : intéressant principalement sur Gmail et Outlook, le reste est anecdotique
  4. La surveillance des black-listes :  c’est le travail du routeur, mais vous pouvez aussi le réaliser
  5. Le test des emails sur des filtres antispam :  intéressant, mais pas toujours pertinent
  6. La surveillance des paramètres techniques de ses domaines : utile, mais parfois complexe à suivre
  7. L’analyse en temps réel des logs SMTP de ses envois : très utiles si vos serveurs d’envoi d’email sont hébergés sur vos machines.

Je vous propose dans un premier temps mon analyse sur les 2 premiers rapports et je continuerai à détailler les autres dans un prochain article.

1.Analyse des métriques par nom de domaine.

C’est le rapport le plus important pour juger de la délivrabilité d’une campagne au-delà des métriques globaux d’un envoi (aboutis, ouverture, clics , plaintes, désabonnement). La ventilation par domaine va permettre d’identifier plus finement si un blocage existe même si la campagne est évaluée, au premier abord sans problème.

Exemple sur cet envoi d’un site Ecommerce de 64 141 contacts, le taux de délivrés est de 89%, ce qui assez proche des résultats des campagnes précédentes (entre 92% et 95%). À première vue rien d’anormal, une différence de 4% « pas très importante ».

Toutefois en ventilant par domaine les métriques de cette campagne, l’analyse est bien différente !

Délivrabilité détaillé

En effet les 4 209 contacts de chez Free n’ont pu être délivrés  et sont passés en Soft-Bounces (erreur temporaire). Ils représentent 6 % de la base qui n’a pu être délivré.
Sans cette ventilation par nom de domaine, le responsable de la campagne est quasi-aveugle sur l’analyse fine de sa délivrabilité.

Autre exemple avec cette campagne de fort volume où l’on obtient en général un taux d’ouverture proche de 15 %. La campagne affiche 8 % de taux d’ouverture (ce qui est faible par rapport aux performances habituelles de l’annonceur) et le détail par domaine permet de constater que les blocages sont concentrés sur les FAI et Webmails français.
C’est le signe que le filtre français antispam (Vadesecure) utilisé par ces 5 gestionnaires de boites françaises a filtré la campagne. Sans ce tableau l’analyse de la cause du filtrage est plus complexe.

Bien sûr l’analyse des autres métriques (clic, plaintes …) permet de détecter finement d’autres contextes de blocage.

Malheureusement,  j’ai pu constater que ce rapport n’est pas toujours disponible chez toutes les solutions de CRM et ESP (Email Service Provider).
Pour le réaliser, il y a plusieurs plusieurs solutions :

  • la construction de tableaux dynamiques croisés est parfois possible dans les solutions (Adobe par exemple) et permet de reproduire le rapport,
  • des API ( ou FTP) peuvent permettre de télécharger des données (dans un Datamart éventuellement) puis d’utiliser un outil type (Tableau ou Qlick) pour reproduire cette analyse.

Dans un contexte de choix de changement de CRM/ESP,  c’est un point à vérifier

Un contexte BtoB spécifique

Dans le contexte BtoB de grands comptes (c’est-à-dire nom de domaine dédié type socgen.fr, carrefour.com), les emails partent vers des hébergeurs de boite email professionnelle (Office365, Gandi, OVH … ).

Selon l’analyse de rafale.io, en France c’est OVH, Microsoft et Google qui hébergent le plus grand nombre de domaines et d’emails comme le montre cette statistique basée sur l’analyse de 2 millions d’adresses BtoB.

Le nom de l’hébergeur s’obtient facilement par l’analyse du MX au sein du DNS, opération qui peut se faire manuellement ou de façon plus automatique avec un développement adéquat si on veut traiter plusieurs milliers de domaines automatiquent (ce que nous faisons dans nos diagnostics délivrabilité).

Avec le site mxtoolbox.com,  il est possible d’obtenir, avec un peu d’expérience, le MX en saisissant directement l’adresse email.

délivrabilité BtoB

Ici, l’hébergeur est google (Gmail).

Ces services d’hébergement ont des politiques de gestion du filtrage antispam communes comme peut  l’avoir un webmail BtoC de type Yahoo, Outlook et regrouper les métriques emails par hébergeur est nécessaire.

Ce type de rapport peut ainsi être fabriqué et donner des indications intéressantes (cf exemple ci-dessous)

Rapport délivrabilité BtoB

On constate ici un blocage chez OVH.net (fort taux de bounce)  et des performances médiocres notamment chez Gandi.net


2.L’usage d’adresses témoins (seed liste)

Le principe des adresses témoins est simple.
Il s’agit de mélanger quelques adresses fournies par un prestataire sur les principaux domaines d’envois d’une base, puis de vérifier leur contexte d’aboutissement. La vérification est faite un par robot qui scrute régulièrement les boites témoins.
Le résultat d’une mesure sur une campagne ou sur plusieurs campagnes peut être affiché de différentes façons.
Ici en nombre d’adresse par statut  (réception, spam).

Ou en % en fonction du nombre d’adresses témoins envoyés (image à mettre)

Une mesure avec de fortes limites

Cette mesure possède quelques limites importantes :

  • les adresses témoins peuvent s’user, être considérées comme suspects par les FAI/webmails. Elles sont donc à gérer finement (renouvellement, simulation d’ouverture et de clic, …) sous menace de perdre leur intérêt
  • sur les domaines américains (Yahoo, Gmail et Microsoft) la mesure du comportement sur les webmails et applications mobiles impactent  fortement le contexte de livraison (inbox, spam) et des adresses inactives (comme les adresses témoins) peuvent être pénalisées

Ces adresses témoins servent à confirmer un problème détecté par d’autres rapports. Le passage en boite Spam d’une adresse témoin qui n’est pas confirmé par d’autres signaux forts ne constitue pas une alerte.

De précieux indices sur le contexte d’arrivée

Pour certains domaines (Gmail, Laposte, SFR, …) qui effectuent un filtrage sur une classification d’emails, il peut être intéressant de récupérer cette information grâce à l’adresse témoin et la suivre dans le temps.

Sur Gmail un passage de l’onglet ‘Promotion’ vers l’onglet ‘Mise à jour’ peut entrainer mécaniquement une baisse des taux d’ouverture et ce point est à surveiller.
L’écran suivant montre bien sur plusieurs envois la répartition entre les différents onglets de Gmail, mais aussi l’apparition sur un envoi du libellé ‘Important’ probablement lié au contenu de l’email (urgence, etc).

Une aide sur la mesure de la vitesse d’envoi

Les adresses témoins permettent aussi d’être alerté sur les temps d’arrivée trop longs. Les causes d’une livraison trop tardive sont multiples et peuvent provenir aussi d’un problème chez le FAI/Webmail que de votre routeur.

Exemple d’un rapport avec une diffusion lente du message : 8h04 entre la première adresse témoin et la dernière adresse témoin.

temps de diffusion délivrabilité
Cet article (Vitesse de routage des emailing, ce qu’il faut savoir) décrit bien ce principe de mesure et les différents indicateurs autour de la vitesse de  routage.

Pour en savoir plus sur votre délivrabilité, nous réalisons des diagnostics délivrabilité et aussi la possibilité de monitorer votre délivrabilité sur le long terme.

La suite de l’analyse des rapports sera présentée au prochain article de pignonsurmail.

Etude sur les parcours d’achat : quels sont les facteurs d’influence les plus forts ? Application sur emailing.

Suite à la manifestation HUBDAY DATA & AI FOR BUSINESS organisé par le Hub Institute et à mon premier article sur cette manifestation (Usage Data chez Picard)  , je vous propose une analyse sur l’intervention de Google sur le sujet des facteurs d’influence (ou biais neuronaux).
Google possède un département d’étude (destinée à ses clients) et publie régulièrement des extraits de celles-ci et des articles sur le site Thinkwithgoogle

Le contexte de l’étude

Baptiste TOUGERON a présenté une étude de 2020  (Decoding Decisions. Making sense of the messy middle -98 pages) sur l’impact des biais cognitifs sur le parcours d’achat.

Le terrain ayant été réalisé avant le Covid19, les analyses effectuées ne prennent pas en compte ce nouveau contexte sanitaire.

L’étude a créé un modèle mis à jour de prise de décision des consommateurs (le modèle Decoding Decisions) puis à comparé la force des différents biais cognitifs de ce modèle en les mettant en compétition avec la notoriété de la marque.

La démarche de l’étude associe une analyse de nombreux articles et études, l’observation de centaines d’heures de « shopping journeys » (parcours client)  et une grande quantité de tests sur des parcours d’achat sur 31 différentes activités économiques. Pour cela Google a réalisé 310 000 scénarios d’achat (avec 31 000 acheteurs).

L’étude a été réalisée par Google et « The behavioural architects (BA)  » et a été récompensée en janvier 2020 (par le très connu Market Research Society (MRS))  par le prix « New Consumer Insights Award et aussi par le prix de « la meilleure initiative de recherche ».

Le comportement de l’acheteur dans les différentes phases d’achat est complexe

L’étude tente de décoder » le messy middle (pouvant être traduit comme code/comportement inextricable), cet espace complexe entre le facteur déclencheur et l’achat, où vous pouvez gagner ou perdre des clients. »

Google souligne la différence d’approche entre la conception classique du tunnel de transformation dans un site ecommerçant ci-dessous

et la réalité qui est plus complexe et « messy »

 

L’étude souligne que dans cet espace complexe on identifie « deux modes mentaux différents :

  • l’exploration (une activité expansive)
  • et l’évaluation (une activité réductrice).

Toute action d’un utilisateur peut être classée dans l’un de ces deux modes mentaux » représentés par ce schéma final ou les prospects déploient ces 2 activités d’exploration et d’évaluation « répétant le cycle autant de fois que nécessaire pour prendre leur décision d’achat. » 

Les facteurs d’influence sur l’achat, un incontournable pour les sites ecommerçants

Ces biais cognitifs (facteurs d’influence)  existaient bien avant Internet et les simulations d’achat de l’étude montrent à quel point ils sont pertinents pour la prise de décision aujourd’hui et notamment dans le modèle présenté ci-dessus.

Les biais cognitifs sont d’ailleurs maintenant bien connus et documentés et largement exploités dans les sites ecommerçants.
Ils sont notamment à la base de nombreux prestataires travaillant à l’optimisation du ‘CRO‘ des sites Ecommerçants. Une référence des biais en ecommerce quasi exhaustive est d’ailleurs présentée par Convertize dans cet article récent).

Je les retrouve aussi dans quelques emailings et dans des contextes de tests A/B (cf. fin de l’article).

Quel facteur d’influence est le plus fort par rapport à la notoriété de la marque ?

L’originalité de l’étude a été de sélectionner 6 facteurs d’influence dans cette boucle et d’identifier les plus impactant. Ces 6 facteurs sont les suivants :

 

Ils sont expliqués ici en détail et je vous en propose une synthèse ci-dessous :

  • Pouvoir de la gratuité offrir un cadeau avec le produit acheté peut constituer un puissant facteur de motivation
  • Preuve sociale les recommandations et les avis des autres consommateurs peuvent s’avérer très persuasif
  • Biais d’autorité: influence d’un expert ou d’une source fiable
  • Pouvoir de l’instant: plus vous devez attendre longtemps un produit plus la proposition s’affaiblit
  • Heuristique catégorielle: ajouter une brève description des spécifications clés d’un produit peut simplifier la décision d’achat
  • Enfin biais de la rareté: plus le stock ou la disponibilité d’un produit sain s’amenuise, plus il devient désirable

L’étude s’est focalisée sur 3 objectifs  :

  • Quantifier et mesurer l’importance de la préférence de marque dans « le messy middle »
  • Quantifier et mesurer la force de ces préférences en les soumettant à des biais cognitifs dans la parcourt acheteur (autrement dit le pouvoir de la gratuité a-t-il un pouvoir d’influence plus important que le biais d’autorité ou que la rareté …?)
  • Analyser les résultats en fonction des différentes catégories produits et thématiques

Pour cela Google a réalisé 310 000 scénarios d’achat (avec 31 000 acheteurs dans le monde) dans les secteurs des services financiers, des biens de consommation courante, du retail, des voyages et des services collectifs.

Lors de ce test, les consommateurs devaient choisir leur première et leur deuxième marque favorites dans une catégorie, puis une série de biais était appliquée pour déterminer si les consommateurs changeaient l’ordre de préférence entre les deux marques.

La preuve sociale est gagnante …

Le résultat des tests sur la France et sur l’impact des différents biais cognitifs lors de la prise de décision est le suivant :

 

Forces des biais

L’étude se lit de la façon suivante : c’est la preuve sociale qui influence 22 % des achats lors des tests.

Le pouvoir de la marque et la preuve sociale sont au coude à coude sur la force de leur impact.

L’étude analyse en France l’influence de la marque sur 8 activités et on constate que celle-ci est variable suivant le schéma ci-dessous
(1000 achats effectués par catégorie sur des 18-65 ans)

force de l'influence de la marque

 

Quel facteur d’influence possède une marque inconnue avec de nombreux facteurs d’influence ?

Focus ensuite sur ce qui pouvait ‘contrer’ la puissance de la marque, en créant une marque inconnue (dans la cosmétique/shampoing appelé, LAVA) mais dotée de tous les facteurs d’influence possible (au nombre de 7!).

La marque LAVA créée de toute pièce, est-elle plus forte qu’une marque connue grâce aux facteurs d’influence ?
C’est la dernière  question de l’étude et du test final effectué …

Au final la marque LAVA créé va capter 46 % des décisions (dernière colonne).

Ces résultats sont bien sûr à prendre avec précaution, car ils sont issus de simulation de mise en situation.
Il est recommandé de se bâtir sa propre culture de test sur les facteurs d’influence qui peuvent varier suivant les activités économiques .

Trois conclusions pour les marques

Trois conclusions de l’étude ont été présentées pour les marques « fortes » et leur challenger

  • Assurer une présence de marque est indispensable quelque soit le facteur d’influence,
  • Appliquer les principes des sciences du comportement intelligemment et de façon responsable (évitez les mensonges qui peuvent fortement nuire),
  • Simplifier le parcourt des consommateurs dans la customer journey (une évidence …)

Quelle utilisation dans l’emailing ?

Ces facteurs d’influence sont bien sûr utilisés dans des emailing.

Exemple avec Sosh et un email de parrainage ou lors d’un test A/B un facteur d’influence (ici proche du biais d’autorité) a permis de multiplier par 2.5 le taux de clic.

Le premier email est classique avec une accroche sur le gain pour devenir parrain : 6 mois offert (2,5 % de taux de clic)

Le 2ème email qui fait référence à une étude  (87 % des clients seraient prêt à parrainer …) . Taux de clic 7 %

exemple email biais autorité

 

La présentation étant très riche, je vous recommande de l’écouter ici pour ne manquer aucun détail de cette étude.

Segmentation et recommandation avec Picard et Equancy au Hubday Data.

La manifestation HUBDAY DATA & AI FOR BUSINESS organisé par le Hub Institute cet avril, m’a permis d’assister à quelques interventions autour de l’utilisation des data et de l’intelligence artificielle dans des contextes de CRM.

J’ai été particulièrement intéressé par 2 interventions

  • Picard (surgelés) avec Equancy (cabinet de conseil ) sur 10 années d’exploitation de la donnée et des apports de celle-ci dans l’activité,
  • Google avec une comparaison des facteurs d’influence dans la prise de décision d’achat (que je présenterai dans le prochain article).

Picard : 10 ans d’un long chemin d’usage de la data.

 

Picard est une marque bien connue avec 12 millions de clients, 1036 magasins en France, 1 400 produits et 1 moelleux au chocolat vendu toutes les 4 secondes (!)

En 30 minutes  les 2 intervenants Sylvain Luce de Picard responsable du pôle DATA & Connaissance Client  et Didier Richeaudeau d’Equancy ont présenté successivement leurs travaux de segmentation, personnalisation et enfin leur moteur de recommandation ad hoc avec un niveau de détail rarement rendu public.

C’est le résultat de plus de 10 ans de travail autour de la data alimentée d’abord par les données des tickets de caisse puis de la carte de fidélité avec bien sûr différents niveaux progressifs d’analyse, de tests et d’accompagnement comme le montre le slide ci-dessous.

 

Une segmentation sur la valeur client puis du produit

La segmentation (présentée ici) basée sur la valeur client a d’abord été lancée puis dans un second temps une segmentation sur les produits (1200 références) est venue enrichir la démarche. Le croisement des deux approches a permis de dresser 6 profils suffisamment précis pour ensuite lancer un travail de personnalisation sur les emails notamment.

 

L’impact sur les emails est important : ceux-ci sont systématiquement personnalisés avec en test A/B, un gain de performance sur le taux de conversion (sur achat) bien supérieur à 50 %

Exemple d’un email Picard

Plusieurs axes d’utilisation de cette segmentation ont été réalisés :

  • Aligner les différents segments clients avec les thèmes d’animation commerciaux spécifiques
  • identifier les produits stars par segment.

Sur ce dernier point, les haricots verts congelés (best-seller des ventes avec 16 tonnes vendu par jour!) sont particulièrement consommés par le segment ‘Famille fidèle ‘  qui représente 16 % des clients, mais 70 % des ventes de haricots verts. A découvrir ici

Un score prédictif pour optimiser la communication sur les nouveaux clients

Une des difficultés de la segmentation est d’associer rapidement le client au bon segment cible dès le premier achat.
C’est dans ce contexte qu’un score prédictif a été calculé (utilisant random forest) en 2018, grâce à un travail itératif (3 mois de projet ) et bien sûr une forte proximité entre les développeurs  et le métier, ingrédient  incontournable pour la réussite du projet. Le témoignage ne détaille pas si l’usage de données complémentaires a été nécessaire pour rendre le score plus fiable (c’est souvent le cas)

Au final, l’algorithme développé permet de prédire dès le premier achat, le segment type auquel le client va être associé (avec une fiabilité suffisante, mais non évoquée lors de la présentation).

 

Enfin un moteur de recommandation

Enfin la présentation détaille la réalisation d’un moteur de recommandation produit avec 2 objectifs « classiques »  :

    • pour chaque client mettre en avant les produits pertinents,
    • mais aussi à partir d’un produit donné, trouver les clients les plus appétant

Le moteur est basé sur un produit open source utilisant le « collaborative filtering », complété par un travail d’intégration des spécificités de l’activité de Picard (saisonnalité, produit booster, intégration du fond de catalogue produit pour une meilleure valorisation).
Ici encore, les gains de conversion obtenus sont importants :  +22% sur un test A/B comme le montre cet exemple ci-dessous (où le poisson est d’ailleurs assez présent)

 

Enfin dernier projet d’IA (en cours de développement) pour améliorer la qualité des données saisies dans le référentiel produit, automatiser/assister la création du contenu produit et en fin de compte améliorer le moteur de recommandations (notamment en l’absence d’achat du visiteur du site). Un besoin récurrent chez de nombreux commerçants où la saisie des fiches produits est un enjeu qualitatif et de rapidité de production

A regarder sans hésitation sur ce lien (sur une durée de 37 minutes).

Yahoo/AOL propose la livraison optimisée des emails sur sa messagerie. Une révolution ?

La livraison optimisée des emails pour que ceux-ci arrivent « au bon moment » dans la boite aux lettres du destinataire reste un besoin récurrent. Depuis longtemps, de nombreuses solutions ont été élaborées pour identifier ce meilleur moment de contact. On peut notamment citer :

  • l’interprétation d’étude de routeurs/prestataires ou panels d’internautes pour identifier les meilleures périodes d’envoi (voir étude 2017 Sendinblue),
  • la réalisation de tests A/B/C pour cerner le meilleur jour et la meilleure heure d’envoi,
  • la prédiction du meilleur jour et de la meilleure heure d’envoi par une analyse statistique de l’historique de comportement des ouvreurs (CF Sarbacane, Sendinblue et ReturnPath avec Audience Point en 2014…).
  • La détection de la navigation, de la consultation de la messagerie d’un internaute pour déclencher un envoi en temps réel à ce moment d’engagement (cf Live Data, Notify)

Dans l’esprit de cette dernière méthode, ReturnPath a conclu en 2020  un partenariat commercial avec Verizon (Aol et surtout Yahoo) pour délivrer les emails d’un annonceur lors de la consultation de ceux-ci.  En test au USA début 2020, la fonction est maintenant déployée dans le monde entier.
Le service se nomme VTO (View Time Optimization)
La prestation (payante) fait probablement écho à l’annonce de Verizon en février 2020 sur son blog (Announcing New Engagement Feeds) qui promettait de mettre à disposition des « bons annonceurs/trusted senders » de nombreuses données très détaillées et fiables sur les comportements des cibles des campagnes.

Lors d’un échange avec Verity, j’ai pu obtenir plus de détails sur la prestation et je vous propose partager mes analyses et réflexions sur VTO.

  • VTO est-il ouvert à tous les annonceurs ?
  • Quel est le coût de VTO ?
  • Comment se déroule une campagne qui utilise le VTO ?
  • VTO fonctionne-t-il avec toutes les interfaces de lecture des emails Yahoo et AOL ?
  • Le filtrage anti-spam de Verizon est-il court-circuitée ?
  • Que se passe-t-il s’il y a un recouvrement entre différents annonceurs …?
  • Quels sont les résultats annoncés par Verity/Verizon de VTO ?
  • Analyses et avis sur VTO
  • Autres articles sur le sujet

VTO est-il ouvert à tous les annonceurs ?

Pour l’instant seuls les utilisateurs de la plateforme de ReturnPath (certifié ou non) pourront y  avoir accès
A noter que le coût annuel d’usage d’une telle  plateforme démarre aux alentours de 16 à 18 K€ par an

Quel est le coût de VTO ?

Il est de 10 K€ pour 1 million d’emails délivrés en boîte grâce à VTO, soit un coût de 10 € le CPM.

Une offre de lancement avec remise est prévue pour permettre de tester VTO .

Comment se déroule une campagne qui utilise le VTO ?

Il faut déclarer sa campagne (objet, sender, … ) dans les outils de ReturnPath ou 250Ok. (CF copie d’écran ci-dessous)

vto

4 méthodes classiques sont proposées pour que la campagne soit reconnue par Verizon :

Une fois la campagne envoyée et détectée, Verizon stocke les messages dans une pile qui sera dépilée en fonction des activités des destinataires des envois.

La campagne est limitée dans le temps et idéalement Verizon recommande une durée de 48 à 72 heures
Verizon précise que : « En moyenne, 95% des utilisateurs de Verizon Media consultent leur messagerie toutes les 48 heures. »
La durée maximale de la campagne est de 30 jours. »

Le système permet le traitement des messages non délivrés à la fin de la campagne suivant 2 choix:

  • à la fin de la campagne le message est envoyé même si l’utilisateur n’a pas lu sa messagerie,
  • les messages ne sont pas envoyés.

Les messages non délivrés (si l’internaute n’a pas consulté sa messagerie) ne sont pas facturés.
Aucun dispositif technique supplémentaire n’est requis avec VTO, dans le contexte la solution est simple et assez élégante.

VTO fonctionne-t-il avec toutes les interfaces de lecture des emails Yahoo et AOL ?

Si on utilise les webmails et les applications IOS et Android fourni par Yahoo/AOL, cela fonctionne précise Verity et Apple Mail est compatible avec ce dispositif. Pour des clients comme le logiciel Thunderbird ou Outlook, ce n’est pas précisé.
Le fonctionnement dépend de la façon dont Verizon détecte techniquement la consultation de sa messagerie, mais aucune information n’a été donné sur ce point.

Le filtrage anti-spam de Verizon est-il court-circuitée ?

Il reste actif et donc les emails peuvent être filtrés.

Que se passe-t-il s’il y a un recouvrement entre différents annonceurs pour délivrer plusieurs emails chez un même destinataire ?

Verizon le précise ici.

« L’utilisateur des interfaces  de Verizon Media (Yahoo, Aol) est inscrit en moyenne à 96 newsletters de marchands différents. Le chevauchement de ces marchands d’un abonné à un autre abonné est moindre que prévu, ce qui minimise les conflits de placement. De plus, de nombreux abonnés visitent leur boîte aux lettres plusieurs fois par jour, il existe donc de nombreuses possibilités de placer l’e-mail d’un expéditeur dans l’une des premières places de la liste de messages de l’abonné. »

Quels sont les résultats annoncés par Verity/Verizon de VTO ?

Lors de mon échange avec Verity, des tests effectués par des marques (notamment Netflix) aux USA ont été évoqués. Ils montrent :

  • Un taux d’ouverture « 4 fois supérieur à la norme » !!
  • Un taux de clic « 2 fois plus important »

La vidéo de présentation de Verity, souligne qu’un email en tête de liste est 2 fois plus lu, ce qui me paraît probable.

Verity VTO

Est-ce rentable ?

Prenons une campagne de vente en ligne « textile » de 100 000 @ sur Yahoo sans VTO.

  • le taux d’ouverture moyen d’un email sur Yahoo est de 15 % (avec 100 % d’abouti) et le taux de clic de 1%,
  • le panier moyen est de 80 € et le taux de transformation commande sur clic est 3 %,
  • le CA généré par Yahoo sur cette campagne est de 2 400 €

Avec VTO, je payerai 1 000 € pour l’optimisation sur Yahoo (100 000 @ * 10 € le CPM).

Si avec VTO,  je double mon taux d’ouverture et mon taux de clic,  j’estime doubler mon CA à 4 800 € et l’opération reste gagnante (de 1 400 €).
Dans ce calcul, je n’ai pas pris en compte l’abonnement annuel à la plate-forme de Validity/Returnpath

Tout cela reste à vérifier sur des cas concrets, mais sur des activités de vente en ligne avec des paniers assez élevés, VTO devrait être rentable, notamment dans les périodes où la boite aux lettres est très encombrée (Noel, Black Friday, lancement des soldes, etc  …) et VTO permet de passer ‘devant’ les autres messages.

Analyses et avis sur VTO

Une belle initiative d’un gestionnaire de boite aux lettres qui permet de mieux rentabiliser leur messagerie en ligne qui reste (malgré la publicité) un centre de coût important et surement déficitaire.
Pour Verizon, la sélection d’annonceurs ayant de bonnes pratiques et donc éligible à VTO  reste un point sensible du système, mais ReturnPath/Validity sait bien gérer ce type de contrainte
Sur les taux annoncés par Verity, attendons des résultats de tests en France.
Toutefois quand on identifie des taux d’ouverture en progression de 20 à 30 % sur les solutions actuelles d’envoi en temps réel (type Live data et Notify), on devrait pouvoir raisonnablement doubler son taux d’ouverture avec le fonctionnement de VTO.

Autres articles sur ce sujet :

VTO  a été lancé en avril par Verizon et quelques articles font référence à cette technologie et l’analyse.

En mai cet article  de SendGrid/twilio propose VTO à ses clients directement sans passer par ReturnPath. Sa recommandation est d’utiliser VTO pour réactiver sa base d’inactifs (!) , ce qui semble éloigné des contraintes de Verizon

Mailgun a aussi été bêta-testeur de VTO en direct avec Verizon comme le souligne cet article de Mediapost.com

Une autre analyse en avril de Pankaj Kumar (un consultant CRM) sur le lancement de VTO aux USA.

 

 

Pourquoi les fonds d’investissement s’intéressent-ils encore à l’emailing ?

Ces dernières semaines, je constate une activité forte des fonds d’investissement sur les dossiers dans l’emailing (ESP Email Service Provider et CRM ). Ce n’est pas une surprise car ce marché est toujours dynamique, malgré son grand âge pour Internet (le premier email a été envoyé il y a presque 50 ans).

Je partage avec vous quelques analyses sur ce secteur, qui associent consolidations et rachats, mais aussi nouveaux entrants …:

  • Mailchimp et les valorisations des ESP sont impressionnantes
  • Une activité toujours ouverte aux nouveaux challengers
  • L’email reste incontournable dans le paysage digital mondial (en dehors de la Chine)
  • Pour les annonceurs, l’email c’est indispensable !
  • Router des emails est rentable.
  • L’emailing sous pression de la délivrabilité
  • Les ESP obligés de grossir et d’étendre leur périmètre fonctionnel
  • Enfin quelle posture les GAFA ont-ils par rapport à l’emailing ?

 

Le développement de Mailchimp et les valorisations des ESP sont impressionnantes !

Mailchimp a été créée en 2001, génère en 2019 environ 700 millions $ de CA, pour 12 millions de clients et 1 milliard d’emails routés par jour (source interne).
Aucune levée de fond n’a été réalisée par les fondateurs qui sont donc pleinement propriétaires de l’outil.
Avec plus de 57 % de ses clients hors USA, c’est la référence de l’emailing d’un point de vue économique (mais pas forcement fonctionnel).
Elle annonce détenir 60.51 % du marché de l’emailing et son plus proche compétiteur détiendrait seulement 9.52 % .
Des données impossibles fournies par Mailchimp en 2019, impossibles à vérifier, mais qui valorisent le marché mondial des ESP (Email Service Provider ou routeur d’email) à 1.1 milliard $.

Enfin les dernières transactions sur le marché du CRM/emailing ou ‘’Marketing and sales automation tools’’ sont plutôt intéressantes :

  • Sendgrid (45 milliards d’emails routés par mois pour 74 000 clients) racheté par Twilio pour 2 milliards $ en octobre 2018.
    Lors de son introduction en bourse, SendGrid avait levé environ 130 millions $ et son action entre 2017 et 2020 avait presque doublé.
    Son prospectus d’introduction en bourse est toujours intéressant pour comprendre la rentabilité d’une activité d’ESP et les risques de celle-ci.
  • Active Campaign (90 M$ de CA pour 90 000 clients dans 161 pays) le 28 janvier 2020 a levé 100 Millions $ sur une belle série B. cf ref ,
  • Mailjet (12,6 millions € de CA, perte de 1,7 million en 2019) racheté par Mailgun (octobre 2019) : montant non divulgué, mais comme le souligne le journal Lesechos : « c’est une opération dont les investisseurs sont satisfaits à cette étape de la vie de la société ».
    Mailjet avait beaucoup souffert d’un modèle initial basé uniquement sur l’email transactionnel et avait dû évoluer brutalement vers l’email marketing pour éviter de graves problèmes financiers. Evolution réussie !
  • Actito qui a racheté Smartfocus en 2019 avec sa base de client européenne, sa technologie.
  • Dolist qui a racheté Emailstratégie en 2019
  • Et récemment Sarbacanne qui a acquis (avril 2020) la start-up Datananas

Dans ce contexte très attrayant pour les fonds d’investissement, on peut aussi noter les tendances soulevées par la dernière étude de Forrester (Forrester Wave 2020).

Une activité toujours ouverte aux nouveaux challengers

L’étude de Forrester (The Forrester Wave™: Email Marketing Service Providers) de 2020 souligne notamment l’arrivée de nouveaux challengers qui sont souvent partis d’une feuille blanche (technologique et fonctionnelle) vers les années 2015 pour réinventer la gestion de campagnes. A la lecture de l’étude, il ressort les aspects suivants :

  • Intégration forte et native de l’IA
  • Modèle de données Big Data (NoSQL, Mongo DB) … ) pour intégrer les volumes de données toujours plus importants
  • Interface simple et intuitive
  • Intégration native des contraintes mobiles et des dernières technologies HTML (AMP …).
  • Spécialisation dans un secteur d’activité (retail, la presse …)

On trouvera dans l’étude Forrester quelques exemples intéressants comme Bluecore, Exponea, Cordial.

L’email reste incontournable dans le paysage digital mondial (en dehors de la Chine)
L’email constitue un canal majeur de contact pour tout terrien connecté à Internet. Il est profondément ancré dans les habitudes de travail, d’achat et de communication des Internautes. Bien sûr il n’est plus le seul et se trouve concurrencé (ou complémentaire) d’autres canaux adressés (notification, push web, SMS, ..) et des réseaux sociaux pour la communication.

Plusieurs études sur la Customer Journey montrent sa présence incontournable et essentielle dans le parcours d’achat.
Concrètement l’email et son cousin le SEO impactent faiblement le budget marketing mais sont dans les 4 premières touches digitales du parcourt client (malgré la montée en puissance du mobile).
L’étude de 2019 d’Ysance et Darwin sur le parcours client digital en retail souligne cette tendance.

L’emailing représente 0,43 % du budget, mais 18 % de présence dans la customer journey…

 

 

Pour les annonceurs, l’email c’est indispensable !
Pour les annonceurs, ses avantages sont nombreux :

  • Son coût d’usage est très faible
  • le coût au contact et la transformation (lead, clic) sont parmi les plus bas des canaux digitaux.,
  • il est totalement indépendant des GAFA (on ne paye pas Gmail ou Microsoft pour arriver en boite de réception),
  • les data gérées et obtenues par les campagnes appartiennent à l’annonceur ce qui est plutôt rare dans le contexte digital moderne,
  • enfin sous contrainte de délivrabilité, il oblige les annonceurs à développer des pratiques plus respectueuses des internautes…

L’étude d’Adobe « Tendances digitales 2019 » qui recueille les avis de 12 915 professionnels du digital souligne l’enjeu pour l’entreprise  de la gestion des données individuelles dans le marketing. Or l’emailing reste le canal individuel de contact individuel incontournable dont les données sont stockées dans l’entreprise

e,keu des données individuelles

Router des emails est rentable.

Le coût « technique » d’envoi d’un email est extrêmement faible et c’est l’activité la plus rentable pour un ESP. Une fois la plateforme des MTA installés, sécurisés et correctement alimentés, le coût de routage, n’est pas proportionnel au volume routé (à quelques contraintes près). Autrement dit router 100 millions d’emails ne coûte pas 100 fois plus que router 1 million.
Dans ce contexte le routage d’email est économiquement très rentable. Par contre, le coût de routage est en baisse d’année en année. Sur des forts volumes, le CPM (coût au 1000 emails) est proche de 0,3 € voir moins.
Donc les revenus liés au routage chez les ESP baissent régulièrement d’autant plus que les volumes, à client constant, diminuent également. La raison réside principalement dans la contrainte de plus en plus forte de la délivrabilité (ou déliverability en anglais) qui est prégnante.

L’emailing sous pression de la délivrabilité
La statistique que le SNCD (Data Marketing Industrie) réalise depuis 15 ans sur l’emailing, montre bien l’évolution du contexte. Chaque année le SNCD demande à ses membres qui routent avec leur propre technologie, le volume d’email routé en France. Celui-ci est ramené aux nombres de jours et au nombre d’internautes de + 16 ans (chiffres médiamétrie).

chiffre emailing SNCD

À partir de ces chiffres, on comprend mieux l’évolution de l’emailing / Email Marketing

  •  le nombre d’internautes augmente et les volumes routés par les ESP du SNCD ont tendance à diminuer depuis 2013. La raison réside dans les règles mises en place par les Webmail et FAI pour délivrer un email ‘apprécié/voulu’ par l’internaute.
    Dans ce contexte, les ESP ont tout d’abord exclu les clients dont les pratiques de prospection et fidélisation étaient irrespectueuses de l’internaute. Puis ils ont mis en place un accompagnement pour aider les annonceurs à mieux délivrer leurs emails et utiliser les bonnes pratiques de segmentation/ciblage, personnalisation et de rythme pertinent de campagne.
    • Toutes ces mesures ont un coût pour les ESP mais aussi pour les annonceurs qui voit leurs volumes routés souvent décroitre régulièrement (gestion essentielle des inactifs), mais leur ECPM globalement augmente, s’ils travaillent mieux leurs campagnes d’emailing.

Les ESP obligés de grossir et d’entendre leur périmètre fonctionnel

Dans un contexte hautement concurrentiel, les ESP sont amenées à se regrouper et à étendre leur couverture fonctionnelle.

  • Schématiquement, pour des besoins en emailing simple (newsletter …) les utilisateurs demandent de la simplicité, de l’autonomie et de la rapidité pour créer l’email et l’envoyer.
  • Pour des besoins plus évolués, la capacité a gérer des données diverses issues de nombreux canaux et d’adresser correctement ces canaux est devenue indispensable.
    Dans ce contexte, ce ne sont pas toujours les acteurs ayant la force commerciale et marketing, comme SalesForce qui sont de loin les plus agiles et performants

Face à une concurrence forte, au routage emailing à faible valeur ajoutée qui est devenu une commodité, avec des accès API peu cher et facile à mettre en place, les ESP de la première génération,cherchent à acquérir une taille plus importante, intègrent de nouveaux services ou fonctions pour maintenir ou éventuellement augmenter leur activité.
Parmi les axes d’évolution, j’ai identifié les suivants (présentés sans classement spécifique):

  • Etendre les fonctions de la base de données pour intégrer les données de navigation et de rapprocher du modèle CDP ou RCU,
  • Intégrer des services et prestations d’accompagnement sur le marketing des clients,
  • Intégrer un studio (création email, gestion de campagnes déportées),
  • Développer fortement le marketing automation (scénarisation des campagnes, …),
  • S’intégrer dans un l’écosystème des ecommerçants,
  • S’interfacer avec des outils de Data Visualisation
  • Développer une large gamme d’API (ou un relai SMTP) pour s’intégrer dans des systèmes d’information marketing externes,
  • S’interconnecter aux réseaux sociaux (Custom audience, publication …)
  • Se spécialiser sur une thématique : presse, retail, ecommerce, agences, tourisme…
  • S’ouvrir aux canaux complémentaires (SMS, notification, mailing, push web …)

Tous les ESP n’ont pas suivi la même évolution, mais tous ont du évoluer.

Enfin quel positionnement les GAFA ont-ils par rapport à l’emailing ?
Amazon propose sur ses serveurs AWS la possibilité d’envoyer à très faible coût (avec quelques contraintes de taux de bounce) des emails.
Largement utilisé comme solution intégrale ou de dépannage par de nombreux ESP , Amazon est un des plus gros routeurs mondiaux d’email, juste derrière Microsoft. Comme le montre la statistique du service de Cisco d’avril 2020 (talosintelligence.com) sur ce lien qui donne le classement suivant :

Volume emails routés au niveau monde

Facebook après un échec cuisant de l’emailing en 2014, revient avec une nouvelle fonctionnalité qui permet d’envoyer des emails, importés par l’utilisateur, à partir de sa page FB entreprise.  Plus de détails sur ce post de Twitter

Si vous souhaitez être accompagné dans l’optimisation de votre stratégie d’éditeur de solution CRM ou lors d’un investissement, je peux vous accompagner ici