ECRIT PAR | Christophe Cousin

Avis d’expert : Le Big Data Marketing vu par Camp de Bases – publication Marketing-professionnel.fr

Article paru sur le site « Marketing-professionnel.fr »

Le big data est incontournable. Quels en sont les enjeux ? Comment l’utiliser au mieux en marketing ? Quel sera son avenir et son impact sur nos métiers ? Réponses en exclusivité par Christophe Cousin, fondateur et dirigeant de Camp de Bases.

Marketing-professionnel.fr : Quel exemple donneriez-vous pour illustrer l’importance du Big Data ?
Christophe Cousin : Le Big Data Marketing vu par nos experts
Pour faire simple, je sépare les Big Data en 5 familles :
1 – Les data qui permettent de mieux comprendre des évolutions de fond, de nouveaux comportements. Ce sont des données non structurées (photos, blogs, commentaires, articles…) dont l’analyse nécessite l’intervention d’experts, d’importants moyens de calculs et de méthodologies encore très pointues. Ces données permettent de produire des cahiers de tendances comme celle d’IBM concernant le « steampunk ».
2 – Les data permettant de mieux comprendre la perception et les comportements passés et à venir des consommateurs vis-à-vis d’une marque ou d’une enseigne. Il s’agit ici de l’analyse des tweets, des évènements, des recommandations, des avis mais aussi de données exogènes (comme la météo)… Leur étude permet de mesurer l’e-réputation, d’ identifier des buzz, et d’ anticiper des évolutions d’image ou de chiffre d’affaires.
3 – Les data permettant d’améliorer votre quotidien via des objets connectés: géolocalisation, disponibilité, stock… Les scénarios sont en devenir : votre voiture vous indique les embouteillages et le nombre de places disponibles dans les parkings autour de vous. Votre montre adapte l’heure du réveil en fonction de votre emploi du temps et de la circulation… Vos lunettes vous aident à vous diriger dans un centre commercial ou un terminal d’aéroport… Dans cette famille de data, ce sont vos objets qui sont identifiés et qui produisent et restituent des données.
4 – les data permettant d’améliorer l’ expérience client on line (PC, tablette, mobile…). Grâce aux cookies et autres méthodes, les consommateurs sont identifiés, parfois clusterisés mais ne sont pas nommés. Impossible donc de disposer de leurs nom et prénom mais cela n’empêche pas le retargetting, la personnalisation des contenus et des bannières. C’est aujourd’hui un usage de plus en plus maitrisé avec un ROI facile à calculer.
5- Enfin les data spécifiquement orientées pour du marketing relationnel et les relations personnalisées. Les données sont donc rattachées à l’individu (ou à son adresse physique).
Bien entendu, cette dernière catégorie concerne moins de données en volume et ces dernières sont souvent structurées.
Ces données sont les plus faciles à exploiter pour personnaliser et optimiser la relation client par email, courrier, téléphone, en point de vente…

MP : Quels sont les enjeux de la maîtrise des données structurées et non structurées ?
CC : Le fait de traiter des données non structurées change (presque) tout : la méthode de travail, les outils, les expertises nécessaires. Mais surtout, cela nécessite de changer la façon de penser. Il s’agit le plus souvent de fouiller les données sans savoir ce que l’on cherche en espérant trouver quelque chose d’utile. Cette manière de procéder est très loin des méthodes actuelles. Je pense que ce type d’approche sera réalisée plutôt par des prestataires spécialisés et que très peu d’entreprises vont intégrer ces nouvelles compétences en interne.
L’enjeu donc est de constituer le corpus de données à analyser et trouver le bon prestataire qui interviendra avec un périmètre de recherche défini.
Pour la plus grande majorité des entreprises ces problématiques ne seront pas d’actualité avant quelques années.

>>> Camp de Bases interviewé sur Marketing Professionnel (dossier spécial Big Data)

ECRIT PAR | Christophe Cousin

Comprendre et exploiter les « (Big) Data Marketing » dès aujourd’hui…


Christophe Cousin
, Fondateur de Camp de Bases.

Pour faire simple, je sépare les « Big Data Marketing » en 4 usages :
Les données qui permettent de mieux comprendre des tendances de fond comme de nouveaux comportements. Elles nécessitent l’intervention d’experts, d’importants moyens de calculs et de méthodologies encore très pointues.
A titre d’exemple, c’est dans cette catégorie que je place IBM et son étude sur les tendances à venir .
Pour les marketeurs, les synthèses issues de ces données seront fournies par des acteurs spécialisés, de façon générique.
Photo Christophe

Les données permettant de mieux comprendre les comportements passés et à venir des consommateurs d’une marque ou d’une enseigne. Il s’agit là de l’analyse des tweets, des évènements, des blogs, des photos, des reviews, des associations sémantiques. Cet usage est parfois encore un peu flou en terme de ROI à court terme mais devrait impacter fortement les études quanti.

Les données permettant d’améliorer l’expérience client : géolocalisation, objet connecté, parcours client on et off line, personnalisation des bannières, des contenus… Les consommateurs sont ici identifiés, parfois clusterisés mais pas nommés. Impossible donc de disposer de leurs nom et prénom ! C’est le cas lorsque l’écran connecté de votre voiture vous indique le nombre de places disponibles dans les parkings autour de vous.

– Enfin le dernier usage est plus spécifiquement orienté sur le marketing relationnel et les relations personnalisées. Les données sont donc rattachées à l’individu ou à son adresse physique.
Bien entendu, cette dernière catégorie concerne moins de données en volume et ces dernières sont souvent structurées.
Il faut unifier ces données dans une base unique pour regrouper :

  • Des données socio démographique : nom, prénom, date de naissance,
  • Des points de contacts : adresses postales, emails, numéro de téléphone…,
  • Des consentements juridiques : les fameux opt’in et désabonnement,
  • Des comportements tracés : visites de site web, abandon de panier, activité sur des réseaux sociaux…,
  • Des enrichissements géographiques : par exemple en fonction de l’adresse du foyer,
  • Des achats : (ex : tickets de caisse) aussi bien ON que OFF,
  • Des appartenances : à un programme de fidélité, à un groupe,
  • Des données de réactions : suite à une sollicitation promotionnelle,
  • L’historique de la relation avec une marque et cela dans les deux sens: appel au service client, envoi de coupons…,
  • …/…

De nombreuses sources sont donc à prendre en compte, et une base marketing est rapidement alimentée par 10, 20 voire plus de 50 sources différentes.

L’arrivée de ces « Big Data Marketing » nécessite de mener 5 réflexions transverses pour l’entreprise :

Préciser et hiérarchiser les objectifs attendus pour les Big Data Marketing. Cela permettra, en particulier de définir la nature des informations nécessaires pour éviter de complexifier, sans raison, un projet qui l’est déjà !

Mettre en place des « Quick Wins » pour apprendre à gérer et exploiter ces données au fur et à mesure de leur disponibilité. Par exemple : identifier l’appétence aux canaux digitaux ou aux réseaux sociaux pour adapter les campagnes relationnelles.

Mettre en place une équipe transversale. Ce point me semble primordial car les Big Data doivent être travaillées par des équipes techniques et métier,

Préparer l’arrivée de plus en plus de Big Data d’un point de vue organisationnel. De plus en plus de data nécessite que vos fondamentaux techniques et organisationnels soient prêts à accueillir cette « infobésité ». Si votre architecture technique est vacillante et vos ressources humaines déjà dépassées, les Big Data vont encore dégrader la situation.

Réfléchir, sur le fond, au type de relation qui sera déployé et jusqu’où chaque marque voudra aller dans l’intrusion dans la vie privée de ses clients (cf mon article « Pour un usage raisonné des (Big) Data marketing « )

Tout cela fait nécessite déjà un beau programme de travail et des réflexions sur un panorama très vaste. Et c’est peut-être l’autre révolution des Big Data : obliger les entreprises à réfléchir de façon très globale et nous savons tous que c’est très compliqué !

ECRIT PAR | Christophe Cousin

Avis d’expert : Pour un usage raisonné des (Big) Data marketing – publication Emarketing.fr

L’émergence des données issues du web, et un de ses corollaires, les big data, entrainent un changement majeur dans la gestion des données personnelles utilisées pour le marketing relationnel.
En quelques années, les bases se sont vidées des données déclaratives (les réponses données par les consommateurs eux-mêmes) pour se remplir de données comportementales, collectées automatiquement et souvent à l’insu des intéressés. Ces clics, visites… sont ensuite traduits en intentions d’achat, probabilité de churn, score d’appétence… pour personnaliser des sites, emails, SMS, courriers…

La fin du contrôle…
Ces données sont le reflet de comportements d’achats devenus très complexes : nous sommes passés de la visite en magasin suite à la lecture d’un imprimé publicitaire à des scénarios crosscanal générant un volume de données proportionnel à un grand nombre d’interactions.
Ces données, en volume, changeantes, parfois non structurées, sont devenues très difficiles à maîtriser pour le consommateur :
Par exemple, il était simple de déclarer (ou pas !) une intention d’achat d’une cuisinière sur un questionnaire papier. Aujourd’hui cette information est le fruit de multiples analyses en particulier en fonction de sa navigation web.
Autre exemple: autant il est facile de se désabonner du « marketing direct » ou d’une base d’emails honnêtement gérée, autant éviter des bannières retargetées suite à un abandon de panier est quasiment impossible pour la majorité des internautes.
En quelques années, le consommateur a perdu le contrôle de ses données personnelles et plus encore des usages qui en sont fait.

… et le début d’un mouvement de fond.
Cette évolution n’est pas sans impact pour les consommateurs et de nombreux « signaux faibles » montrent l’évolution des mentalités sur la data :
Ainsi, selon une étude de LoyaltyOne, seulement 42 % des consommateurs américains et canadiens font confiance aux entreprises dans l’utilisation de leurs données personnelles,
Le succès de Tumblr est souvent associé à l’utilisation de pseudos qui en permettent une utilisation anonyme, là où un Facebook s’immisce chaque jour un peu plus dans la vie privée de ses utilisateurs,
De nouvelles sociétés (ex : Abine) promettent de supprimer vos données personnelles ou de limiter vos traces sur le web,
A l’autre bout de la chaîne, des sites comme Yes Profile, tentent de redonner la main aux internautes sur la monétisation de leurs données personnelles.
Alors que certains grands acteurs américains (Google et Facebook en tête) essaient de nous faire croire que la vie privée n’existe plus en ligne et que la génération Y semble, pour l’instant, consentante à partager ses informations parfois les plus intimes, le regain pour la « vie privée digitale » pourrait amener les consommateurs à donner moins d’informations et à être beaucoup plus regardant sur ce qu’en feront les annonceurs.

Des choix à venir pour les professionnels
La big data est à peine née que les professionnels du datamanagement sont déjà à l’orée de choix stratégiques pour leur métier, comme le fut celui de l’opt’in/opt out en son temps. D’un côté, un usage à tout crin de la data comme un or noir dont il faut exploiter au plus vite la puissance. D’un autre, et c’est ma position, un usage plus durable, qui pourrait commencer par :
– Faire preuve de bon sens et éviter les collectes et exploitations que nous trouvons intrusives à titre personnel,
– Permettre un accès à l’information et un désabonnement au sens large (comme je voudrais ne plus subir des bannières soit disant personnalisées pour un produit que j’ai déjà acheté !),
– Permettre aux consommateurs de gérer plus finement la pression marketing qu’ils acceptent de recevoir,
– Permettre aux internautes de mieux comprendre ce que nous savons sur eux et comment nous le savons…

Je fais donc partie de ceux qui espèrent que les scénarios les plus respectueux des clients & prospects permettront aux marques d’instituer une relation de confiance sur les données, au même titre qu’elles le font sur leurs produits.
Car, après tout, c’est bien cela l’enjeu des prochaines années : donner confiance dans l’usage des données pour enrichir la relation marketing plutôt que de voir gagner une vision technique & fonctionnelle qui nous rapprochera de Big Brother.

Voir aussi l’article sur Emarketing.fr

ECRIT PAR | Christophe Cousin

L’ Optimisation de votre Organisation et de vos Outils…pour répondre aux enjeux du Marketing Multicanal !


Christophe Cousin
, Fondateur de Camp de Bases :

« L’optimisation des ressources et ses impacts sur l’organisation et les outils »
est un sujet à la mode en cette période de « bonnes résolutions ».

Pour les équipes en charge du marketing relationnel, c’est d’autant plus stratégique que cette discipline nécessite beaucoup d’expertises, rares sur le marché, et d’outils, souvent coûteux.

Photo Christophe

Si cette réflexion en vaut la chandelle, elle n’en est pas moins compliquée à mener et certaines questions doivent être posées avant tout :

  • « Quel est mon cœur de métier dans les prochaines années et quelles sont mes priorités ? »
    Par exemple, vaut-il mieux que je maîtrise la production de mes campagnes emails ou le sourcing de mes data ?
  • « Quels sont les expertises et les outils que je peux facilement externaliser et ceux qui le sont moins ? »
    Ainsi, sous-traiter complètement sa relation client me semble toujours contre nature tandis que déléguer l’hébergement sa base de données me semble beaucoup plus logique (et rentable).
  • « Quels sont les dogmes / les freins que je vais devoir gérer ? »
    Et il y a en a beaucoup lorsque l’on parle de technique : expert informatique « incontournable », progiciel imposé…

Ces questions, et bien d’autres selon votre activité, permettent d’enrichir l’analyse de votre existant et la cartographie de vos ressources humaines et techniques.

De cette situation de départ, vous pourrez dessiner la vision cible visée et ainsi identifier vos priorités, comme mettre plus de ressources pour alimenter votre base unique de données clients ou sous-traiter le datamining ou encore externaliser la production des emails…

Ajoutez ensuite les « best practices » du marché avec ce qui marche / ne marche pas en terme d’organisation et de process. Ainsi, si le marketing doit passer par la DSI pour avoir des comptages sur la base des clients, cela ne fonctionne jamais… Inutile de persévérer.
Ou si vous pensez qu’une base de données se purge toute seule les soirs d’hiver, cela ne marche pas non plus !

Enfin, une analyse budgétaire avec différents scénarios chiffrés devrait finir de convaincre votre président !
En associant stratégie + besoins + best practices + contrôle budgétaire, vous arriverez à une vision cible réaliste. Il est alors facile de la mettre en place, en organisant les chantiers avec bon sens et pragmatisme. Ainsi, il semble inutile d’embaucher tout de suite un dataminer si vos données ne sont pas propres et en volume. De la même manière, investir dans des serveurs pour gérer des big data alors que vous n’avez pas encore de base clients unifiée (un exemple pris au hasard comme vous vous en doutez !) n’est pas forcément une priorité court terme.

Au final votre document d’organisation doit prendre en compte : les ressources humaines internes, les formations à prévoir, les embauches, les expertises sous traitées, l’architecture et les logiciels, les process et les règles du jeu. Car toute cette mécanique bien pensée ne fonctionne pas si les acteurs n’ont pas une vision claire des usages et des objectifs précis. Cela nécessite donc beaucoup de pédagogie et de patience pour, in fine, mener un projet transversal pour l’entreprise et source de revenus à court et moyen terme, que ce soit en en réalisant des économies ou en générant de nouveaux revenus.

Et ça, c’est une bonne nouvelle pour 2013 !

>> Consulter la fiche produit O3 associée à ce savoir-faire !

ECRIT PAR | Carine Colson

Marketing-Médias : Avis d’expert de Christophe Cousin, Dirigeant de Camp de Bases

« Le problème n’est pas dans le traitement du volume,
mais bien dans la qualité des données »

Avis d’expert de Christophe Cousin, Dirigeant de Camp de Bases

Marketing-Médias : Quel regard portez-vous sur le marché de la donnée ?

Christophe Cousin : Le marché du data-management ou de la gestion de données marketing connaît une situation paradoxale. D’un côté, il existe des solutions permettant aux marketeurs d’être plus efficaces, d’optimiser leur stratégie et de rentabiliser leurs données (nettoyage, enrichissement, déduplication) et de l’autre, nous constatons que le processus décisionnel pour valider la mise en place de ces solutions est souvent long et compliqué. Il est parfois freiné par les directions financières qui ne perçoivent pas immédiatement l’intérêt d’un tel investissement.Ce décalage est surprenant puisque, in fine, ces solutions permettent aux directions marketing de gagner en efficacité et en liberté, et donc d’accroître leur retour sur investissement, qui est devenu leur principale priorité. En somme, c’est un marché qui nécessite encore beaucoup de pédagogie.

MM : Quelles tendances observez-vous ?

CC : La tendance la plus marquante et la plus significative concerne la reprise en main des bases de données par les directions marketing. Elles sont alors plus réactives et autonomes dans la création de leurs campagnes, que ce soit dans la compréhension des données présentes dans la base ou dans la réalisation des comptages, des ciblages, des campagnes, etc.

>>> Lire la suite

ECRIT PAR | Carine Colson

Emarketing.fr : Les 5 raisons d’externaliser sa base de données marketing

Autant externaliser sa paie, l’hébergement de son site ou son CRM sont une évidence pour la quasi-totalité des sociétés, autant « sortir » sa base de données marketing pose encore questions pour de nombreuses DSI et autres directions générales. Pour clore le débat, voici les 5 raisons qui font que cette évolution va dans le sens de l’histoire.

1) Un datamart nécessite de nombreuses expertises
A l’heure du crosscanal et de la vision 360°, une base marketing est en fait un regroupement de nombreuses sources de données disséminées dans le système d’information : e-commerce, service client, ERP, systèmes métier… Agréger ces bases nécessite de mettre en place des flux, mais surtout d’assurer des traitements de data quality et de déduplication nécessitant de maitriser les données on & off, les comportements, les informations déclaratives… Il faut en comprendre les contenus, les sélectionner, en valider l’usage légal… bref avant de la mettre en œuvre, il faut travailler la data et cette étape nécessite une expertise peu fréquente dans les DSI.

2) Le déploiement en mode SaaS est plus rapide
Même si ce n’est pas l’exclusivité du data management, il est particulièrement évident que la mise en place d’une base de données dans une infrastructure externalisée existante et pré développée permet de gagner beaucoup de temps. Et ce temps sera habilement utilisé par le marketing pour faire des campagnes efficaces et génératrices de revenus.

3) Externaliser permet aussi des économies financières
Logiquement, la réduction du temps d’implémentation permet de réduire le budget d’installation. D’expérience, un datamart en mode SaaS est 2 à 3 fois moins cher sur 3 ans qu’un développement interne, dont les coûts salariaux ne sont qu’une partie émergée. Cette économie est tout aussi vraie pour la mise en œuvre que pour le « running » : l’hébergement et l’administration des données, un travail au quotidien pour en garantir la qualité.

>>> Lire la suite

ECRIT PAR | Carine Colson

SAVE THE DATE – Visual Decision Forum 2012

L’université d’été de la visualisation de données est une occasion unique de faire le point sur les meilleures pratiques et les usages en matière de « data visualization » en entreprise.

Camp de Bases y participe et présente un cas d’entreprise :
« Base marketing et visualisation de données« , avec le témoignage de Sarah Herz, Directrice Générale des activités digitales chez Condé Nast.

L’application web Quintessence mise à disposition des équipes marketing de Condé Nast, leur permet d’explorer et de comprendre leurs « data », de faire des segments et du profiling, de créer des cibles pour des actions marketing qui sont ensuite opérées par leur solution de gestion de campagnes.

Les managers disposent, quant à eux, de tableaux de bord marketing, technique et métier pour piloter l’efficacité de leur base de données marketing unifiée.Il est encore temps de vous inscrire, c’est ici.


Condé Nast a choisi la solution Quintessence pour créer sa base de données marketing unique qui regroupe l’ensemble de la connaissance client, initialement dispersée dans plusieurs bases et fichiers : Abonnés, inscrits newsletters, participants à des jeux-concours,…
ECRIT PAR | Christophe Cousin

Le JDN : « Big » ou « bad » data : faites le choix entre rêve et réalité

1ère parution de cet article dans le Journal du Net

A l’heure où la « big » data fait rêver, les besoins des entreprises sont plus prosaïques : traiter la « bad » data, pour améliorer leur connaissance client et optimiser leur marketing relationnel. Un investissement rentable à très court terme et un prérequis pour éviter la « (big) bad data marketing »…

La presse spécialisée, les blogs, les plaquettes commerciales fourmillent d’articles évoquant la « big data », cette masse presque incommensurable d’informations générées par les internautes.
A lire les « spécialistes », la big data va révolutionner bien des domaines, dont le marketing, grâce à une analyse des comportements : les clics effectués au Pérou, les « like » du Vietnam, le contenu sémantique des tweets des seniors comparé aux navigations des juniors, j’en passe et des meilleurs…


A bien des égards, la big data ressemble à une nouvelle invention de l’industrie de l’informatique, toujours prompte à créer de nouveaux concepts permettant de vendre des solutions, en particulier lourdes et coûteuses. Seul l’avenir nous dira si ce déluge de données constitue le nouvel eldorado de la data marketing.
Mais, à court terme, les besoins des entreprises que je côtoie depuis plus de dix ans, sont bien plus prosaïques.

Au lieu de collecter de nouveaux teraoctets de données, elles cherchent plutôt à :

  • Éliminer des doublons de leurs bases marketing,
  • Traiter des informations incohérentes,
  • Séparer les clients des prospects,
  • Segmenter efficacement,
  • Mieux personnaliser les messages…

Plutôt que de rêver à la big data, l’urgence est de donc s’intéresser à la « bad » data, ces informations de mauvaise qualité qui coûtent si cher aux entreprises (jusqu’à 700 milliards de dollars rien qu’aux Etats-Unis selon le cabinet Ovum).

Traiter la bad data, c’est mettre en œuvre un projet de « data quality » en mobilisant de nombreuses expertises tout au long de la chaîne de la connaissance client. En effet, la data quality impacte bien plus que les seuls flux et bases de données : ce sont de nombreux process qu’il faut améliorer, des personnes qu’il faut former, des adresses postales à normaliser, des données à mettre en cohérence… et un long projet qu’il faut gérer.

Mais au final, cet investissement est des plus rentables avec des bénéfices court terme pour les marketeurs et toute l’entreprise:

  • Vision unique du client,
  • Mise en place de stratégies cross canal efficaces,
  • Optimisation des résultats des campagnes,
  • Reporting et datamining précis,
  • Réduction des coûts et augmentation du ROI des actions…

Et si la big data devient réalité, ces données nettoyées, cohérentes et dédupliquées permettront d’agréger facilement ces nouvelles informations comportementales et calculer des indicateurs statistiques inédits.

Inversement, sans ces saines fondations, c’est de la « big bad data » qui encombrera les mégabases de données et les marketeurs ne sont pas prêts de s’en servir.

ECRIT PAR | Philippe Toulemont

Datamatching et Dataviz se complètent dans les stratégies de détection des fraudes

Contexte

Depuis plus de 10 ans, le média Internet favorise la collecte massive de profils de consommateurs par les marques, directement ou indirectement via des sociétés spécialisées dans la constitution de méga bases.

Une des stratégies les plus communément utilisées est d’inciter la collecte de données personnelles via un jeu concours, une loterie ou autre.

Mais bien évidemment si l’espérance d’un gain amène les internautes à remplir des formulaires plus ou moins complets, elle est aussi à l’origine de tentatives de fraudes sous forme de créations de profils multiples.

De plus en plus de jeux/concours intègrent à la source des contrôles antifraudes (codes captcha pour contrer les robots, contrôle d’unicité des champs saisis…). Ce n’est toutefois pas toujours suffisamment efficace pour contrer l’ingéniosité des fraudeurs.

Il devient alors impossible d’intégrer « on line » des systèmes de contrôles sophistiqués qui nuiraient à l’expérience utilisateur, ralentissant les performances du site.

Il en découle la nécessité de mettre en place des techniques de détection des fraudeurs en aval, via des traitements batch appliqués aux données collectées.

Ces traitements doivent préférablement être appliqués avant les éventuels tirages au sort, afin de prévenir la possibilité d’accorder les gains à des fraudeurs.

Si toutefois, il est déjà trop tard pour cela, appliquer ces méthodes aux bases marketing permet de les nettoyer de contacts inexploitables.

Techniques de Data Matching

Les techniques de Data Matching permettant de détecter des doublons dans les bases de données sont légion et la plupart des suites logicielles de Data Quality en intègrent.

Les grands moteurs de bases de données du marché proposent également leurs propres fonctions.

Chez Camp de Bases nous avons développé notre propre solution qui permet de travailler la comparaison des enregistrements selon plusieurs axes (donnée commune entre les profils que nous comparons) et en y intégrant un calcul de distance entre chaines de caractères. Calcul qui se fait systématiquement sous plusieurs angles afin de limiter les effets de bord liés à certaines particularités linguistiques (comme par exemple les langues étrangères ayant des lettres surreprésentées).

Le croisement de ces différents axes de déduplication et l’application d’une transitivité des résultats nous permet de regrouper les profils similaires et de mettre facilement en exergue les fraudeurs.

Représentation graphique des groupes

Mais nous ne sommes pas que des amoureux des techniques de Data Matching. Nous aimons aussi la Data Visualisation et son impact formidable sur la compréhension des données.

Nous l’utilisons par exemple dans nos phases de Data Profiling afin de mettre en évidence des aberrations dans les données que nous analysons. Ce profiling est lui aussi utile à la détection de fraudes car il attire l’attention sur des surreprésentations de certaines valeurs (un code postal par exemple).

Mais cet usage n’exploite pas les résultats isssus de l’étape de data matching. C’est ainsi que nous est venue l’idée de combiner ces deux domaines d’expertise en établissant une représentation graphique des groupes de doublons.

Le mode de visualisation le plus pertinent nous a paru d’emblée être le nuage de mots, visualisation récente mais extrêmement populaire qui met en exergue des mots clés en fonction de leur prépondérance dans un texte.

Pour constituer le texte représentatif d’un groupe de doublons, nous cumulons tous les noms, prénoms, adresses postales et dates de naissance des contacts qui le constitue.

Les exemples ci-dessous représentent les nuages de mots obtenus à partir de groupes de doublons dans la base d’un de nos clients.

Note : les noms ont été changés. Cliquez sur les visuels pour les zoomer.

  

Sur ces trois premiers nuages, on constate la prépondérance du nom SYCOMORE qui a sans aucun doute était déterminant dans la phase de Data Matching pour chacun des groupes mais insuffisant pour les lier entre eux.
Cliquez sur les visuels pour les zoomer.

Nuage de donnees - Cliquez pour zoomer Nuage de donnees - Cliquez pour zoomer Nuage de donnees - Cliquez pour zoomer

Ce deuxième groupe de nuages attire l’attention sur le nom D’ORYPAN mais également sur la date de naissance 03/03/1977. Or cette date est également présente dans les premiers nuages.

La visualisation nous a alors permis d’établir entre ces deux groupes un lien qui avait échappé à la phase de Data Matching. En effet, avoir la même date de naissance n’est pas en soi une preuve de doublon. En revanche retrouver une même date de naissance prépondérante dans deux groupes déjà identifiés comme fraudeurs est une piste intéressante.

L’illustration ci-dessous représente la juxtaposition des nuages de 15 groupes de doublons issus du Data Matching automatisé. Tous contiennent la même date.
Cliquez sur le visuel pour le zoomer.

Nuage de donnees - Cliquez pour zoomer

L’exploitation de ce point commun, et d’autres détectés avec la même technique, nous a permis de relier plusieurs dizaines de groupes de doublons entre eux et isoler un réseau de plus de 7000 profils dont la « fabrication » avait été particulièrement habile et indétectable par des systèmes batch classiques.

Article co-écrit par Nadia BELNET et Philippe TOULEMONT.

 

ECRIT PAR | Christophe Cousin

Marketing relationnel & multicanal : êtes-vous sûr de suivre les bons indicateurs ?

Visuel Barometre Le marketing relationnel génère beaucoup d’indicateurs pour analyser les retours des campagnes.
Chaque action génère des « données de réaction » et il est facile de suivre le taux d’ouverture d’un emailing, de remontée d’un couponing papier, de réabonnement suite à une relance etc…Le calcul du sacro-saint ROI est, dès lors, relativement facile.
Malheureusement, cet indicateur financier est souvent la seule source d’évaluation des campagnes alors que de nombreux autres indicateurs sont à suivre.

Ainsi, par exemple, les KPI suivants deviennent stratégiques lorsqu’ils sont suivis mois par mois :

En terme de Ressources Humaines / process
– Combien d’ETP sont en charge des campagnes multicanal ?
– Combien de personnes interviennent pour réaliser un comptage / extraction sur une base de données ?
– Pour quel délai moyen ?
– Quel est le planning moyen pour lancer une nouvelle campagne ?
– Combien de personnes sont capables d’accéder à un reporting de façon autonome ?

D’un point de vue data
– Combien de profils sont collectés complets chaque mois ?
– Le % de consentement recueilli est-il conforme au best practice du marché ?
– Et celui de désabonnement suite à un email ?

D’un point de vue technique
– Combien de sources internes (ou quel est le % d’informations existantes) sont réellement exploitées ?
– Par exemple les données issues des réseaux sociaux, du web analytics sont-elles rattachés à vos clients ?
– Combien d’adresses postales sont testées et validées ? D’adresses email ? (ou dit autrement, combien d’envois ne servent à rien et polluent vos résultats ?)
– Quel est le taux de profils suffisamment qualifiés pour faire du datamining ?

D’un point de vue purement Business
– Quel est le CA réalisé indirectement suite à des actions de marketing relationnel ?
– Combien de visites en points de vente ont été générées suite à des actions de marketing relationnel ?
…/…

Cette liste pourrait facilement s’allonger et doit être personnalisée selon chaque situation, chaque métier.
Quoi qu’il en soit, ces KPI ont le mérite d’identifier les couts cachés et d’améliorer l’efficacité des opérationnels via des nouveaux outils, process…

C’est sur l’ensemble de ces dimensions que Camp de Bases intervient pour ses clients, pour les aider à créer un véritable actif : une base de connaissance client pérenne et réactive.
Et que les équipe marketing se concentrent sur la création de CA et de marge, des critères universels jamais remis en cause !

Comment avancer ? faites vos premiers pas !

Inscrivez vous à notre Feuille de Route pour rester informé !