ECRIT PAR | Carine Colson

La Tweetletter ou la sélection « tweets » de la semaine du 24/09

…qui vous a peut-être échappé…et que nous vous rapportons chaque vendredi !

Cette semaine, les twitonnautes ont gazouillé sur l’après salon E-Commerce : Marketing digital, relation client, f-commerce, m-commerce, Big Data…Nous savons que ça vous intéresse mais nous avons ajouté aussi quelques tweets spécialisés… On vous laisse découvrir, bonne lecture !

1 75% des personnes interrogées ne mesurent pas le #ROI de leurs programmes sociaux http://ow.ly/e0hb1 #Marketing
2 Le Big Data : un cadeau empoisonné pour les Data Miners? http://ow.ly/e299y #BigData #Dataminers
3 Quelles pistes suivre pour la version 2 de l’Open Data en France ? (Partie 1) http://ow.ly/e1XWQ#OpenData #Infographie
4 10 Places for Market Researchers to Learn about Data Visualization http://ow.ly/dQX4f #Dataviz #Tools
5 Les réseaux sociaux, nouveau mirage pour les responsables marketing ? http://ow.ly/dRlAH #RS #Marketing
6 Plus de la moitié des projets #BigData concernant l’analyse financière (58%) et la connaissance client (53%) http://ow.ly/dReUv
7 Les facteurs principaux de réussite d’une opération d’emailing sont à 69% la qualité de la base de données http://ow.ly/dY1Bq#Dataquality
8 The most important thing to remember is that whether your #data is big or small, it’s the correct analysis that counts. http://ow.ly/e26zI
9 7 à 8% de hausse du budget #marketing ds les 12 prochains mois c’est 2 à 3 fois plus que les budgets #DSI http://ow.ly/e0S0W #Budgets
10 Selon IDC, l’humanité produit aujourd’hui en 2j autant de #données qu’elle en a produites de ses origines jusqu’à 2003 http://ow.ly/e0mhO

Pour recevoir chaque vendredi notre Tweetletter et notre Feuille de Route mensuelle, inscrivez vous en cliquant ici

ECRIT PAR | Carine Colson

La Tweetletter ou la sélection « tweets » de la semaine du 17/09

…qui vous a peut-être échappé…et que nous vous proposons de retrouver dorénavant chaque semaine pour ne plus rien manquer de l’actualité du marketing relationnel !

1 21/09 : #Ciblage et #Satisfaction client : l’apport du traitement des données non structurées
http://ow.ly/dNSm3 #BigData #Formation
2 Le #transcanal pour ré-enchanter la relation client #RelationClient
http://ow.ly/dL58x #ExpérienceClient
3 Le SI est un outil incontournable pr la performance des réseaux de vente & pr la qualité de la relation client
http://ow.ly/dAHpN
4 Une représentation des chiffres, parfois personnage parfois décor, qui raconte l’histoire de la surpêche !
http://ow.ly/dN9IN #Dataviz
5 #Tendance En 2015, les smartphones seront équipés d’un “personal life assistant”
http://ow.ly/dNvHe #Data
6 La connaissance du client s’impose comme le socle de toute stratégie
http://ow.ly/dOVsZ #MarketingRelationnel
7 « Les données sont une matière 1ere vitale de l’éco de l’info, comme le charbon […] pendant la révolution industrielle »
http://ow.ly/dNhXt
8 15 à 20% en moyenne des contacts présents dans les bases de données seraient inactifs
http://ow.ly/dNc4N #BDD #Data #Inactifs
9 Du #multicanal au #cross canal en six étapes
http://ow.ly/dQUcK
10 Transversalité et client au cœur de l’environnement d’achat http://ow.ly/dQTIW #Omniretail #ParcoursClient

Pour recevoir chaque vendredi notre Tweetletter et notre Feuille de Route mensuelle, inscrivez vous en cliquant ici

ECRIT PAR | Carine Colson

Segmentez vos clients et prospects grâce à l’analyse Treemap !

Vous souhaitez améliorer votre marketing relationnel ? Cibler plus finement vos clients et prospects, mais ne possédez pas de segmentation ?
L’analyse Treemap peut vous aider !

Chez Camp de Bases, nous aimons offrir des réponses aux besoins de nos clients, surtout lorsqu’elles s’avèrent utiles, simples et visuelles !

Le Treemap dans Quintessence

Le treemap n’est pas (encore) une énième manière de représenter des données, il offre 3 avantages réels :

Rendre simples des choses compliquées comme l’analyse de segments ou de cibles ou encore la réalisation de comptages avec des « Et » des « Ou »…. Vous sélectionnez les critères qui vous intéressent et le Treemap vous affiche les résultats.

Visualiser rapidement, grâce aux tailles et aux couleurs des zones, comment se répartissent vos contacts, mais aussi où se trouvent les plus réactifs par exemple.

–  Générer automatiquement un ou plusieurs segments à partir de zones sélectionnées à la souris pour faire du datamining ou des cibles pour des campagnes cross canal !

Pour une démonstration, c’est ici et pour nous suggérer des évolutions, c’est !

 

ECRIT PAR | Carine Colson

La Tweetletter de la semaine du 10/09

…qui vous a peut-être échappé…et que nous vous proposons de retrouver dorénavant chaque semaine pour ne plus rien manquer de l’actualité du marketing relationnel !

# 28% des Français placent les coupons en tête des promotions les plus pratiques à utiliser #RelationClient
http://ow.ly/dvoh3
# La #data est citée comme dernier élément de décision pour les actions #marketing à destination de leurs clients #Erreur http://ow.ly/dNKKh
# Le retour sur investissement (#ROI) de l’entreprise 2.0 et des médias sociaux internes http://ow.ly/dNKNZ
# Pour lever des fonds, Mitt Romney fait appel au data-mining #BI #Collecte2données http://ow.ly/dNKSC
# Wolfram Alpha vous révèle toutes vos données Facebook #dataviz http://ow.ly/dNL6i
# Comment le directeur #marketing se fait « manger » par la technologie ? #infographie http://ow.ly/dNLb0
ECRIT PAR | Carine Colson

SAVE THE DATE – Visual Decision Forum 2012

L’université d’été de la visualisation de données est une occasion unique de faire le point sur les meilleures pratiques et les usages en matière de « data visualization » en entreprise.

Camp de Bases y participe et présente un cas d’entreprise :
« Base marketing et visualisation de données« , avec le témoignage de Sarah Herz, Directrice Générale des activités digitales chez Condé Nast.

L’application web Quintessence mise à disposition des équipes marketing de Condé Nast, leur permet d’explorer et de comprendre leurs « data », de faire des segments et du profiling, de créer des cibles pour des actions marketing qui sont ensuite opérées par leur solution de gestion de campagnes.

Les managers disposent, quant à eux, de tableaux de bord marketing, technique et métier pour piloter l’efficacité de leur base de données marketing unifiée.Il est encore temps de vous inscrire, c’est ici.


Condé Nast a choisi la solution Quintessence pour créer sa base de données marketing unique qui regroupe l’ensemble de la connaissance client, initialement dispersée dans plusieurs bases et fichiers : Abonnés, inscrits newsletters, participants à des jeux-concours,…
ECRIT PAR | Carine Colson

Feuille de Route #7 : Nettoyer et dédupliquer vos données grâce au Data Quality Flow !

Avis d’expert // 7 Juin 2012

Nettoyer et dédupliquer votre base de données grâce au Data Quality Flow !

Votre base de données marketing contient-elle des doublons ? Des adresses postales erronées ? Des emails invalides ? Des noms à la place des prénoms et inversement ? Ou des erreurs plus pittoresques ?
C’est vraisemblablement le cas, puisque 92% des entreprises n’ont pas confiance dans leurs données (Source Experian).
Ces informations obsolètes, incomplètes, incohérentes constituent « la bad data », et celle-ci coûte très cher chaque jour aux entreprises :
– Coûts d’impression et de routage inutiles,
– Messages mal ciblés,
– Personnalisation mal réalisée,
– Erreurs d’analyses et de reporting…

Si le mal est facile à diagnostiquer, le traitement est plus complexe : nettoyage en profondeur des données souvent hétérogènes, mise à la norme des adresses postales (RNVP) , enrichissements, vérification de la cohérence des informations, déduplication, fusion des profils…
Tout ceci nécessite un ensemble d’algorithmes et de référentiels que Camp de Bases a réunis dans une seule solution : Data Quality Flow.
Le principe est simple : vos données initiales sont importées dans Data Quality Flow et ressortent automatiquement propres, enrichies, dédupliquées et prêtes à être exploitées dans votre base marketing unique. Pour encore plus de simplicité, Data Quality Flow peut être soit installé dans votre système d’information, soit directement utilisé en mode service avec un abonnement mensuel.

Pour en savoir plus sur Data Quality Flow, contactez-moi. Plus vite vos données seront nettoyées, plus rapidement vous économiserez de l’argent !

Christophe Cousin

Les autres thématiques abordées dans notre Feuille de Route à consulter en ligne:

> Le chiffre à retenir
– 50% (Coût de gestion de la base de données)

> Livre blanc
Optimisez votre marketing relationnel avec 5 Best Practices

> Infographie
Optimisez votre marketing relationnel en 3 étapes !

> Evènement
21/06 Christophe Couson intervient à Paroles d’Experts
05/07 Camp de Bases au Visual Decision Forum 2012

> Les mots clés de nos articles « coup de coeur »
Dataquality – Dataviz – CRM – Data

 Visuel Feuille de Route 7
ECRIT PAR | Philippe Toulemont

Datamatching et Dataviz se complètent dans les stratégies de détection des fraudes

Contexte

Depuis plus de 10 ans, le média Internet favorise la collecte massive de profils de consommateurs par les marques, directement ou indirectement via des sociétés spécialisées dans la constitution de méga bases.

Une des stratégies les plus communément utilisées est d’inciter la collecte de données personnelles via un jeu concours, une loterie ou autre.

Mais bien évidemment si l’espérance d’un gain amène les internautes à remplir des formulaires plus ou moins complets, elle est aussi à l’origine de tentatives de fraudes sous forme de créations de profils multiples.

De plus en plus de jeux/concours intègrent à la source des contrôles antifraudes (codes captcha pour contrer les robots, contrôle d’unicité des champs saisis…). Ce n’est toutefois pas toujours suffisamment efficace pour contrer l’ingéniosité des fraudeurs.

Il devient alors impossible d’intégrer « on line » des systèmes de contrôles sophistiqués qui nuiraient à l’expérience utilisateur, ralentissant les performances du site.

Il en découle la nécessité de mettre en place des techniques de détection des fraudeurs en aval, via des traitements batch appliqués aux données collectées.

Ces traitements doivent préférablement être appliqués avant les éventuels tirages au sort, afin de prévenir la possibilité d’accorder les gains à des fraudeurs.

Si toutefois, il est déjà trop tard pour cela, appliquer ces méthodes aux bases marketing permet de les nettoyer de contacts inexploitables.

Techniques de Data Matching

Les techniques de Data Matching permettant de détecter des doublons dans les bases de données sont légion et la plupart des suites logicielles de Data Quality en intègrent.

Les grands moteurs de bases de données du marché proposent également leurs propres fonctions.

Chez Camp de Bases nous avons développé notre propre solution qui permet de travailler la comparaison des enregistrements selon plusieurs axes (donnée commune entre les profils que nous comparons) et en y intégrant un calcul de distance entre chaines de caractères. Calcul qui se fait systématiquement sous plusieurs angles afin de limiter les effets de bord liés à certaines particularités linguistiques (comme par exemple les langues étrangères ayant des lettres surreprésentées).

Le croisement de ces différents axes de déduplication et l’application d’une transitivité des résultats nous permet de regrouper les profils similaires et de mettre facilement en exergue les fraudeurs.

Représentation graphique des groupes

Mais nous ne sommes pas que des amoureux des techniques de Data Matching. Nous aimons aussi la Data Visualisation et son impact formidable sur la compréhension des données.

Nous l’utilisons par exemple dans nos phases de Data Profiling afin de mettre en évidence des aberrations dans les données que nous analysons. Ce profiling est lui aussi utile à la détection de fraudes car il attire l’attention sur des surreprésentations de certaines valeurs (un code postal par exemple).

Mais cet usage n’exploite pas les résultats isssus de l’étape de data matching. C’est ainsi que nous est venue l’idée de combiner ces deux domaines d’expertise en établissant une représentation graphique des groupes de doublons.

Le mode de visualisation le plus pertinent nous a paru d’emblée être le nuage de mots, visualisation récente mais extrêmement populaire qui met en exergue des mots clés en fonction de leur prépondérance dans un texte.

Pour constituer le texte représentatif d’un groupe de doublons, nous cumulons tous les noms, prénoms, adresses postales et dates de naissance des contacts qui le constitue.

Les exemples ci-dessous représentent les nuages de mots obtenus à partir de groupes de doublons dans la base d’un de nos clients.

Note : les noms ont été changés. Cliquez sur les visuels pour les zoomer.

  

Sur ces trois premiers nuages, on constate la prépondérance du nom SYCOMORE qui a sans aucun doute était déterminant dans la phase de Data Matching pour chacun des groupes mais insuffisant pour les lier entre eux.
Cliquez sur les visuels pour les zoomer.

Nuage de donnees - Cliquez pour zoomer Nuage de donnees - Cliquez pour zoomer Nuage de donnees - Cliquez pour zoomer

Ce deuxième groupe de nuages attire l’attention sur le nom D’ORYPAN mais également sur la date de naissance 03/03/1977. Or cette date est également présente dans les premiers nuages.

La visualisation nous a alors permis d’établir entre ces deux groupes un lien qui avait échappé à la phase de Data Matching. En effet, avoir la même date de naissance n’est pas en soi une preuve de doublon. En revanche retrouver une même date de naissance prépondérante dans deux groupes déjà identifiés comme fraudeurs est une piste intéressante.

L’illustration ci-dessous représente la juxtaposition des nuages de 15 groupes de doublons issus du Data Matching automatisé. Tous contiennent la même date.
Cliquez sur le visuel pour le zoomer.

Nuage de donnees - Cliquez pour zoomer

L’exploitation de ce point commun, et d’autres détectés avec la même technique, nous a permis de relier plusieurs dizaines de groupes de doublons entre eux et isoler un réseau de plus de 7000 profils dont la « fabrication » avait été particulièrement habile et indétectable par des systèmes batch classiques.

Article co-écrit par Nadia BELNET et Philippe TOULEMONT.

 

ECRIT PAR | Philippe Toulemont

Le 1er Data Tuesday a eu lieu !

Logo Tuesday Le Data Tuesday est une initiative lancée par trois startups (Data PublicaCaptainDash et MFG Labs), et leurs quatre partenaires (Les Echos, Cap Digital, Systematic et EIT ICT Labs).Ce rendez-vous mensuel est dédié aux acteurs de la Data et leur permet de se rencontrer pour échanger et réfléchir sur trois sujets que sont la  Big Data, la Dataviz et l’Open Data.Ce premier rendez-vous s’est tenu hier et avait plus une vocation de « kick-off ».Sans thématique précise, cet évènement a su susciter la curiosité et attirer une audience importante : La salle d’ICT Labs était pleine !

La session a commencé par 3 présentations, mais suite à des problèmes de circulations je ne suis arrivé qu’à la fin de la seconde, qui abordait la problématique du Big Data et de sa manipulation par le grand public.
J’en retiendrai une phrase : « L’analyse du Big Data, c’est de l’avant-garde en mode bourrin« . Une phrase, certes un peu choc mais qui rappelle que pour manipuler des volumes aussi importants de données, il faut commencer par être humble et pragmatique en limitant ses axes d’analyse à deux ou trois dimensions.

Ensuite, quelques idées séduisantes ont été évoquées comme :
– La nécessité de désapprendre la loi normale.
– Les courbes de Gauss.
– La dictature des moyennes dans l’analyse des chiffres. Une très bonne illustration de celle-ci est qu’une personne qui se noie dans un trou d’eau se moque de savoir que la profondeur moyenne du lac fasse 60cm !
La volumétrie amenée par la Big Data oblige à circonvenir le périmètre de son analyse et à ne plus essayer de tout comprendre et tout résumer.

MFG Labs a présenté une autre image amusante… et pertinente sur les états de la Data:

  1. Solide: Les belles bases de données relationnelles.
  2. Liquide: Les fichiers XL, PDF…
  3. Gazeux: L’Open Data, le Big Data, les « trucs » informes qui trainent dans le nuage.

Suite à ces présentations a eu lieu un débat (peu houleux) dont sont sorties quelques thématiques clés:

  1. La traçabilité des données Open Data.
  2. L’ouverture des entreprises au monde de l’Open Data, avec la question de qui au sein de l’entreprise doit prendre en charge cette initiative.
  3. L’Open Data rendra-t-elle le monde plus beau ?

La question est maintenant de savoir si cette soirée doit se rebaptiser Open Data Tuesday. Heureusement, le cocktail qui a conclu la soirée laissait penser que non et que les différents acteurs présents voulaient y voir évoquer d’autres sujets.

On peut toutefois se demander si Big et Open Data vont facilement cohabiter avec les données classiques ou est-ce que deux univers totalement hermétiques sont en train de se créer, avec chacun ses spécialistes.
Quelques experts croient toutefois que les passerelles existent et tendent à se développer, poussées par des technologies comme Hive pour Hadoop.

A noter que l’évènement semble particulièrement propice au networking et que les discussions battaient leur plein.
Vous pouvez retrouver ici les présentations du Data Tuesday.

Suite au prochain numéro, le 6 décembre au 104 rue d’Aubervilliers dans le 19ème.