Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

non verbal

  • Les sciences peuvent elles encore faire progresser le marketing ?

    Pin it!

    les_sciences_2_2.jpg

    La recherche marketing s'est développée en procédant par intégration d'apports scientifiques divers : en particulier ceux de la psychologie, de la sociologie, mais aussi des mathématiques (les statistiques) 

    Le marketing a-t-il beaucoup à gagner à intégrer les avancées scientifiques récentes ?

    Dans quels domaines ?

    Pour quelles applications, et quels bénéfices pour les entreprises ?

    Ces questions constituent le thème du dossier du mois de Market Research News.

    Voici la restranscription de mon interview menée à cette occasion par Thierry Semblat (*)

    Thierry Semblat : Est-ce si évident que le marketing puisse beaucoup progresser via les avancées scientifiques récentes ?

    François Abiven : Oui. Il y a eu le développement de connaissances qui devraient fortement impacter le marketing. Parmi celles-ci, les plus importantes me semblent être celles qui concernent le fonctionnement de l’humain, tout ce qui est lié aux neurosciences et à la meilleure compréhension du fonctionnement du cerveau humain. Les travaux de Damasio, dont on parle depuis déjà quelques années, ont clairement montré l’importance du système automatique, inconscient, émotionnel dans nos choix et nos prises de décision. Et cela nous amène forcément à revoir la façon de faire du marketing et des études.

    Qu’est-ce qu’il y a d’extraordinairement nouveau dans ces travaux ? La découverte de l’inconscient n’est pas vraiment une nouveauté…

    Ce qui est nouveau, c’est ce que ce que nous avons appris précisément sur la question de la prise de décision. Avant ces travaux, on avait l’image de l’humain comme ayant la capacité de poser et d’analyser des options de façon très réfléchie, rationnelle, et de prendre ainsi des décisions à l’issue de cette analyse. Hors, on se rend compte que dans la plupart des cas, la décision est beaucoup plus « automatique », inconsciente : le cerveau va faire appel à la mémoire antérieure pour nous aider à prendre une décision, cela va donc passer par des circuits très rapides ; et le conscient intervient après coup, pour justifier et rationnaliser la décision qui a été prise. Aujourd’hui, ces mécanismes-là sont avérés, plus personne de sérieux ne les conteste.

    Qu’est ce que cela implique pour les études ?

    Cela remet en question le fait de se baser exclusivement sur ce que déclare le consommateur. Quand on pense à des protocoles d’études où l’on met le consommateur face à deux options de packaging pour lui demander lequel fait le plus efficace, c’est évident que l’on obtient des réponses complètement rationnalisées et donc biaisées.

    Ce sont quand même deux choses différentes, que d’une part de mettre le consommateur en situation d’expert (pour juger par exemple de l’efficacité d’un packaging), et d’autre part recueillir ses perceptions…

    C’est vrai. Mais ce qui est clairement invalidé, ce sont ces questionnaires très longs où l’on demande à l’interviewé de s’exprimer sur l’ensemble des items de perception pour lui demander in fine quel produit il achèterait ; ce n’est pas cohérent avec la réalité du consommateur. Le plus souvent, celui-ci ne maitrise pas ses choix. Bien sûr, on connaît les limites du déclaratif depuis longtemps : c’est pour cela par exemple que l’on utilise les techniques projectives dans les études qualitatives. C’est un premier niveau bien intégré et qui garde toute sa pertinence. Mais il faut aller plus loin, revoir les protocoles des études quantitatives pour intégrer l’importance du spontané et de l’émotionnel.

    Quelles sont les techniques qui vont vers cela ? 

    Si on pousse au plus loin, il y a les techniques d’IRM, avec ces expériences où l’on observe chez les consommateurs quelles zones de leurs cerveaux sont activées selon les stimulis qu’on leurs présente. On sait par exemple que consommer Coca Cola ou Pepsi Cola n’active pas les mêmes zones du cerveau ! C’est une voie intéressante, mais on ne sait pas bien saisir les leviers ! Un peu plus simplement, il y a les électro-encéphalogrammes, dont l’usage se développe beaucoup, en particulier aux UK. Les résultats semblent là aussi intéressants, mais là encore, on obtient beaucoup de données non directement exploitables.  Et assez récemment, j’ai découvert l’existence d’un panel, aux USA, constitué de consommateurs ayant accepté d’être connecté à des systèmes de mesure de l’intensité électro-dermale (la conductance de la peau). On mesure là l’impact émotionnel. Toutes ces techniques visent bien, au-delà du déclaratif, à mesurer cet impact. Mais la question de l’interprétation subsiste là aussi…

    La clé de voute est claire : c’est la limite du rationnel. On utilise donc des techniques pour mesurer ce qui ne l’est pas et ce qui relève de l’émotionnel. Mais ce que vous dites de la difficulté commune à ces techniques, c’est que l’on ne sait quand même pas très bien comment les exploiter… 

    Il y a en effet deux enjeux. Le premier est celui de l’industrialisation des process pour ce type d’études, ce qui est en train de progresser fortement avec des outils et des appareillages de moins en moins couteux et intrusifs. Et l’autre enjeu est bien celui de l’interprétation, de la définition de normes, et de la connaissance. Mais on avance !

    Il y a d’autres techniques encore ?

    Bien sûr. Il y a en particulier les systèmes d’eye-tracking, que l’on utilise chez Repères pour la mesure de l’impact émotionnel. Plus précisément, on enregistre le niveau d’excitation, via la dilatation de la pupille, la fixité du regard, la fréquence de clignement des yeux… On est en mesure de construire ainsi un score d’activation du répondant.

    Cela fonctionne bien, tout en étant facile à mettre en place. Mais la limite ici, c’est que si l’on mesure bien un certain degré d’excitation, on ne sait pas en revanche si l’on a affaire à du positif ou à du négatif… Cela signifie qu’il faut combiner ces mesures avec des questions ouvertes…. Mais la technique que nous développons aujourd’hui et qui nous paraît très intéressante est celle de la reconnaissance faciale.

    Parlons-en donc !

    Le principe est d’intégrer le non verbal et les émotions via l’enregistrement et l’analyse des expressions et de la gestuelle des consommateurs. Et là pour le coup, on dispose clairement de la valence : on sait si l’émotion est positive ou négative ! On sait déterminer si la personne est dans la joie, la peur, la surprise,… Les émotions de base sont bien appréhendées, codifiées, validées, et ce de façon universelle. On se sert bien sûr des travaux de Paul Ekman, ce chercheur américain qui depuis les années 70 a étudié les expressions faciales, et a mis en évidence tout un langage. Et on est bien dans l’inné : même des personnes nées aveugles utilisent les mêmes expressions faciales que celles qui n’ont pas ce handicap. Nous avons mené plusieurs expérimentations avec ces bases-là sur des tests de produits alimentaires, et plus récemment sur du « sniff test » cosmétique, ou des concepts. Et les résultats sont vraiment très intéressants : nous avons été amenés à  enrichir la classification de Paul Ekman des émotions de base en y intégrant des descripteurs non verbaux spécifiquement adaptés à nos protocoles de test ; nous avons pu ainsi vérifier le gain significatif de discrimination entre les objets testés. Nous sommes désormais dans une phase qui consiste à industrialiser la mesure et la codification de ces expressions pour les placer dans des process études.

    Quels sont les principaux avantages apportés par ce type d’études ?

    Un des gros enjeux marketing, c’est de diminuer le taux d’échecs des lancements de nouveaux produits, qui est aujourd’hui très élevé, proche des 90% disent certains. Bien sûr, il est toujours difficile de faire la part des choses, entre la qualité du concept, et les aspects d’exécution et de mise en œuvre. Mais le fait est que la prédictivité des approches études « classiques »  n’est pas suffisante. Ces nouvelles approches doivent donc mieux prédire les comportements des consommateurs.

    Ces techniques ont aussi l’intérêt de mieux discriminer les concepts ou les produits, là où l’usage du déclaratif donne le plus souvent des résultats assez « plats ». Alors que la question de l’annonceur est bien sûr de savoir lequel de ces produits ou concepts peut susciter le plus d’enthousiasme, le plus d’impact…

    Cela remet complètement en cause l’intérêt du déclaratif ? 

    Ah non ! Pour moi il s’agit bien d’une combinatoire. Dans les essais que nous avons menés, le croisement entre les résultats issus du déclaratif et ceux provenant du non déclaratifs sont très cohérents. Mais le non-verbal donne un relief, un contraste qui est nettement supérieur. Conserver le déclaratif permet déjà se rassurer ! Mais surtout, l’idée est que la mesure, le score proviendra du non-verbal, mais que l’explication sera donnée par le déclaratif, et tout particulièrement par les questions ouvertes permettant d’identifier les associations qui sont spontanément faites par le consommateur.

    D’autres avancées scientifiques vous semblent importantes à prendre en compte ?

    Il y a des progrès importants dans le domaine de l’économie, mais aussi des statistiques.

    On assiste au développement d’une nouvelle branche de la science économique, l’économie dite « comportementale », dont la dynamique est très forte, et qui bénéficie d’une forte reconnaissance avec le prix nobel attribué en 2002 à Daniel Kahneman. Cette branche invalide les théories économiques classiques, qui repose sur le principe de l’homo « oeconomicus » : cet être rationnel qui choisit l’option présentant la plus grande utilité pour lui. L’économie comportementale montre et explique qu’au contraire, les êtres humains adoptent souvent un comportement qui peut sembler paradoxal ou non-rationnel. Par exemple, le fait que chez l’être humain, l’aversion pour la perte l’emporte le plus souvent sur l’envie du gain, ce qui va générer des comportements d’inertie. Il y a aussi cet exemple bien intéressant d’un point de vue marketing, signalé par un livre très bien fait de Dan Ariely * : quand on demande aux gens de choisir entre un produit A et un produit B, le fait de rajouter un 3ème produit qui est une version dégradée de ce produit A booste considérablement l’attrait de ce dernier.

    Nous ne sommes pas encore très avancés sur la façon d’intégrer cela dans les études marketing, mais je suis persuadé que cela aura des impacts. Ce qui est clair néanmoins, c’est que cela invite à beaucoup intégrer les effets de contexte de décision (par exemple les scenarios d’offre), et à savoir gérer des plans d’expérience complexes.

    Tout cela est assez lié au développement de la neuroscience…

    Oui, au fond cela repose sur l’idée que l’être humain ne se réduit pas à un être rationnel. Il intègre dans ses choix des paramètres qui sont de l’ordre de l’inconscient, de l’émotionnel. C’est en tout cas la fin des visions purement utilitaristes des choses.

    Vous évoquiez aussi l’importance des avancées dans le domaine statistiques...

    Effectivement. Il y a eu ces découvertes sur ce que l’on appelle les lois de puissance, et les lois fractales. Benoit Mandelbrot est un de ses théoriciens les plus importants, avec des applications très intéressantes pour le monde de la finance, qui sont reprises dans un livre passionnant de Nassim Nicholas Taleb : Le Cygne noir*. La remise en cause de la loi normale est particulièrement intéressante dans ce champ théorique. C’est à dire qu’il y a un certain nombre de phénomènes pour lesquels il est tout à fait pertinent de raisonner en termes de moyennes et d’écarts types, et notamment toutes les grandeurs physiques (c’est le cas de la taille des gens par exemple, où la moyenne a un sens). Mais en revanche, il y a tout un volet de phénomènes, qui sont souvent liées aux activités humaines, dans lesquelles ces lois-là ne fonctionnent pas (la moyenne ne signifie rien de très pertinent par exemple pour ce qui est du revenu des gens). 

    Ce que cela nous dit fondamentalement, c’est que le fait de raisonner avec la théorie de la loi normale conduit à sous estimer la probabilité d’apparition d’évènements extrêmes.

    Les conséquences dramatiques de ces biais de raisonnement ont été flagrantes dans le domaine de la finance lors de la crise de 2008 : la plus grande partie des modèles financiers d’estimation des risques sont malheureusement construits sur une hypothèse de normalité qui sous-estime considérablement les variations envisageables.

    Quelle application cela peut-il avoir dans le domaine du marketing ?

    Cela reste encore très peu utilisé, mais l’utilisation des lois de puissance a sans doute un réel intérêt pour des estimations de ventes par exemple. Cela permettrait également de mieux traiter des phénomènes tels que celui dit de la « longue traine », qui s’applique très bien à l’économie numérique (le fait qu’en cumulé, la demande totale pour des objets faiblement demandés excèdent la demande pour les produits fortement demandés). Là aussi, on ne fait quasiment que démarrer dans l’intégration de ces avancées dans le marketing et les études, mais ce sont autant de chemins sur lesquels il faut progresser.

     

    (*) Ce texte est reproduit ici avec l'autorisation de MarketReserachNews. Vous pourrez retrouver sur le site l'ensemble des interventions autour de cette thématique : Yves Krief (Sorgem), Jean Paul Frappa (Expert analyse de données), François Laurent (Adetem et ConsumerInsight), Bruno Poyet (IM! impact mémoire) et Eric Janvier (Numsight).

  • Reperes reçoit le soutien d'OSEO pour ses travaux sur le non verbal

    Pin it!

    logo videoetude fond blanc.pngIl y a maintenant plusieurs années que nous nous intéressons à Repères à la problématique de la communication non verbale. L'idée fondatrice de ces travaux est de redonner au corps la place qu'il mérite dans nos processus d'études : on dit souvent que le non verbal pèse pour plus de 80% dans la communication humaine et pourtant la quasi totalité des études marketing repose uniquement sur l'analyse de la communication verbale via le déclaratif de l'interviewé. A l'inverse les techniques d'observation usuellement utilisées ont tendance à se focaliser sur les comportements jusqu'à en oublier le déclaratif.

    Notre propos est d'apporter aux études une vision holistique du répondant qui intègre verbal et non verbal.

    Nos premieres expérimentations, menées en collaboration avec Franck Saunier, ont fait l'objet d'une intervention au congrès Esomar en 2008 (Cf article, sous copyright ESOMAR) et d'une présentation à la journée des études UDA ADETEM en janvier 2009 (Cf interview de Franck Saunier sur le Blog de François Laurent).

    Il s'agissait à ce stade de démontrer comment une démarche qualitative pouvait être enrichie par une analyse vidéographique fine utilisant notamment les techniques de ralenti de l'image et d'identification de l'asynchronie geste-parole : nous avons ici accès à une communication qui se réalise à l'insu même du sujet, et dont la mise à jour offre la possibilité de détecter dans un énoncé ce qui relève d'un discours de convenance ou ce qui relève au contraire d'un discours signifiant avec un fort investissement émotionnel du sujet ; soit le non verbal comme outil de détection du verbal pertinent.

    Depuis nous avons poursuivi nos investigations en appliquant ces enseignements à une approche quantitative de screening de concepts : la prise en compte de la réaction non verbale au concept allait-elle nous permettre de mieux discriminer les concepts les plus performants ?

    Les premiers résultats que nous avons obtenus sur la base d'un pilote sont extrêmement prometteurs : nous avons bâti une première échelle de mesure de la réaction non verbale à un concept (issue de la combinaison de plusieurs critères comportementaux objectifs et relativement aisés à codifiés). Cette échelle de mesure non verbale permet d'identifier un niveau d'adhésion émotionnelle au concept, et lorsqu'elle est combinée avec la mesure déclarative classique d'intérêt, apporte une valeur ajoutée très significative à l'analyse des résultats.

    Ainsi, dans notre exemple pilote, 8 idées de nouveaux produits étaient testées :

    Sur la base d'une analyse purement déclarative, nous aurions conclus de la sorte :
    . 1 concept performant à retenir,
    . 5 concepts "moyens" non discriminés entre eux,
    . 2 concepts rejetés

    Lorsque nous combinons verbal et non verbal, il s'avère que 3 pistes méritent d'être retenues :
    . Le concept le plus performant en déclaratif génère également une forte adhésion émotionnelle,
    . 1 des 5 pistes non discriminées se distingue également par la forte adhésion émotionnelle qu'elle suscite, tandis que les 4 autres  concepts génèrent un intérêt mou qui reste de l'ordre du déclaratif,
    . 1 des 2 concepts globalement rejeté est à retenir : il s'avère très segmentant et génère un fort engagement émotionnel chez toutes les personnes se déclarant intéressées, même si elle sont minoritaires.

    Parallèlement un des autres délivrables du protocole est la possibilité de mettre à jour la grammaire gestuelle utilisée par les répondants lorsqu'ils décrivent les bénéfices inférés à ces nouveaux produits.

    Nous sommes donc en mesure d'identifier les pistes les plus prometteuses et de recommander à l'annonceur une grammaire gestuelle à mettre en scène pour favoriser la bonne communication des bénéfices produits.

    Ces résultats préfigurent d'un potentiel très important pour ce type d'approche et nous ont conduits à solliciter un financement OSEO, qui vient de nous être accordé, et qui nous permettra de poursuivre nos travaux dans deux directions :

    . Tester la pertinence de l'approche dans le cadre des sniff-tests et des tests de goût, avec là encore la création d'échelles de mesure d'adhésion émotionnelle reposant sur la communication non verbale,

    . Rechercher des partenaires technologiques pour valider la possibilité d'une automatisation de la codification des réactions non verbales afin de gagner en productivité lors de l'analyse.

    A suivre ...

    (N'hésitez pas à nous contacter pour une présentation détaillée de ces travaux)

  • Repères au Congrès Esomar : 2006, 2007 ... et 2008 !

    Pin it!




    Pour ceux qui ne connaissent pas le Congrès Esomar, il faut savoir qu'il s'agit probablement de l'évènement le plus prestigieux du domaine des études marketing, au cours duquel des praticiens du monde entier viennent présenter leurs travaux les plus récents.

    Aussi c'est avec plaisir et fierté que nous avons appris notre sélection pour présenter un papier au prochain Congrès Esomar, et ce pour la troisième année consécutive (ce qui, à ma connaissance, constitue une première pour un institut d'études français :-) :

    . en 2006 au Congrès de Londres, nous avions présenté avec Moët Hennessy la naissance de l'outil Emotional Monitoring, véritable rupture dans la compréhension et le suivi de l'imaginaire de marque, et qui est maintenant devenu une licence avec des partenaires aux Etats-Unis (PERT), en Allemagne (OPINION) et en Espagne (ADVIRA) qui proposent Emotional Monitoring à leurs propres clients.

    . en 2007 notre intervention au Congrès de Berlin portait sur notre implantation dans le monde virtuel Second Life,

    . enfin, en 2008 à Montreal, nous présenterons avec Danone Research un papier sur la prise en compte du non verbal dans nos approches d'études, via la VideoEtude, création de notre partenaire Franck Saunier. Il s'agit de tout un champ de recherche qui vise à approcher le consommateur de manière holistique, en ne séparant à aucun stade de l'étude communication verbale et non verbale. Au delà des aspects théoriques, nous présenterons des exemples d'applications très concrètes dans deux domaines qui nous semblent particulièrement prometteurs : d'une part la détection d'Insights inconscients à même d'aider à ancrer des innovations de rupture, d'autre part la mesure de l'engagement émotionnel suscité par un stimuli (concept, communication, produit...).