Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

fractales

  • Les sciences peuvent elles encore faire progresser le marketing ?

    Pin it!

    les_sciences_2_2.jpg

    La recherche marketing s'est développée en procédant par intégration d'apports scientifiques divers : en particulier ceux de la psychologie, de la sociologie, mais aussi des mathématiques (les statistiques) 

    Le marketing a-t-il beaucoup à gagner à intégrer les avancées scientifiques récentes ?

    Dans quels domaines ?

    Pour quelles applications, et quels bénéfices pour les entreprises ?

    Ces questions constituent le thème du dossier du mois de Market Research News.

    Voici la restranscription de mon interview menée à cette occasion par Thierry Semblat (*)

    Thierry Semblat : Est-ce si évident que le marketing puisse beaucoup progresser via les avancées scientifiques récentes ?

    François Abiven : Oui. Il y a eu le développement de connaissances qui devraient fortement impacter le marketing. Parmi celles-ci, les plus importantes me semblent être celles qui concernent le fonctionnement de l’humain, tout ce qui est lié aux neurosciences et à la meilleure compréhension du fonctionnement du cerveau humain. Les travaux de Damasio, dont on parle depuis déjà quelques années, ont clairement montré l’importance du système automatique, inconscient, émotionnel dans nos choix et nos prises de décision. Et cela nous amène forcément à revoir la façon de faire du marketing et des études.

    Qu’est-ce qu’il y a d’extraordinairement nouveau dans ces travaux ? La découverte de l’inconscient n’est pas vraiment une nouveauté…

    Ce qui est nouveau, c’est ce que ce que nous avons appris précisément sur la question de la prise de décision. Avant ces travaux, on avait l’image de l’humain comme ayant la capacité de poser et d’analyser des options de façon très réfléchie, rationnelle, et de prendre ainsi des décisions à l’issue de cette analyse. Hors, on se rend compte que dans la plupart des cas, la décision est beaucoup plus « automatique », inconsciente : le cerveau va faire appel à la mémoire antérieure pour nous aider à prendre une décision, cela va donc passer par des circuits très rapides ; et le conscient intervient après coup, pour justifier et rationnaliser la décision qui a été prise. Aujourd’hui, ces mécanismes-là sont avérés, plus personne de sérieux ne les conteste.

    Qu’est ce que cela implique pour les études ?

    Cela remet en question le fait de se baser exclusivement sur ce que déclare le consommateur. Quand on pense à des protocoles d’études où l’on met le consommateur face à deux options de packaging pour lui demander lequel fait le plus efficace, c’est évident que l’on obtient des réponses complètement rationnalisées et donc biaisées.

    Ce sont quand même deux choses différentes, que d’une part de mettre le consommateur en situation d’expert (pour juger par exemple de l’efficacité d’un packaging), et d’autre part recueillir ses perceptions…

    C’est vrai. Mais ce qui est clairement invalidé, ce sont ces questionnaires très longs où l’on demande à l’interviewé de s’exprimer sur l’ensemble des items de perception pour lui demander in fine quel produit il achèterait ; ce n’est pas cohérent avec la réalité du consommateur. Le plus souvent, celui-ci ne maitrise pas ses choix. Bien sûr, on connaît les limites du déclaratif depuis longtemps : c’est pour cela par exemple que l’on utilise les techniques projectives dans les études qualitatives. C’est un premier niveau bien intégré et qui garde toute sa pertinence. Mais il faut aller plus loin, revoir les protocoles des études quantitatives pour intégrer l’importance du spontané et de l’émotionnel.

    Quelles sont les techniques qui vont vers cela ? 

    Si on pousse au plus loin, il y a les techniques d’IRM, avec ces expériences où l’on observe chez les consommateurs quelles zones de leurs cerveaux sont activées selon les stimulis qu’on leurs présente. On sait par exemple que consommer Coca Cola ou Pepsi Cola n’active pas les mêmes zones du cerveau ! C’est une voie intéressante, mais on ne sait pas bien saisir les leviers ! Un peu plus simplement, il y a les électro-encéphalogrammes, dont l’usage se développe beaucoup, en particulier aux UK. Les résultats semblent là aussi intéressants, mais là encore, on obtient beaucoup de données non directement exploitables.  Et assez récemment, j’ai découvert l’existence d’un panel, aux USA, constitué de consommateurs ayant accepté d’être connecté à des systèmes de mesure de l’intensité électro-dermale (la conductance de la peau). On mesure là l’impact émotionnel. Toutes ces techniques visent bien, au-delà du déclaratif, à mesurer cet impact. Mais la question de l’interprétation subsiste là aussi…

    La clé de voute est claire : c’est la limite du rationnel. On utilise donc des techniques pour mesurer ce qui ne l’est pas et ce qui relève de l’émotionnel. Mais ce que vous dites de la difficulté commune à ces techniques, c’est que l’on ne sait quand même pas très bien comment les exploiter… 

    Il y a en effet deux enjeux. Le premier est celui de l’industrialisation des process pour ce type d’études, ce qui est en train de progresser fortement avec des outils et des appareillages de moins en moins couteux et intrusifs. Et l’autre enjeu est bien celui de l’interprétation, de la définition de normes, et de la connaissance. Mais on avance !

    Il y a d’autres techniques encore ?

    Bien sûr. Il y a en particulier les systèmes d’eye-tracking, que l’on utilise chez Repères pour la mesure de l’impact émotionnel. Plus précisément, on enregistre le niveau d’excitation, via la dilatation de la pupille, la fixité du regard, la fréquence de clignement des yeux… On est en mesure de construire ainsi un score d’activation du répondant.

    Cela fonctionne bien, tout en étant facile à mettre en place. Mais la limite ici, c’est que si l’on mesure bien un certain degré d’excitation, on ne sait pas en revanche si l’on a affaire à du positif ou à du négatif… Cela signifie qu’il faut combiner ces mesures avec des questions ouvertes…. Mais la technique que nous développons aujourd’hui et qui nous paraît très intéressante est celle de la reconnaissance faciale.

    Parlons-en donc !

    Le principe est d’intégrer le non verbal et les émotions via l’enregistrement et l’analyse des expressions et de la gestuelle des consommateurs. Et là pour le coup, on dispose clairement de la valence : on sait si l’émotion est positive ou négative ! On sait déterminer si la personne est dans la joie, la peur, la surprise,… Les émotions de base sont bien appréhendées, codifiées, validées, et ce de façon universelle. On se sert bien sûr des travaux de Paul Ekman, ce chercheur américain qui depuis les années 70 a étudié les expressions faciales, et a mis en évidence tout un langage. Et on est bien dans l’inné : même des personnes nées aveugles utilisent les mêmes expressions faciales que celles qui n’ont pas ce handicap. Nous avons mené plusieurs expérimentations avec ces bases-là sur des tests de produits alimentaires, et plus récemment sur du « sniff test » cosmétique, ou des concepts. Et les résultats sont vraiment très intéressants : nous avons été amenés à  enrichir la classification de Paul Ekman des émotions de base en y intégrant des descripteurs non verbaux spécifiquement adaptés à nos protocoles de test ; nous avons pu ainsi vérifier le gain significatif de discrimination entre les objets testés. Nous sommes désormais dans une phase qui consiste à industrialiser la mesure et la codification de ces expressions pour les placer dans des process études.

    Quels sont les principaux avantages apportés par ce type d’études ?

    Un des gros enjeux marketing, c’est de diminuer le taux d’échecs des lancements de nouveaux produits, qui est aujourd’hui très élevé, proche des 90% disent certains. Bien sûr, il est toujours difficile de faire la part des choses, entre la qualité du concept, et les aspects d’exécution et de mise en œuvre. Mais le fait est que la prédictivité des approches études « classiques »  n’est pas suffisante. Ces nouvelles approches doivent donc mieux prédire les comportements des consommateurs.

    Ces techniques ont aussi l’intérêt de mieux discriminer les concepts ou les produits, là où l’usage du déclaratif donne le plus souvent des résultats assez « plats ». Alors que la question de l’annonceur est bien sûr de savoir lequel de ces produits ou concepts peut susciter le plus d’enthousiasme, le plus d’impact…

    Cela remet complètement en cause l’intérêt du déclaratif ? 

    Ah non ! Pour moi il s’agit bien d’une combinatoire. Dans les essais que nous avons menés, le croisement entre les résultats issus du déclaratif et ceux provenant du non déclaratifs sont très cohérents. Mais le non-verbal donne un relief, un contraste qui est nettement supérieur. Conserver le déclaratif permet déjà se rassurer ! Mais surtout, l’idée est que la mesure, le score proviendra du non-verbal, mais que l’explication sera donnée par le déclaratif, et tout particulièrement par les questions ouvertes permettant d’identifier les associations qui sont spontanément faites par le consommateur.

    D’autres avancées scientifiques vous semblent importantes à prendre en compte ?

    Il y a des progrès importants dans le domaine de l’économie, mais aussi des statistiques.

    On assiste au développement d’une nouvelle branche de la science économique, l’économie dite « comportementale », dont la dynamique est très forte, et qui bénéficie d’une forte reconnaissance avec le prix nobel attribué en 2002 à Daniel Kahneman. Cette branche invalide les théories économiques classiques, qui repose sur le principe de l’homo « oeconomicus » : cet être rationnel qui choisit l’option présentant la plus grande utilité pour lui. L’économie comportementale montre et explique qu’au contraire, les êtres humains adoptent souvent un comportement qui peut sembler paradoxal ou non-rationnel. Par exemple, le fait que chez l’être humain, l’aversion pour la perte l’emporte le plus souvent sur l’envie du gain, ce qui va générer des comportements d’inertie. Il y a aussi cet exemple bien intéressant d’un point de vue marketing, signalé par un livre très bien fait de Dan Ariely * : quand on demande aux gens de choisir entre un produit A et un produit B, le fait de rajouter un 3ème produit qui est une version dégradée de ce produit A booste considérablement l’attrait de ce dernier.

    Nous ne sommes pas encore très avancés sur la façon d’intégrer cela dans les études marketing, mais je suis persuadé que cela aura des impacts. Ce qui est clair néanmoins, c’est que cela invite à beaucoup intégrer les effets de contexte de décision (par exemple les scenarios d’offre), et à savoir gérer des plans d’expérience complexes.

    Tout cela est assez lié au développement de la neuroscience…

    Oui, au fond cela repose sur l’idée que l’être humain ne se réduit pas à un être rationnel. Il intègre dans ses choix des paramètres qui sont de l’ordre de l’inconscient, de l’émotionnel. C’est en tout cas la fin des visions purement utilitaristes des choses.

    Vous évoquiez aussi l’importance des avancées dans le domaine statistiques...

    Effectivement. Il y a eu ces découvertes sur ce que l’on appelle les lois de puissance, et les lois fractales. Benoit Mandelbrot est un de ses théoriciens les plus importants, avec des applications très intéressantes pour le monde de la finance, qui sont reprises dans un livre passionnant de Nassim Nicholas Taleb : Le Cygne noir*. La remise en cause de la loi normale est particulièrement intéressante dans ce champ théorique. C’est à dire qu’il y a un certain nombre de phénomènes pour lesquels il est tout à fait pertinent de raisonner en termes de moyennes et d’écarts types, et notamment toutes les grandeurs physiques (c’est le cas de la taille des gens par exemple, où la moyenne a un sens). Mais en revanche, il y a tout un volet de phénomènes, qui sont souvent liées aux activités humaines, dans lesquelles ces lois-là ne fonctionnent pas (la moyenne ne signifie rien de très pertinent par exemple pour ce qui est du revenu des gens). 

    Ce que cela nous dit fondamentalement, c’est que le fait de raisonner avec la théorie de la loi normale conduit à sous estimer la probabilité d’apparition d’évènements extrêmes.

    Les conséquences dramatiques de ces biais de raisonnement ont été flagrantes dans le domaine de la finance lors de la crise de 2008 : la plus grande partie des modèles financiers d’estimation des risques sont malheureusement construits sur une hypothèse de normalité qui sous-estime considérablement les variations envisageables.

    Quelle application cela peut-il avoir dans le domaine du marketing ?

    Cela reste encore très peu utilisé, mais l’utilisation des lois de puissance a sans doute un réel intérêt pour des estimations de ventes par exemple. Cela permettrait également de mieux traiter des phénomènes tels que celui dit de la « longue traine », qui s’applique très bien à l’économie numérique (le fait qu’en cumulé, la demande totale pour des objets faiblement demandés excèdent la demande pour les produits fortement demandés). Là aussi, on ne fait quasiment que démarrer dans l’intégration de ces avancées dans le marketing et les études, mais ce sont autant de chemins sur lesquels il faut progresser.

     

    (*) Ce texte est reproduit ici avec l'autorisation de MarketReserachNews. Vous pourrez retrouver sur le site l'ensemble des interventions autour de cette thématique : Yves Krief (Sorgem), Jean Paul Frappa (Expert analyse de données), François Laurent (Adetem et ConsumerInsight), Bruno Poyet (IM! impact mémoire) et Eric Janvier (Numsight).