Conjoint liquet benavent

681 vues

Publié le

Un bien vieux document (2000) et bien imparfait mais toujours pratique pour les étudiants

Publié dans : Données & analyses
0 commentaire
1 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

Aucun téléchargement
Vues
Nombre de vues
681
Sur SlideShare
0
Issues des intégrations
0
Intégrations
2
Actions
Partages
0
Téléchargements
18
Commentaires
0
J’aime
1
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Conjoint liquet benavent

  1. 1. L'analyse conjointe et ses applications en marketing Jean-Claude Liquet et Christophe Benavent Equipe de Recherche en Marketing - IAE de Lille. (2000)
  2. 2. Cette note pédagogique est en grande partie issue du travail effectué au cours du DEA de Jean-Claude Liquet. Elle a pour but de présenter de manière détaillée les principes théoriques et méthodologiques qui forment une des méthodes les plus originales d'analyse de la formation des préférences. Elle a aussi l'ambition de donner un parorama complet, même s'il n'est pas exhaustif, des applications et des développement de cette méthodologie en marketing. On soulignera qu'elle est un des principaux apports de cette disciplines aux méthodes des sciences sociales, même si à ce jour son emploi n'a guère débordé de ce domaine. Quoique ce ne soit pas l'objet de cette étude, notons que les possibilités de généralisation sont immenses. Outre l'application à l'étude de la formation de préférence, on peut imaginer sans effort que cette méthodologie puisse être employée partout où il s'agit de comprendre comment des propriétés indépendantes du sujet (les attributs d'un objet) influent sur la construction d'un ordre subjectif (similarité, préférence, ). 2
  3. 3. Sommaire 1. introduction............................................................................... 4 2. Problématique........................................................................... 7 2.1. Le concept d'utilité.............................................................................. 7 2.2. Un problème de mesure...................................................................... 9 2.3. L'instrument de mesure......................................................................10 2.3.1. La grandeur à mesurer.................................................................................. 11 2.3.2. Quelle échelle de mesure et quelle unité ?....................................................11 2.3.3. La loi de composition................................................................................... 12 2.3.4. La justesse de l' appareil de mesure..............................................................14 2.3.5. La fidélité de l'appareil de mesure................................................................ 14 2.3.6. La sensibilité.................................................................................................15 2.4. Le processus de l'analyse conjointe................................................... 15 3. La collecte des données...........................................................17 3.1. La détermination des attributs...........................................................17 3.2. La méthode des profils complets :......................................................18 3.2.1. Utilisation des plans factoriels......................................................................18 3.2.2. La présentation au répondant........................................................................19 3.3. Approche Trade-off et méthodes hybrides....................................... 20 4. La construction du modèle.....................................................23 4.1. Spécification du modèle...................................................................... 23 4.2. Estimation du modèle..........................................................................24 4.2.1. méthodes non métriques................................................................................24 4.2.1.1. Les préférences non ordinales........................................................25 4.2.2. méthodes métriques...................................................................................... 25 4.2.3. méthodes probabiliste................................................................................... 25 4.2.4. Les tests de confiance................................................................................... 26 5. Applications:............................................................................28 5.1. Un exemple d'application................................................................... 28 3
  4. 4. 5.1.1. Le choix des attributs et la constitution du plan d'expérience.......................28 5.2. Les applications................................................................................... 32 5.2.1. Un bilan des applications commerciales.......................................................32 5.2.2. Quelques exemples d'application..................................................................33 · Comparaison internationale........................................................................33 · Cartes de fidélité........................................................................................ 33 · Extension des lignes de produits................................................................ 33 5.2.3. Typologie des domaine d'application........................................................... 33 5.3. Les prolongements...............................................................................34 5.3.1. Segmentation.................................................................................................34 5.3.2. Simulation.....................................................................................................34 5.3.3. Optimisation..................................................................................................34 6. Développements et recherches...............................................35 6.1. Le choix du modèle de préférence .....................................................37 6.2. La collecte des données....................................................................... 37 6.3. Construction des stimuli..................................................................... 37 6.4. Présentation du stimulus.....................................................................37 6.5. Echelle de mesure................................................................................ 38 6.6. Procédure d 'estimation...................................................................... 38 6.6.1. Améliorations................................................................................................38 6.6.2. Intégration des effets d'interaction................................................................39 6.7. Fiabilité et validité de l'analyse conjointe......................................... 39 6.7.1. Test de Fiabilité............................................................................................ 39 6.7.2. Test de validité..............................................................................................39 6.7.3. Autres considérations....................................................................................39 7. Conclusion...............................................................................40 8. Bibliographie........................................................................... 41 - ANNEXE - Algorithmes de J.B. KRUSKAL..........................45 4
  5. 5. 1. introduction Technique ou méthode sont deux approches possibles de l'analyse conjointe; les auteurs en marketing depuis deux décennies adoptent l'une ou l'autre. Le présent travail n'a pas l'ambition d'alimenter ce débat, le but est de dégager une approche du réel. Ce réel est résolument celui du consommateur face au choix qui lui est offert lors de sa volonté d'appropriation d'un bien matériel. Ce mémoire se situant dans le cadre d'une recherche plus générale sur les avantages recherchés par les lecteurs de journaux quotidiens ; l'analyse conjointe peut-être un mode d'approche. Il est nécessaire que ce prédéterminé trouve une assise théorique. D'où la revue de connaissances en ce domaine, ou du moins l'approche de mises en oeuvre dont les résultats assurent une légitimité. Ceci pour l' intérêt immédiat. Cependant plus généralement l'analyse conjointe apparaît comme étant une des approches du réel à la croisée des chemins des sciences humaines. Elle n'est pas sans poser des questions fondamentales d'épistémologie des sciences de gestion et du marketing en particulier. La première de ces questions est "Comment le choix individuel peut-être agrégé au niveau macroscopique ?". Notons que l'analyse conjointe pose ce problème mais ne le résout pas. Deuxième question posée "Est ce que la quantification, même très élaborée englobe la réalité étudiée ?".Les termes employés souvent empruntés à la micro-économie (comme la notion d'utilité) sont révélateurs de la recherche d'une voie qui se dégagerait entre les modèles à priori reposant sur l'objectivité des choix pour mesurer la distance entre l'empirisme et la prévision modélisée. L'introduction de la mesure du stress est une concrétisation de cette volonté. L'analyse conjointe née des travaux des psychomètres est révélatrice d'une tendance toujours affirmée de comprendre le comportement du consommateur dans ses dimensions multiples comme être social, individuel et agent économique. Bien entendu l'analyse conjointe n'a pas toutes ces vertus, au risque de lui conférer le statut de théorie globale. Mais elle contient en son sein, dans sa démarche, la volonté d'une recherche de la complexité des actes de consommation ; des actes d'échanges de biens matériels ; des contradictions qui s'expriment dans ces actes dont l'une fait l'objet de l'approche par l'analyse conjointe : - entre le besoin ressenti et le besoin réalisé. A la croisée de disciplines diverses la séduction peut entraîner sur la voie de l'éclectisme, elle peut-être combattue par la délimitation du thème étudié et la généralisation prudente, contrôlée et justifiée. Lorsque l'analyse conjointe est étudiée selon son mode opératoire, les différents auteurs la classe dans les méthodes explicatives car elle vise à expliquer une variable ordinale (certains travaux s'étendent aux variables nominales) par plusieurs variables nominales 5
  6. 6. indépendantes. De fait l'ambition est bien d'expliquer, au delà de décrire, le comportement du consommateur. L'analyse conjointe, (terme préféré ici à l'autre très utilisé couramment d'analyse des mesures conjointes, qui est juste mais qui rappelle de façon trop prégnante le débat), sûrement promise à un développement important n'a pu se dégager et connaître ses premiers succès que grâce aux apports de la psychométrie et l'utilisation massive des outils de calculs statistiques qu'est la micro-informatique. L'arsenal mathématique, somme toute élémentaire, mais surtout la puissance de calculs nécessaires, les itérations nombreuses et fastidieuses sont résolues en terme de coût de temps, permettant de consacrer l'essentiel de l'énergie de l'expérimentateur au contrôle de validité à la vérification des hypothèses ou leur examen permanent. Comportant une heuristique nécessairement développée et une facilité relative de mise en oeuvre une reproductibilité dans le temps très stable l'analyse conjointe devrait pouvoir avoir des applications pratiques nombreuses, utiles parce que les techniques utilisées peuvent s'intégrer dans des procédures de veille et parce que l'analyse des résultats ne comporte pas de biais d'interprétation. Cet intérêt potentiel pour l'aide à la conduite d'entreprise a un besoin de développement évident, cela s'explique aussi par la relative jeunesse de l'analyse conjointe. La formalisation des attitudes en psychologie sociale remonte au milieux des années 50 avec Rosenberg 1956 en particulier, complété par Fishbein en 1967. Les formulations mathématiques sont dues aux psychologiciens EDWARDS et TVERSKY 1967. CARROL J.D. en août 1969 présente au séminaire de mathématique et psychologie de l'Université du Michigan un papier qui sera la référence s'appuyant notamment sur les travaux de Sydney SIEGEL (1956) portant sur les statistiques pour les sciences du comportement ainsi que ceux de J.B. KRUSKAL 1965. Après une polémique interdisciplinaire finalement courte dans le temps, les travaux de Paul GREEN et Yoram WIND présentés à la conférence de Madrid en 1972 marquent le véritable début de la prise en compte en recherche marketing de l'analyse conjointe. Même si Paul GREEN attribue le début à Luce et Tuckey (1964). Paul GREEN sera l'auteur de nombreux work-paper et articles associé à Yoram WIND ou ERAO ou SRINIVASSAN jusqu'en 1988. Les années 1980 verront un développement considérable aux U.S.A. WITTINK D. ET CATTIN B. "Commercial of Conjoint Analysis : on Update" Journal of marketing Vols 1989 estiment de l'ordre de 400 le nombre d'études effectuées chaque année aux U.S.A. entre 1980 et 1985. Ce développement rapide en particulier de la théorie à la pratique usuelle (une dizaine d'années) alimente la pertinence de l'approche, lui confère des "lettres de robustesse" constitue un socle solide sur lequel l'expérimentateur peut s'appuyer. L'objectif du mémoire se limitera à la description de la voie à suivre pour mener une analyse conjointe dans le but d'appréhender les choix d'un consommateur. Partant de la théorie qui est maintenant établie et ne souffrant plus aucune remise en cause, on s'attachera à montrer les choix qui s'offrent à l'expérimentateur au cours de sa démarche, les difficultés et avantages des voies possibles. 6
  7. 7. Les précautions de mise en oeuvre seront décrites pour que les biais éventuels soient éliminés. Une place sera réservée aux tests de validité et fiabilité, détour indispensable de toute étude.Dans le souci de compréhension assurée, des exemples d'études menées et publiées seront décrites. Malgré toutes les précautions méthodologiques quelques doutes persistent, c'est pourquoi les limites devront être tracées, gage de perspectives d'études et d'applications. 7
  8. 8. 2. Problématique. Le problème peut être résumé comme suit : Comment expliquer les préférences d'un consommateur entre différents objets à l'aide des attributs ou des caractéristiques qui décrivent cet objet. L'objectif est de mesurer l'effet conjoint de plusieurs variables indépendantes (explicatives), sur l'ordre des valeurs prises par une variable dépendante (la préférence) à expliquer. Ces deux formulations à priori peu ressemblantes désignent le même objet d'étude, la seconde donne la priorité à la mesure et s'ouvre ainsi à une généralisation de la méthode à d'autre problèmes que ceux du choix du consommateurs.. Une troisième approche du problème flatte l'intuition . Préfère-t-on être beau intelligent et en bonne santé plutôt que laid, bête et malade? La réponse est immédiate. Cependant si la question lui est posée sous la forme : "Préférez vous être beau et malade, ou laid et en bonne santé?". La réponse est plus riche et renseigne beaucoup plus sur le système de valeurs auquel se réfère l'individu. Celui-ci est confronté à un choix, il fait des compromis où l'avantage qu'il retire d'une caractéristique compense largement la caractéristique qu'il est amené à rejeter. Au delà de son côté caricatural, l'exemple montre que le nombre de choix est nécessairement limité et que cette limite s'impose au moment du choix. Le fabricant d'un produit qui a la volonté de le commercialiser, peut faire varier plusieurs attributs pour que son produit soit préféré. Il sait que le prix, la forme, le délai de livraison, la puissance, sont autant d'attributs qui se décomposent en plusieurs modalités. Le prix peut varier d'une valeur x à une valeur x + d1 ou x + d2 etc. La forme du produit ou son emballage peut-être divers. Il peut-être largement distribué ou rare dans les magasins de proximité ou chez les grands distributeurs etc... L'ensemble de ces caractéristiques obtiendront un optimum pour chacun des consommateurs, une préférence, un rang. La plus grande préférence ; le premier de la liste sera celui qui aura la plus grande valeur au regard du consommateur : il possède la plus grande utilité. Chacune des caractéristiques aura une valeur partielle, une préférence partielle. Comme on peut le constater l'approche que l'on veut mesurer est celle du consommateur, de l'individu. Chacun d'entre eux se réfère à des valeurs différentes, des réactions objectives ou subjectives différentes. 2.1. Le concept d'utilité Contrairement donc à la micro-économie où le concept d'utilité a pris naissance on ne s'intéresse pas à l'individu rationnel mais à l'individu tel qu'il est tel qu'il réagit dans une situation déterminée. On va mesurer de façon conjointe l'utilité globale et les utilités partielles. Ce concept d'utilité qui est en fait la seule grandeur à mesurer doit être définie. 8
  9. 9. Dans la théorie néoclassique l'individu se comporte de façon à maximiser son utilité, c'est à dire sa satisfaction compte tenu de ses ressources. · Il établit des préférences. · Si A est préféré à B et B à C alors A est préféré à C (La Transitivité). · L'individu préfère toujours les plus grandes quantités. · L'individu est limité par ses ressources. · Il ne fait pas de différence entre préférence et satisfaction. · L'information de l'acheteur est parfaite. Dans la nouvelle théorie économique Lancaster 1971 propose un modèle économique de la consommation où l'utilité est liée non au bien lui-même mais aux caractéristiques qui le compose. Ce modèle comporte trois hypothèses : · Hypothèse d'additivité et de linéarité L'utilité totale du produit est égal à la somme des utilités partielles fournies par les différentes caractéristique du produit. Ces utilités partielles sont proportionnelle à la quantité de caractéristiques. z Xi ijj J j  1 zi : utilité du produit j (quantité de services i rendus à l'utilisateur) xj : la quantité consommée du produit j aij : la quantité du service i contenue dans une unité du produit j. On peut récrire le modèle de manière matricielle Z = XA Z est le vecteur des quantités de caractéristiques consommées. A la matrice de transformation. X le vecteur des quantités de produits consommés. · Une hypothèse d'objectivité. Les éléments subjectifs des choix ne sont pas pris en compte.Le consommateur cherche à maximiser une fonction d'utilité sous contrainte. Maximiser U = u(Z) avec Z = AX et PX < b 9
  10. 10. A              a a a a a a a a a 11 1j 1n i1 i j i n m1 m j m n Z = ( z1, z2,...,zm ) X = ( x1, x2,...,xm) P = ( p1,p2,...,pm ) le vecteur prix. B = budget. Ce modèle se rapproche de nos préoccupations, cependant les hypothèses d'universalité, linéarité, additivité, objectivité sont discutables. Il supporte mal la mise en face de la réalité. En particulier plus n'est pas synonyme de mieux. La théorie économique reste axiomatique et peu explicative. C'est pourquoi nous retiendrons la pertinence de considérer une fonction d'utilité mais contrairement aux théories économiques, les variables de la fonction ne sont pas prédéterminées ni la forme de la fonction. Les variables ne seront déterminées que par le cadre d'étude : le produit et le marché. Il n'y a pas de vocation d'universalité. Plus concrètement, sans discuter plus avant des avantages et inconvénients de telle ou telle approche, il s'agit de dégager une notion d'utilité. U = f ( U1,.................Un ) où U est l'utilité globale fonction d'utilités partielles sans à priori sur la nature de la fonction. L'utilité est une grandeur dont la nature et la métrique sont attachées au cadre d'étude. Elle est attachée à l'individu consommateur singulier d'un produit, elle exprime sa préférence1 . 2.2. Un problème de mesure Il s'agit de mesurer et donc de définir et de construire une échelle ordinale d'utilité. Un parallèle peut-être fait ici avec la température d'un corps (il est usuel de se référer à la température lorsque l'on veut construire une échelle d'intervalle). Celle-ci est définie comme suit. Un état le 0° dans l'échelle Celsius est affecté à un autre état celui du passage de l'eau solide à l'eau liquide sous contrainte extérieure définie. Cette affectation du 0 est un premier axiome, le deuxième est l'affectation de 100 à l'état de changement de l'eau de liquide en gaz sous les mêmes contraintes externes. On divise l'échelle en 100 pour définir une unité et on choisit comme modèle mathématique une fonction affine. 1 Comme si deux siècles de théories économiques n'ont été que redéfinition, il est signifiant de revenir à un des pères de la théorie économique. ADAM SMITH définissait l'utilité comme l'expression de la valeur d'usage, c'est de cela dont il est question en Sciences de Gestion et de sa mesure et rien d'autre. 10
  11. 11. La question posée est la fabrication d'une échelle entre deux états de tension et le référent : un modèle mathématique permettant de passer d'un état de tension à un autre. Pour la température le référent est la fonction affine dont on sait maintenant qu'elle n'est vérifiée qu'en première approximation lorsque l'instrument de mesure est la dilatation. Pour poursuivre le parallèle il suffit d'imaginer un instrument de mesure qui serait constitué de L1 longueur de matière 1 ajouté à L2 longueur de matière 2 ajouté à L3 longueur de matière 3. Une élévation de température t s'écrit : Lo + L = lo1+lo2+lo3+a1t + ao2t + a3t a1,a2,,a3 sont les coefficients propres à chaque corps. Ce qui montre que la valeur finale est fonction additive des valeurs partielles. Ceci n'a évidemment pas valeur démonstrative.Cette digression montre que le problème posé est de même nature c'est à dire qu'il s'agit de construire un instrument de mesure par la définition d'une grandeur, d'une unité, et d'une fonction de référence. Ceci est également vrai pour l'utilité au sens des économistes cependant en gestion les grandeurs ne sont pas nécessairement universelles, il s'agit donc de construire un instrument de mesure pour une grandeur à définir sur une échelle d'intervalle dans un contexte singulier et des variables pertinentes propres à ce contexte. Les variables qui seront utilisées n'ont pas valeur de concept universel. L'analyse conjointe est une approche de ce contexte singulier ce n'est pas un instrument de mesure universel. Chaque étude est particulière, l'expérimentateur n'a rien d'autre que son expertise ou celle qu'il peut s'attribuer et un fil rouge ; une méthode d'approche. S'il fallait encore convaincre, l'exemple du beau, intelligent montre à l'évidence que s'il est possible de construire une relation d'ordre celle ci a un tel poids subjectif qu'il ne peut y avoir d'approche scientifique de ce réel que dans un contexte extrêmement serré défini. L'échelle de beauté est à la fois subjective et culturelle, elle ne peut avoir de valeur et d'échelle commune à plusieurs individus que s'il y a une homogénéité de la population répondante, ici une culture semblable ou un environnement identique. De même que pour l'intelligence, une échelle de mesure spécifique propre à la situation est à construire ou choisir parmi celles qui existent dans la littérature scientifique et affectées au cadre singulier et dans tous les cas contestables. L'analyse conjointe apparaît donc bien d'abord comme une méthode de construction d'un instrument de mesure. C'est la méthode qui est commune à tous les instruments de mesure, c'est bien elle qui a vocation d'universalité, c'est elle qui est objet de démarche scientifique, c'est la méthode qui doit faire l'objet d'assise théorique. Elle demeure, indépendamment de l'instrument lui-même. La température existe même si le thermomètre est cassé, et l'utilité ? C'est ce qu'il faut montrer. 2.3. L'instrument de mesure S'agissant de construire un instrument de mesure, les questions qui sont posées sont les suivantes. · Quelle grandeur mesure-t-on ? 11
  12. 12. · A l'aide de quelles grandeurs directement observables ? · Quelle est l'échelle de mesure et quelle est l'unité ? · Quelle est la fonction qui relie ces grandeurs ? · Quel instrument mesure l'écart entre les expériences empiriques et la théorie ? On dit en langage des sciences de la nature que l'instrument est juste, fidèle, sensible. Donner une réponse à l'ensemble de ces questions indépendamment des contingences de mise en oeuvre c'est asseoir un cadre théorique. 2.3.1. La grandeur à mesurer La grandeur à mesurer n'est pas directement observable il est donc nécessaire de mesurer ce qui l'est. Quel reflet de l'utilité est mesurable ? L'utilité a été décrite au chapitre précédent. C'est la préférence d'un individu pour un objet parmi plusieurs parce qu'il lui sera plus utile, parce qu'il aura une valeur d'usage plus grande. L'individu n'a pas le choix d'un objet idéal2 mais doit exercer sa préférence sur des objets déterminés dont le nombre est limité . On suppose qu'il effectue son choix en fonction des attributs des objets. Tous les objets ont des attributs communs qui contribuent à l'utilité. On parlera d'utilité partielle, car cette utilité n'est pas caractéristique de l'objet global mais caractéristique de l'attribut considéré. Les objets ainsi décrits ont valeur de concept, l'ensemble des attributs ne décrivent pas les objets dans leur globalité mais dans ce qu'ils ont de commun. L'utilité conceptualise l'objet pour l'individu ce qui s'écrit. U = f ( u1, u2, u3,....,un ) où u 1...............u n sont les caractéristiques intrinsèques de l'objet. Se plaçant ici dans un cadre théorique il n'est pas utile d'aller plus avant. On vient de poser un axiome que l'utilité d'un objet pour un consommateur (sa valeur d'usage) est fonction des utilités partielles, c'est la quantité d'avantages retirée de la consommation des attributs d'un objet. 2.3.2. Quelle échelle de mesure et quelle unité ? Classer (relation d'ordre) et effectuer des opérations mathématiques élémentaires nécessitent une origine et une unité. Cette échelle est à construire pour chaque cadre d'étude singulière mais doit répondre à des critères précis. 2Ceci dit, l'individu peut construire son système de référence à partir d'un pivot : le produit idéal. Il peut aussi le construire à partir d'un autre : le produit anti-idéal. Une question intéressante de recherche est de connaître quel système d'ancrage est adopté par l'individu. 12
  13. 13. · L'origine (quoique non obligatoire puisque l'on cherche une échelle d'intervalle et non une échelle absolue) sera l'utilité de l'objet choisi par l'expérimentateur comme référence3 . · L'unité est aussi un choix de l'expérimentateur , comme il sera spécifié dans les paragraphes suivants, l'unité est choisie de façon à ce que l'on puisse distinguer les 2 utilités et que la plus grande et la plus petite valeur de l'expérience soient dans des proportions facilement lisibles. Il y a beaucoup de subjectivité, d'habileté de l'expérimentateur à ce niveau. Ce n'est ni plus ni moins qu'une procédure d'étalonnage, aussi subjective que les travaux de DELAMBRE et MECHIN définissant l'unité de longueur. C'est ensuite une règle qui bien que subjective s'impose jusqu'au bout de l'expérience. 2.3.3. La loi de composition Elle a pour but de lier les grandeurs d'utilité entre elles. C'est à dire les valeurs d'usage, c'est à dire aussi la préférence d'un produit par rapport à un autre. La loi de préférence peut s'exprimer ainsi pour l'individu. P3 P2 P1 U1 U2 U3 Le répondant classe P3 après P2 après P1 f(P3) = U3 f(P2) = U2 f(P1) = U1 Alors on pose U1 > U2 > U3 où ( U1, U2, U3 )  IR. Um est l'utilité du produit pm. C'est ainsi que l'image du classement est une échelle ordinale. Les utilités sont le reflet du classement. Notons que la fonction de transformation est indéterminée : il existe une 3 Parmi les possibilités offertes les plus commune sont celle de l'objet préféré, celle de l'objet médian ou moyen. 13
  14. 14. infinité de fonction qui permette de transformer l'ordre en valeur numérique. Cette indétermination s'étend aussi à la famille des transformations affines. De même qu'il n'y a aucun sens de dire qu'il fait deux fois plus chaud lorsque la température est de 30° que lorsqu'il fait 15°, il est absurde de dire qu'un produit est préféré 2 fois plus qu'un autre. On ne mesure que des ordres de situation de tension. Seuls les écarts ont une pertinence de proportionnalité ainsi : U3 = 2´U1 n'a pas de sens mais ( U3-U2 ) = ( U2-U1) a un sens. Um' est l'utilité d'un produit m pour l'individu Le 2 ème axiome ici posé est : Ui = f ( uj ) où uj sont les utilités des attributs du produit m pour l'individu i. On peut toujours écrire une fonction quelconque sous forme polynomiale U = Uo + a1 U1 + a2 U2 + a3 U3 +..........+ an Un + g(U1....Un ) où g est une fonction de composition si les vecteurs ui ne sont pas orthogonaux ou ce qui revient à exprimer une tautologie, la préférence pour un attribut ne dépend pas de la préférence pour un autre attribut : l'indépendance des grandeurs. pour n = 3 , U=uuuuuuuuu uuu Seule l'expérience montre qu'une 2 ème approximation qui consiste à réduire la fonction à un développement linéaire donne des résultats robustes. A condition que les attributs ne soient pas trop corrélés (GREEN J.M.R. 1978). Le modèle peut s'écrire sous la forme : U= U + ai Ui En fait, le consommateur ne choisit pas l'utilité partielle d'un attribut mais seulement le niveau de cet attribut. L'utilité partielle n'est donc pas celle de l'attribut mais de la caractéristique choisie de cet attribut. Si par exemple l'attribut est le prix sur 3 niveaux 1 F ; 1,50 F et 2,50 F, le choix se porte sur un des 3 niveaux à l'exclusion des deux autres. Il est donc nécessaire de formaliser ceci par l'affectation d'un coefficient A pouvant prendre la valeur 0 ou 1. La dispersion des mesures autour des valeurs théoriques oblige pour être parfaitement rigoureux d'affecter un élément d'incertitude dû à l'instrument de mesure (la résultante des approximations). Finalement la formulation générale de la fonction attribut s'écrit. U U u Ai i j k j k k K j J      0 1 1  14
  15. 15. Où U0 est l'utilité de base (Utilité d'un produit qui ne contient aucun des caractères étudiés). Ui est l'utilité pour l'individu i uijk est l'utilité du niveau k de l'attribut j pour l'individu i Aijk est la variable qui prend la valeur 0 ou 1 sur la modalité k de l'attribut j. Le pas à pas effectué ici pour arriver à une formulation relativement simple, puisqu'il ne s'agit que d'une fonction additive, n'a pour but que de montrer le processus de décomposition de l'attribut de la préférence d'un objet pour un individu. La perception de l'individu étant globale tout le mérite de l'expérimentateur sera cette décomposition au pas à pas qui lui permettra de formaliser. Trois approximations ont été faites : deux décompositions linéaires, l'introduction d'un terme d'erreur. Le modèle doit donc être testé avant d'être opérationnel. 2.4. Le processus de l'analyse conjointe A ce stade de l'étude de l'analyse conjointe deux définitions stables. - La grandeur étudiée est l'utilité, - Un instrument de mesure est défini. Ceci constitue la base théorique mais ne dit rien sur le mode opératoire. La spécificité de l'analyse conjointe est, celà n'a pas été assez souligné une méthode de décomposition de l'utilité. Son mode opératoire consiste essentiellement à dériver par le processus de mesure, des valeurs partielles d'utilité pour recomposer la préférence finale. On renvoit à l'exposé de Kriegel et Green (1993), pour un rappel historique de ces méthodes. Un second aspect important de l'analyse conjointe est d'être une méthode desagrégées. La mesure est effectuée au niveau individuel. Ses résultats le sont aussi. Cette dernière particularité fond de l'analyse conjointe un outil puissant qui s'intégre dans des processus d'analyse du choix plus globaux. Ses résultats sont d'une utilité particulière dans trois domaines : - analyse de la segmentation de marché (analyse de l'hétérogénéité des utilités partielles et de leur mesures dérivées) - optimisation de produit sous les contraintes de productions - simulation de stratégies de marché. Si les notions de grandeur et d'instrument de mesures sont essentielles le protocole expérimental prend ici toute sa valeur puisqu'il s'exerce dans des cadres divers. Les étapes de l'analyse constituent des références pour l'analyste. Sa liberté de mise en oeuvre et d'interprétation prend toute sa dimension à l'intérieur de chaque étape. 15
  16. 16. Identifier les attributs pertinents Définir les niveaux (modalités) Définir les paniers d'attributs (concepts) Recueillir les préférences calculer les utilités et les poids des attributs Segmenter Simuler Optimiser 16
  17. 17. 3. La collecte des données La collecte des données est fortement influencée par le protocole d'étude. S'agissant de mesurer des préférences, la collecte de celles-ci pour chaque individu sera l'objet de l'étude.La réduction des données est ici antérieure pour une part à l'observation terrain. La constitution du "questionnaire" prend une importance méthodologique respectant ce protocole. Cinq grand types de méthodes de recueil de données peuvent être identifiées : 1 - Les tables trade-off : les répondants doivent faire des choix entre entre de options définies par des tableaux croisant les niveaux de deux attributs 2 - des techniques de profils complets : chaque répondants est exposé à un ensemble complet de combinaison d'attributs, après avoir trié les concepts (combinaisons d'attributs) on leur demande d'attribuer une note correspondant à une intention d'achat. 3 - Techniques de compositions : Telle que la technique CASEMAP (Srinavasan et Wyner). Il ne s'agit pas à vrai dire d'une technique d'analyse conjointe mais plutôt d'un modèle de composition qui réclame une mesure séparée de l'importance des attributs et de l'évaluation de ceux-ci. 4 - Techniques hybrides : chaque répondant reçoit aussi bien une tâche d'évaluation auto-expliquée et un petit ensemble de profils à évaluer. La fonction d'utilité est un hybride des deux ensembles de données (Green , 1984) 5 - Analyse Conjointe Adaptative : Dans cette méthode les individus sont soumis à l'exposition de profil deux à deux. Ils emettent un jugement de préférences sur les paires de concepts. (Johnson, 1987). Ces tâches sont administrées par ordinateur. 3.1. La détermination des attributs S'agissant d'étudier la préférence d'une population d'individus pour un produit se pose la question de la pertinence du choix des attributs avant toute mise en oeuvre du protocole. Déterminer le panier d'attributs et la population, c'est définir le cadre de l'étude. Avant de rechercher les méthodes de réduction des données, il est indispensable que le panier d'attributs constituent un ensemble d'attributs déterminants , que ceux-ci soient indépendants, qu'ils décrivent complètement le produit enfin qu'ils soient manipulables. La présentation de l'analyse conjointe ne peut se faire sans soulever ce problème essentiel. Mais il est hors de propos ici de faire un descriptif complet des problèmes posés par la modélisation du produit. Les travaux de référence sont ceux de ROSENBERG 1956, FISHBEIN 1967 dans le domaine de la définition de l'attitude en psychosociologie ; et de WILKIE et PESSEMIER 1973 dans le domaine du marketing. Notons simplement que l'on retient 4 qualités d'attributs dans l'étude des attitudes la saillance, l'importance, la déterminance et la redondance. 17
  18. 18. - Un ensemble d'attributs déterminants., c'est à dire d'attributs importants et différenciant La déterminance implique de mesurer à la fois l'importance des caractéristiques pour le produit mais également la différenciation entre les attributs. - Un ensemble d'attributs indépendants mesuré par la corrélation. De trop fortes corrélations aboutissent à de la redondance et le risque est de la mesurer à l'aide de l'analyse conjointe au lieu des préférences qui font l'objet de l'étude. - Un ensemble d'attributs décrivant complètement le produit. Le degré de description est souvent subjectif. De nombreuses techniques existent pour déterminer l'ensemble des attributs qui identifie complètement l'objet à étudier. Les méthodes qualitatives d'entretien auprès d'experts et de consommateurs sont les plus utilisées. Quitte à réduire en fonction de l'importance de chaque attribut. - Un ensemble d'attributs manipulables. L'outil à construire doit être manipulé en terme de direction d'entreprise, chacun des attributs doit être nécessairement appréhendable et identifiable. Il ne servirait à rien que la collecte des données nécessitent un appareillage tellement complexe qu'il constituerait un obstacle insurmontable. 3.2. La méthode des profils complets : 3.2.1. Utilisation des plans factoriels Plusieurs méthodes peuvent être utilisées : les plans fractionnels par exemple et plus particulièrement les blocs incomplets équilibrés. Sans entrer dans le détail de ces plans fractionnels incomplets, il est utiles de se convaincre de la possibilité d'une telle réduction avant d'aborder la procédure orthoplan proposé par le logiciel de statistique S.P.S.S. Le carré latin (ou gréco-latin) est un plan factoriel fractionnaire. Sur un exemple cela apparaît de façon clair. Supposons 3 modalités pour 3 attributs ABC Il s'agit de classer 3x3x3 = 27 objets Le carré latin s'écrit de façon à utiliser en colonne 1 attribut de 3 modalités en ligne un 2ème attribut de 3 modalités et de faire une permutation circulaire avec les 3 modalités du 3 ème attribut. Soit le carré : B1 B2 B3 A1 C1 C3 C2 A2 C2 C1 C3 A3 C3 C2 C1 18
  19. 19. On obtient les 9 permutations : A1 B1 C1 A1 B2 C3 A1 B3 C2 A2 B1 C2 , A2 B2 C1 A2 B3 C3 A3 B1 C3 A3 C2 B2 A3 B3 C1 Chacune des modalités n'apparaît que 3 fois il y a une réduction à 9 objets au lieu de 27. Les autres méthodes plus complexes reposent sur le même principe. On impose cependant que toutes les caractéristiques dans les combinaisons se rencontrent un même nombre de fois dans l'ensemble du test. La procédure ORTHOPLAN de S.P.S.S. utilise un algorithme dont le détail n'est pas fourni dans le cahier utilisateur mais simplement décrit. Le schéma consiste à établir un tableau dit orthogonal des modalités des attributs et de ne retenir que le minimum de combinaisons nécessaires à l'étude complète (on peut indiquer à priori le nombre souhaité) ainsi dans l'exemple célèbre de 108 possibilités de Green et Wind de 1973 S.P.S.S. on retient 18 nécessaires pour estimer toutes les utilités. 3.2.2. La présentation au répondant Il s'agit de présenter au répondant des objets artificiels formés par une combinatoire de modalités d'attributs. Ces profils peuvent être présentés sous différentes formes. La procédure "PLANCARD" de S.P.S.S. les éditent directement lié à la procédure orthoplan qui a sélectionné auparavant les profils). Ces fiches peuvent être présentées telles ou bien faire l'objet d'une image ou même d'un prototype. Yves EVRARD Bernard PRAS et Elyette ROUX dans leur ouvrage MARKET p 479 1993 NATHAN décrivent une expérience ; une étude sur les pizzas surgelées . Il a été fabriqué un échantillon de 81 pizzas. Avec ou sans olives, avec ou sans anchois, chaque consommateur goûtait 5 des 81 produits. 5 profils sur les 81 possibles. Pour le jugement des profils plusieurs schémas alternatifs - Le classement des produits selon l'ordre des préférences - La notation de chaque profil sur une échelle. - La comparaison par paire de profils pris deux par deux (two for two) On peut également présenter les résultats sous la forme d'un simple classement de préférence, ou en mesures métriques sur une échelle d'intervalle de préférences. S'ajoute un autre problème celui de l'influence de l'ordre de présentation des concepts. Ce problème est noté notemennt par Louvière(1988) a été étudié empiriquement par Chrzan, K. (1994), qui montre qu'il existe un effet sans pour autant dégager une logique interprétable. Leur recommandation est de varier l'ordre d'exposition pour en disperser les effets. 19
  20. 20. Ce problème d'ampleur général (voir par exemple ....), est celui de l'influence d'un ordre de présentation sur la construction d'un jugement. Il est lié aux questions d'apprentissage. Ce problème présente ainsi deux facettes : l'une méthodologique se conçoit comme la manière d'éviter de tels problème, l'autre théorique est liée à la formation du choix. Contrairement aux hypothèses micro-économique classique, la structure de préférence ne dépend pas seulement de la rationalité du sujet mais aussi de son histoire. Pour autant que cette hypothèse soit juste l'analyse conjointe apparait comme une méthode ahistorique qui considère un consommateur sans mémoire. 3.3. Approche Trade-off et méthodes hybrides Deux modes de soumission au répondant sont possibles.L'approche "Trade-off", le compromis entre deux alternatives, appelée également le pas à pas.Ou le profil complet. L'approche "Trade-off" consiste à comparer les attributs pris deux à deux présentés sous la forme d'une matrice croisant 2 sous-ensemble de modalités. La question posée au consommateur est simple. Celui-ci ne juge que 2 attributs, cependant on peut émettre l'opinion qu'il a en tête les autres attributs lors de la présentation. Soit 2 attributs A et B A Ayant 3 modalités A1 A2 A3 b Ayant 4 modalités B1 B2 B3 Bw La matrice représentant les 12 possibilités de choix s'écrit aisément sous la forme. A1 A2 A3 B1 B2 B3 B4 Le répondant doit remplir les cases selon ses préférences de 1 à 12 : A1 A2 A3 B1 2 1 3 B2 5 4 6 B3 8 7 9 B4 11 10 12 On peut donner une note à chaque niveau : 20
  21. 21. B1 : 2+1+3=6 et le ramener à la moyenne 6/12=0,5 B2 : 5+4+6=15-----------------------------------15/12= 1,25 B3 : 8+7+9=24-----------------------------------24/12=2 B4 : 11+10+12=33------------------------------- 33/12=2,75 De même pour les attributs A : A1 : 2+5+8+11=26-------------------------26/12=2,17 A2 : 1+4+7+10=22-------------------------22/12=1,83 A3 : 3+6+9+12=30-------------------------30/12=2,5 au couple (A1, B1) on peut désormais attribuer la note 0,5+2,17 = 2,67 au couple (A2,B3) ----------------------------------1,83+2 = 2,83 etc. Pour l'ensemble des couples d'où l'on déduit le tableau matriciel : A1 A2 A3 B1 2,67 2,33 3 B2 3,42 3,08 3,75 B3 4,17 3,83 4,50 B4 4,92 4,58 5,25 Les nombres reconstituent l'ordre de préférence, ils ont également l'avantage d'être relatif à toutes les modalités de tous les attributs. Ainsi les notes de l'attribut B varie de 2,75 à 0,5 son étendu sera 2,25=2,75-0,5 et l'attribut A varie de 2,50 à 1,83 son étendue sera 2,50 -1,83 = 0,67 Le répondant a donc une préférence plus influencée par l'attribut A. Cette méthode explique le plus haut pourcentage de variance possible de la variable dépendante . Cette approche de 2 attributs doit être recommencée entre A et C A et D B et C etc. On imagine la difficulté du répondant; 21
  22. 22. 4. La construction du modèle Les divers classements étant effectués, il s'agit maintenant de rechercher les utilités partielles de chaque modalité pour chaque individu répondant. 3 catégories de méthodes d'estimation peuvent être distinguer selon la nature de l'échelle de mesure : métrique, ordinales ou nominale. Cette question de l'estimation n'épuise cependant pas la question de la construction du modèle. Une autre question est celle de la spécification du modèle. 4.1. Spécification du modèle. Dans la section théorique, aucune autre spécification qu'une dichotomisation des niveaux d'un attribut n'a été retenue. En fait le modèle proposé considère que chaque niveau possède un certain degré d'utilité indépendant des autres niveaux. L'application pratique d'un modèle d'analyse conjointe peut cependant à des fins analytique réclamer une spécification plus précise. Green et Srinivasan (1990) distinguent 3 types fondamentaux de modèles : modèles vectoriel, le modèle du point idéal, et un quatrième type hybrique. Un cinquième type peut être ajouté : le modèle à saturation. Les relations entre préférence et niveaux d'attributs sont illustrées dans le diagramme suivant : Le modèle vectoriel suppose une proportionnalité entre l'utilité et la quantité des attributs : s U xi i k i kk K    1 Une version moins contraignante de ce modèle consiste à ajouter un terme constant pour relaxer l'hypothèse de proportionnalité (si les attributs k sont absents l'utilité est nulle), et correspondre à l'utilité résiduelle du produit (l'utilité des attributs qui ne sont pas pris en compte dans l'étude). wk est l'utilité d'une unité de l'attribut k. Le modèle point-idéal, ainsi que le modèle anti idéal, postulent que l'utilité dépend de la distance à un niveau-idéal (anti-idéal) qui maximise (minimise) l'utilité. Le modèle discrêt est en fait celui qui a été étudié précédemment. 22
  23. 23. Une dernière forme de modèle, inclue l'hypothèse de niveau de saturation plancher ou plafond. Le modèle logistique le symbolise. 4.2. Estimation du modèle 4.2.1. méthodes non métriques La méthode d'estimation la plus connue est MONANOVA ( MONotonic Analysis Of Variance) y = variable de réponse z = f(y) transformation monotone B = {B1 .................Bm} vecteurs des paramètres .2.1.1. Les préférences non ordinales Une question de recherche importante est relative à la non-monotonicité de l'ordre des préférence. Ce problème est bien étudié dans le cadre de méthodes telle que prefmap et plus général dans les technique l'analyse des similarité ordinale. Ce problème peut être formulé de la manière suivante. Un sujet exposé à un nombre limité de concepts peut les classer de telle manière à ce que le pré-ordre ne soit pas complet. Autrement dit dans une matrice complète de préférence on peut rencontrer ces relations non transitives. Leur forte présence peut reflêter un caractère non rationnnel e première apparence. En réalité, cette situation peut correspondre à un ordonnancement multidimensionnel. Dans cette situation les procédures classiques ne peuvent être appliquées simplement. Dans cette section esquissons une solution possible . Monanova Kruskal 1965 JohnsPrefmap Carrol 1972 on trade off Johnson 1973 L INMAP (SRINAVASAN 1973) 4.2.2. méthodes métriques - Si la variable dépendante est exprimée en mesures métriques La technique la plus utilisée est la méthode des moindres carrés (OLS) avec 2 variables muettes ( 0,1) 4.2.3. méthodes probabiliste - les méthodes qui relient les données de comparaison par paires à un modèle de choix de type probabiliste telle que la méthode LOGIT. Ces méthodes ont été discuté, un chapitre de ce présent mémoire y est consacré. 23
  24. 24. L'exemple présenté ci-dessous, chapitre 4 est un traitement par la procédure CONJOINT de SPSS. Celle -ci utilise plusieurs modèles de régression qu'il faut spécifié à priori. *Discrète lorsque les niveaux sont catégoriques (oui ou non) ou * Linéaire à condition de spécifier le signe (less ou more) 4.2.4. Les tests de confiance Les tests de validité utilisés sont ceux des méthodes statistiques employées. Test de Pearson Tau de spearman Le R2 ajusté au degré de liberté La validité externe : Test et retest Comparaison au stimuli réel (Parker et Srinavasan 1976) 24
  25. 25. 5. Applications: 5.1. Un exemple d'application L'exemple qui va être utilisé est extrait de Liquet (1994). Il est relatif à la problèmatique suivante. Les quotidiens francais souffrent d'un grand problèmes de diffusion. Les causes de ce problème sont âprement discutés. Est-ce un problème de contenu? Un problème de distribution ou encore un problème de prix ? L'analyse conjointe peut apporter des réponses, au moins partielle, à ce problème général, par la mesure de l'importance de ces différents attributs dans la constitution des structures individuelles de préférences. On présente ici les résultats obtenus et la méthodologie dans l'ordre d'exécution. 5.1.1. Le choix des attributs et la constitution du plan d'expérience. A partir d'informations qualitatives (entretiens d'expert, données secondaires, documentation grise) une liste d'attribution et de niveau de mesure a été constituée : · Prix du numéro 3 frs 5 francs 7 francs · Type de distribution Abonnement Portage Achat en magasin · Format Grand format Tabloïd · Lisibilite Couleur Photos articles tres écrits · Type d'information Générale (politique culture economie et sport) Quotidien spécialisé · Degré d'analyse Approfondie Info brute · Proximite de pensée Proche Indifférent Un plan expérimental complet réclame donc le classement de 3´3´2´3´2´2´2=432 concepts, ce qui est fondamentalement impossible. Un plan factoriel incomplet a donc été généré avec la procédure SPSS orthoplan : celle-ci définit un plan factoriel orthogonal incomplet de taille minimale. On ajoute deux cartes de contrôle qui ne seront pas prise en compte dans le calcul du modèle mais qui serviront pour le test d'ajustement. La procédure PlanCard permet simplement de créer les cartes. 25
  26. 26. ORTHOPLAN /FACTORS prix 'prix' ( 1 '3f' 2 '5f' 3 '7f') distr 'distribution' (1 'abonnement' 2 'portage' 3 'achat en magasin' ) form 'forme' ( 1 'grand format' 2 'tabloïd') lisi 'lisibilite' ( 1 'couleur' 2 'photo' 3 'article tres ecrit') info 'information' ( 1 'politique culturel economique et sportif' 2 'quotidien specialise') analy'analyse' ( 1 'approfondie' 2 'info brute') prox 'proximite de pensee' ( 1 'proche' 2 'indifférent') /HOLDOUT 2. PLANCARDS /FORMAT both /TITLE 'le choix d un quotidien' /OUTFILE'C:COURSSTATS20_CONJPRESSEPICAR.SAV' /PAGINATE. Ci-dessous le fichier du plan expérimental pour un individu. La variable statut indique si le concept fait partie du modèle ou s'il sert simplement de contrôle. On donne ensuite un exemple de concept tel qu'il est appliqué aux individus. PRIX DISTR FORM LISI INFO ANALY PROX STATUS_ CARD_ 2,00 3,00 1,00 3,00 1,00 2,00 1,00 0 1 1,00 3,00 2,00 1,00 2,00 2,00 1,00 0 2 1,00 1,00 2,00 3,00 1,00 1,00 1,00 0 3 2,00 2,00 2,00 1,00 1,00 1,00 2,00 0 4 3,00 3,00 1,00 2,00 1,00 1,00 2,00 0 5 2,00 1,00 1,00 1,00 2,00 2,00 2,00 0 6 1,00 3,00 2,00 1,00 2,00 1,00 2,00 0 7 1,00 1,00 2,00 2,00 1,00 2,00 2,00 0 8 1,00 2,00 1,00 3,00 2,00 1,00 2,00 0 9 1,00 2,00 1,00 2,00 2,00 2,00 1,00 0 10 1,00 1,00 1,00 1,00 1,00 2,00 2,00 0 11 3,00 1,00 1,00 1,00 2,00 1,00 1,00 0 12 1,00 1,00 1,00 1,00 1,00 1,00 1,00 0 13 3,00 1,00 2,00 3,00 2,00 2,00 2,00 0 14 2,00 1,00 2,00 2,00 2,00 1,00 1,00 0 15 3,00 2,00 2,00 1,00 1,00 2,00 1,00 0 16 1,00 3,00 1,00 1,00 2,00 2,00 1,00 1 17 2,00 1,00 2,00 1,00 1,00 1,00 1,00 1 18 Sur cette base 60 individus ont été interrogés. Outre les classements des 18 concepts on a recueilli 3 types de données : 1 - leur comportement de lecture 2 - leur attitude face à la presse 3- quelques éléments sociodémographiques. Examinons les résultats de l'analyse obtenue par la procédure suivante: 26
  27. 27. DATA LIST FREE /ID PREF1 TO PREF20. BEGIN DATA. 101 4 16 18 3 17 15 11 2 20 8 7 6 12 1 5 14 19 13 10 9 102 19 4 18 10 7 5 14 17 3 12 9 6 1 15 13 16 11 2 20 8 103 4 17 7 5 14 13 19 20 18 9 10 16 1 15 11 12 2 3 8 6 104 5 9 19 1 3 18 2 8 10 17 6 15 7 12 4 11 16 13 20 14 105 17 6 18 19 5 4 9 16 3 15 11 1 13 12 7 10 14 2 20 8 ... ... ... 160 11 7 13 19 15 1 17 6 5 12 16 4 14 3 18 8 2 20 10 9 161 15 6 17 12 7 1 5 13 14 19 2 20 8 3 10 9 18 11 4 16 162 1 18 3 5 9 17 6 15 19 11 4 16 13 10 12 2 8 7 14 20 END DATA. CONJOINT /PLAN 'C:COURSSTATS20_CONJPRESSEPICAR.SAV' /DATA * /SUBJECT =ID /SEQUENCE =PREF1 TO PREF20 /FACTORS prix (LINEAR LESS) /utility 'C:COURSSTATS20_CONJPRESSEutil.SAV' /plot all. Les résultats sont donnés individuellement, il prennent la forme suivante. La colonne utilité donne les utilités partielles de chacun des attributs. Celles-ci peuvent être interprétée comme la fraction de rang ajoutée ou soustraite au rang du concept médian qui est indiqué par le terme constant. Dans la mesure où un modèle linéaire (croissant ou décroissant a été introduit), l'utilité partielle se résume à un paramètre B. L'utilité des modalités est obtenue par multiplication de B par le rang de la modalité (dans le cas présent :1´-2,15; 2´-2,15;1´-2,15;3 ´-2,15). Les valeurs entre parenthèses représentent les écart-type d'échantillonnage, à partir desquels on peut calculer classiquement les intervalles de confiance des utilités partielles. La première colonne indique l'importance relative des attributs (en %) qui est calculée selon la formule suivante : I u u u u k kj kj kj kjk    max( ) min( ) max( ) min( ) avec Ukj l'utilité de la modalité j de l'attribut k. La dernière série de résultats est donnée en bas du tableau. Ce sont des statististiques d'ajustement entre le rang prédit par le modèle et le rang observée. Ces statististiques sont de deux sortes : l'une paramètrique est un simple coefficient de corrélation, l'autre est une corrélation non-paramètrique. Y sont associée un test d'égalité à zéro. Une troisième corrélation est calculée sur la base des cartes ne rentrant pas en compte dans l'analyse mais servant au contrôle. Celle-ci n'étant qu'à un nombre de deux la corrélation est obligatoirement égale à 1 (on fait toujours passer une droite par deux point !). 27
  28. 28. SUBJECT NAME: 161,00 Importance Utility(s.e.) Factor +---------+ DISTR distribution |36,88 | ,0000(1,1446) | abonnement +---------+ -4,3333(1,1446) ---| portage | 4,3333(1,1446) |--- achat en magasin | ++ FORM forme 4,26 || -,5000( ,8585) | grand format ++ ,5000( ,8585) | tabloïd | +--+ LISI lisibilite 12,77 | | 1,3333(1,1446) |- couleur +--+ ,3333(1,1446) | photo | -1,6667(1,1446) -| article tres ecrit | ++ INFO information 5,32 || -,6250( ,8585) | politique culturel e ++ ,6250( ,8585) | quotidien specialise | ++ ANALY analyse 5,32 || -,6250( ,8585) | approfondie ++ ,6250( ,8585) | info brute | +----+ PROX proximite de pensee 17,02| | 2,0000( ,8585) |- proche +----+ -2,0000( ,8585) -| indiferent | +----+ PRIX prix 18,44| | -2,1667( ,9913) -| 3f +----+ -4,3333(1,9826) ---| 5f | -6,5000(2,9738) ----| 7f | B = -2,1667( ,9913) | 13,7500(2,2166) CONSTANT Pearson's R = ,897 Significance = ,0000 Kendall's tau = ,748 Significance = ,0000 Kendall's tau = 1,000 for 2 holdouts Significance = , Ces résultats doivent être maintenant retravaillés sous la forme de différentes synthèses qui prennent en compte la totalité de l'échantillon. On présentera d'abord les résultats d'ensemble (moyenne), puis on cherchera un niveau d'analyse intermédiaire. Le premier résultat obtenu est le profil d'importance des attributs : On s'aperçoit d'une grande dispersion des valeurs. 28
  29. 29. 61616161616161N = prix analyse information proximité politique forme lisibilité Distribution ,7 ,6 ,5 ,4 ,3 ,2 ,1 0,0 2428 2 55 24 43 52215051 -4 -3 -2 -1 0 1 2 articles approfondis info brute grand form at tabloïd généraliste quotidien specialise lisibilité couleur photo article tres ecrit 3 F 5 F 7 F proche indifférent abonnem ent portage achat en m agasin 5.2. Les applications 29
  30. 30. 5.2.1. Un bilan des applications commerciales Wittink et Cattinp (1989) estiment à 400 le nombre annuel d'applications aux U.S.A. chaque année depuis 1980. Cette étude est complétée par Wittink, Vriens et Burhenne (1994) pour les applications en europe. Ils établissent le tableau suivant : Type de produit Biens de consommation 59% Mode de calcul Entretiens de face à face 64% Construction des stimuli - méthode profils complets 65% - nombre moyen de stimuli 16 - nombre moyen des attributs 8 - nombre moyen de modalités par attribut 3 Mesure de réponse échelle de notation 49% Procédure d'estimation moindres carrés 54% 5.2.2. Quelques exemples d'application · Comparaison internationale BOCKER. F. HAUSRUCKINGER. G, HERKER. A; 1991. Les consommateurs Français et Allemands ont à première vue des attitudes différentes quand il s'agit de leur propre pays ou d' un pays étranger, de même pour leur sensibilité écologique ces hypothèses ont été évaluées par une analyse conjointe. Comparaison internationale de certains attributs. On constate que dans les deux pays examinés il n'y a pas eu européanisation; une étude sur les machines à laver confirme ces tendances. Les Français décident avant tout selon le pays d'origine alors que les Allemands considèrent les caractéristiques écologiques comme principaux attributs de différenciation des produits. · Cartes de fidélité 2 ème exemple : cité par LAMBIN (1994) On cherche à évaluer les services d'une entreprises de Messagerie. On a deux attributs : le prix et l'heure de livraison. (in Journal of Marketing research; p E GREEN et V. R. RAO avant 1971 conjoint Measurement for quantifying judgmental data.) et cité par Yves EVRAD et Patrick 30
  31. 31. LEMAIRE dans "Information et décision en marketing" - 1976. Le problème : Mesurer l'importance que les ménagères accordent à 3 caractéristiques de cartes de réduction. · Extension des lignes de produits Green, P.E. et Krieger, A.M. (1987) Wittink (1989) Page et Rsenbaum, H.F. (1989) 5.2.3. Typologie des domaine d'application. Green et Wind (1972) préconisent d'utiliser l'analyse conjointe dans les cas suivants - L'étude de préférence pour des groupes d'objets. - L'étude de comportement du consommateur. - L'étude de la décision en milieu industriel. 5.3. Les prolongements 5.3.1. Segmentation 5.3.2. Simulation 5.3.3. Optimisation 31
  32. 32. 6. Développements et recherches Green et Srinivasan en 1978 puis en 1990 ont établi un inventaire complet de la littérature .L 'application de l' analyse conjointe a connu un fort développement dans les années 1970. Le point de vue du consommateur étant au centre, c'est indubitablement "la valeur attendue" par le consommateur qui est l 'objet de l'emploi du protocole. Ce développement doit beaucoup aux contributions théoriques de Krantz 1964 ; Tversky (1967) ; le développement Algorithmique de Kruskal (1965) ; Carroll (1969) ; Young (1969). Les études ont essentiellement porté sur les effets conjoints et le modèle mathématique. Ces modèles ont été discutées par Green et Carmone 1969. La première application marketing est de 1971 Green et Rao. D'autres algorithmes ont alors été testés Green Carmone et Wind (1972) ; Srinivasan et Shocker (1973) ; Johnson (1974) ; Westwood, Lunn et Beasley (1974).La justification des modèles a été le fait de Fishbein et Rosenberg par l'étude des classes et, de Lancaster (1971) et Ratchford (1975) pour la théorie économique des consommateurs. La régression multiple a été la principale technique d'estimation paramétrique de ces modèles. L'anova a été utilisé occasionnellement. Anderson (1970) propose des tests ANOVA l'estimation et le test du modèle KEENEY et RAÏFFA en 1976 proposent une procédure d'estimation multi-attribut dans des contextes normatifs. Aussi l'approche de la fonction d'utilité utilise un modèle de décomposition en plusieurs stades (HAUSSER et URBAN 1977) aucune erreur n'est tolérée, ce n' est pas un ajustement statistique La grande difficulté de l'analyse conjointe n'est pas dans les mathématiques qu'elle utilise mais dans la pertinence des concepts d'utilité, le choix du modèle et les tests qui en résultent. C'est une des raisons pour lesquelles il peut être utile de changer de règle de composition d'un échantillon d'individus à un autre; plusieurs moyens alternatifs existent (Albert 1971). De nombreuses combinaisons des différentes étapes peuvent êtres effectuées L'optimisation de ces combinaisons est à rechercher. Le tableau suivant est la revue que GREEN et SRIVAVASAN font de l'ensemble des alternatives possibles 32
  33. 33. 1. Choix d'un modèle de préférence (décomposition prédéfinie) - modèle vectoriel. - le modèle du point idéal. - la fonction d'utilité partielle. - le modèle mixte. 2. La collecte des données. - deux facteurs dans le même temps (Trade off). 3. Construction des stimuli dans la méthode des profils. - plan factoriel fractionnel. - randomisation. 4. Présentation des stimuli. - description verbale. - texte descriptif écrit. - image. - objet en 3 dimensions. 5. Echelle de mesure des variables dépendants. - comparaison par paire. - relation d'ordre. - somme constante. - Carrol 1969 (désignation par catégories). 6. Procédure d'estimation. - Monanova. - Prefmap. - Linmap. - algorithme de Johnson. - régression multiple. - Logit/ Probit. Pour Green (1990) l'analyse conjointe a pour perspective de recherche : - Une méthodologie statistique pour choisir entre les différents modèles. - Des études empiriques pour déterminer le nombre de niveaux d'attributs. - Des études théoriques et empiriques sur les modèles compensatoires. - Les méthodes de collectes de données qui assureront une indépendance des modalités d'attributs. - Des méthodes supportant un grand nombre d'attributs et de modalités. Au point de vue pratique. - L'extension de l'analyse conjointe dans de nouveaux domaines, comme les litiges, les paniers d'avantages pour les employés, et la résolution de conflits, la négociation, en stratégie d'entreprise, dans l'environnement social. - De nouveaux modèles de développement de ligne de produit. - Des études descriptives et normatives pour mesurer la satisfaction des consommateurs et la perception des produits , la qualité de service. - L'extension de l'analyse conjointe au mix marketing en particulier la promotion et la distribution. - Des modèles et applications qui combinent à la fois les données répertoriées avec les données comportementales des consommateurs dans les services et également dans les outils de consommation nouveaux. - Les logiciels qui exploitent les nouveaux développements; les modèles hybrides, l'analyse multivariée, et la recherche d'optimum. 33
  34. 34. 6.1. Le choix du modèle de préférence . Le modèle compensatoire linéaire est le plus consistant avec le comportement des répondants, c'est ce que montrent Berl, Lewis et Morisson(1976) Green et Srinivasan (1990) proposent d'utiliser une méthode d'estimation de l'erreur par 2 modèles g et n. EMSEP n = (R2 y - R2 m) + (1+R-2g) (1+k ) où k est le nombre estimé de paramètres du modèle m, n le nombre de stimuli utilisé. Hagerty et SRINIVASAN (1991 ) montrent qu 'il est équivalent d'utiliser la valeur critique de F = 2 - (k:n) s i f >2 -k:/n le modèle le + général à utiliser . 6.2. La collecte des données Le meilleur argument pour le profil complet c 'est qu 'il donne une description réaliste du stimulus. Cependant les divers travaux n' ont pas départagé le pouvoir prédictif et les utilités sont rigoureusement les mêmes dans les deux méthodes Plus récemment des questionnaires ont été administrés par téléphone. Des résultats intéressants existent. L'utilisation de QAO est particulièrement judicieuse dans le domaine de l'analyse conjointe. 6.3. Construction des stimuli On préférera dans tous les cas les plans factoriels fractionnels si les corrélations inter attributs ne sont pas trop élevés (c'est la recommandation de P.E. Green). Cependant cette question mérite des recherches supplémentaires, des biais sont apparus dans de nombreuses recherches. Cette question du nombre de stimuli pose un problème théorique important. On peut emettre l'hypothèse que le nombre et le mode de présentation des stimuli détermine la forme du processus de choix. Si ce nombre est important et que les stimulis sont présentés en bloc, le sujet peut préférer une méthode de classement disjonctive, par contre si le nombre est faible un modèle compensatoire sera utilisée. Cette hypothèse est argumentée par la notion de capacité cognitive. L'évaluation de l'ordre ne peut se faire que localement en considérant 3 ou 4 concepts. Par conséquent une approche hierarchique peut s'imposer en privilégiant certains critères. Un modèle lexicographique peut intervenir pour aider le sujet à réaliser la tâche. Il en résulte une charge cognitive plus ou moins importante, qui n'est en réalité jamais assumée. La question posée est de savoir si cette diversité des processus de choix a une influence sur la structure d'ordre finale. 34
  35. 35. 6.4. Présentation du stimulus Il n'y a pas de règles générales. Alpert Betak et golden 1978 ont utilisé l'image. ACITO propose (1977) la randomisation pour éviter que la position des attributs n'affecte les réponses. URBAN et HAUSER (1977) utilisent le texte écrit. Des études récentes montrent que le nombre d'attributs et de modalités doivent être les plus petits possibles si on veut réellement ne pas avoir trop de biais de calcul d'utilité. 6.5. Echelle de mesure Métrique ou non métrique (0,1) ? C'est toujours plus simple pour un répondant de dire ce qu'il préfère entre 2 alternatives plutôt que de donner une amplitude. Les variables non métriques donnent de bons résultats des utilités partielles. Dans le cas de l'utilisation du "Trade off" une échelle non métrique est utilisée. 6.6. Procédure d 'estimation 6.6.1. Améliorations pour Hagerty (1985) cinq méthodes d'amélioration : - des méthodes d'estimations qui utilisent moins de degrés de libertés que les fonctions discrêtes. (Cattin 1981; Krishnamurthi et Wittink, 1989; Pekelman and Sen, 1979;Moore,, Mehta et Pavia, 1994). - agrégation des réponses au travers de groupes de répondants (Green et Al, 1976; Moore, 1980) améliorée par un plan de pondération optimal determiné par diverse procédures de typologies (argerty, 1985; Kamakura, 1988; DeSarbo et Al, 1989 Wedel et Steenkamp, 1989; Ogawa, 1987) - imposer des contraintes d'ordre sur les paramètres à estimer. Ces contraintes s'appuient sur une connaissance a priori (Srinivasan et Al, 1983). Les mêmes auteurs proposent des contraintes d'ordres dérivée d'auto-evaluation complémentaire à l'analyse. Certain utilisent en plus des évalutations de profil complet l'importance des attributs et les évaluations des attributs dans une procédures bayesienne (Cattin et Al, 1983). Le principe de cette approche peut être illustré en utilisant le travail de Van der Lans et Heiser (1992). Ceux-ci dévrivent les contraintes à partir d'un modèle auto-expliqué. Partant du modèle conjoint suivant :   Y h i i i k c xJ k ijkj J 1 2 1 ... ,    (1) dans lequel les utilités sont liées aux autoévaluations x d b w ui j k i j k j k i j k  (2) 35
  36. 36. L'ajustement du premier modèle sous la seconde contrainte permet d'améliorer l'estimation. En fait si seul les effets d'ordre sont considérés on peut reexprimer la seconde equation par x g ei j k i j j k i j k   (3) où v et e sont relié monotonement à w et u. Ce qui conduit à récrire (1) sous la forme :   Y h i i i k eJ jk ijkj J 1 2 1 ... ,    (4) Le problème est donc d'estimer cette dernière équation sous la contrainte de l'equation (2). La méthode d'estimation utilisée est une méthode de moindre carré alternée. - les méthodes hybrides d'analyse conjointe (Green, 1984; Green et AL, 1981; Johnson, 1987) 6.6.2. Intégration des effets d'interaction 6.7. Fiabilité et validité de l'analyse conjointe La question de la fiabilité et de la validité de l'analyse conjointe necessite des tests. 6.7.1. La justesse de l' appareil de mesure Celle-ci dépend bien entendu du modèle de régression choisi, avec la procédure MONANOVA proposé par Kruskal (1965), le stress est un indicateur. C'est le rapport de la variance résiduelle par la variance totale. Il doit être minimal. Plus l'indice est faible, meilleur est l'ajustement. Un stress élevé indique un mauvais ajustement entre les utilités obtenues et les préférences initiales. Cela provient des approximations faites. - interactions entre les variables, - changements de critères de choix au fur et à mesure de l'expérimentation, - l'incompréhension par le répondant de la méthode de classement.. Quand le classement observé n'est pas conforme avec le classement obtenu par le modèle repéré par Ui, une valeur Ui est calculé par le modèle aussi proche que possible de Ui et monotone avec le classement observé. U'i _ Ui constitue une erreur du modèle le stress s'écrit 36
  37. 37. S U U U U i i i      (  ) (  ) 2 2 où U est la moyenne des Ui Une représentation graphique peut être la suivante : k i k 6.7.2. La fidélité de l'appareil de mesure Cette notion n'aura d'utilité que si l'expérience est recommencée. La fidélité est la qualité d'un appareil de mesure de redonner le même résultat dans un contexte identique.Un test retest est une bonne mesure de la fidélité.La dispersion des résultats est examinée, ma fidélité sera mesurée en fonction de cette dispersion, le terme d'erreur contient cette notion due à la "construction" de l'appareil. Une mesure de cette fidélité est approchée par le R et le R2 le la fonction de corrélation, puisque celle-ci est l'approximation de l'appareil. 6.7.5. La sensibilité Mesurant des rangs, l'appareil doit être capable de distinguer le rang de celui qui lui est immédiatement supérieur ou inférieur sans ambiguïté. L'importance de l'attribut pour chaque individu relativement aux autres est essentiel. Les tests de dispersion F ou T mesurent les rapports de dispersion détermineront la qualité de l'étalonnage pour chacune des utilités partielles. 6.7.6. Autres considérations. 37
  38. 38. 7. Conclusion L'analyse conjointe ne semble pas encore avoir connue tous les développements dont elle est prometteuse, en particulier dans le domaine pratique en marketing. La littérature est certes abondante, gage de la robustesse de la méthode. La richesse des enseignements, l'approche du réel, la réduction des données qu'elle induit devraient pouvoir lui assurer un avenir dans les prises de décision non seulement en terme de produit mais également en terme de suivi des demandes des consommateurs. L'évaluation des termes du MIX marketing pris dans leur ensemble est une qualité extrêmement précieuse en particulier, pour une direction d'entreprise elle peut être outil de décision lors de l'allocation des ressources. Enfin, et c'est ce qui fait son exceptionnalité dans l'analyse de données, le fait que l'analyse soit individuelle permet de conserver du début à la fin l'action de l'échange ou de son intention. Le passage du micro au macro reste posé mais les deux sont appréhendables. 38
  39. 39. 8. Bibliographie [1] Acito, F. and Jain, A.K. (1980), "Evaluation of Conjoint Analysis Results : A comparison of methods". Journal of Marketing Research. [2] Alpert Mark (1971) "Definition of determinant attributes : a comparison of methods,"Journal of marketing Research.8,184-91. [3] Böcker. F. Hausruckinger, G, Herker, A; (1991), "Pays d'origine et qualités écologiques comme caractéristique des biens de consommation durables : Une analyse comparative du comportement des consommateurs français et allemands". Recherche et applications en Marketing Vol VI N°391 21-30. [4] Carmone F.J., Green P.E., Jaïn A.K (1978), "Robustness of Conjoint Analysis : somme Monte- Carlo Results". Journal of Marketing Research, May pp-300-303. [5] Cattin P, and Wittink, (1976) "A Monte Carlo Study of Metric and Nommetric Estimation Methods for Multivariate Models" Research paper N°341 graduate school of business Stanford. [6] Cattin, A. Gelfand, A.E. et Danes, J. (1983), "A simple bayesian procedure for estimation in conjoint model", Journal of MArketing Research, 20, 29-35. [7] Cattin, P., (1981), "Some findings on the estimation of continuous utility functions in conjoint analysis", In Mitchell, A. (ed), Advances in Consumer Research, Vol 9, 367-372. St Louis, MO, Association of Consumer Research. [8] Choffray J.-M. (1985) "Scénario d'utilisation du micro décisionnel". PRIORITE.dans Marketing Expert, PARIS Mac Graw Hill p 283-308. [9] Chrzan, K. (1994), "Three Kinds of Order Effects in Choice- Based Conjoint analysis", Marketing Letters, Vol 5, N°2, April, 165-172. [10] DeSarbo, W.S., Oliver, R.L. et Rangaswany (1989), "A simulated annealing methodology for clusterwise linear regression", Psychometrika, 54, 707-736. [11] Evrard, Y. Lemaire, P. (1976) "Information et décision marketing" DALLOZ. [12] Evrard.Y. Pras, B Roux E.1993 Market - Etude et recherches en Marketing NATHAN p 477- 490. [13] Faivre, J.P. Schwoerer, J. 1975."Une nouvelle approche des choix des consommateurs le modèle "Trade-off"", Revue Française du marketing cahier 55. [14] Fishbein, M. (1967) "Behavior Theory approach to the relations between Beliefs about object and the attitude towards the objects. "in Readings in Attitude and theory measurement. ed. M. FISHBEIN, New-York John WILEY and Sons, Inc 389-99. [15] Green, P.E. (1974) "On the design of CHOICE Experiments involving Multifactors alternatives" Journal of consumer Research vol. 1 Sept p 61-68. 39
  40. 40. [16] Green, P.E. (1984) "Hybrid Models for conjoint analysis : An expository review" Journal of Marketing research 155-69. [17] Green, P.E. and Srinivasan, V. (1978), "Conjoint analysis in consumers research "Journal of consumers Research Sept p. 103-123. [18] Green, P.E. and Srinivasan, V. (1990), "Conjoint Analysis in Marketing : New developments with implications for research and Pratice ", Journal of Marketing, Oct 90 p 3-19. [19] Green, P.E. et Srinivasan, C.M. (1990), " A Biliography on conjoint analysis and related methodology in Marketing Research", WP, Wharton School, University of Pennsylvania. [20] Green, P.E. et Krieger, A.M. (1987), "A Consumer-Based Approach to Designing Product Line Extensions", Journal of Product Innovation Management, 4, 21-32. [21] Green, P.E. et Rao, V.R. (1971), "Conjoint Measurement for quantifying judgmental data", Journal of Marketing Researc, 8, 355-363. [22] Green, P.E. et Wind, Y. (1975), "New Ways to Measure consumers Judgements" Haward Business review July-August p 107-117. [23] Green, P.E., Caroll, J.D. et Carmone, F.J, (1976), " Superordinate factorial designs in the analysis of consumer judgements", Journal of Business Research, 4, 281-295. [24] Green, P.E., Goldberg, S.M. et Montemayor, M. (1981), " A hybrid utility estimation model for conjoint analysis", Journal of Marketing, 45, 33-41. [25] Hagerty, M.R. (1985), "Improving the predictive Power of Conjoint Analysis and Cluster analysis : The use of factor analysis and cluster analysis", Journal of Marketing Research, Vol XXII 168-84. [26] Hagerty, M.R. (1986), "The cost of symplifying preference models", Marketing Science, 5, 289-319. [27] Johnson, R.M. (1974 ) "Trade-off analysis of consumer values" Journal of Marketing Research Vol 11 p 121-127. [28] Johnson, R.M. (1987), "Adaptative Conjoint Analysis. Sawtooth Software Conference on Perceptual Mapping, Conjoint Analysis, and Computer Interviewing, Sawtooth Software, Ketchum, ID, 253-266. [29] Kamakura, W.A (1988), " A least square procedure for benefit segmentation for conjoint experiments", Journal of Marketing Research, 25, 157-167. [30] Kohli, R. (1988), "Assessing Attribute Significance in Conjoint Analysis : Nonparametric Tests and Empirical Validation ", Vol XXV, May, 123-133 [31] Krishnamurthi, L. et Wittink, D.R. (1989); "The value of idiosyncratic functionnal forms in conjoint analysis", International Journal of Research in Marketing, 8 301-313. [32] Kruskall J.B (1965) "Analysis of Factorial experiments by estimating Monotone Transformation of data". "Journal of royal satisfical society series B 27" p. 251-253. [33] LAMBIN J.J.(1994) in la Recherche Marketing "la mesure des préférences pour l'analyse conjointe" p 399-416.édiscience international. 40
  41. 41. [34] LANCASTER, KELVIN (1971) "Consumer Demand : a new approach, New-York : Columbia University Press. [35] Louvière, J.J. (1988), Analysing Decision Making : Metric Conjoint Analysis. Sage University Paper Series on Quantitative Applications in The Social Sciences, Series n°07-067, Beverly- Hills : Sage. [36] Luce, R.D. et Tuckey, J.W. (1964), "Simultaneous Conjoint Analysis measurements : a New Type of Measurements", JOurnal of Mathematical Psychology, , 1, 1-127. [37] Malhotra N.K (1982) "Structural reliability of nommetric Conjoint analysis" Journal of Marketing research (May) 199-207. [38] Manuel d'utilisation du logiciel [39] Moore, W.L. (1980) "Level of Aggregation in conjoint analysis : An Empirical Comparison", Journal of Marketing Research, 17, 516-523. [40] Moore, W.L., Mehta, R.B. et Pavia, T.M. (1994), "A Simplified Method of Constrained Parameter Estimation in Conjoint Analysis", Marketing Letters, Vol 5 n°2, April, 173-182. [41] Ogawa, K. (1987), "An approach to simulaneous estimation and segmentation in conjoint analysis", Marketing Science, 6, 66-81. [42] Page, A.L. et Rosenbaum, H.F. (1987), "Redesigning Product Lines with Conjoint Analysis : How Sunbeam does it", 4, 120-137. [43] Page, A.L. et Rosenbaum, H.F. (1989), "Redesigning Product Lines with Conjoint Analysis : A reply to Wittink", 6, 291-296. [44] Pekelman, D. and Sen, S.K., (1979), "Improving the prediction in conjoint analysis", Journal of Marketing Research, 16, 211-220. [45] PESSEMIER, EDGAR A. (1971) "Using laboratory brand scales to predict consumer brand purchases" Management Science 17. B 371-85. [46] POUGET J. TESTU. F. 1982 "Eléments d'analyse de données" Dunod 1982. [47] PRAS, B et TARONDEAU, J.C. (1981). Le Comportement de l'acheteur, SIREY PARIS. [48] Srinivasan, V. et Wyner, G.A. (1989), " CASEMAP: Computer Assisted-Self Explication of Multiattribute preferences", In Henry, W. Menasco, M. et Takada, H. (Eds), New Product Development and Testing, Lexington Books, MA, 91-112. [49] Srinivasan, V., Jain, A.K. et Malhotra, N.K. (1983), " Improving predictive power of conjoint analysis by constrained parameter estimation", Journal of Marketing Research, 20, 433-438. [50] Urban G.L. Hauser J.R. "Design and Marketing of New Product Chapt 10. [51] Van der Lans I. A. and Heiser, L.W. (1992), "Constrained part-worth estimation in conjoint analysis using the self-explicated utility model", International Journal of Research in Marketing, Vol 9 n°4, 325-344. [52] Védrine. J.P. (1991). Le traitement des données en marketing. Dalloz p 114-118. 41
  42. 42. [53] Wedel, M. et Steenkamp, J-B.E.M. (1989), "A fuzzy-clusterwise regression approach to benefit segmentation", International Journal of Research in Marketing, 6, 241-258. [54] Wittink, D.R. , Vriens, M. et Burhenne, (1994), "Commercial use of Conjoint Analysis in Europe : Results and Critical reflections", International Journal of Research in Marketing, Vol 11, N°1, January. [55] Wittink, D.R. et Cattin (1989) "commercial of conjoint analysis : an update" Journal of marketing vol 53 July, 91-96 [56] Wittink,D.R. (1989), "Redesigning Product Lines with Conjoint Analysis : A comment", Journal of Product Innovation Management, 6, 289-292. 42
  43. 43. - ANNEXE - Algorithmes de J.B. KRUSKAL Dans tout ce paragraphe, on considère une relation de pré-ordre R : x1>x2>...>xk. On se propose de rechercher la projection û d'un élément u Î IRx sur KR. On l'obtient en résolvant le problème suivant de programmation quadratique :  min ( ) ( )u x v x v Kr    2 Comme v est constante sur chaque classe x et égale à vi, en notant ui , la moyenne de u sur xi et qi, le cardinal de xi, on peut écrire : 43

×