Cours ADD Fac2014

essay B

Analyse des données et outils d’aide à la décision « L’analyse des données est un outil pou dégager de la gangue des données le pur diamant de la véridique nature » Jean-Paul Benzécri, ( Histoire et préhistoire des données, 1976) Le data mining ( fouille de données): Est l’ensemble des méthodes et techniques destinées à l’exploration et l’analyse de base de données ( souvent de grande taille).

Est l’art d’extraire des informations, voire des connaissances à part- mining est soit descri org Sni* to View nextÇEge techniques descriptiv évidence des inform par le volume des do chées rédictives visent à extrapoler de nouvelles informations à partir des informations présentes. Analyser pourquoi?

La recherche en gestion a pour but d’aider le responsable d’étude à résoudre un problème spécifique, à contrôler ses performances, à planifier les décisions. Son objectif est de lier fentreprise à son environnement en développant des instruments de mesure, en collectant et en analysant des données, et en communiquant les résultats et leur interprétation.

Technique et outils d’analyse des données simulé – Marché-témoin -Connaitre les concurrents -Analyse de la concurrence -Panels Connaitre les attentes des consommateurs -Identifier les bénéfices recherchés par les – Étude de segmentation Détecter les forces et faiblesses de la marque -Etude du capital marque -Analyse des images de marque des concurrents – Déterminer un prix de vente – est de prix psychologique -Analyse conjointe La formulation correcte d’un problème permet de faire le lien entre un besoin de décision et la mise en œuvre d’une démarche de recherche, de collecte, d’analyse et d’interprétation d’informations.

D’où la nécessité de dével esures peut retenir: -L’étude adhoc: ( pour le compte d’un seul client) L’étude Omnibus: le questionnaire regroupe l’ensemble des questions de différents souscripteurs -Le baromètre: le même questionnaire d’une étude ? l’autre pour le compte d’un ou de plusieurs souscripteurs -Le panel : investigation approfondie réalisée périodiquement pour plusieurs clients. Il s’appuie sur des échantillons importants de 2000 à 10000 individus. Le marché-test -L’entretien individuel -La réunion de groupe Les techniques quantitatives que nous allons voir constituent la part dominante des études en sciences de gestion. Leur objectif est avant tout de mesurer , de uantifier et de permettre de généraliser les résultats à partir de I’ECHANTILLON de la population concernée. Ce type d’étude repose sur un grand nombre d’observations et sur des informations structurées paramétriques) pa opposition aux informations non structurées ( discours , texte libre, questions ouvertes 2.

L’échantillonnage 2. 1 : sélection des éléments de réchantillon 2. 1. 1: la multiplicité des méthodes Les différentes méthodes de sélection d’un échantillon peuvent être deux PAGF3CFq répartir la population en classes appelées « strates » sur la base d’une variable de stratification. Dans le cas d’une étude sur des points de vente , cette variable pourra être le fait d’être client ou non. -Echantillons non probabilistes ( Méthodes raisonnées) *Méthode des quotas: c’est la méthode la plus utilisée en France.

Elle reprend les principes de qualification de l’échantillonnage stratifié. Elle est moins coûteuse que les méthodes aléatoires où l’enquêteur , en cas d’absence de la population , doit revenir /rappeler jusqu’à 3 ou 4 fois à l’adresse ou tél qui lui a été indiqué. *Méthodes des itineraires: dans une commune , par exemple , on impose à l’enquêteur un point de départ t un itinéraire à suivre. *Echantillonnage de convenance: il fait généralement appel à des personnes interceptées dans la rue , à la sortie d’un magasin…

C’est la moins coûteuse. *Échantillonnage « boule de neige on choisit un premier groupe de répondants au hasard généralement, puis on leur demande de nous indiquer d’autres répondants potentiels appartenant à la population ciblée. 2. 1. 2: les biais de l’échantillonnage -Le biais de couverture : un échantillon présente un biais de couverture lorsque la population étudiée ne correspond pas à la a ulation de référence. la éalisation de tests soumis à des contraintes en termes de nombre d’observations .

Un échantillon trop important constitue aussi une perte des ressources. Certains professionnels des études considèrent qu’il n’y a pas de raison valable de travailler avec des échantillons de plus de 1000 à 1500 répondants Pour trouver la taille adéquate de l’échantillon N: NZI /erreur? par exemple , si l’on accepte une erreur de +/- 5% au niveau de la précision des résultats , on obtient une taille d’échantillon de 1/0,052, soit 400 répondants.

Les éléments liés à la précision de la mesure sont entraux en analyse de données. Nous détaillons la méthode de calcul de l’intervalle de confiance. La précision statistique d’un test s’exprime en calculant l’intervalle de confiance , qui indique la marge d’erreur lorsqu’on généralise une estimation obtenue sur un échantillon à l’ensemble de la population représentée. La longueur de l’intervalle diminue lorsque la taille de l’échantillon augmente.

On retient la formule suivante: Où pz pourcentage observé dans l’échantillon ; 1-p; Zz valeur dérivée de la loi normale centrée réduite , égale à 1,96 si a – 0,05 ( degré de confiance) t = pourcentage réel dans la population mère nz taille de l’échantillon L’intervalle de confiance d’ m sur n dépenses en SMS- des téléspéctateurs de la super Star, émission de téléréalité diffusée en prime Time sur le câble et le satellite . Il sélectionne 1 000 numéros de tél. ar tirage aléatoire simple dans la base de données des abonnés de la chaîne ( qui en compte 120000 sur le câble et 2100000 sur le satellite). On pose l’hypothèse que les 1000 personnes répondent effectivement aux enquêteurs . On constate que l’émission absorbe 36,8% de l’audience des personnes nterrogées de moins de 35 ans, et que le montant moyen dépensé par cette cible en SMS et appels téléphoniques est de 6,2 E, avec un écart type de 2,2€. Le montant moyen dépensé par ces abonnés est compris entre: ( à calculer) – L’audience moyenne des abonnés de moins de 35 ans est de: ( à calculer) 3. Les techniques de recueil des données quantitatives . 3. 1: Le recueil par questionnaire 3. 1. 1: le choix des échelles de mesure La construction d’un questionnaire amène ? s’interroger sur la mesure de concepts. Comment mesurer, par exemple, la satisfaction vis-à-vis d’une marque? Il faut trouver donc un instrument de mesure.

Au-delà du type d’échelle, le chercheur est confronté à un choix entre l’utilisation d’échelles préexistantes ou la création de ses propres échelles. Il est généralement recommandé d’utiliser plusieurs items pour mesurer un concept et donc de commencer par chercher s’il existe un outil de mesure du concept que l’on souhaite évaluer. Sil n’existe pas d’échelle ( parce ue le concept est nouveau ou qu’il s’appliqu l’agencement des questions ainsi que dans le choix de réponses proposées.

Résumé des points importants à respecter impérativement : Commencer par des questions simples et fermées. es questions plus impliquantes , plus complexes ou ouvertes sont à regrouper à la fin du document OAutant que possible les questions doivent se suivre dans un ordre logique privilégiant les regroupements thématiques Deux biais à éviter! Effet de Halo ( ou biais d’acquiescement): si +ieurs questions sont posées sous forme déchelles orientées dans le même sens, le répondant répondra toujours de la même manière.

Par exemple, lorsque l’enquêteur pose les questions suivantes : QI: « Croyez•. tous que, dans l’ensemble les salaires ont augmenter ou rester stationnaires dans les années à venir? » Q2: « Croyez-vous que, dans l’ensemble les primes Q3: Croyez-vous que les autres avantages vont augmenter ou rester stationnaires les années ? venir? Le répondant sera tenté de répondre de la même façon aux trois questions l’alternance de la formulation des questions sous forme négative et positive permet d’éviter de biais.

Effet de contamination : influence directe d’une question sur les suivantes. uvent sous des formes peu différentes à des stades différents du questionnaire permet à l’enquêteur e vérifier la sincérité de la personne interrogée. -Le prétest du questionnaire une fois la première version du questionnaire élaborée, le chercheur doit effectuer un prétest pour mettre à l’épreuve son questionnaire en vérifiant la compréhension des répondants ainsi que la pertinence des modalités des réponses proposées.

Idéal: le questionnaire doit être administré en face ? face avec quelques répondants afin de permettre également le recueil de leurs réactions non verbales. Les données collectées en prétest permettent également de mesurer la validité interne des échelles ur la base des procédures statistiques d’analyse factorielle ou d’alpha de cronbach, par exemple. Il s’agit de purifier les listes d’items pour ne conserver que ceux qui mesurent effectivement le phénomène étudié. . 1. 3: L’administratlon du questlonnaire Il existe +ieurs types d’administration du questionnaire. On peut radministrer par voie postale en face à face, par téléphone ou par voie informatique. Il est généralement recommandé de joindre une lettre d’accompagnement au questionnaire postal (expliquant pourquoi réaliser une telle étude, pourquoi prendre la peine de répondre au uestlonnaire, l’anonymat, 3. 1. : avantages et limites -Le questionnaire apparait comme un mode des plus efficients de collecte de données primaires -Il offre également la possi plus possible de revenir en arrière) – Expose le chercheur au biais du déclaratif Comparaison entre les différents mode d’administration dun questionnaire Modes d’administration Postal Face à face Téléphonique Informatique Moyen, coûts Elevé, si non postaux et coût pratiqué par le de chercheur reproductlon pratiqué par le Moyen, si envoi postal ou faible , via le net Contrôle de l’échantillon Faible, aucun moyen de