president de la republique et le PM
R EVUE DE STATISTIQUE APPLIQUÉE Y. M ORILLON Théorie de la randomisation Revue de statistique appliquée, tome 8, no 1 (1960), p. 29-44. @ Société française de statistique, 1960, tous droits réservés. L’accès aux archives de la revue « Revue de statistique appliquée » (http://www. sfds. asso. fr/publicat/rsa. htm) implique l’accord avec les conditions générales d’utilisation (http://wvwa. numdam. org/legal. php). Toute utilisation com constitutive d’une inf ce fichier doit conten a p – Article numérisé dan or 19 systématique est pie ou impression de e copyright.
Numérisation de documents anciens math matiques http://www. numdam. org/ THÉORIE DE LA RANDOMISATION Y. MORILLON Ingénieur à l’Institut de Recherches de la Sidérurgie Cette no te ne pré tend donner qu’un ape rçu sommaire des ne présentant pas cette caractéristique; on en trouvera un exemple dans un article de Wilk et Kempthorne. (3) On conçoit bien que lorsque le nombre d’unités expérimentales utilisées est petit devant le nombre total d’unités disponibles, on retrouve l’analyse de variance classique sans toutefois que les hypothèses de normalité etc. oient nécessairement satisfaites. Ceci rejoint l’objet d’une autre étude et nous n’envisagerons pas ces problèmes dans la présente note. I – TYPES DE PLANS ETUDIES – A – Plans complètement randomisés. Ily a t traitements à comparer repérés j 1, ,t) et on dispose de N rt unités expérimentales, appelées « plots », repérées i 1, chaque traitement étant répétée fois (Kempthorne étudie donc un cas particulier car, en général le nombre de répétitions peut varier d’un traitement ? l’autre).
Pour réaliser la randomisation, on utilisera une permutation au hasard des N nombres (Cochran et Cox donnent des tables de ermutation au hasard allant jusqu’? NZI 6 ; on peut aussi utiliser facilement les tables classiques de nombres au hasard) ; les r premiers plots (dans l’ordre de lecture après permutation) seront affectés au traitement 1, les r suivants au traitement 2, etc. De catte façon, les (1) « Desl-. and analysis of PAGF lg systèmes d’association des B – Blocs randomisés plots et des traitements sont équiprobables , complets. n dispose de r ensembles de toujours chacun t plots, appelés « blocs ». Chaque traitement doit être affecté une fois ? chaque bloc. pour réaliser la randomisation, on utilisera dans chaque bloc une ermutation au hasard des t plots et les traitements 1 seront affectés aux plots dans l’ordre de lecture après permutation. t traitements à comparer et (t! ) systèmes Les chaque plot correspondant à une combinaison ligne-colonne différente. une Chaque traitement colonne donnée. oit être affecté qu’une seule fois ligne Les méthodes utilisées pour introduire un processus aléatoire dans l’affectation des traitements aux cases sont décrites par divers auteurs, notamment par Cochran et Cox (« Experimental Design »). Lorsqu’on applique ces méthodes , on peut considérer que le carré latin adopté a été tiré au hasard ans une famille de carrés latins ;une telle famille ne comprend pas toutefois tous les carrés latins possibles lors ue t attx3E; 5 (avec la méthode de sélection de Cox). complets (t-2, r=15).
S’il y aadditivité au sens strict et s’il n’y a pas d’effet du traitement (hypothèse nulle), la différence Tl – T2 observée entre la somme des 15 résultats du traitement 1 et la somme des 15 résultats du traitement 2 résulte d’un tirage au hasard parmi les (2′)15 différences de ce type correspondant à toutes les façons de fractionner les 30 résultats en 2 séries de 15 en respectant la règle prescrite (1 ésultat de chaque série par bloc). Il est donc possible de déterminer dans l’hypothèse nulle le nombre de telles différences supérieures ou égales à Tl – TZ donc de calculer le risque atta Ché à l’hypothèse nulle. ‘exemple cité, ce risque est de 5,267% alors que le dépouillement analyse de variance classique à 2 dimensions donne D’autre part, Kempthorne donne une liste de 24 séries de résultats de plans complètement randomisés artificiellement construits et dépoulllés suivant la méthode classique de l’analyse de variance ? 1 dimension (test F) et suivant le test direct. Il constate ainsi que les risques de première espèce déterminés suivant les deux méthodes sont en assez bon accord. Ces risques sont assez régulièrement échelonnés de 0,006 à 0,967 (pour le test F).
Notons toutefois que c’est la région des faibles probabilités qui est pratiquement intéressante et qu’une seule probabilité de cette liste est inférieure à (pour le test F). Dans suivant une IV – BASES PAGF s OF lg pouvant être général, il ya t répété un nombre traitements repérés illimité de fois et N plots repérés système d’affectation des traitements aux plots peut être représenté oint de coordonnées jl dans un espace à N dimensions (on affecte un Un par 12 chaque plot).
Chacune des coordonnées peut prendre les t valeurs, 1, t; il y a donc tN systèmes posslbles représentés par t points. La loi de distribution de ces systèmes peut être représentée en associant une probabilité ou masse à chaque point, la somme des masses étant égale à 1. vecteur de base ? le fait affectée Kempthorne,g prenant les valeurs 1, 2, lieu de jouissent Les valeurs de 51. de la puisque s JI p posant Q2 du fait que =20132013-Z e 2 Une telle corrélation négative entre les moyennes de traitement xiste dans problèmes de modèles finis.
Sa connaissance peut présenterun certain intérêt lorsqu’on veut compléter l’analyse de variance envisagée ci-après par des comparaisons des traitements 2 à 2 (Une telle comparaison pose d’ailleurs d’autres problèmes sur la distribution des Tj – 17il dans l’hypothèse nulle). tous les Test de l’hypothèse de raisonner directement 33 sommes Tj=xj. par contre, les lois de distribution des diverses sont pas les mêmes pour les modèles décomposition (Mo) et statistiques considérées (Ml). Tableau 1 Reste à savoir ? partir de quelle valeur eut être considéré comme grand.
Kempthorne indique qu’il a étudié quelques cas avec r = 4 (qu’il considère comme une valeur petite de r) et qu’il a trouvé que même dans ce cas, le test suivant le modèle normal (Mo) pouvait constituer une approximation acceptable On peut évidemment se demander encore si l’identité des deux premiers un critère suffisant de similitude des distributions surtout dans les régions des faibles probabilités utilisées pour les tests. moments constitue Modèle additivité avec au sens large. Admettons maintenant qu’il ait en lus des variations entre plots e; une