0% ont trouvé ce document utile (0 vote)
15 vues479 pages

01-Précis D'épidémiologie Pour Lire Et Écrire Des Articles Médicaux PR BEZZAOUCHA

Le manuel 'Précis d’épidémiologie pour lire et écrire des articles médicaux' de Pr Bezzaoucha Abdeldjellil vise à fournir des outils essentiels aux étudiants et enseignants en sciences médicales pour améliorer la production scientifique en Algérie. Il aborde des concepts clés de l'épidémiologie, des techniques de recherche, et des méthodes statistiques nécessaires à la rédaction d'articles médicaux. Ce document est une compilation d'ouvrages précédents et invite à des critiques constructives pour son amélioration continue.

Transféré par

boutekfahamza909
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
15 vues479 pages

01-Précis D'épidémiologie Pour Lire Et Écrire Des Articles Médicaux PR BEZZAOUCHA

Le manuel 'Précis d’épidémiologie pour lire et écrire des articles médicaux' de Pr Bezzaoucha Abdeldjellil vise à fournir des outils essentiels aux étudiants et enseignants en sciences médicales pour améliorer la production scientifique en Algérie. Il aborde des concepts clés de l'épidémiologie, des techniques de recherche, et des méthodes statistiques nécessaires à la rédaction d'articles médicaux. Ce document est une compilation d'ouvrages précédents et invite à des critiques constructives pour son amélioration continue.

Transféré par

boutekfahamza909
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 479

Pr BEZZAOUCHA Abdeldjellil

Précis d’épidémiologie
pour lire et écrire des articles médicaux

Lis ! Car ton Seigneur le Très Noble,


c’est Lui qui a enseigné par la plume.
Il a enseigné à l’homme ce qu’il ne savait pas.
Le Saint Coran (96 : 3-5)

Celui qui cache un savoir, Dieu lui confectionnera


un mors du feu de l’enfer le Jour de la Rétribution.
Le Saint Prophète arabe

La référence à ce manuel doit porter les indications


suivantes :

Bezzaoucha A. : Précis d’épidémiologie pour lire et écrire


des articles médicaux. Comité National d’Evaluation et de
Programmation de la Recherche Universitaire (Projet
CNEPRU - [I00420100027]). Université de Blida, 2013.

E-mail de l’auteur : [email protected]

/

Avant-propos

L’Algérie accuse un retard considérable en matière de production médicale


scientifique. Parce que l’écriture est le ferment de l’innovation, l’adage
« j’écris, j’existe » devrait être gravé au fronton de chaque faculté de
médecine. L’étendard des universités s’identifie désormais à leur production
écrite.

La lecture d’articles est le passage obligé vers l’écriture d’articles.


L’épidémiologie, science médicale des groupes humains, occupe une place
incontournable dans l’acquisition de capacités à lire et à écrire des articles
médicaux car elle tend à l’établissement de vérités « moyennes ».

La réalisation de ce manuel entre dans le cadre des efforts consentis pour


mettre à la disposition des étudiants et des enseignants en sciences médicales
les outils de base de l’épidémiologie, techniques et méthodes, pour lire et
écrire des articles.

L’exercice de lire et d’écrire des articles n’est guère aisé et demande un


effort soutenu qui ne peut porter ses fruits que si la lecture et l’écriture sont
valorisées. Ce qui est loin d’être le cas en Algérie où la tradition orale, érigée
en système, entrave toute velléité d’aller de l’avant et d’acquérir un
minimum de visibilité.

Ce manuel, essentiellement une compilation d’ouvrages de l’auteur édités


par l’OPU, peut être amélioré ; toute critique ou suggestion, de quelque
partie que ce soit, est la bienvenue et permettra d’en affiner le contenu.

Les objectifs spécifiques d’apprentissage, chapitre par chapitre, devraient


particulièrement être écrits avant la confection d’une version finale
programmée pour l’année 2014 (si Dieu le permet).

Par ailleurs, des ateliers consacrés à la détermination de mesures


d’association statistique et épidémiologique, à l’analyse de la survie, à la
régression logistique complètent ce cours de base par l’utilisation directe de
logiciels réduisant drastiquement tous les calculs fastidieux.

//

Table des matières

Page de titre I
Avant-propos II
Table des matières III
Chapitre 1 : définitions de base 1
1. Variable (facteur, caractère) 1
2. Effectif 3
3. Fréquence relative (pourcentage) 3
4. Probabilités 5
4.1 Probabilité simple 5
4.2 Probabilité cumulée 5
5. Ratio 7
6. Indice 8
Chapitre 2 : Mise en ordre des données 9
1. Généralités 9
2. Mise en ordre des données d’un caractère qualitatif 9
3. Mise en ordre des données d’un caractère quantitatif 11
4. Fréquences cumulées 15
Chapitre 3 : Principaux paramètres de réduction 19
1. Généralités 19
2. Paramètres de tendance centrale 19
3. Paramètres de dispersion 22
4. Coefficient de variation 25
5. Quantiles 26
5.1 Quartiles 26
5.2 Déciles 27
5.3 Percentiles 28
Chapitre 4 : Représentation tabulaire de l’information 31
1. Généralités 31
2. Tableaux à une variable 32
3. Tableaux à deux variables 32
4. Tableaux à trois variables 34
Chapitre 5 : Représentation graphique de l’information 37
1. Généralités 37
2. Représentation d’une série chronologique 38

///

3. Représentation graphique des données d’un caractère 38
qualitatif
4. Représentation graphique des données d’un caractère 40
quantitatif
5. Graphiques à échelles semi-logarithmiques 43
6. Diagramme en escalier 47
7. Diagramme en nuage de points 49
8. Diagramme haut/bas 49
9. Graphiques représentant une synthèse de la littérature 52
Chapitre 6 : Indicateurs de morbidité et de mortalité 69
1. Définition d’un taux 69
2. Taux de densité d’incidence 70
3. Taux d’incidence cumulée 79
4. Intervalle de confiance d’une incidence 82
5. Relation entre incidence cumulative et densité d’incidence 83
6. Taux de mortalité 88
7. Taux de létalité et mortalité proportionnelle 89
8. Taux de prévalence instantanée 90
9. Relation entre incidence et prévalence 91
10. taux relatif 91
Chapitre 7 : Standardisation de taux 93
1. Intérêt de la standardisation des taux 93
2. Standardisation directe 94
3. Intervalle de confiance d’un SMR (méthode directe) 97
4. Standardisation indirecte ou méthode des taux types 100
5. Intervalle de confiance d’un SMR (méthode indirecte) 105
6. Puissance d’une étude pour mettre en évidence un SMR 106
d’une valeur donnée
Chapitre 8 : Techniques de sondage 109
1. But du sondage 109
2. Population cible et unités statistiques 109
3. Unités de sondage et base de sondage 110
4. Technique de sondage simple 110
5. Précision du sondage (sondage simple) 112
5.1 Intervalle de confiance d’un pourcentage 112
5.2 Intervalle de confiance d’une moyenne 114
/s

6. Détermination de la taille nécessaire de l’échantillon 117
(sondage simple)
6.1 Détermination de la taille nécessaire de l’échantillon pour 117
estimer une proportion
6.2 Détermination de la taille nécessaire de l’échantillon pour 119
estimer une moyenne
7. Technique d’échantillonnage par numérotage 120
8. Technique d’échantillonnage par strates 122
9. Technique d’échantillonnage par grappes 125
10. Technique d’échantillonnage à deux degrés 130
11. Techniques d’échantillonnage non probabilistes 132
Chapitre 9 : Etude cohorte et étude pronostique 135
1. Introduction 135
2. Structure d’une étude cohorte 136
3. Cohorte fixe et cohorte dynamique 138
4. Cohorte prospective et cohorte historique 138
5. Ressemblance des cohortes et son maintien 140
6. Etude pronostique 142
Chapitre 10 : Essai randomisé 145
1. Structure d’un essai randomisé 145
2. Substituts au tirage au sort 148
3. Echantillonnage dans une expérimentation 150
4. Modalités pratiques de tirage au sort 152
5. Elaboration d’un protocole d’essai randomisé 154
6. Analyse des résultats 155
7. Analyse intermédiaire 160
8. Ethique 162
Annexe : Table de permutation au hasard à 6 éléments 164
Chapitre 11 : Etude cas-témoins 165
1. Structure d’une étude cas-témoins 165
2. Choix des témoins 166
Chapitre 12 : Etude transversale, structures incomplètes 173
et synthèse de littérature
1. Etude transversale 173
2. Structures incomplètes 176
2.1 Etude écologique 176
s

2.2 Etude proportionnelle 177
2.3 Etude de grappe 177
2.4 Série de cas 178
2.5 Etudes avant/après et études ici/ailleurs 179
3. Synthèse de littérature 180
Chapitre 13 : Tailles échantillonnales et puissance dans 183
une étude comparative
1. Tailles échantillonnales 183
2. Puissance d’une étude 187
Chapitre 14 : Association statistique entre deux variables 193
1. Méthode du test de l’hypothèse nulle 193
2. Comparaison de pourcentages 196
3. Test bilatéral et test unilatéral 198
3.1 Hypothèse alternative 198
3.2 Test bilatéral 199
3.3 Test unilatéral 200
4. Signification statistique et signification clinique 202
5. Intervalle de confiance de la différence de deux 205
pourcentages
6. Intervalle de confiance de la différence de deux moyennes 206
Chapitre 15 : Mesures d’association épidémiologique 209
1. Généralités 209
2. Mesures pour une étude cohorte 210
2.1 Risque relatif 210
2.2 Odds ratio 217
2.3 Différence de risque 218
2.3.1 Différence de risque (risque attribuable dans le groupe 218
des sujets exposés)
2.3.2 Risque attribuable dans l’ensemble de la population 222
étudiée
2.4 Fraction étiologique du risque 223

2.5 Interprétation des mesures d’association épidémiologique 230


en santé publique
3. Mesures dans une étude cas-témoins 232
4. Mesures dans une étude transversale 240
s/

Annexe : Calcul de l’intervalle de confiance d’un RR et d’un 243
OR
Chapitre 16 : Indices de validité interne et prédictive 245
d’une étude diagnostique
1. Généralités 245
2. Sensibilité d’un test 246
3. Spécificité d’un test 248
4. Relation entre sensibilité et spécificité 249
5. Indices pour synthétiser la sensibilité et la spécificité 252
6. Indices de validité prédictive 256
6.1 Estimation des indices 256
6.2 Relation entre valeurs prédictives, sensibilité et spécificité 259
Chapitre 17 : Indices de validité externe : reproductibilité 263
des résultats
1. Définition 263
2. Quantification de la reproductibilité : écart type et mesure 265
Kappa
3. Sources de la variabilité 269
4. Régression vers la moyenne 274
Chapitre 18 : Dépistage et normalité 275
1. Définition du dépistage 275
2. Critères de dépistage d’une maladie 276
3. critères d’un bon test de dépistage 276
4. Evaluation d’un programme de dépistage 277
5. Normalité 281
Chapitre 19 : Biais dans les études épidémiologiques et 285
cliniques
1. Définition d’un biais et situation du problème 285
2. Biais de sélection 286
2.1 Définition et circonstances de survenue 286

2.2 Exemples relatifs à l’influence du biais de sélection sur la 294


mesure d’association épidémiologique
3. Biais d’information 295
3.1 Définition et circonstances de survenue 295
3.2 Exemples relatifs à l’influence du biais d’information sur 305
s//

la mesure d’association épidémiologique
Chapitre 20 : Analyse stratifiée pour contrôler un effet de 309
confusion et déceler une interaction
1. Position du problème 309
2. Effet de confusion 310
3. Modification de l’effet 313
4. Exemples relatifs à la confusion et à l’interaction 316
Chapitre 21 : Appariement simple pour neutraliser un 333
facteur de confusion - Critères de causalité
1. Définition 333
2. Mesure d’association statistique et épidémiologique 333
3. indications de l’appariement 335
4. Critères de causalité 338
Annexe : régression logistique 343
Chapitre 22 : Analyse de la survie 359
1. Situation du problème 359
2. Informations nécessaires pour l’établissement des taux de 360
survie
3. Méthode directe 364
4. Méthode d Kaplan Meïer 366
4.1 Principe du calcul du taux de survie par la méthode 366
actuarielle
4.2 Tableaux de survie 368
4.3 Courbe de survie 374
5. Comparaison de taux de survie de deux groupes 375
5.1 Taux calculés par la méthode directe 375
5.2 Taux calculés par la méthode actuarielle 377
6. Comparaison globale de deux courbes de survie 379
6.1 Situation 379
6.2 Test du logrank 382
7. Modèle de Cox des risques instantanés proportionnels 384
Chapitre 23 : Investigation d’une épidémie 387
1. définition d’une épidémie 387
2. Catégories de maladies à l’origine d’épidémies 390
2.1 Toxi-infections alimentaires collectives (TIAC) 390
2.2 Maladies transmissibles 391
s///

2.3 Substances toxiques 392
3. Objectifs et étapes de l’investigation d’une épidémie 392
3.1 Affirmation de l’épisode épidémique 394
3.2 Identification de la maladie et confirmation du diagnostic 394
3.3 Définition et décompte des cas 395
3.4 Construction de la courbe d’incidence épidémique 398
3.5 Caractéristiques de personnes et de lieu 406
3.6 Vérification des hypothèses 409
3.6.1 Approche cohorte 409
3.6.2 Approche cas-témoins 412
3.6.3 Remarques communes aux deux approches 415
3.7 Vérification de la cohérence biologique 416
3.8 Réalisation d’une étude plus approfondie 417
3.9 Rédaction d’un rapport d’enquête 417
3.10 Mise en place des mesures de lutte et de prévention 418
Chapitre 24 : Réalisation d’une étude épidémiologique ou 421
clinique
1. Introduction 421
2. phase préliminaire 421
2.1 Evaluation de l’utilité de l’enquête 421
2.2 Recherche documentaire 422
3. Phase de planification 425
3.1 Importance de la phase de planification 425
3.2 Formulation des objectifs de l’étude 425
3.3 Choix de la structure d’étude 427
3.4 Choix de la population cible 428
3.5 Choix des variables 428
3.6 Préparation du plan d’analyse 430
3.7 Elaboration du questionnaire 431
3.8 Pré-enquête 433
3.9 Préparation pratique 433
3.10 Elaboration du protocole 434
4. Phase de réalisation 435
4.1 Collecte et contrôle des données 435
4.2 Exploitation des données 436
4.3 Rédaction du rapport d’enquête 437
/y

Chapitre 25 : Fondements de la lecture critique d’articles 447
1. Importance de la lecture critique d’articles 447
2. Médecine basée sur les données probantes 448
3. Grilles de lecture 451
Annexe : Fiches d’évaluation critique 453

Tables statistiques 474


Table de l’écart réduit z 475
Table de la loi de Student t 476
Table de la loi du Ȥ² 477
Extrait de la table des nombres au hasard 478

y

Chapitre 1

Définitions de base

1. Variable (facteur, caractère)

Contrairement à une constante, caractéristique ayant la même valeur


pour tous les individus, une variable comporte nécessairement plus
d’une modalité. Les modalités sont les différentes catégories que peut
présenter une variable. Le « groupe sanguin dans le système ABO »
est une variable car il comporte les modalités : groupe O, groupe A,
groupe B, groupe AB.

La “ diarrhée ” est une variable lorsqu’on peut lui définir au moins


deux modalités : diarrhée présente, diarrhée absente. L’ « exposition »
(exposé ou non exposé), la « maladie » (malade ou non malade), la
« survie » (vivant ou décédé) sont aussi autant de variables puisque,
pour chacune d’elles, deux modalités ont été identifiées.

Une variable qualitative est un caractère dont les modalités


s’expriment par des qualités et non pas par des valeurs numériques. Le
« groupe sanguin dans le système ABO », la « diarrhée »,
l’ « exposition », la « survie » sont des variables qualitatives. Le
« sexe » ou « genre » est aussi une variable qualitative, ses deux
modalités sont : masculin, féminin.

Les variables qualitatives à deux modalités sont souvent désignées


sous le vocable de « variables dichotomiques » parce que de type
« l’un ou l’autre ». Tandis que les variables comportant plus de deux
modalités, comme le « groupe sanguin » sont appelées
multichotomiques.

ϭ

Les variables multichotomiques dont les modalités sont soumises à un
ordre ou à une progression naturelle sont appelées variables ordinales.
Il en est ainsi du « stade de la maladie au moment du diagnostic»
(stades I à IV pour la maladie de Hodgking) ou de « la gravité des
lésions engendrées par les accidents de la route » (mineure, modérée,
sérieuse, sévère, critique) ou de « l’intensité de la douleur » (faible,
modérée, importante) ou encore du « niveau d’instruction »
(analphabète, primaire, secondaire, supérieur).

Les variables multichotomiques dont les modalités ne sont pas


soumises à un tel ordre sont appelées variables nominales. Il en est
ainsi du groupe sanguin dans le système ABO (O, A, B, AB) ou
encore du statut matrimonial (célibataire, marié, divorcé, veuf).

Une variable quantitative (ou variable numérique) est une variable


dont les modalités s’expriment par des valeurs numériques.
L’ « âge », le « poids », la « taille », la « glycémie », le « nombre de
personnes par ménage », le « temps » (« heure du jour », « jour du
mois ») sont, par exemple, des variables quantitatives. Il en est de
même d’une proportion (ou d’une moyenne) estimée sur plusieurs
échantillons différents d’une même population.

Les variables quantitatives permettent plus fidèlement de quantifier les


données.

Une variable quantitative continue a des modalités en nombre infini


qui se situent à un point quelconque d’une échelle numérique, comme
c’est le cas pour la « glycémie », l’ « heure du jour », l’ « âge », la
« taille », la « tension artérielle », le « taux d’urée sanguine », le
« taux de cholestérol », le « temps depuis l’instauration d’un
traitement » ...

Ϯ

Une variable quantitative discontinue, ou variable quantitative
discrète, a des modalités qui s’expriment par des nombres entiers,
comme c’est le cas pour « le nombre d’enfants par famille »,
« la fréquence cardiaque », le « nombre de globules par unité de
volume sanguin », le « nombre d’unités formant colonies ou UFC
dans une culture », le « nombre d’épisodes de mal de gorge sur une
période de trois mois », le « nombre d’accidents de la route recensés
par intersection »...

2. Effectif

L’effectif ou fréquence absolue est le nombre d’individus


correspondant à une modalité donnée d’une variable.

Prenons l’exemple simple de la distribution de 50 malades selon le


sexe. Parmi ces 50 malades, 15 sont de sexe masculin et 35 de sexe
féminin. Les effectifs correspondant à chacune des deux modalités
sont 15 et 35.

3. Fréquence relative (pourcentage)

Une fréquence relative (ou proportion ou encore pourcentage) est le


rapport entre l’effectif d’une modalité de variable et l’effectif total de
la série sur laquelle cette variable est mesurée. Le numérateur fait
obligatoirement partie du dénominateur. La fréquence relative
s’exprime généralement en pourcentage parce que celui-ci est plus
expressif.

Pour l’exemple précédent, la fréquence relative des sujets de sexe


masculin est : 15/30 = 0.30 = 30.0%. La fréquence relative des sujets
de sexe féminin est : 35/50 = 0.70 = 70.0%. La somme des fréquences
relatives est égale à 1 ou 100%.

ϯ

Soit la répartition suivante de 120 malades selon le groupe sanguin
dans le système ABO :

0 : 50 ; A : 40 ; B : 17 ; AB : 13 ; Ensemble : 120

Les fréquences relatives de chacun des 4 groupes sont : O : 50/120 =


41.7% ; A : 40/120 = 33.3% ; B : 17/120 = 14.2% ; AB : 13/120 =
10.8%

La somme des fréquences relatives est bien sûr égale à 100%. Il en est
toujours ainsi lorsqu’on a affaire à la répartition d’individus selon les
modalités d’une seule variable.

Une somme de fréquences relatives différente de 100% peut se voir


dans les séries de cas cliniques où les malades sont répartis non pas
selon les modalités d’une seule variable mais selon qu’ils présentent
plusieurs symptômes ne constituant pas les modalités exhaustives et
mutuellement exclusives d’une seule variable.

Ainsi, à l’occasion d’une toxi-infection alimentaire collective ayant


touché 50 individus qui ont tous présenté une diarrhée (100% des cas),
30 ont présenté des vomissements (60% des cas), 15 ont présenté une
fièvre (30% des cas) et 5 ont présenté des vomissements et une fièvre
(10 % des cas). La somme des pourcentages est égale à 100% (60% +
30% + 10%) parce que les malades ont été répartis selon la nature des
symptômes, variable comportant trois modalités exhaustives et
mutuellement exclusives : vomissements, fièvre, vomissements et
fièvre.

Mais si l’on ne retenait que les deux premières modalités, les effectifs
et pourcentages correspondants deviendraient : 35 (70%) et 20 (40%)
exprimant que 110% (70% + 40%) des malades ont présenté soit des
vomissements, soit de la fièvre, soit les deux symptômes en même
temps pour 10% d’entre eux.

ϰ

4. Probabilités

4.1 Probabilité simple

Par définition, la probabilité simple d’un événement aléatoire réalisé


selon n cas favorables parmi N cas possibles équiprobables est n/N.

Une probabilité simple peut être assimilée à une fréquence relative


simple concernant une modalité d’une variable donnée. Ainsi, en
reprenant les répartitions précédentes, la probabilité d’être un malade
de sexe masculin est de 30.0% ou la probabilité d’être un sujet du
groupe sanguin B est de 14.2%.

Lorsque les modalités de la variable sont exhaustives et mutuellement


exclusives (événements complémentaires et incompatibles), la
probabilité de présenter l’autre modalité (ou l’une des autres modalités
en cas de variable multichotomique) est le complément à 1 de la
première fréquence relative. Ainsi, la probabilité d’être un malade de
sexe féminin est de 70% (1 – 30%) ou la probabilité d’un sujet de ne
pas être du groupe B est de 85.8% (1 – 14.2%)

4.2 Probabilité cumulée

Une probabilité cumulée est une fréquence relative cumulée (section


ci-dessous) qui peut concerner deux ou plusieurs modalités
complémentaires et incompatibles d’une même variable. Cette
probabilité cumulée peut concerner aussi des évènements
indépendants, lorsque la réalisation d’un événement n’influe pas sur la
réalisation de l’autre.

En cas d’événements complémentaires et incompatibles, la probabilité


cumulée s’obtient par la somme de fréquences relatives simples.
Ainsi la probabilité pour un malade d’être, soit un sujet de sexe
masculin, soit un sujet de sexe féminin est évidemment de 100%.

ϱ

La probabilité d’être du groupe sanguin B ou du groupe sanguin A est
la somme des fréquences relatives à ces deux modalités, soit 47.5%
(14.2% + 33.3%).

Dans l’exemple de la toxi-infection alimentaire collective, la


probabilité d’observer, soit des vomissements, soit de la fièvre est de
100% (60% + 30% + 10% ou 70% + 40% - 10%).

Si, parmi un groupe de malades, la probabilité d’observer une


infection pulmonaire nosocomiale seule est de 10% et la probabilité
d’observer une infection urinaire nosocomiale seule est de 20% et la
probabilité d’avoir simultanément une infection pulmonaire et urinaire
nosocomiale est de 5%, la probabilité d’avoir une infection
nosocomiale, quelle soit pulmonaire ou urinaire, est de : 10% + 20%
+ 5% = 35% (ou 100% - 65%).

L’infection nosocomiale est une variable avec les modalités


potentielles : pulmonaire, urinaire, pulmonaire et urinaire, pas
d’infection.

En cas d’événements indépendants, la probabilité globale est le


produit des probabilités conditionnelles. La probabilité conditionnelle
pour un événement A connaissant un événement B est la probabilité
que A se réalise sachant que B s’est réalisé. La probabilité
conditionnelle s’écrit :

PB.A = nombre de fois où A et B se réalisent conjointement


nombre de fois où B se réalise

Par exemple, supposons qu’au départ on ait affaire à 200 sujets. On


compte ensuite le nombre de survivants tous les ans. Les résultats sont
les suivants :
• Nombre de survivants à 1 an : 100
• Nombre de survivants à 2 ans : 70
• Nombre de survivants à 3 ans : 56.

ϲ

Calculons les probabilités conditionnelles de survie, année par année :
• La probabilité de survie à 1 an est : S0.1 = 100/200 = 0.50.
• La probabilité de survie à 2 ans chez les survivants à 1 an est :
S1.2 = 70/100 = 0.70.
• La probabilité de survie à 3 ans chez les survivants à 2 ans est : :
S2.3 = 56/70 = 0.80

Ces probabilités conditionnelles sont donc estimées simplement


comme le rapport du nombre de sujets vivants à la fin de chaque
année sur le nombre de sujets vivants au début de cette même année.

Intéressons nous maintenant à la probabilité globale de rester en vie à


3 ans, celle-ci est : S0.3 = 56/200 = 0.28. Le résultat obtenu est celui
qu’on retrouve en effectuant le produit des probabilités
conditionnelles pour chaque intervalle retenu : 0.50*0.70*0.80 = 0.28.

De même, la probabilité globale d’être vivant à 2 ans est :

S0.2 = 0.50*0.70 = 0.35 (ou aussi 70/200 = 0.35)

D’une manière générale, la probabilité globale de survie est égale au


produit des probabilités de survie conditionnelles.

5. Ratio

Un ratio est le rapport des effectifs de deux modalités d’une même


variable. Le sex-ratio est le rapport numérique des sexes à la
naissance :

sex-ratio = (effectif des garçons) / (effectif des filles)

Si le sex-ratio est égal à 1.06 (ou 106%), cela signifie que pour 100
naissances féminines, il y a 106 naissances masculines. Lorsqu’on n’a
plus affaire à des naissances, on peut parler de ratio hommes/femmes.
ϳ

6. Indice

Un indice est le rapport de deux effectifs relatifs aux données de deux


variables quantitatives discrètes, il est notamment utilisé en économie
de la santé comme indicateur de fonctionnement (nombre de lits
d’hôpital/nombre de médecins d’hôpital…).

Un indice est aussi une pseudo fréquence relative, c’est un substitut


d’une fréquence relative difficile à calculer.

Le calcul de la fréquence relative des malades ayant contracté une


infection nosocomiale (incidence cumulée) parmi ceux qui ont été
hospitalisés au mois de mars dans un hôpital consiste à identifier
parmi l’ensemble des malades hospitalisés du 1er au 31 mars
(dénominateur) ceux qui ont contracté une infection nosocomiale.

Il s’agit donc de suivre l’ensemble des malades hospitalisés au mois


de mars jusqu’au développement éventuel d’une infection
nosocomiale (numérateur), quelle que soit la date de début de cette
infection (mars, avril, mai…) ou jusqu’à leur sortie, évacuation ou
décès.

L’indice d’infection nosocomiale est une estimation simplifiée de


l’incidence cumulée d’infection nosocomiale. Cet indice est déterminé
en rapportant le nombre de nouveaux cas d’infection enregistrés au
mois de mars à l’hôpital au nombre d’admissions enregistrées pendant
le même mois.

Cet indice n’est pas une fréquence relative car le numérateur n’est pas
compris dans le dénominateur et n’est pas un ratio car les
composantes du rapport concernent deux variables différentes.

ϴ

Chapitre 2 :
Mise en ordre des données

1. Généralités

Il convient de représenter les données recueillies de façon claire et


condensée, en un mot de les mettre en ordre. Car la seule présentation
de données brutes (données originales) peut être très lourde, très
difficile, voire inintelligible.

La mise en ordre des données consiste à dresser un tableau d’effectifs


qui fait correspondre aux modalités de la variable étudiée le nombre
d’individus appartenant à ces modalités.

Il s’agit donc d’effectuer un dépouillement qui va tenir compte de la


nature qualitative ou quantitative de la variable étudiée.

2. Mise en ordre des données d’un caractère qualitatif

Les modalités d’un caractère qualitatif doivent épuiser toutes les


possibilités et ne pas empiéter les unes sur les autres. En d’autres
termes, les différentes catégories doivent être exhaustives et
mutuellement exclusives.

Dans le cas où certaines modalités ont une fréquence rare, elles


pourront être regroupées sous une rubrique unique intitulée “ autre ”.
Il est évident que si les modalités d’un caractère qualitatif étudié sont
particulièrement nombreuses, elles peuvent faire l’objet d’une
véritable nomenclature.

Il en est ainsi de la Classification Internationale des Maladies qui est


éditée par l’Organisation Mondiale de la Santé.

ϵ

De même, il existe des classifications officielles des professions et des
catégories socioprofessionnelles éditées par les organismes d’Etat et
publiées dans les annuaires statistiques.

Le tableau d’effectifs correspondant à l’exemple simple de la


distribution de 50 malades selon le sexe est le tableau 2.1.

Tableau 2.1 Distribution de 50 malades selon le sexe


Sexe Effectif %
Masculin 15 30.0
Féminin 35 70.0
Ensemble 50 100.0

Le tableau d’effectifs correspondant à l’exemple de la distribution de


120 malades selon le groupe sanguin dans le système ABO est le
tableau 2.2.

Dans les deux exemples, les différentes catégories sont incompatibles


et complémentaires (ou exhaustives et mutuellement exclusives). Un
sujet de sexe masculin ne peut en même temps être un sujet de sexe
féminin. Un malade avec un groupe sanguin O ne peut être en même
temps du groupe AB. Les différentes catégories sont complémentaires
parce que la somme des fréquences relatives est égale à 100%.

Tableau 2.2 Répartition de 120 malades selon le groupe sanguin


dans le système ABO
Groupe sanguin Effectif %
O 50 41.7
A 40 33.3
B 17 14.2
AB 13 10.8
Ensemble 120 100.0

ϭϬ

3. Mise en ordre des données d’un caractère quantitatif

Les mêmes règles vues à propos de la mise en ordre des données d’un
caractère qualitatif sont applicables : catégories incompatibles et
complémentaires.
Cependant, pour pouvoir dresser un tableau d’effectifs qui soit facile à
lire, il faut grouper les observations dans un certain nombre de classes
successives, contiguës ne se recouvrant pas.

Chaque classe est définie par ses limites, son amplitude et sa valeur
centrale.

Soit la répartition de 7 cas d’intoxication alimentaire à Staphylococcus


(S.) aureus en fonction de l’heure de début des symptômes (tableau
2.3).

Tableau 2.3 Répartition de 7 cas d’intoxication alimentaire à S.


aureus en fonction de l’heure de début des symptômes
Heure Nombre de cas %
20h 2 28.6
21h 2 28.6
22h 2 28.6
23h 1 14.2
Ensemble 7 100.0

La première modalité “ 20h ” correspond en réalité à la classe “ 20h -


21h ”. Tous les cas de maladie qui ont débuté à 20h, 20h 1 mn, ....,
20h 59 mn, appartiennent à la première classe dont la limite inférieure
est “ 20h ” et la limite supérieure est “ 21h ”.

Mais comme une observation ne doit être située que dans une classe,
la convention adoptée est de toujours inclure dans la classe la limite
inférieure et donc de toujours exclure la limite supérieure.

ϭϭ

On pourrait présenter la même distribution avec une écriture
équivalente mais beaucoup plus lourde (tableau 2.3 bis). Il est évident
que les effectifs et les fréquences relatives des différentes classes
restent les mêmes.

Tableau 2.3 bis Répartition de 7 cas d’intoxication alimentaire à S.


aureus en fonction de l’heure de début des symptômes
Heure Nombre de cas %
[20h-21h[ 2 28.6
[21h-22h[ 2 28.6
[22h-23h[ 2 28.6
[23h-24h[ 1 14.2
Ensemble 7 100.0

Quelquefois, aux extrémités d’un tableau d’effectifs, on observe des


classes ouvertes.

Si on étudie la distribution par âge d’un groupe de sujets, on peut faire


ressortir les personnes du troisième âge en adoptant comme classe
ultime “ 60 ans et plus ”.

L’amplitude de classe est la différence entre les limites inférieure et


supérieure de la classe. Dans le tableau 2, toutes les classes ont la
même amplitude : 1 heure. Il est bien évident qu’on n’est pas obligé
de choisir toujours des classes d’amplitude égale.

Le centre de classe est la valeur située au milieu de la classe, il est


égal à :
(limite inférieure + limite supérieure) / 2

Le centre de classe de la première classe est ainsi égal à :


(20h + 21h) / 2 = 20h 30mn.

ϭϮ

Dans une classe, on ne distingue pas les valeurs qui y sont comprises.
Toutes les valeurs de la classe sont confondues avec celle du centre de
classe. On comprend alors que le fait de regrouper des valeurs en
classes conduit à une perte d’information et donc de précision. Cela
peut masquer une information ou une tendance importante.

Il importe, avant même de recueillir les données, d’envisager les


questions intéressantes afin de pouvoir les cerner au moment de
l’analyse.

Dans l’exemple de la répartition des cas d’intoxication alimentaire à


staphylocoque, la construction des classes ne posait aucun problème
particulier étant donné la nature du problème. Il suffisait de connaître
l’heure de survenue des symptômes à l’heure près pour commenter la
courbe d’incidence épidémique et incriminer le repas responsable
(chapitre ).

La construction de classes peut être une tâche difficile et doit toujours


tenir compte de la question posée. Les connaissances établies doivent
également être prises en compte lorsqu’on veut étudier la relation
entre deux variables.

Par exemple, on peut préconiser, dans une première étape, pour


comparer l’incidence de la maladie coronarienne avant et après la
ménopause, de constituer deux classes d’âge, < 47 ans et ≥ 47 ans,
l’âge moyen de la ménopause en Algérie semblant être de 47 ans.

La répartition d’une variable en classes ne peut que différer d’une


hypothèse à une autre. En l’absence d’hypothèse particulière, il est
recommandé de regrouper les différentes valeurs de la variable en
classes petites d’effectif à peu près égal avant de constituer
éventuellement des classes d’amplitude plus large.

Dans une étude portant sur 121 patients de plus de 60 ans, on a relevé
pour chacun d’entre eux la tension artérielle systolique au mmHg près.
Les résultats sont contenus au tableau 2.4.
ϭϯ

Tableau 2.4 Tension artérielle systolique au mmHg près de 121 patients
122 127 130 131 132 133 133 134 134 135 136
136 137 138 138 139 139 139 140 140 141 141
141 142 142 142 142 143 143 143 143 144 144
144 144 144 145 145 145 145 145 146 146 146
146 146 147 147 147 148 148 148 148 148 149
149 149 149 149 150 150 150 150 150 151 151
151 151 151 151 151 151 151 152 152 152 152
152 153 153 153 154 154 154 154 155 155 155
155 156 156 156 157 157 157 157 158 158 158
158 159 159 159 160 160 160 161 162 162 163
164 165 166 166 167 168 169 171 175 180 198

Il s’agit de données brutes, classées par ordre croissant, qu’il convient


aussi de mettre en ordre de façon condensée, accessible et claire pour
faciliter des comparaisons utiles entre groupes ou populations
étudiées. On devrait les présenter, soit par la construction de classes
puisqu’il s’agit des données d’une variable quantitative continue, soit
par la détermination de paramètres de réduction permettant de résumer
toute l’information d’une série statistique en tenant compte de toutes
les valeurs (moyenne, écart-type exposés ci-dessous).

On décide de présenter les résultats de cette étude en construisant des


classes de même amplitude égale à 10 mmHg. Il n’existe pas de règle
permettant d’imposer le nombre de classes.

Mais si on choisit une amplitude égale pour les classes, le nombre de


classes peut être déterminé par la règle empirique suivante :

nombre de classes = étendue / amplitude.

L’étendue (ou marge) est la différence entre la valeur la plus grande et


la valeur la plus petite de la série (valeurs de la variable). Dans notre
exemple, l’étendue = 198 – 122 = 76 mmHg.

ϭϰ

Le nombre optimal de classes est donc : 76/10 7.6 ≈ 8 classes. Le
tableau d’effectifs correspondant (si la première classe doit être 120-
129) avec la distribution des pourcentages est le tableau 2.5.

Tableau 2.5 Tension artérielle systolique au mmHg près de 121


patients (présentation en classes)
Tension Patients
artérielle Effectif %
120-129 2 1.7
130-139 16 13.2
140-149 41 33.9
150-159 44 36.4
160-169 14 11.6
170-179 2 1.7
180-189 1 0.8
190-199 1 0.8
Total 121 100.0

4. Fréquences cumulées

Les fréquences cumulées permettent de dire combien il y a d’individus


dont la valeur de la variable étudiée est inférieure à une limite donnée.

Les fréquences cumulées se calculent aussi bien pour les effectifs que
pour les fréquences relatives pour lesquels on fait un cumul
descendant à partir de la première classe : les fréquences (effectifs ou
fréquences relatives) sont additionnées au fur et à mesure.

Les données du tableau 2.6 reprennent celles du tableau 2.3 auxquelles


ont été rajoutées les fréquences cumulées.

ϭϱ

Tableau 2.6. Répartition de 7 cas d’intoxication alimentaire à S.
aureus en fonction de l’heure de début des symptômes
(données du tableau 2.3)
Heure Nombre de % Effectifs % cumulés
cas cumulés
20h 2 28.6 2 28.6
21h 2 28.6 4 57.2
22h 2 28.6 6 85.8
23h 1 14.2 7 100.0
Ensemble 7 100.0

On peut voir immédiatement, par exemple, que 6 cas d’intoxication,


soit 85.8% des cas, sont survenus avant 23h.

On aura noté que les fréquences relatives cumulées sont plus


expressives que les effectifs cumulés.

Le tableau 2.7 reprend, quant à lui, les données relatives à la tension


artérielle de 121 patients avec les effectifs et les pourcentages
cumulés.

On voit immédiatement, par exemple, que 85.2% des patients ont une
tension artérielle inférieure à 160 mmHg.

Il n’est cependant pas habituel dans un tableau destiné à être présenté


ou à être publié de mentionner les fréquences cumulées.

Les fréquences cumulées sont aussi utilisées pour la détermination de


quantiles (chapitre 3) ainsi que pour la représentation graphique des
distributions de variables qualitatives (chapitre 5).

ϭϲ

Tableau 2.7 Tension artérielle de 121 patients
(données du tableau 2.5)
Tension Patients Effectifs Pourcentages
artérielle Effectif % cumulés Cumulés
120-129 2 1.7 2 1.7
130-139 16 13.2 18 14.9
140-149 41 33.9 59 48.8
150-159 44 36.4 103 85.2
160-169 14 11.6 117 96.8
170-179 2 1.7 119 98.5
180-189 1 0.8 120 99.3
190-199 1 0.8 121 100.0
Total 121 100.0

ϭϳ

ϭϴ

Chapitre 3

Principaux paramètres de réduction

1. Généralités

Les tableaux sont pratiques et commodes pour présenter l’information


relative aux données individuelles. Mais il est souvent indiqué de
résumer, en plus, les principales caractéristiques de la distribution
d’une variable.

Les paramètres ou statistiques de réduction sont des valeurs


numériques permettant de résumer les caractéristiques principales
d’une série statistique, c’est à dire l’ensemble des mesures d’un
caractère quantitatif.

2. Paramètres de tendance centrale

Les paramètres de tendance centrale sont des mesures qui localisent le


centre d’une distribution. Les plus utilisés sont : la moyenne
arithmétique, la médiane et le mode.

Considérons les deux séries suivantes :

• Série 1 : 15, 20, 25, 30, 35.


• Série 2 : 5, 15, 25, 35, 45.

La moyenne de la série 1 est tout simplement :


(15 + 20 + 25 + 30 + 35) / 5 = 25

De même la moyenne de la série 2 est :


(5 + 15 +25 + 35 + 45) / 5 = 25

ϭϵ

Donc, à partir de données brutes, la moyenne (m) s’écrit :

m = ¦xi/n (somme des x divisé par l’effectif n de la série)

A partir de données groupées (classes…), la moyenne s’écrit :

m = ¦nixi/n (ni est l’effectif de la classe et xi est le centre de classe)

La moyenne de la tension artérielle des 121 patients (tableau 2.5) est :

m = [(125*2)+(135*16)+(145*41)+…+(195*1)]/121 = 150.5 ≈ 151


mmHg,

On aurait trouvé plus justement 149.9 mmHg à partir des données


brutes.

La médiane est la valeur de la variable qui se trouve au milieu de la


distribution : 25 pour la série 1 et 25 pour la série 2.

La médiane de l’heure de début des symptômes de l’intoxication


alimentaire à S. aureus est 21h , en décomposant la série à partir du
tableau 2.3 (20h, 20h, 21h, 21h, 22h, 22h, 23h).

Si n est la taille de l’échantillon et si le nombre des observations est


impair, le rang ou la position de la médiane est déterminé par la
formule (n + 1)/2.

Si le nombre des observations est pair, la médiane est la moyenne


arithmétique des valeurs correspondant aux rangs (n/2) et (n/2 + 1).

Quel que soit le nombre d’observations, la valeur de la médiane ne


change généralement pas lorsque la position de celle-ci est
systématiquement et plus simplement déterminée par la formule (n/2).

ϮϬ

On peut plus rapidement déterminer la médiane en considérant les
données du tableau 2.6 par l’utilisation des effectifs ou des fréquences
cumulés. Le rang de la médiane, par l’utilisation des effectifs, est
(7+1)/2 = 4, la valeur correspondante de la variable est 21h. Le rang
de la médiane, par l’utilisation des pourcentages cumulés, correspond
à 50%, la valeur correspondante de la variable est évidemment la
même : 21h.

Si on prend l’exemple de la tension artérielle de 121 patients (tableau


2.7) le rang de la médiane correspond à (n+1)/2, soit 122/2 = 61 (61ème
observation). La médiane appartient aussi à la classe 150-159, elle est
égale à 155 mmHg si on adopte la valeur du centre de classe.

La médiane à partir des données brutes est égale à 150 mmHg. Cette
valeur est évidemment plus précise.

La médiane se prête moins que la moyenne à la manipulation


statistique. Mais il est souhaitable d’associer la médiane à la moyenne
pour résumer les observations d’autant plus que la distribution est
asymétrique.

Le mode est la valeur de la variable de fréquence maximum. Dans les


séries 1 et 2, il n’y a pas de mode. Pour la série du tableau 1.3, il y a 3
modes : 20h, 21h, 22h.

Pour l’exemple de la tension artérielle chez 121 patients (tableau 2.5),


la classe modale est « 150-159 ». Le mode peut être assimilé au centre
de classe, soit 155 mmHg.

D’après les données brutes (tableau 2.4), le mode est plus précisément
égal à 151 mmHg (recensé 9 fois). S’agissant d’une distribution
symétrique (la moyenne, le mode et la médiane étant pratiquement
égaux) évoquant une distribution normale, la moyenne et l’écart type
(ci-dessous) suffisent à caractériser cette série.

Ϯϭ

Les séries symétriques ont un seul mode (la valeur de la variable qui
correspond au sommet de la courbe).

Le mode n’est pas forcément unique. Il peut exister des distributions


bimodales ou plurimodales indiquant un mélange de populations et
non point une population homogène.

Par exemple, si on étudie la taille d’enfants âgés de 10 et 15 ans, la


courbe représentative de la taille de ces enfants sera bimodale.

Une valeur modale correspondra aux enfants âgés de 10 ans et une


autre valeur modale correspondra aux enfants âgés de 15 ans.

De même, la distribution de la durée d’incubation de cas de toxi-


infection alimentaire collective, lorsqu’elle est bimodale, peut
suggérer l’existence de deux agents infectieux différents.

Le mode peut parfois donner des aperçus sur l’étiologie possible d’une
maladie.

La distribution de cas de maladie de Hodgkin en fonction de l’âge


avait mis en exergue deux modes distincts, l’un aux environs de 30
ans et l’autre vers 70 ans suggérant la possibilité de deux entités
cliniques différentes de cette maladie. De fait, les connaissances
accumulées ultérieurement impliquaient un processus inflammatoire
chez les adultes jeunes et un processus néoplasique chez les sujets
plus âgés.

3. Paramètres de dispersion

La moyenne est insuffisante pour caractériser complètement une série


statistique, elle doit être accompagnée d’un paramètre de dispersion
qui renseigne sur l’étalement de la série autour de la valeur de cette
moyenne.

ϮϮ

Les deux séries 1 et 2 ont la même moyenne. Mais visiblement, elles
ne se ressemblent pas. On peut remarquer, en effet, que la deuxième
série est plus “ étalée ” que la première autour de la moyenne. On dit
que la deuxième série est plus dispersée.

Les paramètres de dispersion, écart type (s) et variance (s²), permettent


d’apprécier la dispersion de la série (ou sa variabilité) autour de la
moyenne. La variance, qui est simplement le carré de l’écart type, est
la moyenne des carrés des écarts des valeurs x à la moyenne m :

s² = [¦(xi-m)²] / (n-1) , n est la taille de l’échantillon.

La variance et l’écart type renseignent tous deux sur l’étalement de la


série autour de la moyenne. Mais tandis que la variance mesure le
carré d’une grandeur, l’écart type d’une série s’exprime dans la même
unité de mesure que les observations et a donc une signification plus
concrète. Si par exemple, une variable s’exprime en kg, la variance
s’exprime en kg² tandis que l’écart type s’exprime en kg.

Calculons les deux variances des deux séries précédentes :

s²(série 1) = [(15-25)² + (20-25)² + (25-25)² + (30-25)² + (35-25)²] /


(5-1) = 62.5
s²(série 2) = [(5-25)² + (15-25)² + (25-25)² + (35-25)² + (45-25)²] / (5-
1) = 250.0

Les écarts types correspondants sont :


s (série 1) = ¥62.50 = 7.9
s (série 2) = ¥250.0 = 15.8

La série 2 est évidemment plus dispersée autour de la moyenne. La


variance et l’écart type permettent de quantifier cette dispersion.

Appliquée à des données groupées, la variance s’écrit :

s² = [¦ni(xi-m)²] / (n-1) , n est la taille de l’échantillon.


Ϯϯ

L’écart type de la pression artérielle de 121 patients (tableau 1.5),
selon cette formule, est :

s = √{[2(125-150.5)²+16(135-150.5)²+41(145-150.5)² +…
+ 1(195-150.5)²] /120} = 11.03 ≈ 11 mmHg

On aurait trouvé plus justement 10.9 (10.93) à partir des données


brutes.

L’écart type peut être plus grand que la moyenne lorsque la série est
très asymétrique (durée d’hospitalisation…) ou lorsqu’il existe des
valeurs négatives pour la variable (pression respiratoire…).

On peut toujours, au lieu de faire accompagner le moyenne des


valeurs par l’écart type des valeurs (m ± s), faire accompagner la
moyenne par l’écart type de la moyenne (m ± s/√n), appelé aussi
erreur standard, qui est évidemment plus petit que l’écart type des
valeurs.

Une variable qualitative dichotomique peut être assimilée à la variable


de Bernouilli (variable quantitative qui ne prend que les valeurs 0 et
1), sa distribution admet comme moyenne le pourcentage P et pour
variance :

S² = PQ = P(1- P).

La distribution de la variable qualitative dichotomique est résumée


dans les faits par le pourcentage de la caractéristique étudiée.

Si on a 15 asthmatiques parmi un échantillon de 60 personnes, la


moyenne de la distribution de la variable « asthme » est estimée par le
pourcentage 15/60 = 25.0% (asthmatique = 1, non asthmatique = 0) et
la variance est estimée par : 0.25 * 0.75 = 0.19.

Ϯϰ

On note que pour P = 50%, S² = 0.25 et pour P = 10% (ou P = 90%),
S² = 0.09. La variance de la distribution d’une variable qualitative
dichotomique est d’autant plus élevée que P se rapproche de 50%.

4. Coefficient de variation

Le coefficient de variation (CV) exprime l’écart type en fonction de la


moyenne :

CV = s/m.

Pour la distribution de la tension artérielle, CV = 11.0/150.5 = 7.3%.


La moyenne est représentative des valeurs de la série.

De façon générale :

• 0 < CV <10% : représentativité bonne de la moyenne


• 10% < CV < 25% : représentativité acceptable de la moyenne
• CV > 25% : représentativité médiocre de la moyenne

Si l’écart type quantifie la variabilité de la distribution autour de la


moyenne, le CV exprime, sans unité, le degré de variabilité relative,
ou, en d’autres termes, le degré de dispersion en fonction de la valeur
moyenne.

Le CV d’une distribution avec une moyenne de 10 et un écart type de


5 est : 5/10 = 1/2 (50%). Cette distribution a une variabilité plus
importante que celle d’une distribution de même écart type mais avec
une moyenne de 100 : 5/100 (5%).

Les coefficients de variation sont directement comparables. Lorsque


deux distributions ont des moyennes différentes, la comparaison de
leurs CV est plus instructive que celle de leurs écarts types (ou de
leurs variances) respectifs.
Ϯϱ

Il est intéressant de comparer, dans deux populations différentes,
l’importance de la variabilité de la distribution d’une variable ou bien,
dans la même population, celle de deux variables différentes.

Par exemple, on peut comparer le degré de variabilité relative de la


pression artérielle systolique chez l’enfant d’une part et chez l’adulte
d’autre part.

On peut aussi, chez l’adulte, comparer le CV de la pression artérielle


systolique à celle de la pression diastolique pour voir laquelle des
deux pressions est plus sujette à variabilité.

5. Quantiles

Les quantiles ou statistiques de position sont des paramètres qui


occupent un certain rang dans la série des valeurs d’une série
statistique, valeurs classées selon un ordre croissant ou décroissant.
Les quantiles se subdivisent en quartiles, déciles et percentiles.

5.1 Quartiles

Les quartiles divisent la série statistique en quatre parties égales


comprenant le même nombre de sujets. Le deuxième quartile (Q2)
n’est autre que la médiane.

Le premier quartile (ou quartile inférieur ou Q1) est la valeur de la


variable du 25ème sujet sur 100, le troisième quartile (Q3) est la valeur
de la variable du 75ème sujet sur 100, cela lorsqu’on utilise les
pourcentages cumulés.

Dans une série de 60 valeurs, par exemple, le rang du premier quartile


est 15, le rang du deuxième est 30, le rang du troisième est 45, cela
lorsqu’on utilise les effectifs. Une fois le rang déterminé, on recherche
les valeurs correspondantes de la variable.
Ϯϲ

Dans l’exemple de la tension artérielle de 121 patients (tableau 2.7),
le premier quartile est la 30.3ème valeur (121/4). Il appartient à la
classe « 140-149 », soit 145 mmHg (en lui assignant la valeur du
centre de classe) ou mieux 143 mmHg à partir des données brutes. Le
troisième quartile est la 90.8ème valeur (121*3/4) et appartient à la
classe « 150-159 », soit 155 mmHg (en lui assignant la valeur du
centre de classe) ou mieux 156 mmHg à partir des données brutes.

L’écart interquartile (Q3 – Q1 = Interquartile Range) peut être utilisé


comme indicateur de dispersion, il correspond à la moitié des valeurs
situées dans la partie centrale de la série. Cet écart correspond à (156
mmHg – 143 mmHg = 13 mmHg) pour l’exemple de la tension
artérielle.

5.2 Déciles

Les déciles sont au nombre de 9. Ce sont les valeurs de la variable qui


partagent la série statistique en 10 parties comprenant chacune 1/10ème
de l’effectif total.

Par analogie avec les quartiles, le premier décile (D1) est la note du
10ème sujet sur 100, le deuxième décile (D2) est la note du 20ème sujet
sur 100, etc. Le cinquième décile (D5) se confond avec le deuxième
quartile et la médiane.

Le décilage est d’un usage fréquent, notamment en biométrie, parce


qu’il permet de situer rapidement et facilement la position d’un sujet
quelconque par rapport aux autres sujets de la série.

Si par exemple, dans un décilage de la taille, la mesure d’un sujet se


situe dans le neuvième décile, c’est à dire entre le huitième et
neuvième décile, cela signifie que, sur 100 sujets, il y en aura 10 plus
grands que lui.

Ϯϳ

Dans l’exemple de la tension artérielle de 121 patients (tableau 2.7),
le rang de D1 correspond à 121/10 = 12.1 (12ème valeur), soit D1 =
136 mmHg. Le rang de D9 correspond à 121*9/10 = 108.9 (109ème
valeur), soit D9 = 162 mmHg. En effet, les classes « 130-139 » et
« 160-169 » auxquelles appartiennent D1 et D9 contiennent
respectivement les valeurs brutes :

• 130 131 132 133 133 134 134 135 136 136 137 138 138 139
139 139
• 160 160 160 161 162 162 163 164 165 166 166 167 168 169

La valeur 130 est bien évidemment la 3ème valeur de la série statistique


tandis que la valeur 160 est la 104ème valeur de la série. Bien sûr, 80%
des valeurs de la série devraient se situer entre D1 et D9.

5.3 Percentiles

Les percentiles ou centiles, au nombre de 99, sont les valeurs de la


variable qui divisent la série statistique en 100 parties contenant
chacune 1/100ème de l’effectif global. De façon générale, les
percentiles sont utilisés lorsque le nombre de valeurs de la série
statistique est supérieur à 1000.

Le 42ème percentile, par exemple, est la note du 420ème sujet sur 1000.
Certains percentiles se confondent avec des quantiles déjà vus. Le
dixième percentile, par exemple, se confond avec le premier décile.

Les percentiles sont aussi fréquemment utilisés en biométrie. Comme


les déciles, ils permettent de situer la position d’un sujet quelconque
par rapport aux autres sujets de la série. Si, par exemple, dans un
percentilage du poids, la mesure d’un sujet se situe dans le 5ème
percentile, cela signifie que, sur 1000 sujets, il y en aura seulement 40
avec un poids inférieur, mais 950 avec un poids supérieur. Les 10
restants appartiennent évidemment au 5ème percentile.

Ϯϴ

Les percentiles sont les paramètres de position les plus communément
utilisés pour l’établissement des normes. Les différences entre
l’échantillon représentatif d’une population-cible et l’échantillon
utilisé pour établir les valeurs de référence concernent surtout la
moyenne et non les paramètres de position. Pour cette raison, il est
recommandé de suivre un sujet au cours du temps dans l’échelle des
percentiles. Cela permet de limiter l’effet de valeurs de référence non
adéquates.

Les paramètres de tendance centrale, les paramètres de dispersion


ainsi que les quantiles sont déterminés, de nos jours, exclusivement
par des moyens informatiques.

Ϯϵ

Chapitre 4

Représentation tabulaire de l’information

1. Généralités

Un tableau, comme exposé au chapitre précédent, est utilisé pour


mettre en ordre des données répétitives. Un tableau est une unité
d’information autonome se suffisant à elle même, il doit être
compréhensible en soi-même, indépendamment du texte. C’est
pourquoi, il doit contenir toutes les indications utiles à sa
compréhension.

Le lecteur ou l’auditeur doit être en mesure de cerner l’essentiel du


message véhiculé par le tableau sans le secours du texte dans lequel
néanmoins il doit être commenté. Le lecteur doit en outre être en
mesure de vérifier les résultats importants ou utiles.

Un tableau devrait être prévu avant même l’élaboration du


questionnaire et la collecte des données (chapitre 10). Les données
récoltées “ pour voir ” vont alourdir inutilement le questionnaire s’il
n’a pas été prévu de les tabuler pour répondre à des questions précises
qui sont autant d’objectifs spécifiques.

Les moyens informatiques produisent facilement des tableaux mais


cette facilité n’engendre pas toujours, loin s’en faut, des tableaux
clairs, explicites, complets et compréhensibles.

Un tableau ne peut être conçu sans un titre. Le titre définit le contenu


du tableau, il est explicite quant à l’objet et la population concernée
avec les caractéristiques de personnes, de temps et de lieu. En
d’autres termes, un titre doit répondre à la question : “ quoi, qui, où,
et quand ?”

ϯϭ

Des indications complémentaires qui peuvent être indépendantes du
titre sont portées en notes au bas du tableau. Il peut s’agir de la source
des données, des unités de mesure, de la définition d’une abréviation,
d’explications complémentaires, de mesures statistiques ou
épidémiologiques testant la liaison entre deux variables...

2. Tableaux à une variable

La présentation des données peut être unidimensionnelle. Le tableau


correspondant est dit à une seule variable ou tableau statistique à
simple entrée ou encore tableau à une seule dimension.

Tous les tableaux présentés au chapitre 2 étaient des tableaux à une


seule variable. Le tableau 2.1 contenait la distribution de malades
selon le sexe, le tableau 2.2 contenait la distribution de malades selon
le groupe sanguin, le tableau 2.3 contenait la distribution de cas
d’intoxication selon l’heure de survenue des symptômes et le tableau
2.5 contenait la distribution de malades selon la tension artérielle.

3. Tableaux à deux variables

Un tableau peut contenir les données de deux variables. C’est un


tableau à deux variables ou à double entrée ou à deux dimensions. Un
tableau à deux variables contient évidemment les données des
tableaux à une variable de chacun des deux caractères. Un tel tableau
peut avoir un intérêt purement descriptif mais va permettre surtout de
tester la liaison entre deux variables.

Prenons l’exemple de 176 enfants répartis selon la variable “diarrhée”


et la variable “qualité de l’eau”. Les données sont contenues au
tableau 4.1.

ϯϮ

Tableau 4.1 Répartition de 176 enfants selon qu’ils ont contracté
éventuellement une diarrhée et la qualité de l’eau dont ils disposent
Diarrhée Eau mauvaise Eau bonne Ensemble
Diarrhéiques 54 17 71
Non diarrhéiques 55 50 105
Ensemble 109 67 176

Il s’agit dans cet exemple de tester la relation entre la diarrhée


(modalités : diarrhéiques et non diarrhéiques) et la qualité de l’eau
(modalités : bonne et mauvaise). Puisque les deux variables sont
qualitatives, il s’agit en fait de comparer des pourcentages.

Dans cet exemple, il s’agit plus précisément de comparer la


proportion des enfants diarrhéiques qui disposent d’une eau de
mauvaise qualité à la proportion des enfants non diarrhéiques qui
disposent d’une eau de mauvaise qualité (étude cas – témoins qui est
exposée au chapitre ). Les données auraient gagné à être présentées
dans une publication comme au tableau 4.2.

Tableau 4.2. Etude cas - témoins sur la diarrhée


et la qualité de l’eau
Enfants Mauvaise qualité de l’eau
enquêtés Effectif %
Diarrhéiques 71 54 76.1
Non 105 55 52.4
diarrhéiques

On voit immédiatement au tableau 4.2 que 76.1% des enfants


diarrhéiques disposent d’une eau de mauvaise qualité contre
seulement 52.4% des enfants qui n’ont pas contracté une diarrhée. La
comparaison de ces deux pourcentages suppose néanmoins la
réalisation d’un test statistique (atelier BiostaTGV et OpenEpi).

ϯϯ

Bien évidemment, une variable peut avoir plus de deux modalités. Le
tableau 4.3 rapporte les taux d’attaque de la dysenterie à l’occasion
d’une épidémie en fonction de la profession.

Tableau 4.3. Taux d’attaque de la dysenterie en fonction de la


profession à l’occasion d’une épidémie survenue dans une localité de
8900 personnes
Effectif Cas Taux d’attaque
global de dysenterie (pour 1000)
Pêcheurs 900 40 44.4
Agriculteurs 1800 15 8.3
Autres 6200 29 4.7

Le tableau 4.3 contient bien les données de deux variables dont on


veut tester la liaison :

• la “ profession ” avec trois modalités (pêcheurs, agriculteurs,


autres) ;
• la dysenterie avec deux modalités (dysentériques, non
dysentériques).

Les données ont été présentées de façon à faire ressortir les taux
d’attaque, ce qui est judicieux lorsque les cohortes peuvent être
reconstituées (investigation d’une épidémie exposée au chapitre ) et
permet de voir que les pêcheurs ont un taux d’attaque relativement
élevé. La pratique d’un test statistique pour comparer simultanément
ces trois taux (ou ces trois pourcentages) corroborera cette impression
(atelier BiostaTGV et OpenEpi).

4. Tableaux à trois variables

Un tableau peut présenter simultanément les données de trois


variables, c’est un tableau à trois dimensions.
ϯϰ

Le tableau à trois variables contient l’information des tableaux à deux
variables correspondants. Un tableau à trois variables peut avoir un
intérêt purement descriptif, comme, par exemple, contenir la
répartition de malades selon l’âge, le sexe et la commune de résidence.

Cependant, un tableau à trois variables permet surtout de tester la


relation entre deux variables en neutralisant l’effet de la troisième.

Si, par exemple, l’investigation d’une intoxication alimentaire


incriminait deux aliments simultanément (mayonnaise et œufs durs),
il conviendrait de construire un tableau à trois variables (intoxication,
mayonnaise et œufs) pour départager entre les deux aliments
incriminés.

Le tableau 4.4 permet d’étudier la relation entre la variable


“ intoxication ” et la variable “ œufs ” en neutralisant l’effet de la
variable “ mayonnaise ”. Les modalités de la variable “ mayonnaise ”
constituent autant de strates où l’on examine la relation entre
l’ “ intoxication ” et les “ œufs ”. On dit aussi que la variable à
neutraliser est la variable de stratification.

Le tableau 4.5 permet d’examiner la relation entre l’ “ intoxication ” et


la “ mayonnaise ” en neutralisant l’effet des “ œufs ”. Les données du
tableau 4.5 peuvent bien sûr être tirées du tableau 4.4 mais les deux
tableaux poursuivent deux objectifs différents puisque la variable à
neutraliser est différente.

L’analyse de tels tableaux est généralement réalisée par l’utilisation de


tests statistiques d’ajustement (Ȥ² de Mantel-Haenszel…) disponibles
dans les logiciels d’épidémiologie comme Epi-Info (atelier
BiostaTGV et OpenEpi).

ϯϱ

Tableau 4.4 Examen de la relation entre l’intoxication et les œufs
en neutralisant la mayonnaise
Œufs oui Œufs non Total
Mayonnaise oui Malades 13 3 16
Non malades 3 0 3
Subtotal 16 3 19
Mayonnaise non Malades 0 2 2
Non malades 1 9 10
Subtotal 1 11 12
Ensemble Malades 13 5 18
Non malades 4 9 13
Total 17 14 31

Tableau 4.5 Examen de la relation entre l’intoxication et la


mayonnaise en neutralisant les œufs
Mayonnaise oui Mayonnaise non Total

Œufs oui Malades 13 0 13


Non malades 3 1 4
Subtotal 16 1 17
Œufs non Malades 3 2 5
Non malades 0 9 9
Subtotal 3 11 14
Ensemble Malades 16 2 18
Non malades 3 10 13
Total 19 12 31

ϯϲ

Chapitre 5

Représentation graphique de l’information

1. Généralités

La représentation graphique a l’avantage de mettre à la disposition du


lecteur une vue synoptique des données et de montrer ainsi l’allure
générale du phénomène étudié. Les caractéristiques essentielles, les
discontinuités brutales sont immédiatement apparentes. Le graphique,
par ses présentations variées, est un moyen suggestif qui laisse dans la
mémoire une impression plus durable que celle des tableaux.

Cependant, la construction d’un graphique n’est souhaitable que si une


variation d’un phénomène donné veut être mise en évidence.

Par ailleurs, un tableau est préférable à un graphique si les résultats


ont besoin d’être vérifiés à partir des données brutes. Les tableaux
sont source d’une meilleure précision car ils fournissent plus de détails
sur les valeurs individuelles tandis que les graphiques ne permettent
qu’une description générale du phénomène. Mais comme un tableau,
un graphique est une unité d’information se suffisant à elle même.

Il existe de très nombreuses variétés de tracés. Il peut s’agir de


polygones (lignes brisées), de courbes, de surfaces, de nuages de
points... Plusieurs tracés peuvent être adaptés au phénomène étudié.
La cohérence du tracé avec le type de données doit cependant être
vérifiée.

Les logiciels et les moyens informatiques rendent aisée la construction


de graphiques mais cette facilité ne signifie pas forcément clarté. En
effet, un graphe doit non seulement être visible mais aussi
compréhensible et véhiculer un message clair en rapport avec un
objectif spécifique. C’est ainsi que les graphiques en relief ne
devraient pas être utilisés.
ϯϳ

En épidémiologie, les diagrammes en nuage de points, les diagrammes
en escalier et les diagrammes haut/bas sont particulièrement utilisés.
Mais il est utile de passer d’abord en revue des représentations
graphiques classiques. Les différentes représentations sont regroupées
à la fin du chapitre.

2. Représentation d’une série chronologique

Une série chronologique est la succession de valeurs que prend au


cours du temps un paramètre de définition constante. On peut
s’intéresser, par exemple, à l’évolution dans le temps de l’effectif des
victimes d’accidents, du taux de mortalité infantile, du taux
d’incidence du choléra...

Une série chronologique est habituellement représentée par un


polygone. La figure 5.1 représente l’évolution mensuelle du nombre
de décès par accidents de la route enregistrés au CHU de Blida au
cours de trois années consécutives. Un facteur année et un facteur
mois pourraient être mis en évidence par l’analyse de variance d’un
plan d’ordre 2 à une répétition : l’année 1999 a enregistré moins de
décès d’une part, les mois d’été et d’automne recensent une hausse du
nombre de morts par accidents de la route d’autre part.

3. Représentation graphique des données d’un caractère


qualitatif

Pour représenter graphiquement les distributions à caractère qualitatif,


on s’appuie sur le principe de la proportionnalité des surfaces
représentatives des effectifs rencontrés. En d’autres termes, les
surfaces constituent les effectifs ou les fréquences relatives.

Pour une seule variable qualitative, la représentation graphique est


souvent un diagramme en barres.

ϯϴ

Dans ce diagramme, les différentes modalités du caractère sont
figurées par des rectangles étroits dont la base est constante même si
elle est arbitraire. Les barres sont également espacées.

Puisque les barres sont de même largeur, les surfaces (effectifs) sont
proportionnelles à la hauteur. De ce fait, les fréquences des différentes
modalités peuvent être comparées au vu de la hauteur des rectangles
respectifs.

Le diagramme en barres est aussi utilisé lorsqu’il s’agit de mettre en


relief les grandeurs relatives des différentes parties d’un tout. On
portera pour cela sur l’axe des y les fréquences cumulées.

La figure 5.2a représente la distribution de 458 décès par accidents de


la route en fonction du sexe recensés au CHU de Blida de 1999 à
2001. Les mêmes données sont utilisées pour la figure 5.2b qui fait
ressortir les fréquences relatives cumulées. Si on devait sur cette
dernière figure rajouter une autre série pour un autre CHU relative à la
distribution non pas de 458 mais de 916 décès, la largeur de la barre
devrait être le double de la première (la hauteur restant identique) pour
respecter le principe des surfaces représentatives des effectifs.

Le diagramme à barres n’est pas la seule représentation possible des


distributions à caractère qualitatif. On peut aussi utiliser le diagramme
circulaire ou semi-circulaire à secteurs. Les angles des secteurs sont
proportionnels aux fréquences des différentes modalités : 1% est
représenté par 3.6° dans un diagramme circulaire et 1% est représenté
par 1.8° dans un diagramme semi-circulaire.

La figure 5.3 utilise un diagramme circulaire pour représenter les


causes de décès néonataux précoces enregistrés au CHU de Blida en
2001.

ϯϵ

4. Représentation graphique des données d’un caractère
quantitatif

L’histogramme représente graphiquement la distribution de


fréquences d’un caractère quantitatif continu. L’histogramme est un
diagramme à barres accolées deux à deux. Les surfaces des barres sont
bien sûr proportionnelles aux fréquences (effectifs ou fréquences
relatives) des différentes classes.

Pour la construction d’un histogramme, il est important de respecter


les deux règles suivantes :

• les bases ai des barres doivent être proportionnelles à l’amplitude


des classes,
• les hauteurs des barres doivent être proportionnelles à la grandeur
ni/ai, ni est la surface de la barre ou autrement dit l’effectif
correspondant à la classe d’amplitude ai.

En fait, lorsque les classes sont d’amplitude égale, la construction


d’un histogramme ne soulève aucun problème particulier puisque les
hauteurs des barres sont proportionnelles aux effectifs, l’amplitude a
étant constante.

Par contre, lorsque les classes sont d’amplitude inégale, ce sont les
grandeurs ni/ai appelées fréquences corrigées ou fréquences moyennes
par unité d’amplitude qui doivent être préalablement calculées et
portées sur l’axe des y. Cela, pour satisfaire au principe de la
proportionnalité des surfaces représentatives des effectifs rencontrés.

Une barre qui a la même fréquence qu’une autre barre mais une
amplitude double a une hauteur réduite de moitié.

L’histogramme est habituellement utilisé pour représenter une courbe


d’incidence épidémique, c’est à dire la distribution des cas de maladie
en fonction du temps (date ou heure de début des symptômes) qui est
une variable quantitative continue.
ϰϬ

La figure 5.4 qui représente les données du tableau 2.3 est la courbe
d’incidence épidémique de l’intoxication alimentaire à S. aureus qui a
intéressé 7 personnes. Les effectifs sont portés directement sur l’axe
des y puisque les classes sont d’amplitude égale.

Si on regroupait la deuxième et la troisième classe, on obtiendrait la


distribution du tableau 5.1 qui contient aussi les éléments
indispensables à la construction de l’histogramme (figure 5.5).

Tableau 5.1 Répartition de 7 cas d’intoxication alimentaire


Détermination des effectifs corrigés : effectifs par heure
(données du tableau 2.3)
Heure Nombre de cas Amplitude Effectif corrigé
20h 2 1 2
21h – 22h 4 2 2
23h 1 1 1
Ensemble 7

Bien évidemment, les figures 5.4 et 5.5 sont identiques parce qu’elles
représentent la même série. Il aurait été désastreux d’attribuer à la
classe 21h - 22h une hauteur double de celle de 20h.

La représentation par un histogramme de la pression artérielle


systolique de 121 patients à partir des données brutes du tableau 2.5
donne la figure 5.6 dans laquelle figure aussi la courbe ajustée à la loi
normale.

Une autre représentation intéressante pour une série statistique est le


box plot ou diagramme en boîte de Tukey ou boîte à moustaches. Le
corps de la boîte, en d’autres termes ses dimensions, est délimité par
l’intervalle interquartile [Q3 ; Q1]. La médiane figure dans la boîte
qu’elle partage en deux rectangles.

ϰϭ

La moustache inférieure (ou extrémité gauche) de la boîte est la valeur
de la série immédiatement supérieure à la valeur critique : Q1 –
1.5*(Q3 – Q1). Les valeurs de la série inférieures à cette extrémité
sont considérées comme des valeurs atypiques représentées par des
marqueurs.

La moustache supérieure (ou extrémité droite) est la valeur de la série


immédiatement inférieure à la valeur critique : Q3 + 1.5*(Q3 – Q1).
Les valeurs de la série supérieures à cette extrémité sont considérées
comme des valeurs atypiques représentées par des marqueurs.

L’intervalle délimité par les extrémités du diagramme en boîte devrait


contenir 99.3% des valeurs de la série si le caractère suivait une loi
normale ne permettant de qualifier comme atypiques que 0.7% des
observations. Quelle que soit la distribution de la série statistique, le
principe est de ne pas retenir comme atypiques un trop grand nombre
d’observations en adoptant dans l’équation des valeurs critiques la
valeur 1.5 qui est une valeur empirique de compromis.

Les valeurs critiques relatives à la pression artérielle systolique de 121


patients (tableau 1.4) sont respectivement :
• Q1 – 1.5*(Q3 – Q1) = 143 – 1.5*13 = 123.5
• Q3 + 1.5*(Q3 – Q1) = 156 + 1.5*13 = 175.5

Reprenons dans un ordre croissant les premières et dernières valeurs


de la série : 122, 127, 130, 131, 132,……….169, 171, 175, 180, 198.

Les extrémités gauche et droite sont donc respectivement 127 et 175


mmHg.

Le box plot relatif à la représentation de la pression artérielle


systolique de 121 patients (tableau 2.4) est la figure 5.7. Le nombre de
valeurs atypiques est au nombre de trois : 122, 180 et 198 mmHg.

Le box plot peut-être intéressant aussi à adopter pour comparer deux


séries statistiques d’un même caractère quantitatif.
ϰϮ

Le tableau 5.2 donne la répartition des 79 articles originaux, écrits par
des enseignants algériens en sciences médicales en tant que premiers
auteurs pendant la décennie 2000 – 2009, selon le facteur d’impact de
la revue en fonction de la base de données : la base Medline a permis
de repérer 59 articles (74.7%) tandis que la consultation ultérieure de
la base Pascal a permis de repérer 20 autres articles (25.3%) qui
n’étaient pas indexés dans la base Medline.

Le graphe correspondant aux données du tableau 5.2 est la figure 5.8


constituée par deux box plot qui montrent que les articles récupérés
grâce à la base Pascal ont été édités dans des revues à facteur d’impact
relativement bas. La valeur 1.45, exceptionnelle pour la base Pascal,
appartient à l’intervalle interquartile de la base Medline.

5. Graphiques à échelles semi-logarithmiques

Un graphique à échelles semi-logarithmiques est un graphique qui


possède une échelle arithmétique et une échelle logarithmique.

L’échelle arithmétique est, en règle générale, portée sur l’axe des


abscisses. L’échelle logarithmique, sur l’axe des ordonnées, est une
échelle où sont portés, non plus les valeurs de la variable, mais leurs
logarithmes.

Dans une échelle arithmétique, des longueurs égales représentent des


accroissements égaux. Par contre, dans une échelle logarithmique, des
longueurs égales représentent des rapports égaux.

Par exemple, dans une échelle logarithmique, la distance entre 3 et 6


est la même qu’entre 30 et 60, qu’entre 300 et 600, qu’entre 1 et 2,
etc.

Les logiciels informatiques permettent facilement la construction de


graphiques à échelles semi-logarithmiques.

ϰϯ

Tableau 5.2 Répartition des 79 articles originaux écrits par des enseignants
algériens en sciences médicales en tant que premiers auteurs selon le facteur
d’impact de la revue en fonction de la base de données (2000 – 2009)
Facteur d’impact Medline Pascal
0.00 5 9
0.18 0 5
0.25 1 1
0.32 1 0
0.33 1 0
0.38 1 0
0.39 2 0
0.43 1 1
0.48 1 0
0.50 1 0
0.51 1 0
0.53 1 0
0.56 3 0
0.67 0 1
0.82 0 1
0.83 4 0
0.97 2 0
1.37 1 1
1.45 0 1
1.46 1 0
1.68 1 0
1.83 1 0
2.07 1 0
2.15 1 0
2.17 1 0
2.30 1 0
2.32 1 0
2.34 1 0
2.44 2 0
2.56 5 0
2.58 1 0
2.71 1 0
2.81 2 0
2.96 2 0
2.99 1 0
3.05 1 0
4.13 1 0
4.56 1 0
4.82 2 0
5.83 1 0
6.50 1 0
8.20 1 0
9.90 1 0
9.98 1 0
Ensemble 59 20

ϰϰ

Soit à représenter le taux d’incidence annuel du cancer de l’estomac
par âge et par sexe en Algérie. Les données sont contenues au tableau
5.3.

Tableau 5.3 Taux d’incidence annuel du cancer de l’estomac en Algérie


par âge et par sexe pour 100000 habitants
Age 0- 5- 10- 15- 20- 25- 30- 35- 40- 45- 50- 55- 60- 65+
(ans) 4 9 14 19 24 29 34 39 44 49 54 59 64
Mas. - - - 0.2 0.7 0.1 1.2 3.9 3.1 4.9 11.5 16.5 17.8 11.6
Fem. - - - 0.1 0.3 0.1 0.8 1.6 2.1 3.2 5.2 3.3 5.5 4.3
Source : Profil de la morbidité cancéreuse en Algérie 1966-1975. SNED, Alger
1980.

Les valeurs contenues dans ce tableau sont à l’évidence


disproportionnées. L’utilisation de l’échelle arithmétique pour les taux
d’incidence aurait présenté un inconvénient.

En effet, si on décide de représenter le taux d’incidence le plus faible


(0.1) par 1 mm, il faut 178 mm pour représenter le taux d’incidence le
plus élevé (17.8). Les valeurs fortes peuvent ainsi se trouver
démesurément éloignées par rapport aux valeurs faibles qui sont
écrasées.

Le graphique va en conséquence s’étirer excessivement en hauteur


d’autant plus que l’on cherchera à rendre lisibles les valeurs les plus
petites.

De ce point de vue, l’échelle logarithmique présente un avantage par


rapport à l’échelle arithmétique.

L’échelle logarithmique permet de mettre en relief les valeurs les plus


petites, de les « amplifier » et de « tasser » les valeurs les plus élevées.
Le graphique gagne en clarté.

ϰϱ

Selon le nombre de modules, le papier semi-logarithmique va
permettre la représentation de couples de valeurs (x, y) où y varie dans
un certain rapport.

Ainsi, pour
• 1 module : y varie de 1 à 10 ;
• 2 modules : y varie de 1 à 100 ;
• 3 modules : y varie de 1 à 1000, etc.

Dans notre exemple, 17.8 est 178 fois plus grand que 0.1. Il faut donc
utiliser du papier à trois modules. On peut comparer avec intérêt le
diagramme métrique (figure 5.9) avec le diagramme semi-
logarithmique (figure 5.10).

La représentation de valeurs disproportionnées ne constitue pas la


seule indication pour utiliser le graphique à échelles semi-
logarithmiques.

Si l’échelle arithmétique permet la représentation et la comparaison


des valeurs absolues, l’échelle logarithmique est appropriée pour
mettre en évidence les variations relatives des phénomènes.

Le graphique à échelles semi-logarithmiques sera utilisé chaque fois


que l’attention devra être retenue non pas par les effectifs mais par les
rapports concernant des phénomènes dont l’ordre de grandeur est
différent.

En règle générale, les rapports : ratio, indice, risque relatif (ateliers)


doivent être représentés sur des échelles logarithmiques.

Soit l’exemple suivant : il s’agit de comparer les variations dans le


temps du nombre de tués et de blessés dans un type d’accident donné
(tableau 5.4).

ϰϲ

Tableau 5.4 Evolution temporelle du nombre de tués et de blessés
occasionnés par un type d’accident
Victimes 1990 1995 2000
Tués 20 40 60
Blessés 80 160 240

Le graphique à échelles arithmétiques (figure 5.11a) donne


l’impression d’une augmentation plus rapide du nombre de blessés. La
pente de la droite représentant l’évolution de l’effectif des blessés est
de fait 4 fois plus importante que celle des tués.

Mais l’utilisation du graphique semi-logarithmique (figure 5.11b)


montre que les segments de droite d’une année à l’autre sont parallèles
puisque le rapport (tués/blessés), égal à ¼, n’a pas varié au cours du
temps.

6. Diagramme en escalier

Un diagramme en escalier est utilisé pour relier une valeur unique


d’une variable sur l’ordonnée à une série de valeurs contenues dans
des classes d’une autre variable sur l’abscisse. La courbe de survie
établie par la méthode de Kaplan Meïer est un exemple classique de
diagramme en escalier (chapitre 22).

Considérons aussi les données du tableau 5.5 relatives à la probabilité


cumulée de ne pas être infecté (probabilité cumulée de survie) par le
virus de l’hépatite B (VHB) déterminée par la méthode de Kaplan
Meïer (chapitre 22) pour 118 malades en fonction de la durée (en
mois) pendant laquelle ils ont subi des séances d’hémodialyse.

Le graphique correspondant est un diagramme en escalier (figure


5.12).

ϰϳ

Tableau 5.5 Probabilité cumulée d’infection par le virus de l’hépatite B
pour 118 malades en fonction de la durée (en mois) pendant laquelle ils ont
subi des séances d’hémodialyse
Intervalle Nombre Nombre Probabilité Probabilité Probabilité
(mois) de sujets d’infectés conditionnelle cumulée d’être
soumis de non de non infecté
au risque infection infection
ni
di Pi = 1 - di/ni Si = Si-1*Pi 1 – Si (%)
[0-2[ 118 0 1 1 0
[2-4[ 103 2 0.981 0.981 1.9
[4-5[ 94 2 0.979 0.960 4.0
[5-6[ 89 2 0.978 0.939 6.1
[6-7[ 84 3 0.964 0.905 9.5
[7-9[ 75 2 0.973 0.881 11.9
[9-11[ 58 2 0.966 0.851 14.9
[11-12[ 41 1 0.976 0.830 17.0
[12-13[ 37 1 0.973 0.807 19.3
[13-14[ 32 1 0.969 0.782 21.8
[14-18[ 29 1 0.966 0.755 24.5
[18-25[ 23 1 0.957 0.722 27.8
25 0

On peut aussi représenter par un diagramme en escalier la probabilité


pour un malade d’être infecté par le VHB en fonction de la durée de la
dialyse. Les classes de cette variable sont toujours portées sur l’axe
des abscisses tandis que sur l’ordonnée est portée le complément à 1
de la probabilité de ne pas être infecté aux différents intervalles de
temps (figure 5.13).

Le graphique 5.12 est un diagramme en escalier descendant tandis que


le graphique 5.13 est un diagramme en escalier ascendant. Puisque la
probabilité cumulée de non infection n’atteint pas 0% pour les
malades de cette série, la probabilité d’être infecté n’atteint pas non
plus 100%.

ϰϴ

7. Diagramme en nuage de points

Un diagramme en nuage de points, ou diagramme de dispersion, est


utilisé pour mettre en évidence une éventuelle relation entre deux
variables quantitatives lorsqu’on tient compte du fait qu’elles sont
mesurées sur la même unité d’observation.

Des valeurs individuelles correspondant aux valeurs (coordonnées)


des deux variables dont chacune est sur un axe sont autant de points,
une unité d’observation étant représentée par un point. La convention
est de porter la variable indépendante sur l’abscisse et la variable
dépendante sur l’ordonnée.

Le tableau 5.6 est un tableau de corrélation qui contient les données de


deux variables quantitatives l’âge et le poids mesurés chez 492
enfants.

Le graphique correspondant (figure 5.14) est un diagramme en nuage


de points. La droite qui ajuste ce nuage de points montre clairement
que l’âge et le poids sont corrélés positivement.

Le tableau 5.7 est un autre tableau de corrélation étudiant la relation


entre la gravité globale des lésions appréciée par l’Injury Severity
Score (ISS) et la durée d’hospitalisation en jours mesurés sur 1210
blessés par accidents de la circulation routière. Le diagramme
correspondant (figure 5.15) montre là aussi une corrélation positive
entre la gravité des lésions et la durée d’hospitalisation.

8. Diagramme haut/bas

Un diagramme haut/bas est utilisé généralement lorsqu’on veut


accompagner l’estimation ponctuelle d’un paramètre (moyenne,
pourcentage, mesure d‘association épidémiologique…) par un
intervalle de confiance.

ϰϵ

Tableau 5.6 Age x en années et poids y en kg de 492 enfants
Age 5-7 7-9 9-11 11-13 13-15 Total
Poids
63-67 1 1
59-63 8 8
55-59 2 6 8
51-55 1 18 19
47-51 10 30 40
43-47 1 17 41 59
39-43 3 31 31 65
35-39 1 21 26 13 61
31-35 6 33 28 10 77
27-31 5 17 26 10 58
23-27 8 32 14 1 55
19-23 16 13 1 30
15-19 9 1 10
11-15 1 1
Total 39 70 98 127 158 492

Les courbes de survie qui sont des diagrammes en escalier sont


souvent associées à des diagrammes haut/bas lorsque les taux de
survie calculés pour les différents intervalles de temps sont
accompagnés par leur intervalle de confiance.

Le tableau 5.8 donne l’incidence cumulée d’infections nosocomiales


parmi 352 malades hospitalisés dans un service de réanimation.
L’estimation ponctuelle de l’incidence est accompagnée par son
intervalle de confiance à 95% déterminé par la méthode binomiale
exacte (atelier OpenEpi et BiostaTGV).

Le graphique correspondant (figure 5.16) est un diagramme haut/bas,


il peut aussi être considéré comme un diagramme de points
(estimations ponctuelles) combiné à un diagramme haut/bas.

ϱϬ

Tableau 5.7 Répartition de 1210 blessés par accidents de la route
en fonction de l’ISS et de la durée d’hospitalisation (Alger – 1986)
ISS 1 2 3 4 5 6 8 9 10 11 13 14 16 21 22 25
Durée
0 808 39 1 213 42 4 5 41 11 4 4
1 1 3 3 2 1
2 1 1
3 1 1
6 2 1
7 2 2
8 1
9 1
10 1 1
12 1 1
14 1
15 1
16 1 1
21 1
25 1 1 1
30 1
31 1
36 1
Total 808 39 1 215 45 4 5 54 16 4 6 7 2 1 2 1

Tableau 5.8 Incidence cumulée (pour 100) d’infections nosocomiales


survenues parmi 352 malades.
Service de réanimation - CHU de Blida (1998 - 2000)
Infection Effectif Incidence (IC à 95%)
Pneumonie 69 19.6 (15.6 - 24.1)
Infection urinaire 32 9.1 (6.3 - 12.6)
Bactériémie/septicémie 1 0.3 (0.0 – 1.6)
Infection sur cathéter 1 0.3 (0.0 – 1.6)

Ces diagrammes en escalier, en nuage de points et haut/bas peuvent


toujours être stratifiés sur les modalités d’une variable dont on cherche
à neutraliser l’effet. On peut ainsi imaginer deux diagrammes en
escalier combinés à des diagrammes haut/bas, l’un pour les hommes et
l’autre pour les femmes, si on a des raisons de penser que le sexe a un
rôle perturbateur ou modifiant (chapitre 20).
ϱϭ

9. Graphiques représentant une synthèse de la littérature

A l’occasion d’une synthèse de la littérature (revue systématique ou


méta-analyse, chapitre ), le graphique en entonnoir (generic funnel
plot) et le graphique en forêt (forest plot) sont souvent utilisés.

Le graphique en entonnoir, graphique en nuage de points, est appelé


aussi diagramme de dispersion des études où chaque point représente
une étude caractérisant la mesure d’association épidémiologique et sa
précision (intervalle de confiance de la mesure).

Les grandes études sont supposées être les plus précises en donnant un
résultat proche de da valeur moyenne des études assimilée à la vraie
valeur et sont représentées en haut du graphique. Les petites études,
par contre, sont réparties des deux côtés de la moyenne avec une plus
grande distance à la moyenne. En l’absence de biais de publication, le
nuage de points représente un entonnoir symétrique, sans l’existence
de trous, traduisant une répartition homogène des études. En présence
d’un biais de publication, moins d’études sont publiées d’un côté de la
moyenne, l’entonnoir est asymétrique pouvant former dans les cas
extrêmes un triangle rectangle traduisant que seules les études
positives ou négatives ont été publiées (figure 5.17).

Le graphique en forêt est souvent présenté en deux colonnes. La


colonne de gauche liste les auteurs d’études abordant la même
question selon leur date de publication de haut en bas. La colonne de
droite donne la mesure d’association épidémiologique (odds ratio…)
sous forme de point accompagnée de son intervalle de confiance à
95% sous forme de segment de part et d’autre du point. L’aire de
chaque point est proportionnelle au poids accordé à l’étude dans la
synthèse de la littérature. La valeur globale de la mesure d’association
est habituellement représentée par un losange et l’intervalle de
confiance de la valeur est représenté par la distance entre les points
latéraux du losange. Si le losange croise la ligne verticale
correspondant à la valeur de référence 1 de l’odds ratio, cela dénote
l’absence de relation entre le facteur et la maladie (figure 5.18).
ϱϮ

Figure 5.1 Evolution mensuelle
du nombre de décès
par accidents de
 la route
CHU de Blida (1999-2001)


30 


25

20


15 


10

5 
1999 2000 2001

0 
J F M A M J J A S O N D
Mois de l'année

ϱϯ

Figure 5.2a Répartition de 458 décès
par accidents de la route en fonction du sexe
CHU de Blida (1999-2001)

effectif

Masculin

Féminin

Figure 5.2b Répartition de 458 décès


par accidents de la route en fonction du sexe
CHU de Blida (1999 - 2001)
fréquences
relatives
cumulées
100%
Féminin
75%

50%
Masculin
25%

0%


ϱϰ

Figure 5.3 Répartition de 239 décès néonataux précoces (0 – 6 jours)
selon la cause (CHU de Blida – 2001)

Autre
5%
Congénitale
Détresse 4%
respiratoire
10%

Brièveté de
Hypoxie gestation
et asphyxie 45%
17%

Infection
19%




ϱϱ

Figure 5.4 Intoxication alimentaire à Staphylococcus aureus

Répartition des 7 cas selon l’heure de début des symptômes

Ϯ Ϯ Ϯ

,ĞƵƌĞ
ϮϬŚ ϮϭŚ ϮϮŚ ϮϯŚ


ϱϲ

 Figure 5.5 Intoxication alimentaire à Staphylococcus aureus
Répartition des 7 cas selon l’heure de début des symptômes


ϱϳ

Figure 5.6 Tension artérielle systolique de 121 patients
(Source : tableau 2.5)

ϱϴ


Figure 5.7 Tension artérielle systolique de 121 patients
 (Source : tableau 2.4)

ϱϵ



Figure 5.8 Répartition des 79 articles originaux écrits par des enseignants
algériens en sciences médicales en tant que premiers auteurs selon le facteur
d’impact de la revue en fonction de la base de données (2000 – 2009)
(Source tableau 5.7)


ϲϬ

20
Taux
d'incidence
(u : 100000
18 h)

16

14

12

10

2
Masculin

Féminin

Age

Figure 5.9 Taux d’incidence annuel du cancer de l’estomac en Algérie


par âge et par sexe (1966-1975) - Echelle arithmétique


ϲϭ

100
Taux
d'incidence
(u :100000 h)

10

Masculin
Féminin

0,1

Age

Figure 5.10 Taux d’incidence annuel du cancer de l’estomac en Algérie par


âge et par sexe (1966-1975) - Echelle logarithmique


ϲϮ

300 Effectifs
de victimes

200
Tués
Blessés
100

0
1990 1995 2000
Année

Figure 5.11a Evolution temporelle du nombre de tués et de blessés


occasionnés par un type d’accident – Echelle arithmétique

Logarthmes
1000 des effectifs
de victimes

100 Tués
Blessés

10
1990 1995 2000

Année

Figure 5.11b Evolution temporelle du nombre de tués et de blessés


occasionnés par un type d’accident - Echelle logarithmique

ϲϯ

Figure 5.12 Probabilité cumulée de non infection par le virus de l’hépatite B
en fonction de la durée de la dialyse – CHU de Blida
Décembre 2000 - Décembre 2002

Figure 5.13 Probabilité d’être infecté par le virus de l’hépatite B en fonction


de la durée de la dialyse – CHU de Blida (Décembre 2000 Décembre 2002)

ϲϰ

Figure 5.14
Age et poids de 492 enfants

70

60
Poids (kg)

50

y = 3,17x + 1,01
40

30

20

10

0
0 5 10 15
Age (années)

ϲϱ

40
Figure 5,15 Durée d'hospitalisation de 1210 blessés par
accidents de la route en fonction
de la gravité globale des lésions (ISS)
Alger - 1986
35

30

Durée
d'hospitalisation
(jours)
25

20

15

y = 0,45x - 0,80

10

0
0 5 10 ISS 15 20 25 30

ϲϲ

Figure 5.16 Incidence cumulée d’infections nosocomiales survenues parmi
352 malades - Service de réanimation - CHU de Blida (1998 - 2000)

ϲϳ

Figure 5.17 Exemple de diagramme en entonnoir (source Wikipedia)

Figure 5.18 Exemple de diagramme en forêt (source Wikipedia)

ϲϴ

Chapitre 6

Indicateurs de morbidité et de mortalité

1 Définition d’un taux

Un taux est en principe défini comme le rapport des données de deux


variables dont l’une varie par rapport à l’autre. Il est en ainsi de la
vitesse exprimée en kilomètres par heure :

• la variable dont les données sont exprimées en kilomètres (km)


et contenues au numérateur est la distance ;
• la variable dont les données sont exprimées en heures (h) et
contenues au dénominateur est le temps.

Si un automobiliste parcourt 150 km en trois heures, la vitesse est


donc : 150km/3h = 50 km/h. La vitesse est donc un véritable taux.

La glycémie, l’urémie, la cholestérolémie sont aussi des taux. Le


numérateur est la quantité de sucre, d’urée, de cholestérol qui peut être
exprimées en unités de poids et le dénominateur est la quantité de sang
exprimée en unités de volume. De même, le nombre de globules
blancs par mm3 est un taux (nombre de globules blancs au numérateur
et volume sanguin au dénominateur)…

Un taux devrait donc toujours avoir une unité de mesure (par heure ou
par mm3, etc.). Le mot « taux » est réservé par certains auteurs, en
matière d’indicateurs de santé, à la mesure de la survenue d’une
maladie par unité de temps (semaine, mois, année…).

Mais le terme de taux devrait pouvoir être employé dans un contexte


plus large, pour peu qu’il exprime le risque de survenue ou de
présence d’un événement ou d’une maladie, avec ou sans unité de
temps.
ϲϵ

Les termes de « taux » et de « risque », ou même de probabilité,
peuvent être utilisés de façon interchangeable.

En effet, un taux gagnerait à être défini comme la fréquence d’un


phénomène dans une population et donc comme la probabilité de ce
phénomène pour un individu donné, ou ce qui revient au même
lorsque l’événement est indésirable, comme le risque individuel de ce
phénomène.

Il est vrai qu’au sens strict du terme, une probabilité est comprise
entre 0 et 1. On peut imaginer que 10 malades ont comptabilisé 15
infections nosocomiales (un malade peut en effet contracter deux
infections nosocomiales ou plus), soit un risque de 1.5 (150%) pour un
malade de contracter une infection nosocomiale. On évitera peut-être,
dans de telles situations, de parler de probabilité.

2. Taux de densité d’incidence

Le taux d’incidence ne prend en compte que les nouveaux cas de


maladie (cas incidents) survenant au cours d’une période déterminée
parmi une cohorte d’individus susceptibles de contracter cette
maladie.

Une cohorte est définie comme un ensemble d’individus ayant en


commun au moins une caractéristique : travailleurs exposés à une
certaine substance, groupe de femmes enceintes, convives ayant
partagé le même repas, groupe de personnes suivies au cours du
temps...

Une cohorte peut-être :

• soit une cohorte fixe (ou fermée) dans laquelle tous les sujets de la
cohorte sont inclus au début de l’étude, sans inclusion nouvelle au
delà ;

ϳϬ

• soit une population dynamique (ou ouverte) caractérisée par la
venue de nouvelles recrues dans la cohorte, l’inclusion des sujets
se poursuit au fur et à mesure du déroulement du temps.

Le taux d’incidence devrait chaque fois que possible être standardisé à


la fois pour la taille de la population et pour le temps pour obtenir un
risque de contracter la maladie par unité de temps appelé aussi densité
d’incidence ou taux d’incidence personnes-temps qui est un risque
pour un individu de développer la maladie par unité de temps.

Seule la densité d’incidence pourrait être réellement un taux. C’est un


indicateur dynamique qui donne une idée de la vitesse d’apparition
d’un événement.

Si 800 nouveaux cas de maladie ont été recensés en deux ans parmi
une population de 100000 personnes, le taux d’incidence
correspondant est de 800 cas de maladie pour 100000 personnes sur
deux ans, soit 400 cas pour 100000 personnes et par an. Ce taux peut
aussi s’écrire :

800/(100000*2) = 400 pour 100000 personnes-années.

Le numérateur est la variable « nombre de cas de maladie » et le


dénominateur est le nombre d’unités d’observation exprimé en
« nombre de personnes-temps » ou plus exactement, dans l’exemple,
en « nombre de personnes-années ».

De façon générale, le dénominateur est la somme des temps de suivi


individuels de chaque sujet de l’étude.

On pourrait écrire le même taux sous une forme plus simplifiée :


400 pour 100000 par an ou 400/100000/an

Le risque de contracter la maladie pour un individu est donc de 400


pour 100000 personnes et par an.

ϳϭ

Ce risque est un risque moyen. Il peut être interprété comme une
probabilité pour un individu, à qui on applique le risque moyen de son
groupe, de contracter la maladie par unité de temps.

Il convient de signaler que « 100000 personnes exposées chacune une


année » est l’équivalent d’ « une personne exposée 100000 années ».
Le risque de contracter la maladie pour un individu peut être exprimé
par 400 pour 100000 années.

D’autres exemples peuvent être cités. Si, pendant 15 jours, 10 cas


d’une maladie donnée surviennent parmi une population qui compte
4000 personnes, le taux d’incidence de la maladie est :

10/(4000*15) = 0.0017 cas par personne-jour


= 0.17 pour 100 personnes-jours
= cas de maladie tous les (.) jours.
Le risque moyen est ainsi de 0.17 pour 100 personnes et par jour ou de
0.17 pour 100 jours.

Si 140 cas d’une maladie M sont survenus en un an au sein d’une


population estimée à 780000 personnes, le taux d’incidence de cette
maladie pour 100000 personnes-années (ou densité d’incidence) est :

140 / 780000 = 17.9 pour 100000 personnes-années.


= 17.9 pour 100000/an = 17.9/105/an

Ce qui signifie que le risque pour un individu de contracter la maladie


est de 17.9 pour 100000 et par an.

Si 430 cas de cette même maladie M sont survenus en trois ans au sein
de la même population estimée à 780000 personnes, le taux
d’incidence de la maladie pour 100000 personnes-années (ou densité
d’incidence) est :

430 / (780000 personnes * 3 années) = 18.4 pour 100000 personnes-


années
ϳϮ

Exprimés avec la même unité de temps (année), les deux taux
précédents ont des valeurs voisines.

Si 344 cas incidents de cancer du sein ont été recensés en deux ans
parmi 150000 femmes, le taux d’incidence du cancer du sein pour
100000 femmes-années (ou densité d’incidence) est :
344 / (150000 * 2 années) = 114.7 pour 100000 femmes-années.

Si on a dénombré 30 accidents parmi 200 cyclistes garçons et 15


accidents parmi 200 cyclistes filles, on pourrait être tenté de conclure
que les cyclistes garçons ont un taux d’incidence cumulée
significativement plus élevé que celui des filles, respectivement :
30/200 = 15.0% et 15/200 = 7.5% (Ȥ² = 5.63 ; p < 0.05).
Mais si chaque garçon pendant la période d’observation a passé en
moyenne 4 heures à bicyclette contre 2 heures pour les filles, les
densités d’incidences seraient égales, respectivement :

• garçons : 30 / (200 * 4) = 3.8 pour 100 cyclistes-heures ;


• filles : 15 / (200 * 2) = 3.8 pour 100 cyclistes-heures.

La différence qu’on pouvait attribuer à des facteurs liés au sexe s’est


finalement estompée. C’est dire l’importance à accorder à la durée
d’exposition des sujets pour le calcul de la densité d’incidence pour
éviter des distorsions dans l’interprétation lorsqu’il s’agit de comparer
des groupes.

Si des malades hémodialysés dans un centre ont totalisé, pendant une


période donnée, une durée de dialyse de 32585 jours (somme des
durées de suivi de chaque sujet hémodialysé depuis le début des
séances dans le centre) et que 18 nouveaux cas d’hépatite virale B
soient survenus au cours de la même période, le taux d’incidence est :

18/(32585 j/365 j) = 18/(89.3 ans) = 20.2 pour 100 dialysés-années,

ϳϯ

soit 20 cas d’hépatite B pour 100 malades qui auraient été dialysés
chacun une année. En d’autres termes, chaque malade hémodialysé a
un risque de 20 pour 100 et par an de contracter une hépatite virale B
ou encore de 20 pour 100 années de dialyse.

Au cours de la décennie 2000 – 2009, on a recensé 79 articles


originaux écrits par des enseignants algériens en sciences médicales
(en tant que premiers auteurs) dans des revues indexées dans des bases
de données bibliométriques (Medline et Pascal). Si on estime le
nombre de ces enseignants à 3000 au milieu de la décennie, le taux de
l’article original scientifique algérien peut être estimé à :

79/(3000*10) = 2.6 articles pour 1000 enseignants-années


= 2.6/1000/an, soit un article original par enseignant en tant que
premier auteur tous les 380 ans (1/0.0026).

Ainsi, la notion de risque, donc de taux, devrait toujours être définie


par rapport à une durée. La précision de la durée à laquelle un taux se
réfère serait donc indispensable.

Un taux de survie, par exemple, devrait obligatoirement rapporter le


nombre de patients encore vivants au nombre de personnes-temps
d’observation (personnes-années, personnes-mois…).

Dans un taux de densité d’incidence, le numérateur (cas de maladie)


n’est pas compris dans le dénominateur (somme des temps de suivi
des sujets à risque). Bien évidemment, il est plus judicieux, à
l’occasion de cohortes ouvertes de déterminer la densité d’incidence
qui prend en compte la quantité de suivi, le risque de survenue de la
maladie par unité de temps étant plus informatif.

En matière d’infections nosocomiales, par exemple, le dénominateur


de la densité lorsqu’il est exprimé en patients-jours est constitué par la
somme des journées d’hospitalisation des sujets non infectés et la
somme des journées d’hospitalisation jusqu’à la survenue de
l’infection pour les sujets infectés.
ϳϰ

En règle générale, la densité d’incidence doit être utilisée lorsque la
cohorte est très instable pendant la période d’observation ou lorsqu’il
existe un nombre élevé de perdus de vue.

Le nombre de personnes- temps de suivi est alors déterminé pour une


cohorte donnée et va constituer le dénominateur de la densité
d’incidence.

Par exemple, une étude cohorte, ou plus exactement un essai


randomisé (chapitre 5), a été réalisée en vue de savoir si l’inhalation
de pentamidine, un médicament utilisé dans le traitement d’infections
à protozoaires, permettait de prévenir la survenue d’une première
pneumonie dénommée Pneumocystis Carinii Pneumonia (PCP).

La PCP est une infection opportuniste provoquant une insuffisance


respiratoire sévère, souvent mortelle, fréquente chez les patients
souffrant de syndrome d’immunodéficience acquise (SIDA). Les
malades inclus dans l’étude devaient tous être séropositifs avec un
risque élevé de survenue d’une PCP.

Par ailleurs, la pentamidine devait être comparée à un placebo.

Au total, 223 patients furent inclus dans l’étude. On a finalement


dénombré 8 cas de PCP parmi les 114 patients du groupe pentamidine
et 23 cas de PCP parmi les 109 patients du groupe placebo. Les
résultats sont au tableau 6.1.

Tableau 6.1 Evaluation de l’emploi de la pentamidine dans la prévention


de la survenue d’une PCP chez des malades atteints de SIDA

PCP + PCP - Total


Pentamidine 8 106 114
Placebo 23 86 109
Total 31 192 223
χ² = 9.2; p < 0.01

ϳϱ

En fait, dans cette étude, certains patients sont décédés d’autres causes
avant la détection d’une éventuelle PCP. D’autres ont été perdus de
vue ou ont dû cesser le traitement en raison d’effets secondaires. Le
temps de participation de chaque sujet pourrait avantageusement être
pris en compte.

On a pu déterminer que les 114 patients du groupe pentamidine ont


représenté 93 personnes-années de suivi tandis que les 109 patients du
groupe placebo ont représenté 85 personnes-années de suivi.

Un malade sidéen traité par la pentamidine qui serait décédé d’une


PCP trois mois après le début du traitement va contribuer au
dénominateur du groupe pentamidine par 0.25 année (3/12).

Un malade sidéen traité par la pentamidine qui serait décédé d’une


toute autre cause après 6 mois de traitement va contribuer au
dénominateur du groupe pentamidine par 0.5 année (6/12).

Un malade sidéen traité par la pentamidine qui cesserait le traitement


après 4 mois va contribuer au dénominateur du groupe pentamidine
par 0.33 année (4/12), etc.

Un malade sidéen qui a reçu le placebo et qui aurait été perdu de vue
après une année de suivi va contribuer au dénominateur du groupe
placebo par une année, etc. Les résultats devraient alors être
représentés comme au tableau 6.2.

Tableau 6.2 Evaluation de l’emploi de la pentamidine dans la prévention


de la survenue d’une PCP chez des malades atteints de SIDA

Nombre Personnes- Densité d’incidence


de PCP années de suivi pour 100 personnes-
(1) (2) années (1)/(2)
Pentamidine 8 93 8.6
Placebo 23 85 27.1
Ensemble 31 178 17.4

ϳϲ

La comparaison de deux taux d’incidence est exposée en atelier. Pour
notre exemple :

χ² = [23 – (85*31)/178]² / [(31*93*85)/178²] = 8.7, p < 0.01.


La densité d’incidence de la PCP chez le groupe placebo est
significativement plus élevée.

Lorsqu’une exposition est exprimée en classes, il convient de bien
comptabiliser la durée d’exposition dans chaque classe pour un sujet
donné. Si on dispose de trois classes d’âge en années : 40-49, 50-59,
60-69, un homme de 40 ans au cours des 25 ans qui suivent passe 10
ans dans les deux premières classes et 5 ans dans la dernière classe.

Si l’âge est exprimé en classes de 5 ans : 35-39, 40-44, 45-49, 50-


54...et que la cible est la survenue d’une maladie après un suivi de 10
ans pour tous les sujets, un sujet âgé de 47 ans au début de la période
de suivi et qui a développé la maladie 5 ans après la fin de la période
de suivi compte pour 3 années (3 personnes-années) dans la classe 45-
49, 5 années dans la classe 50-54 et 2 années dans la classe 55-59. Ce
sujet ne figure pas au numérateur parmi les cas incidents puisqu’il a
contracté la maladie après la fin de la période de suivi. Un sujet âgé de
51 ans au début de la période de suivi et qui a contracté la maladie à
54 ans (après un suivi de 3 ans en années révolues) compte pour 3
années (3 personnes-années), toutes dans la classe 50-54 ans, et pour
un nouveau cas dans la même classe. Il convient juste de signaler que
les sujets de l’étude doivent être suivis pendant 10 ans même s’ils
déménagent. Les cas survenus après le déménagement peuvent être
liés à l’exposition au facteur postulé et doivent être comptés dans le
numérateur pour éviter qu’un biais n’affecte le taux d’incidence.

Lorsqu’on dispose de l’effectif de la population au début et à la fin de


la période d’étude, on peut utiliser comme dénominateur pour la
densité d’incidence la moyenne arithmétique de ces deux effectifs à
condition qu’ils soient de même ordre de grandeur.

ϳϳ

En Algérie, en 1985, on a recensé 42070 victimes (tués et blessés) par
accidents de la route. Au 1er janvier 1985, la population algérienne
était estimée à 21734500 habitants. Au 31 décembre 1985, elle était
estimée à 22432200 habitants. La population moyenne de référence
est :
(21734500 + 22432200)/2 = 22083350.

Le taux d’incidence annuel correspondant aux victimes d’accidents de


la route est donc :

42070/ 22083350 = 190.5 pour 100000 personnes-années


= 190.5/105/an

Il est donc possible, pour déterminer une densité d’incidence, de


ramener le nombre d’événements à la population moyenne de
référence qui est celle présente au milieu de la période de temps
considérée. Un tel taux est quelquefois appelé taux d’incidence
ordinaire.

On ne soucie pas, quand on calcule un taux d’incidence ordinaire,


d’éliminer du dénominateur les anciens cas de maladie qui
représentent des individus qui ne sont plus à risque. Les données sont
rarement disponibles et la correction, si elle est effectuée, n’engendre
généralement que peu de différence.

Plus généralement, la mesure de l’exposition doit dissocier, autant que


possible, deux dimensions :

• la durée de l’exposition ;
• l’intensité de l’exposition généralement mise en évidence en
épidémiologie étiologique par la relation dose-réponse entre
deux variables (chapitre 8).

ϳϴ

On peut aussi, au lieu de déterminer un indicateur reflétant un bilan
global de l’événement étudié comme l’incidence cumulée (ci-dessous)
ou la densité d’incidence, utiliser la méthode de survie de Kaplan
Meïer pour déterminer des probabilités de non survenue d’un
événement à des délais successifs (chapitre ).

3. Taux d’incidence cumulée

L’expression la plus simple du taux d’incidence est l’incidence


cumulée qui est une fréquence relative (le numérateur est compris
dans le dénominateur). Au numérateur, on retrouve le nombre de cas
de maladie recensés et le dénominateur est constitué par le nombre de
personnes susceptibles de développer la maladie.

En termes d’effectifs, l’incidence est d’autant plus élevée que les


malades sont plus nombreux.

Pour comparer cette incidence à celle d’autres groupes ou à celle


d’autres périodes, il faut une mesure de l’incidence qui soit corrigée
(autrement dit, standardisée) pour la taille de la population. Le résultat
est un taux d’incidence.

Le taux d’incidence cumulée est exprimé sous la forme du nombre de


cas pour 10n personnes. L’unité (pour 100, pour 1000, ...) est
généralement choisie de telle sorte que le taux comporte un ou deux
chiffres avant la virgule.

Dans une cohorte fixe, on détermine une incidence cumulée. Pour


cela, la cohorte doit rester stable, sans perdus de vue, et tous les sujets
sont suivis pendant la même période de temps.

Il est impératif de toujours spécifier la durée de la période


d’observation pour que le taux d’incidence cumulée soit interprétable
(une incidence cumulée calculée après un mois n’a pas la même
signification d’une incidence cumulée calculée après six mois).
ϳϵ

L’incidence cumulée se confond avec le risque individuel de
contracter la maladie au cours d’une période déterminée mais sans
unité de temps. Autrement dit, c’est le risque moyen pour un individu
quelconque d’une population de contracter la maladie pendant la
période étudiée. L’incidence cumulée, fréquence qui varie de 0 à 1, estime
aussi la probabilité de la maladie dans des groupes de population.

Une incidence cumulée peut aussi être calculée à partir d’une


population dynamique. D’ailleurs, une incidence cumulée déterminée
en imposant la même période de suivi pour les sujets de la cohorte
ouverte va exprimer le risque moyen pour un individu de contracter la
maladie tout en neutralisant l’effet du temps.

Il en est ainsi lorsqu’on veut déterminer, en matière d’infections


nosocomiales, l’incidence des infections de plaies opératoires en
imposant à chaque malade opéré de mesurer la survenue éventuelle de
cette infection un mois après l’intervention chirurgicale.

Cependant, il n’est pas toujours imposé la même période de suivi


pour calculer une incidence cumulée à partir d’une cohorte
dynamique.

On peut, par exemple, s’intéresser à l’incidence des pneumonies


nosocomiales survenant dans un service de réanimation. De nouveaux
sujets sont constamment hospitalisés dans le service.

On peut calculer une incidence cumulée de la pneumonie en prenant


comme population à risque les malades hospitalisés pendant un
trimestre donné, un semestre, une année…Ces malades sont suivis
jusqu’à leur sortie (ou leur décès) avec un temps de suivi variable pour
chaque patient.

Ces incidences cumulées déterminées à partir de populations


dynamiques sont moins sujettes à des changements au cours des
différentes périodes considérées, sauf en dehors de variations
accidentelles (épidémies, baisse générale de la qualité des soins…).
ϴϬ

Le tableau 6.3 contient les données relatives à l’incidence cumulée, parmi les
nourrissons âgés de moins d’un an, des diarrhées nosocomiales dues à des
entérobactéries productrices de β-lactamase à spectre étendu (EBLSE) au
Service de Pédiatrie du CHU de Blida de 1999 à 2001

Tableau 6.3 Evolution dans le temps de l’incidence cumulée des diarrhées


à EBLSE parmi les nourrissons âgés de moins d’un an au service
de Pédiatrie du CHU de Blida (1999-2001)
Année Ensemble des nourrissons Diarrhées à Incidence
surveillés EBLSE recensées cumulée (%)
1999 1469 19 1.3
2000 1343 23 1.7
2001 1676 25 1.5

L’incidence globale calculée sur 3 ans (de 1999 à 2001) est :

(19 + 23 + 25) / (1469 + 1343 + 1676) = 67/4488 = 1.5%.


Le risque est resté le même année après année, c’est aussi le même
risque déterminé au bout des trois années de surveillance.

Dans les situations épidémiques où la population n’est exposée que


pendant une période limitée, le taux d’incidence est appelé taux
d’attaque qui exprime la proportion de sujets atteints au cours d’une
période définie et terminée. Le recensement des cas de la maladie
dépend de la durée de l’épidémie, durée qui n’est évidemment pas une
période systématique.

Si au cours d’une épidémie, 40 cas de fièvre typhoïde ont été recensés


parmi une population de 20000 personnes, le taux d’attaque de la
fièvre typhoïde est : 40/20000 = 2.0 pour 1000, soit un risque (ou une
probabilité) de 2 pour 1000 pour un individu de contracter la fièvre
typhoïde pendant la période de l’épidémie.

Le taux d’attaque est un taux d’incidence cumulée : le numérateur est


l’effectif de l’ensemble des cas de maladie recensés tandis que le
dénominateur est l’effectif de la population exposée.
ϴϭ

Si 15 personnes contractent une intoxication alimentaire parmi 50
personnes qui ont partagé le même repas, le taux de l’intoxication
alimentaire est de 30% (15/50). Ce taux exprime le risque pour un
individu de contracter une intoxication alimentaire sans que la
référence à la durée d’exposition soit possible dans ce cas.

4. Intervalle de confiance d’une incidence

L’intervalle de confiance d’un taux d’incidence cumulée se calcule


exactement de la même manière que celui d’un pourcentage
puisqu’une incidence cumulée est une fréquence relative.

Les bornes de l’intervalle de confiance à 95% d’une densité


d’incidence (DI) peuvent être déterminées par les relations :

• borne inférieure : DI – 1.96¥(DI/PT)


• borne supérieure : DI + 1.96¥(DI/PT).

Dans ces relations, PT est le nombre de personnes-temps à risque.

Si m est le nombre d’événements utilisé au dénominateur pour


déterminer la densité d’incidence, l’intervalle de confiance peut aussi
s’écrire :

DI ± 1.96¥(m/PT²)

La quantité m/PT² est la variance de DI.

Soit une cohorte où la densité d’incidence est de 6.0 pour 1000


personnes-années et où le nombre de personnes-années à risque pour
cette cohorte est de 4962, Les deux bornes de l’intervalle de confiance
à 95% sont :

ϴϮ

• borne inférieure : 0.006 – 1.96¥(0.006/4962) = 3.8 pour 1000
personnes-années
• borne supérieure : 0.006 + 1.96¥(0.006/4962) = 8.2 pour 1000
personnes-années.

5. Relation entre incidence cumulative et densité d’incidence

L’incidence cumulée (IC, appelée risque par certains auteurs) et la


densité d’incidence (DI, appelée taux d’incidence par certains
auteurs), lorsque celle-ci reste constante au sein d’une population
pendant k unités de temps, sont reliées par la relation suivante :

Incidence cumulée = 1 – exp(- densité d’incidence)

Ce calcul suppose que la densité d’incidence est constante dans


l’intervalle de temps. On peut y arriver en décomposant le calcul par
l’utilisation de la formule :

IC = 1 – exp[-Ȉ(DIi*Ai)]

où Ai est l’amplitude d’une classe i pouvant correspondre au nombre


d’unités de temps (années, mois...) de la classe.

Dans une population ouverte où l’incidence cumulative est difficile à


calculer directement, cette relation permet d’estimer l’incidence
cumulative à partir de la densité d’incidence.

L’incidence cumulée peut être facilement déterminé dans une


population s’il n’y a pas de données censurées, les sujets ayant été
suivis pendant la même période de temps. S’il y a des données
censurées (période de suivi différente en fonction des sujets : perdus
de vue, interruption du suivi du fait d’une mort accidentelle…), la
densité d’incidence est plus appropriée pour quantifier le risque par
unité de temps.

ϴϯ

Les deux expressions de l’incidence, pour peu que la densité
d’incidence soit petite, ont des valeurs proches pour une même unité
de temps.

Par exemple, si DI = 46.7 pour 1000 personnes-années, IC, après une


année (A = 1), peut être estimée à :

IC = 1 – exp(-46.7/1000*1) = 45.6/1000

Si DI reste constante pendant une période de 5 ans (A = 5), IC à 5 ans


peut être estimée à :

IC = 1 – exp(-46.7/1000*5) = 208.2/1000

Si 7 cas de maladie ont été enregistrés parmi une cohorte dont les
membres âgés de 20 à 26 ans (6 années d’amplitude) ont totalisé
11401 jours de suivi, la densité d’incidence, en prenant le mois
comme unité de temps, est :

7 / (11401/30) = 1.84 pour 100 sujets – mois (1.84/100/mois)

La variance de cette incidence est : 7 / (11401/30)² = 0.00696

L’intervalle de confiance à 95% est :

1.84/100/mois ± 1.96¥0.00696 = (0.48/100/mois – 3.21/100/mois)

L’incidence cumulée de la maladie entre 20 et 26 ans peut donc être


estimée par :
1 – exp(-0.0184*6) = 10.5%

Les bornes inférieure et supérieure de l’intervalle de confiance à 95%


sont :
1 – exp(-0.0048*6) = 2.8%
1 – exp(-0.0321*6) = 17.5%

ϴϰ

On peut évidemment avoir affaire à plusieurs classes qui peuvent être
d’amplitude égale ou inégale. Pour calculer l’intervalle de confiance
de IC, il faut commencer par calculer celui de Ȉ(DIi*Ai). La variance
de Ȉ(DIi*Ai) peut aussi s’écrire :
varȈ(DIi*Ai) = Ȉ(varDIi * Ai²) = Ȉ[(m/PT²)i * Ai²]

Le tableau 6.4 contient les données sur les cas incidents de cancer
recensés dans la wilaya de Blida en fonction de l’âge chez les sujets
de sexe masculin pendant 4 années consécutives de 2003 à 2006.

Pour déterminer les différents taux d’incidence, la population pour


cette période de 4 ans pourrait être celle du 1er janvier 2005 ou encore
celle-ci : (population milieu 2004 + population milieu 2005) / 2.

le taux d’incidence annuel du cancer tous âges confondus serait, par


exemple, calculée ainsi :

1334 / (444900*4) = 75.0 pour 100000 personnes-années


= 75.0/100000/an

Le risque de développer un cancer avant l’âge de 75 ans pourrait être


estimé par :
-0.126
1 – exp[-Ȉ(DIi*Ai)] = 1 – e = 11.8%.
L’intervalle de confiance à 95% de la densité d’incidence est :

0.12572 ± 1.96 ¥{Ȉ[(m/PT²)i * Ai²]} = 0.12572 ± ¥8.029*10-5


= 0.12572 ± 0.01756 = [0.1432 – 0.1081]

L’intervalle de confiance du risque de développer un cancer avant


l’âge de 75 ans pourrait être estimé par :
-0.1432
[1 – e ; 1 – e-0.1081] = [10.2% - 13.3%]

Avant l’âge de 60 ans, ce risque, en effectuant des calculs analogues,


est de 4.1% (IC à 95% : 3.4% - 4.7%)

ϴϱ

Tableau 6.4 Registre du cancer de Blida de 2003 à 2006 (sexe masculin)
Age (ans) 03 04 05 06 Total Populatio Incidenc Incide (m/PT²)i *
des cas eannuell annuel Ai²
incident par cumul
par classe par
classe d’âge1 classe
d’âge d’âge1,
2

0-4 3 6 12 7 28 41400 16.9 84.5 1.021*10-7


5-9 8 0 4 10 22 46700 11.8 59.0 6.305*10-8
10-14 2 3 5 11 21 50700 10.4 52.0 5.106*10-8
15-19 4 11 7 10 32 53400 15.0 75.0 7.014*10-8
20-24 8 11 3 8 30 47200 15.9 79.5 8.416*10-8
25-29 2 13 15 7 37 41800 22.1 110.5 1.323*10-7
30-34 14 7 8 11 40 36900 27.1 135.5 1.836*10-7
35-39 12 20 24 10 66 28500 57.9 289.5 5.078*10-7
40-44 11 20 32 19 82 24000 85.4 427.0 8.898*10-7
45-49 21 23 31 16 91 20000 113.8 569.0 1.422*10-6
50-54 24 18 26 35 103 16500 156.1 780.5 2.365*10-6
55-59 26 40 29 35 130 10700 303.7 1518.5 7.097*10-6
60-64 37 33 42 33 145 8900 407.3 2036.5 1.144*10-5
65-69 26 47 35 53 161 7100 566.9 2834.5 1.996*10-5
70-74 31 43 30 34 138 4900 704.1 3520.5 3.592*10-5
75+ 39 36 35 41 151 6200 608.9 Classe -
ouvert
Indétermin 13 12 24 8 57 0 - - -
Ensemble 1334 444900 75.0 12572 8.029*10-5
1. Pour 100000 habitants-années
2. Incidence de la classe d’âge * amplitude de classe

Le risque de développer un cancer avant l’âge de 75 ans pourrait être


estimé par :
1 – exp[-Ȉ(DIi*Ai)] = 1 – e-0.126 = 11.8%.
L’intervalle de confiance à 95% de la densité d’incidence est :

0.12572 ± 1.96 ¥{Ȉ[(m/PT²)i * Ai²]} = 0.12572 ± ¥8.029*10-5


= 0.12572 ± 0.01756 = [0.1432 – 0.1081]

L’intervalle de confiance du risque de développer un cancer avant


l’âge de 75 ans pourrait être estimé par :

[1 – e-0.1432 ; 1 – e-0.1081] = [10.2% - 13.3%]

Avant l’âge de 60 ans, ce risque, en effectuant des calculs analogues,


est de 4.1% (IC à 95% : 3.4% - 4.7%).
ϴϲ

On peut aussi s’intéresser au risque individuel de développer une
maladie pour une personne qui doit être comptabilisée dans plusieurs
classes. Par exemple, le tableau 6.5 contient les données relatives à
l’incidence d’une maladie (d’après Bouyer : Epidémiologie –
Exercices corrigés – Editions Estem, 2001). On peut s’intéresser au
risque cumulé de développer la maladie pour un homme de 40 ans au
cours des 25 années qui suivent aussi bien pour le groupe exposé que
pour le groupe non exposé.

Tableau 6.5 Incidence d’une maladie en fonction de l’âge et de l’exposition


Age Exposition Décès Personnes-années de suivi Taux (p.1000
(PA) PA)
40- Exposés 4 1267 3.2
49
Non 2 1206 1.7
exposés
50- Exposés 13 1020 12.7
59
Non 5 1071 4.7
exposés
60- Exposés 12 513 23.4
69
Non 4 588 6.8
exposés

Un homme de 40 au cours des 25 ans qui suivent passe 10 ans dans les
deux premières classes et 5 ans dans la dernière classe.

Si cet homme appartient au groupe des sujets exposés :


IC = 1 – e{- [(3.2/1000*10) + (12.7/1000*10) + (23.4/1000*5)]} = 1 – e(-0.28) = 1 – 0.76
= 24.1%

Si cet homme appartient au groupe des sujets non exposés :


IC = 1 – e{-[(1.7/1000*10) + (4.7/1000*10) + (6.8/1000*5)]} = 1 – e(-0.10) = 1- 0.91 =
9.3%.

Le risque de décéder pour un homme appartenant au groupe des sujets


exposés est multiplié par 2.6 (24.1% / 9.3%).
ϴϳ

6. Taux de mortalité

Alors qu’un taux d’incidence peut-être défini comme la somme des


taux d’atteinte mortelle et non mortelle, la mortalité ne prend en
compte que les décès au numérateur et utilise les mêmes expressions
que l’incidence pour procéder à des comparaisons : taux de mortalité
personnes-temps et taux de mortalité cumulative.

Par exemple, en Algérie, en 1985, on a enregistré 4134 décès par


accidents de la route.

Le taux annuel de mortalité spécifique correspondant est :

4134/22083350 = 18.7 pour 100000 habitants-années

= 18.7/100000/an

Un tel taux, lorsque le dénominateur est constitué par la population


moyenne de référence, est parfois appelé taux de mortalité (ou taux
d’incidence) ordinaire ou usuel. C’est une approximation d’un taux de
mortalité (ou taux d’incidence) personnes-temps, la population
moyenne à risque pendant une année est une estimation du nombre de
personnes-années à risque au cours de cette année. Cette estimation
est d’autant meilleure que la taille et la composition de la population
ne changent pas beaucoup pendant la période d’étude.

Comme tout taux de mortalité (ou d’incidence) personnes-temps, le


numérateur n’est pas compris dans le dénominateur. Aussi peut-on
rencontrer en démographie les quotients de mortalité, utilisés dans
l’établissement des tables de vie, qui sont des fréquences relatives et
qui ne sont en fait que des taux de mortalité (ou d’incidence) cumulés.

ϴϴ

7. Taux de létalité et mortalité proportionnelle

Supposons que trois cas d’intoxication sur 15 connaissent une issue


fatale, la proportion (ou fréquence relative) 3/15 = 20% exprime aussi
le risque de décéder de l’intoxication alimentaire et peut donc être
assimilé à un taux. Cette proportion qui contient au numérateur le
nombre de cas de maladie à issue fatale et au dénominateur le nombre
total de cas de maladie peut être appelée indifféremment proportion ou
taux de létalité.

La mortalité proportionnelle est aussi une fréquence relative qui


ramène le nombre de décès par une cause donnée pendant une certaine
période sur le nombre total de décès pendant cette même période. Si
on estimait, par exemple, le nombre de décès toutes causes en Algérie
à 200000 en 1985, la mortalité proportionnelle par accidents de la
route en Algérie pour cette année serait :

4134/200000 = 2.1 %.

En d’autres termes, deux décès sur 100 survenus en Algérie en 1985


étaient occasionnés par un accident de la route.

La mortalité proportionnelle est appelée quelquefois taux de mortalité


proportionnelle. En réalité, cet usage est inadéquat et n’exprime pas,
en tout cas, le risque pour une personne de décéder d’une maladie
particulière. Ce risque est indiqué par le taux de mortalité spécifique.

ϴϵ

8. Taux de prévalence instantanée

Le taux de prévalence instantané est défini comme le nombre de cas


d’une maladie à un moment donné du temps sur la population de
l’étude à ce moment.

Si on a dénombré 160 cas d’asthme, quelle que soit l’ancienneté de


cette maladie, dans un échantillon de 4677 enfants et adultes jeunes,
le taux de prévalence instantané de l’asthme parmi cette population
est :

160/4677 = 3.4%.

Le taux de prévalence instantané est une fréquence relative qui peut


être assimilée à un taux car elle exprime le risque de présenter un
asthme parmi les enfants et les adultes jeunes de cet échantillon.

De telles proportions peuvent d’ailleurs être aussi bien être appelées


proportions ou taux de prévalence. Les cas prévalents constituent le
numérateur de la proportion et incluent aussi bien les cas incidents
que les anciens cas de la maladie.

Le résultat d’un taux, pour effectuer des comparaisons, est exprimé


sous la forme du nombre de cas pour 10n personnes. Généralement, on
choisit l’unité du taux (pour 100, pour 1000, pour 10000, pour
100000,etc.) de façon à ce que la partie entière du taux contienne un à
deux chiffres.

Le taux de prévalence de l’asthme, à propos de l’exemple ci-dessus,


peut s’écrire indifféremment :

160/4677 = 3.4% = 34.2 pour 1000 = 3421.0 pour 100000, …

Mais on donnera la préférence aux deux premières expressions.


ϵϬ

9. Relation entre incidence et prévalence

Aux conditions d’une maladie en état d’équilibre dans une population


stable, le taux de prévalence (TP) et le taux d’incidence (TI) sont liés
par la relation :

TP = (TI * d) / [1 + (TI * d)]

Si le taux de prévalence est faible, la relation peut être simplifiée à :

TP = TI * d

Par exemple, si le taux d’incidence d’une maladie est de 5 pour 1000


personnes-années, et si la durée moyenne de cette maladie est de trois
ans (d = 3 ans), le taux de prévalence de cette maladie à un moment
quelconque est :

TP = (0.005 * 3) / [1 + (0.005 * 3)] = 0.0148 1.48%

Puisque la prévalence est faible, on peut utiliser la formule


approximative :

TP = 0.005 * 3 = 1.50%

Les deux résultats sont pratiquement identiques.

10. Taux relatif

Le taux relatif, rapport de deux fréquences relatives, est parfois utilisé


pour exprimer le poids d’une maladie parmi d’autres maladies dans
une classe d’âge (ou une modalité d’une variable quelconque) par
rapport au poids représenté par cette classe d’âge (ou cette modalité)
dans la population générale.
ϵϭ

Par exemple, dans un district sanitaire, 750 hospitalisations
occasionnées par des diarrhées ont été recensées parmi les adultes
jeunes (15 – 24 ans) pour lesquels le nombre total d’hospitalisations
dans les structures sanitaires du district s’est élevé à 1000. Par ailleurs,
la population totale du district est de 250000 habitants parmi lesquels
50000 adultes jeunes. Le taux relatif des hospitalisations par diarrhée
parmi les adultes jeunes est de :

(3000/1000) / (50000/250000) = 1.5

La diarrhée représente près d’un tiers des causes d’hospitalisation


alors qu’ils ne représentent que le cinquième de la population. En
d’autres termes, le poids des diarrhées occasionnant une
hospitalisation parmi l’ensemble des hospitalisations chez les adultes
jeunes est multiplié par 1.5 par rapport au poids représenté par cette
classe d’âge dans la population générale.

Si on trouve un taux relatif de cancer du sein dans une classe d’âge


égal à 3, cela signifie que le poids du cancer du sein parmi les autres
cancers dans cette classe d’âge est multiplié par 3 par rapport au poids
représenté par cette classe d’âge dans la population générale des
femmes.

ϵϮ

Chapitre 7

Standardisation de taux

1. Intérêt de la standardisation des taux

On veut comparer, par exemple, les taux de mortalité de deux groupes A et


B. Mais il existe des différences dans la composition par âge des deux
groupes. On décide de neutraliser l’effet de l’âge en stratifiant selon l’âge.
On compare alors les deux groupes A et B pour toutes les classes d’âge
retenues. Les données sont contenues au tableau 7.1

Tableau 7.1 Comparaison des taux de mortalité (pour 1000) de deux groupes
A et B
Age (ans) Groupe A Groupe B
Effectif % Décès Effectif % Décès
Taux Taux
20-29 2000 12.5 20 10.0 4000 44.5 48 12.0
30-49 6000 37.5 80 13.3 3000 33.3 54 18.0
50-59 8000 50.0 160 20.0 2000 22.2 60 30.0
Ensemble 16000 100.0 260 16.2 9000 100.0 162 18.0

La stratification implique que l’on renonce à comparer les taux globaux (ou
taux bruts) de mortalité. On compare donc les taux spécifiques de mortalité
pour les différentes classes d’âge.

Les taux bruts sont proches l’un de l’autre (16.2 pour 1000 pour le groupe A
et 18.0 pour 1000 pour le groupe B). Les taux bruts de mortalité ne
véhiculent pas la même information que les taux spécifiques. La différence
est appréciable entre les deux groupes pour la classe d’âge 50-69 ans en ce
qui concerne les taux spécifiques.

Par souci de simplification ou pour accroître la puissance statistique, on peut


s’intéresser uniquement aux taux bruts. Mais ceux-ci ne sont pas directement
comparables du fait de la présence d’une variable de confusion. Il convient
de standardiser les taux bruts pour éliminer l’effet de cette variable
contaminatrice.

ϵϯ

Reprenons l’exemple de la section ci-dessus. On peut voir facilement que le
taux global (ou brut) de mortalité pour un groupe donné est la résultante de
la composition par âge de la population et des taux spécifiques par âge. C’est
une moyenne pondérée des taux de mortalité spécifique de chacune des
classes d’âge.

Le taux global du groupe A est :


0.125*10.0/1000 + 0.375*13.3/1000 + 0.50*20.0/1000 = 16.2 pour 1000

Le taux brut du groupe B s’écrit :


0.445*12.0/1000 + 0.333*18.0/1000 + 0.222*30.0/1000 = 18.0 pour 1000

Chaque élément de la somme prend donc la forme suivante :


Fréquence relative d’une classe d’âge * taux de mortalité spécifique de cette
classe d’âge.
Puisque le taux global de mortalité est une somme pondérée de mesures
spécifiques qu’on peut noter ¦fixi, on dit aussi que c’est une mesure-
résumée.

Pour être valide, la comparaison des deux taux bruts ne doit pas être affectée
par la composition différente selon l’âge des deux groupes. C’est ce que vise
la standardisation qui exprime une condition essentielle à la comparabilité de
deux mesures-résumées. Cette comparabilité peut être obtenue par la
standardisation directe ou indirecte des données.

2. Standardisation directe

C’est la technique la plus utilisée pour comparer les indicateurs de santé.


Elle consiste à se rapporter à une population de référence dont le choix est
plus ou moins arbitraire et à effectuer les opérations suivantes :

• On applique à la population de référence les taux spécifiques par strates


de chacun des groupes concernés pour déterminer un certain nombre de
cas ou d’événements attendus ;
• On additionne l’ensemble des cas pour obtenir le nombre total
d’événements attendus dans chaque groupe ;
• On divise ce nombre total de chaque groupe par la population standard
totale pour obtenir les taux standardisés pour chaque groupe.
ϵϰ

On peut aussi calculer un taux standardisé pour un seul groupe sans
référence à la comparaison de deux ou plusieurs groupes. I l suffit
d’appliquer à une population de référence les taux spécifiques par strates du
groupe en question.

Dans tous les cas, on n’a pas besoin de connaître les effectifs de sujets pour
chaque modalité à l’intérieur d’un groupe donné.

La standardisation directe s’applique pour une ou plusieurs variables de


confusion.

Reprenons notre exemple relatif à la comparaison des taux de mortalité des


deux groupes A et B (données du tableau 7.1). Les calculs nécessaires pour
neutraliser l’effet de l’âge par standardisation directe sont disposés au
tableau 7.2. La population de référence, qu’il est plus logique d’adopter dans
ce cas, est constituée par l’ensemble des groupes à comparer.

Tableau 7.2 Neutralisation de l’effet de l’âge par standardisation directe


(données du tableau 7.1)
Age Population Groupe A Groupe B
de Taux (p.1000) Décès Taux (p.1000) Décès
référence a attendus attendus
(1) (2) (3) (4) (5) (6)
= (2 * 3) = (2 * 5)
20-29 6000 10.0 60.0 12.0 72.0
30-49 9000 13.3 119.7 18.0 162.0
50-69 10000 20.0 200.0 30.0 300.0
Tous âges 25000 15.2 379.7 21.4 534.0
a
Cette population est constituée par l’ensemble des deux groupes à comparer (pour
la classe d’âge 20-29 ans, par exemple, 6000 = 2000 + 4000)

Le taux standardisé pour le groupe A est : 379.7/25000 = 15.2 pour 1000


Le taux standardisé pour le groupe B est : 534.0/25000 = 21.4 pour 1000

Ces taux sont ceux qui seraient observés dans la population de référence si
elle présentait les taux spécifiques par âge du groupe A ou du groupe B.

D’un point de vue global, la situation est appréciée maintenant de manière


plus judicieuse.
ϵϱ

Le taux standardisé du groupe B est nettement plus élevé que celui du
groupe A après avoir neutralisé l’effet perturbateur de l’âge.

On peut donc penser, toutes autres choses étant égales par ailleurs, qu’il
existe un ou plusieurs facteurs de risque qui expliquent la mortalité plus
élevée du groupe B.

La comparaison des deux groupes peut être effectuée en calculant un indice


comparatif qui s’appelle indice comparatif de mortalité ou de morbidité
(ICM ou CMF pour comparatif morbidity figure) ou rapport de mortalité (ou
de morbidité) standardisé (RMS). L’équivalent en anglais est « Standardized
Mortality Ratio » (SMR).

Dans le cas de la technique de standardisation directe, RMS est égal au


quotient des taux standardisés des deux groupes. Dans notre exemple,
RMS = 21.4/15.2 = 1.41 = 141%.

Ce qui veut dire que la mortalité du groupe B, à structure d’âge identique, est
égale à 141% de la mortalité du groupe A. En d’autres termes, le taux du
groupe B est supérieur de 41% à celui du groupe A :

21.4 /1000 = 15.2/1000*141% = 15.2/1000(41% + 1) = 15.2/1000 +


15.2*41%.

Considérons les données suivantes du tableau 7.3 où la densité d’incidence


du cancer a été déterminée en fonction de l’exposition selon l’âge (d’après
Bouyer : Epidémiologie – Exercices corrigés – Editions Estem, 2001).

Tableau 7.3 Incidence du cancer selon la consommation d’aspirine


Age Exposés Non exposés
(ans) Personnes- Nombre de Personnes- Nombre de
années cancers années cancers
< 40 33133 89 20438 86
40- 43159 281 25316 208
65
• 65 17634 272 17671 321

ϵϲ

Pour déterminer les taux standardisés sur l’âge par la standardisation
directe, les calculs nécessaires sont contenus au tableau 7.4.

Tableau 7.4 Calculs nécessaires à la détermination des taux standardisés


(source : tableau 7.3)
Age Population Exposés (A) Non exposés (B)
(ans) de Taux Cancers attendus Taux Cancers
référence attendus
< 40 53571 26.86*10-4 143.89 42.08*10-4 225.43
40-65 68475 65.11*10-4 445.84 82.16*10-4 562.59
• 65 35305 154.2*10-4 544.40 181.65*10- 641.32
4

Tous 157351 1134.13 1429.34


âges

Les taux standardisés sont :

• Pour les sujets exposés : 1134.13/157351 = 72.08/10000


• Pour les sujets non exposés : 1429.34/157351 = 90.84/10000
• SMR (quotient des deux taux standardisés) =
(72.08/10000)/(90.84/10000) = 0.793

3. Intervalle de confiance d’un SMR (méthode directe)

Pour tester si SMR est différent de 1, le plus simple est de calculer son
intervalle de confiance (pour savoir s’il contient ou non la valeur 1).

On sait que :
Var (LnSMR) = VarTsA/TsA² + VarTsB/TsB² ; avec VarTs =
ȈfiMi/PAi² (fi est la proportion de personnes-années dans la classe
d’âge i dans l’ensemble de la cohorte ; par exemple pour la première
classe d’âge, fi = 53571/157351 = 0.340). Ainsi,
Var TsA = 0.340²*89/33133² + 0.435²*281/45159² +
0.224²*272/17634² = 7.933*10-8
VarTsB = 13.693*10-8

ϵϳ

D’où Var (LnSMR) = 7.933*10-8/(72.08*10-4)² +
13.693*10-8/(90.84*10-4)² = 0.003191

L’intervalle de confiance de Ln SMR est :


Ln SMR ± 1.96¥Var(LnSMR) = -0.2307 ± 0.1107 = (-0.3414 ; -
0.1199)

On en déduit l’intervalle de confiance de SMR :


(e-0.3414 ; e-0.1199) = (0.711 ; 0.887)

L’intervalle de confiance ne contient donc pas la valeur 1. Le SMR est


donc significativement différent de 1. Le taux d’incidence du cancer
est significativement plus faible chez les sujets exposés. Le fait d’être
exposé aurait ici un rôle protecteur si l’on tenait compte d’autres
facteurs de confusion et après discussion des biais éventuels..

L’intérêt du RMS provient aussi du fait qu’il est peu influencé par le choix
de la population de référence dont l’arbitraire a déjà été souligné. En effet, le
choix de la population de référence peut influencer la valeur des taux
standardisés mais le RMS est peu modifié par le jeu de leurs relations
réciproques.

Dans les exemples que nous avons exposés, nous n’avons utilisé que deux
groupes. Mais plusieurs groupes peuvent être comparés selon la même
procédure.

Ajoutons enfin quelques considérations au sujet du choix de la population de


référence. Celle-ci peut être choisie de différentes façons selon les
comparaisons que l’on veut effectuer.

La population nationale peut être choisie s’il s’agit de comparaisons entre


des groupes régionaux à l’intérieur d’un même pays. La population de
wilaya peut être retenue pour des comparaisons entre les communes par
exemple.

Pour des comparaisons internationales, des populations de référence


(tableau 7.5), proposées par l’Organisation Mondiale de la Santé, sont
utilisées pour le calcul des taux corrigés selon l’âge.
ϵϴ

La population de « type africain » est caractérisée par une forte proportion
des classes d’âge les plus jeunes. Tandis que la population de « type
européen » est caractérisée par une forte proportion des classes d’âge les
plus vieilles.

La population mondiale tronquée, limitée aux classes d ‘âge 35-64 ans,


présente l’avantage de ne pas retenir les classes d‘âge extrêmes. Le taux
standardisé tronqué (standardized truncated rate) est fréquemment utilisé
pour l’étude comparative de maladies prédominant à l’âge adulte.

Tableau 7.5 Populations de référence utilisées pour le calcul des taux


standardisés
Groupes Population type
d’âge
(ans) Mondiale Mondiale Européenne Africaine
tronquée
0 2400 - 1600 2000
1-4 9600 - 6400 8000
5-9 10000 - 7000 10000
10-14 9000 - 7000 10000
15-19 9000 - 7000 10000
20-24 8000 - 7000 10000
25-29 8000 - 7000 10000
30-34 6000 - 7000 10000
35-39 6000 6000 7000 10000
40-44 6000 6000 7000 5000
45-49 6000 6000 7000 5000
50-54 5000 5000 7000 3000
55-59 4000 4000 6000 2000
60-64 4000 4000 5000 2000
65-69 3000 - 4000 1000
70-74 2000 - 3000 1000
75-79 1000 - 2000 500
80-84 500 - 1000 300
85+ 500 - 1000 200
Total 100000 31000 100000 100000

ϵϵ

4. Standardisation indirecte ou méthode des taux types

Bien que la standardisation directe soit le procédé le plus fréquent pour


standardiser des indicateurs de santé, il existe une autre technique de
standardisation appelée standardisation indirecte. Le procédé de la
standardisation indirecte est pratiquement inverse de celui de la
standardisation directe.

• On applique d’abord les indicateurs (taux) spécifiques d’une population


de référence aux modalités de la variable à neutraliser pour le ou les
groupes étudiés.
• On obtient ainsi pour le groupe ou les groupes étudiés un nombre
d’événements ou de cas attendus qui, divisé par l’effectif du groupe
correspondant, donne un indicateur calculé (taux calculé)
• On peut arrêter à ce niveau la procédure en calculant un rapport de
mortalité (ou de morbidité) standardisé pour chaque groupe (RMS) :
RMS = (nombre de cas observés)/(nombre de cas attendus) = (taux
observé)/(taux calculé)
• Le taux (ou l’indicateur) standardisé obtenu par la méthode de
standardisation indirecte s’obtient ainsi : Taux standardisé pour un
groupe =
taux brut de la population standard * (taux observé)/ (taux calculé)

On remarquera aussi que le RMS obtenu à l’alinéa précédent peut se


calculer aussi de la manière suivante : RMS = (taux standardisé)/(taux
brut de la population standard).

Sous l’hypothèse nulle, RMS = 1 (égalité du taux observé et calculé),


la quantité :

Ȥ² = (|O – E| - 0.5)²/E (O = nombre observé, E = nombre attendu)

suit une loi de X² à 1 ddl. Cela permet de comparer le nombre observé


au nombre attendu. La solution de continuité (- 0.5) peut ne pas être
utilisée si le nombre attendu est égal au moins à 10.

ϭϬϬ

Si le nombre E de cas attendu est inférieur à 10, on peut cependant
préférer ce test Ȥ² du SMR :

Ȥ² = 9*O[1 – 1/(9*O) – (E/O)1/3]²

On peut aussi calculer l’intervalle de confiance à 95% du SMR. Si cet


intervalle contient la valeur 1, le SMR n’est pas significativement
différent de 1 (section ci-dessous) au risque 5%.

Le test du SMR est habituellement un test unilatéral, la différence est


significative dès que le Ȥ² atteint la valeur 2.71 (colonne 10% de la
table du Ȥ²). Si rien n’est précisé, la situation bilatérale peut toujours
être adoptée.

La standardisation indirecte est notamment utilisée pour l’analyse de


la mortalité bien qu’elle puisse légitimement être utilisée pour les
indicateurs de morbidité. Le choix de la population de référence peut
avoir une influence sur la valeur des taux standardisés mais la valeur
des indices comparatifs, c’est à dire du RMS, est généralement peu
modifiée.

Par exemple, le nombre de victimes (tués et blessés) par accidents de


la route observés dans une commune s’élève à 172 en 3 mois.

A structure d’âge identique (on neutralise l’effet de l’âge), on veut


savoir où se situe cette commune par rapport à la population de
référence qui est celle de la wilaya. Les taux d’incidence trimestriels
des accidents de la route pour la population de la wilaya sont connus.

On décide d’effectuer une standardisation indirecte. Les données sont


consignées au tableau 7.6.

Le taux d’incidence calculé est donc : 205/117000 = 175.2 pour


100000.

ϭϬϭ

Le nombre de victimes réellement observé est de 172. Le taux
d’incidence correspondant est : 172/117000 = 147.0 pour 100000.

Le RMS est : RMS = 172/205 = 83.9% OU RMS = 147.0/175.2 =


83.9%.
Le taux d’incidence de la commune, à structure d’âge identique, est
donc inférieur de près de 16% à celui de la wilaya.

La valeur du RMS est significativement différente de 1 :


X² = (172 - 205)²/205 = 5.31 ; p < 0.05.

Tableau 7.6 Exemple de standardisation indirecte pour l’âge


Age (ans) Taux d’incidence Commune
trimestriels des
accidents de la
route chez la Population Nombre de
population de la victimes
wilaya(pour attendu
100000 habitants)
0-4 134.2 17000 22.8
5-9 250.3 18000 45.1
10-14 157.1 17000 26.7
15-19 214.5 11000 23.6
20-24 257.5 10000 25.8
25-29 172.8 9000 15.6
30-34 134.6 7000 9.4
35-39 102.0 7000 7.1
40-44 77.9 6000 4.7
45-49 89.7 4000 3.6
50-54 152.7 3000 4.6
55-59 175.9 2000 3.5
60-64 149.6 2000 3.0
65+ 238.6 4000 9.5
Tous âges 177.4 117000 205.0

ϭϬϮ

Le taux standardisé pour la commune est : 177.4*(147.0/175.2) =
148.8 pour 100000.

Bien sûr, on aurait pu prendre plusieurs communes et comparer


chacune d’elles à la population de la wilaya. Si on compare, par
exemple, des fumeurs à des non fumeurs, on peut prendre le groupe
des non fumeurs comme population de référence. On applique selon la
même procédure que précédemment les taux du groupe des non
fumeurs au groupe des fumeurs selon les modalités de la variable de
confusion.

Reprenons l’exemple relatif à la comparaison de la mortalité entre les


deux groupes A et B. Supposons que l’on connaisse pour une
population de référence :

• Les taux spécifiques de mortalité selon l’âge,


• Le taux brut de mortalité.

On connaît pour les groupes A et B :


• Le nombre total de décès observé,
• La distribution par âge.

Pour neutraliser l’effet de l’âge avec de telles données, on peut


calculer des taux de mortalité standardisés pour les deux groupes par
la méthode indirecte. Les calculs sont disposés au tableau 7.7.

Le ratio standardisé de mortalité (RMS) exprime que le taux de


mortalité de A, à structure d’âge identique, est inférieur de 9.7% à
celui de la population de référence. Le taux de mortalité du groupe B
est supérieur de 21% à celui de la population de référence.

Les conclusions engendrées par les taux standardisés obtenus par la


méthode indirecte sont les mêmes que celles suggérées par les taux
standardisés obtenus par la méthode directe.

ϭϬϯ

Tableau 7.7 Standardisation de deux taux de mortalité
Standardisation indirecte (d’après les données du tableau 7.1)
Age Taux Groupe A Groupe B
spécifique
(années) de
mortalité Effectif % Décès Effectif % Décès
pour une attendus attendus
population
de
référence
(pour
1000)
20-29 11.3 2000 12.5 22.6 4000 44.5 45.2
30-49 14.9 6000 37.5 89.4 3000 33.3 44.7
50-69 22.0 8000 50.0 176.0 2000 22.2 44.0
Ensemble 16.9 16000 100.0 288 9000 100.0 133.9
Taux calculé (p.1000) 288/16000 = 18.0 133.9/9000 = 14.9
Nombre de décès 260 162
réellement observé
Taux brut de 260/16000 = 16.2 162/9000 = 18.0
mortalité (p.1000)
RMS 260/288 = 90.3% 162/133.9 = 121.0%
Taux standardisés 16.9*(260/288) = 15.3 16.9*(162/133.9) = 20.4
(p.1000)

La situation globale est appréciée de manière plus cohérente avec une


accentuation de la différence par rapport aux taux bruts au détriment
du groupe B qui possède maintenant un taux standardisé nettement
plus élevé par rapport à celui du groupe A. Cela se conçoit aisément
car le taux brut de mortalité du groupe B était déjà supérieur à celui du
groupe A alors que la population du groupe B est plus jeune que celle
du groupe A.

ϭϬϰ

Lorsque la répartition par âge de la cohorte et de la population
générale sont très proches, le SMR est peu différent du risque relatif
brut. Inversement, un SMR très proche du risque relatif brut reflète la
similitude des distributions par âge.

5. Intervalle de confiance d’un SMR (méthode indirecte)

On peut calculer aussi la variance du RMS. Celle-ci est égale


approximativement à O/E². L’écart type (ou erreur standard) du RMS
est la racine carrée de la variance : (√O)/E. Les taux types de la
population standard doivent être petits, ce qui est le cas généralement,
pour que ces estimations de la variance et de l’écart type soient
valables. Autrement et de façon plus précise, les bornes de l’intervalle
de confiance du SMR sont les suivantes :

SMRs = [(O + 1)/E] * {1 - 1/[9(O + 1)] + zĮ/[3¥(O + 1)]}3

SMRi = (O /E) * [1 - 1/(9*O) - zĮ/3¥O]3

Si l’intervalle de confiance contient la valeur 1, le SMR n’est alors pas


significativement différent de 1. Il faut cependant noter que le test et
l’intervalle de confiance peuvent donner des résultats discordants car
un intervalle de confiance est conceptuellement bilatéral alors que le
test peut être unilatéral.

Si le nombre d’événements observés est de 25 et celui d’événements


attendus de 22.9 :
SMR = 25/22.9 = 1.09

L’intervalle de confiance à 95% est :

• 0.66 – 1.52 (formules simplifiées)


• 0.71 – 1.61 (formules plus précises)

ϭϬϱ

Dans les deux cas, l’intervalle de confiance contient la valeur 1. Le
SMR n’est pas significativement différent de 1.

6. Puissance d’une étude pour mettre en évidence un SMR


d’une valeur donnée

La puissance (complément à 1 de ȕ) est donnée par la formule :

zĮ + z2ȕ = 2¥E (¥SMR – 1)

On peut bien sûr remplacer zĮ par z2Į si l’on considère que l’on est en
situation unilatérale.

On se demande, par exemple, quelle est la puissance d’une étude pour


mettre en évidence un SMR de 1.5 (augmentation du risque de 50%,
ce qui peut être potentiellement intéressant) alors que le nombre
attendu d’événements est de 14.2.

En adoptant la situation unilatérale, on a :

z2Į + z2ȕ = 2¥14.2 (¥1.5 – 1)


avec : z2Į = 1.64 (Į = 0.05), d’où :
z2ȕ = 0.96, ce qui donne d’après la table de l’écart réduit :
2ȕ = 0.96
ȕ = 0.48
Puissance = 1 – ȕ = 52%.

L’étude serait donc peu puissante. Une puissance acceptable devrait


au moins être supérieure à 80%.

Le nombre d’événements attendus E peut être tiré de la même


formule :

E = (z2Į + z2ȕ)² / [4*(¥RMS – 1)²]

ϭϬϲ

On pourrait mettre en évidence un SMR de 1.5 avec une puissance de
80% si le nombre attendu d’événements était :

E = (1.64 + 0.842)² / [4*(¥1.5 – 1)²] = 30.5

On pourrait, pour avoir un tel nombre, prolonger, par exemple,


l’étude de quelques années. Cela garantirait seulement une puissance
d’étude suffisante pour mettre en évidence un SMR de 1.5 s’il avait
réellement cette valeur mais ne garantirait pas que le SMR serait
significatif à coup sûr.

Signalons enfin, à titre d’information, qu’il n’ya pas de test utilisé en


pratique pour comparer des SMR entre eux. On peut songer, par
exemple, à comparer deux communes à une wilaya pour reprendre
l’exemple sur les accidents de la route. On obtiendrait ainsi deux SMR
obtenus par la technique de standardisation indirecte. Pratiquement,
ces deux SMR ne peuvent pas être comparés entre eux. Pour
contourner la difficulté et comparer les deux communes entre elles, on
pourrait utiliser la technique de standardisation directe en prenant, par
exemple, la population des deux communes confondues comme
population de référence.

ϭϬϳ

Chapitre 8

Techniques de sondage

1. But du sondage

Le but de toute enquête sanitaire est d’obtenir des informations


concernant les problèmes médicaux ou les besoins de santé d’une
collectivité.

On procède rarement à des enquêtes qui portent sur toute la


population, le coût en serait très élevé. Le plus souvent, on procède à
un sondage. Celui-ci est un procédé qui consiste à réaliser l’enquête
sur un échantillon, c'est-à-dire sur une partie seulement de la
population.

Le sondage a pour but de déterminer le ou les paramètres


(pourcentage, moyenne) caractéristiques de la population à partir de
l’examen de cet échantillon limité considéré comme représentatif.

2. Population cible et unités statistiques

Aucun échantillon représentatif ne peut être sélectionné d’une


population cible, c’est à dire la collectivité visée par le sondage, si
celle-ci n’est pas correctement définie au départ.

Les unités statistiques, c'est-à-dire les éléments composant la


population cible, doivent être identifiées avec précision. Ces unités
statistiques peuvent être simples (nourrissons, malades, etc.), elles
peuvent être composées (ménages ou familles, établissements
hospitaliers, etc.).

ϭϬϵ

3. Unités de sondage et base de sondage

L’unité de sondage est l’élément sur laquelle porte le tirage au sort.

L’unité de sondage ne se confond pas toujours avec l’unité statistique.

Si le but de l’enquête est d’étudier, par exemple, la morbidité parmi


les écoliers, ceux-ci constituent les unités statistiques. Mais pour avoir
accès à ces écoliers, on peut tirer au hasard un échantillon d’écoles
parmi une liste d’écoles. Dans ce cas, les écoles constituent des unités
de sondage.

La base de sondage est la liste sans omission ni répétition de toutes les


unités de sondage. Un échantillon est dit représentatif lorsque la
probabilité de chaque unité de sondage de figurer dans l’échantillon
est connue. Le tirage au sort des unités garantit cette représentativité.

4. Technique de sondage simple

La technique de sondage simple consiste, en une seule opération, à


extraire directement, au hasard, de la base de sondage les unités
statistiques qui vont constituer l’échantillon : chaque unité statistique
a la même probabilité de figurer dans l’échantillon.

Le plus simple est de numéroter de façon séquentielle les unités de la


base de sondage et de sélectionner l’échantillon de taille n par
l’utilisation d’une table de nombres au hasard ou mieux d’un logiciel
informatique. Cette technique est appelée tirage élémentaire et
constitue la meilleure procédure de constitution d’un échantillon.

L’autre technique de tirage est le tirage systématique qui a en fait peu
d’indications depuis que l’on dispose de moyens informatiques
appropriés. Cette technique peut cependant être utile lorsqu’on la base
de sondage n’est pas numérotée.

ϭϭϬ

Dans le tirage systématique, les individus sont prélevés non plus au
hasard mais à intervalles réguliers, à partir d’un numéro pris lui au
hasard parmi la population cible.

L’intervalle entre deux unités prélevées s’appelle le « pas


d’échantillonnage » qu’on obtient simplement en divisant la taille de
la population cible par celle de l’échantillon.

Par exemple, les archives d’un service comptent 1530 dossiers


médicaux. On souhaite examiner 150 dossiers. Le pas est : 1530/150 =
10. Il faut donc prélever un dossier sur 10. En d’autres termes, chaque
dossier a une chance sur 10 d’être prélevé. Il suffit de prélever le
numéro de départ (appelé base) à partir duquel on effectue les
prélèvements de 10 en 10. Si le numéro de départ est 1495, les
dossiers qui font partie de l’échantillon sont : 1495, 1505, 1515, 1525,
5, 15, 25, 35, etc.

Le tirage systématique doit être résolument écarté si le phénomène


étudié obéit à une périodicité de même ordre que le pas
d’échantillonnage ou le multiple de ce pas. La base de sondage ne doit
présenter aucune caractéristique cyclique si la procédure de tirage
systématique est retenue.

On peut illustrer de telles situations par un cas extrême. On a réparti


les ménages en fonction de leur revenu qui est élevé ou non élevé.
Supposons que les ménages à revenu élevé soient identifiés par un
nombre pair et les autres par un nombre impair. Si le pas
d’échantillonnage est pair, l’échantillon sera exclusivement constitué
par des ménages à revenu élevé ou par les autres selon que le numéro
de départ est pair ou impair.

Dans des cas moins extrêmes, à cause de cette périodicité, les unités
statistiques tirées auront tendance à se ressembler et de ne pas rendre
compte de la diversité de la population cible à partir de laquelle elles
ont été tirées.

ϭϭϭ

La pratique du sondage systématique ne permet pas de calculer la
précision du sondage.

5. Précision du sondage (sondage simple)

L’idéal est bien sûr de déterminer la valeur réelle des paramètres de la


population-cible. Le sondage ne permet de donner qu’une estimation
du paramètre :

p ou m ne sont que des estimateurs de P ou M.

C’est pour cela qu’il est nécessaire de mesurer la précision d’une


estimation par la détermination de la variance ou de l’écart type. Les
résultats concernant la précision sont présentés par l’utilisation de
l’intervalle de confiance.

5.1. Intervalle de confiance d’un pourcentage

La distribution de p admet pour moyenne P et pour variance PQ/n


(estimée par pq/n). L’intervalle de confiance peut être déterminé par la
méthode binomiale exacte (par l’utilisation du programme epitable du
logiciel epi-info par exemple). Il peut aussi plus facilement, grâce à
l’approximation de la loi binomiale par la loi normale, s’écrire :

P = p ± z*écart type de p

En d’autres termes, P est compris entre (p – z * écart type de p) et (p +


z * écart type de p).

L’expression (z * écart type de p) s’appelle la précision absolue du


sondage, elle est notée u.

L’intervalle de confiance de P est symétrique autour de p.

ϭϭϮ

Dans l’expression de l’intervalle de confiance, z est l’écart réduit
correspondant au risque d’erreur consenti. La valeur de z est donnée
directement par la table 2 :

• au risque d’erreur de 5%, z = 1.96 ≈ 2 ;


• au risque d’erreur de 1%, z = 2.58 ;
• au risque d’erreur de 1 pour 1000, z = 3.29, etc.

Parfois, à la place de l’expression « au risque d’erreur de … », on


utilise l’expression « au coefficient de sécurité de … ». Ce coefficient
est le complément à 1 du risque d’erreur. Ainsi, « au risque d’erreur
de 5% » devient « au coefficient de sécurité de 95% »

Supposons que sur un échantillon d’effectif 100, on observe une


proportion p = 20%.

Au risque 5%, les deux bornes de l’intervalle de confiance, en


appliquant l’approximation par la loi normale, sont :

0.20 – 1.96√(0.20*0.80/100) ≤ P ≤ 0.20 + 1.96√(0.20*0.80/100)


0.20 – 0.08 ≤ P ≤ 0.20 + 0.08
0.12 ≤ P ≤ 0.28

Au risque 5%, le pourcentage P de la population d’où a été extrait


l’échantillon est compris entre 12% et 28%, soit une précision absolue
de 8%. Autrement dit, on risque de se tromper 5 fois sur 100, dans une
série de sondages, en affirmant que le pourcentage inconnu P est
compris entre 12 et 28%.

Les conditions d’application de la loi normale (nP et nQ supérieurs ou


égaux à 5) sont satisfaites aux deux bornes de l’intervalle de
confiance.

A la borne inférieure :
• n P = 100 * 0.12 = 12
ϭϭϯ

• nQ = 100 * 0.88 = 88.

A la borne supérieure :
• n P = 100 * 0.28 = 28
• nQ = 100 * 0.72 = 72.

5.2. Intervalle de confiance d’une moyenne

L’intervalle de confiance assigné à la moyenne inconnue M de la


population d’où a été extrait l’échantillon est :

M = m ± t*S√n.

Dans cette formule de l’intervalle de confiance :

• m est la moyenne estimée de l’échantillon ;


• S est l’écart type de la variable quantitative étudiée ;
• n est la taille de l’échantillon ;
• t est le nombre de la population caractérisée par une loi de
Student de degrés de liberté k = (n – 1) au risque d’erreur
choisi.

Comme √(PQ/n) est l’écart type de la distribution du pourcentage


observé p sur l’échantillon, estimé par √(pq/n), la quantité :

S/√n

est l’écart type de la distribution de la moyenne observée sur


l’échantillon. Cet écart type de la moyenne (appelé aussi erreur-
standard ou erreur-type) est estimé sur l’échantillon par : s/√n.

Cette formule montre que l’écart type de la moyenne est plus petit que
celui de la variable de l’étude.
ϭϭϰ

Cela se conçoit facilement, la dispersion de la moyenne d’une variable
est moins importante que la dispersion de cette variable.

L’intervalle de confiance d’une moyenne inconnue M devient :

M = m ± t*s/√n.

On a mesuré chez un échantillon de 17 sujets le taux d’urée sanguine.


La moyenne et l’écart type des 17 mesures sont respectivement m =
300.0 mg/l et s = 10.0 mg/l.

Au risque 5%, la valeur de t correspondant à 16 dl est égale à 2.12.


Les deux bornes de l’intervalle de confiance assigné à M sont :

300.0 – 2.12*10.0/√17 ≤ M ≤ 300 + 2.12*10.0/√17


300.0 – 5.1 ≤ M ≤ 300 + 5.1
294.9 mg ≤ M ≤ 305.1 mg

Au risque 1 pour 1000, la valeur correspondante de t est 4.02 et les


deux bornes de l’intervalle de confiance sont :

300.0 – 4.02*10.0/√17 ≤ M ≤ 300 + 4.02*10.0/√17


300.0 – 9.7 ≤ M ≤ 300 + 9.7
290.3 mg ≤ M ≤ 309.7 mg

Au risque 1 pour mille, la précision absolue (9.7 mg) est évidemment


moins bonne qu’au risque 5% (5.1 mg). L’intervalle de confiance est
d’autant plus étendu que l’on veut courir un risque plus faible de se
tromper sur la valeur réelle de M.

L’utilisation de cette formule, lorsque l’échantillon a une taille


inférieure à 30, implique que le caractère étudié est distribué
normalement dans la population cible d’où a été extrait l’échantillon.

ϭϭϱ

Dans les applications pratiques, dès que la taille échantillonnale égale
ou dépasse 30 (n ≥ 30), on utilise l’écart réduit z au lieu de la variable
de Student t.

Il est d’usage de parler de grands échantillons, lorsqu’on étudie un


caractère quantitatif, dès que leur taille égale ou dépasse 30.

Dans ces conditions, et c’est là une propriété remarquable, la moyenne


est distribuée selon la loi normale quelle que soit la distribution du
caractère étudié dans la population cible.

Cette distribution normale admet pour moyenne M, c’est à dire la


moyenne du caractère étudié dans la population cible et pour écart
type toujours la quantité S/√n.

Supposons que l’on observe les mêmes paramètres (m = 300.0 mg et s


= 10.0 mg) concernant le taux d’urée sanguine chez un échantillon de
40 individus.

Les bornes de l’intervalle de confiance sont au risque 5% :

300.0 – 1.96*10.0/√40 ≤ M ≤ 300 + 1.96*10.0/√40


300.0 – 3.1 ≤ M ≤ 300 + 3.1
296.9 mg ≤ M ≤ 303.1 mg

La précision absolue du sondage est de 3.1 mg.

Si les mêmes valeurs pour la moyenne et l’écart type des mesures


avaient été observées sur un échantillon de taille 100, les bornes de
l’intervalle de confiance au même risque 5% auraient été :

300.0 – 1.96*10.0/√100 ≤ M ≤ 300 + 1.96*10.0/√100


298.0 mg ≤ M ≤ 302.0 mg.

ϭϭϲ

La précision absolue du sondage est de 2.0 mg. L’augmentation de la
taille échantillonnale augmente bien sûr la précision du sondage.

6. Détermination de la taille nécessaire de l’échantillon


(sondage simple)

La taille nécessaire de l’échantillon, c’est à dire le nombre de


personnes requis pour figurer dans l’échantillon, n’a rien à voir avec la
représentativité de celui-ci. Un petit échantillon pourrait, en effet, être
représentatif tandis qu’un grand échantillon pourrait ne pas l’être.

Un tirage au sort non correctement réalisé ne peut pas, à l’occasion


d’un sondage élémentaire, engendrer un échantillon représentatif
même si la taille échantillonnale semble importante au regard de la
population-cible d’où a été tiré l’échantillon.

6.1. Détermination de la taille nécessaire de l’échantillon pour


estimer une proportion

Lorsqu’on utilise la loi normale, la précision absolue u s’écrit :

u = z√(PQ/n).

On en déduit la taille nécessaire n de l’échantillon :

n = z²PQ/u².

On fait face à un paradoxe : on suppose connue au départ la


proportion P qui constitue précisément l’objet de l’investigation.

En fait, il suffit d’avoir une idée approximative de la valeur de P. Un


ordre de grandeur provenant d’études publiées ou par l’utilisation d’un
petit échantillon de quelques dizaines de personnes est souvent utilisé.

ϭϭϳ

Le nombre de sujets nécessaire est généralement peu sensible aux
variations « raisonnables » de P.

Si plusieurs estimations de P sont avancées, on retient celle qui


engendre la plus grande taille échantillonnale. Aux mêmes conditions
de précision et d’erreur requises, la taille estimée de l’échantillon est
d’autant plus grande que P se rapproche de 50%.

Si on n’a aucune idée de P, on peut adopter la situation la plus


défavorable où P = Q = 0.50. Ce qui donne :

n = z²/4u².

Par exemple, pour une précision de 0.020 (2.0%), au risque 5%, la


taille échantillonnale à prélever est :

n = 1.96² / (4 * 0.02²) = 2401.

Pour la même précision absolue et au même risque d’erreur consenti,


les tailles échantillonnales, pour des estimations préalables de P à 25%
et à 10%, sont respectivement :

n = (1.96² * 0.25 * 0.75) / 0.02² = 1801, et


n = (1.96² * 0.10 * 0.90) / 0.02² = 864.

Lorsqu’on adopte la situation défavorable où P = Q = 0.50, on


détermine la limite supérieure de la taille échantillonnale pour une
précision absolue souhaitée à un risque d’erreur consenti. Cet
échantillon maximal constitue une solution coûteuse d’autant plus
qu’il peut être plus grand que nécessaire.

Le choix préliminaire de la précision u du sondage pour calculer la


taille échantillonnale nécessaire ne dispense pas de recalculer la
précision du sondage résultant de la mesure p réellement observée sur
l’échantillon.

ϭϭϴ

Car dans le calcul de la taille échantillonnale nécessaire, la précision u
ne se rapporte pas à la proportion observée sur l’échantillon mais à la
proportion réelle P dans la population.

6.2. Détermination de la taille nécessaire de l’échantillon pour


estimer une moyenne

Lorsqu’on utilise la loi normale, la précision absolue u s’écrit :

u = z*S/√n.

On en déduit la taille nécessaire n de l’échantillon :

n = z²S²/u².

La taille échantillonnale doit être au moins égale à 30. L’utilisation de


la variable t de Student aurait introduit une inconnue supplémentaire
puisque la valeur de t dépend du nombre de degrés de liberté et par
conséquent de la taille échantillonnale.

On remarque que, contrairement au problème de l’estimation d’une


proportion, la taille échantillonnale ne dépend pas de M, c’est à dire la
moyenne réelle dans la population qu’on cherche à estimer. Donc, on
ne fait pas au départ d’hypothèse sur M. Il suffit de choisir à un risque
d’erreur donné une précision u en tenant compte seulement d’un ordre
de grandeur de S (valeur approximative).

On cherche à estimer, par exemple, le nombre moyen de globules


blancs de sujets atteints d’une certaine maladie. On veut connaître
cette moyenne à 100 globules blancs près (u = 100) avec un risque
d’erreur de 5%. Par ailleurs, une enquête préalable a montré que la
distribution des globules blancs a un écart type voisin de 800.

ϭϭϵ

Le nombre de sujets nécessaire à inclure dans l’échantillon est donc :

n = 1.96²*800²/100² = 246 sujets.

Si l’on exigeait de connaître cette moyenne à 50 globules blancs près


au même risque, il faudrait :

n = 1.96²*800²/50²= 983 sujets.

Il faudrait donc 4 fois plus de sujets que précédemment, résultat


attendu puisque la précision souhaitée est deux fois meilleure.

Il n’est pas nécessaire, une fois la moyenne m mesurée sur


l’échantillon, de recalculer la précision du sondage si la taille
échantillonnale souhaitée a été atteinte.

La précision du sondage lors de l’estimation d’une moyenne,


contrairement à l’estimation d’une proportion, ne dépend pas de la
valeur m observée sur l’échantillon. La précision du sondage peut
donc être fixée à l’avance définitivement. Cependant, on peut toujours
faire un complément d’échantillonnage si l’on désire encore améliorer
cette précision.

7. Technique d’échantillonnage par numérotage

Une variante du sondage élémentaire est la technique


d’échantillonnage par numérotage qui présente l’avantage de ne pas
exiger de base de sondage.

Cette technique est bien adaptée pour la constitution d’un échantillon


représentatif de consultants fréquentant une structure de santé comme
un dispensaire ou un hôpital. Ce procédé est d’autant plus intéressant
que des dossiers ne sont pas constitués pour les consultants.

ϭϮϬ

Un jeton portant un numéro est donné à chaque consultant à son
arrivée à la structure de santé. Le premier consultant a le numéro 1, le
deuxième consultant le numéro 2, etc.

Si l’on sait que le nombre de consultants est environ d’une


cinquantaine par jour, on peut utiliser deux colonnes de la table de
nombres au hasard et choisir pour un jour donné ceux qui feront partie
de l’échantillon.

Si l’on décide de faire un sondage au 1/10ème, 5 consultants environ


seront inclus journellement dans l’enquête. Le sondage est effectué au
début de chaque séance de consultation et seul l’investigateur connaît
les numéros sortis.

Chaque jour, on peut utiliser deux colonnes distinctes de la table. Les


numéros distribués aux consultants sont réutilisés chaque jour.

Les consultants atteints de maladies chroniques ou graves qui se


présentent souvent à la structure de santé ne sont pas inclus plus d’une
fois dans l’échantillon dans le cas où le tirage au sort les désigne plus
d’une fois.

Les aspects concernant la précision du sondage vus ou la taille


échantillonnale nécessaire dans un sondage élémentaire (ci-dessus)
s’appliquent aussi pour le sondage par numérotage.

Ajoutons seulement que si on calcule une taille échantillonnale


nécessaire, la fraction de sondage est obtenue en divisant cette taille
par le nombre total d’unités statistiques prévu pour toute la période de
l’enquête.

Par exemple, pour étudier un phénomène, on calcule que la taille de


l’échantillon doit être de 150 consultants.

ϭϮϭ

Si on décide de constituer un échantillon en 40 séances, la fraction de
sondage, en sachant qu’il y a environ 50 consultants par séance, est :

150 / (40 * 50) = 0.075 = 1/13ème.

On procèdera au choix de 4 consultants environ par séance.

8. Technique d’échantillonnage par strates


L’utilisation de la technique d’échantillonnage par strates ou sondage
stratifié implique que la population-cible soit d’abord divisée en deux
ou plusieurs groupes plus homogènes d’unités statistiques. Ces
groupes sont appelés strates.

Les strates qui sont autant de « compartiments étanches » entre


lesquelles la répartition de l’échantillon est imposée sont définies au
moyen d’une ou de plusieurs caractéristiques de la population : sexes,
groupes d’âge, divisions économiques ou géographiques, etc.

Ainsi, on peut constituer deux strates si le facteur de stratification est


le sexe. Les consultantes des dispensaires d’une région donnée
peuvent constituer autant de strates qu’il existe de dispensaires (le
facteur de stratification est le dispensaire), etc. Les unités statistiques
constituant une strate sont moins différentes l’une de l’autre que dans
la population totale.

La stratification a pour but d’améliorer la précision du sondage par un


regroupement des unités statistiques en « strates homogènes » moins
dispersées.

Si on étudiait la taille d’enfants de 10 à 14 ans, la précision du


sondage serait meilleure en faisant l’étude sur cinq strates différentes
(une strate par année d’âge) qu’en constituant un échantillon à partir
de toute la population-cible âgée de 10 à 14 ans sans distinction d’âge.
ϭϮϮ

Dans chacune des strates constituées, la variance de la taille est plus
petite que dans l’ensemble de la population-cible puisque les enfants
d’un même groupe d’âge ont tendance à avoir une taille voisine.

En conséquence, les sondages partiels au niveau de chacune des


strates sont plus précis. Les estimations correspondant à chacune des
strates sont ensuite juxtaposées pour obtenir une estimation globale
plus précise que ne l’aurait donné la technique d’échantillonnage
simple dans la population-cible tout entière.

On a toujours intérêt à stratifier lorsque le facteur servant à la


stratification est fortement corrélé à la variable de l’étude. La taille des
enfants, variable de l’étude, étant fortement corrélée à l’âge, on avait
intérêt à stratifier selon l’âge dans l’exemple ci-dessus.

Cependant, il peut être difficile de savoir si tel ou tel facteur de


stratification est corrélé avec la variable de l’étude, auquel cas la
stratification peut être inefficace.

On peut retenir qu’il est toujours indiqué de stratifier. Si la


stratification s’avère inefficace, le gain apporté en matière de
précision du sondage peut être nul mais il n’y a pas non plus de perte
de précision.

La précision du sondage est d’autant meilleure que le nombre de


strates est plus élevé. Cependant, à moins que la population-cible ne
soit très dispersée, le gain apporté par la stratification est fortement
réduit au delà de 3 à 5 strates.

En tout cas, il n’existe pas de moyen simple permettant de déterminer


un nombre optimal de strates pour une population donnée. En
pratique, on se contente de fixer le nombre de strates de façon
empirique en fonction du type d’enquête à effectuer.

ϭϮϯ

Ce nombre dépasse rarement 10. En règle générale, il est avantageux
de n’utiliser que peu de strates (3 à 5).

Lorsque les strates sont individualisées, il faut établir la base de


sondage pour chacune des strates pour y prélever un échantillon selon
la technique d’échantillonnage aléatoire simple.

La technique de numérotage peut être appropriée pour obtenir un


échantillon de chacune des strates si la base de sondage est inexistante
(section 5). Le même protocole d’enquête est alors appliqué pour
l’échantillon constitué dans chacune des strates.

On peut décider de choisir à priori une fraction de sondage identique


pour toutes les strates (1/10ème, 1/20ème, etc.). Les différentes strates
sont ainsi représentées dans l’échantillon proportionnellement à
l’importance de la population-cible.

Si c’est la taille échantillonnale qui est d’abord déterminée, les strates


peuvent aussi être représentées proportionnellement à leur importance
dans la population.

La détermination du nombre d’individus choisis dans chaque strate se


base alors sur la proportion d’individus qui sont dans chacune des
strates. Il est donc nécessaire de connaître au départ la proportion
d’individus appartenant à chaque strate de la population. Cette
technique largement utilisée est appelée sondage aléatoire stratifié
proportionnel. La fraction de sondage qui résulte de cette technique
est égale dans toutes les strates.

Il convient de noter toutefois que le choix d’une fraction de sondage


identique pour toutes les strates n’est pas obligatoire.

ϭϮϰ

9. Technique d’échantillonnage par grappes

La technique d’échantillonnage par grappes consiste à prélever les


unités statistiques de la population-cible, non pas une à une, mais par
groupes, qu’on appelle grappes.

Les grappes peuvent exister physiquement ou être constituées. Par


exemple, les districts d’une commune sont des grappes d’habitants, les
ménages des grappes d’individus, les services hospitaliers des grappes
de malades, les immeubles collectifs des grappes de ménages.

Lorsque la grappe est une étendue géographique, par exemple un carré


sur le plan d’une ville, on parle de sondage aréolaire. Ces surfaces
peuvent constituer des grappes de ménages, d’établissements de
restauration, etc.

Le sondage en grappes se réalise en trois étapes :

• regroupement des unités statistiques de la population-cible en


grappes ;
• tirage au sort de certaines grappes ;
• examen de toutes les unités statistiques de chaque grappe tirée.

Alors que l’on sonde une strate, on tire une grappe. Chaque grappe
tirée donne lieu à l’examen de tous les « grains » qu’elle contient.
Donc, les grappes sont retenues toutes entières si elles sont tirées,
tandis que celles qui ne sont pas choisies échappent totalement à
l’échantillon.

Supposons que l’on veuille déterminer dans une commune la


proportion de ménages qui comptent en leur sein une personne
gravement handicapée.

Il s’avère que la liste de tous les ménages qui habitent la commune est
impossible ou tout au moins très difficile à établir.

ϭϮϱ

Par contre, la liste des îlots qui sont autant de grappes de ménages est
disponible. Ainsi, le sondage par grappes peut être indiqué pour
résoudre le problème.

Il est utile de signaler que, dans cet exemple, les ménages constituent
les unités statistiques, tandis que les îlots constituent les unités de
sondage.

Du fait qu’on est dispensé de dresser intégralement la liste de toutes


les unités statistiques, le sondage par grappes est très utile lorsqu’on
ne dispose pas de listes valables relatives aux unités statistiques de la
population-cible.

Le sondage par grappes ne va nécessiter qu’une base de sondage plus


réduite. Celle-ci est plus facile à obtenir ou à construire.

Le sondage par grappes permet aussi d’éviter la dispersion des


enquêtes à réaliser sur le terrain puisque seules les grappes tirées sont
entièrement examinées. Cela se traduit par une réduction du coût et un
gain de temps. C’est ce qui explique que le sondage en grappes soit
très utilisé.

Un inconvénient majeur peut cependant remettre en cause ces


avantages : l’effet de grappe.

En effet, les unités statistiques peuvent avoir tendance à se ressembler


au sein d’une même grappe vis à vis du caractère étudié (habitudes
alimentaires des membres d’un ménage par exemple). Cette
ressemblance nuira à la représentativité de l’échantillon qui ne peut
rendre compte de la diversité de la population-cible d’où il a été tiré
même si le nombre d’unités statistiques est grand.

Il est donc souhaitable qu’une grappe soit aussi hétérogène que


possible. La variance du caractère étudié devrait donc être aussi
grande que possible à l’intérieur de la grappe, contrairement au cas de
la strate.
ϭϮϲ

On peut retenir que l’effet de grappe est d’autant plus atténué que l’on
tire un plus grand nombre de grappes de petites dimensions.

Il est avantageux en outre que celles-ci soient aussi semblables les


unes aux autres vis à vis du caractère étudié (variance entre les
groupes faible) ainsi que vis à vis de la taille (même nombre environ
d’unités statistiques par grappe).

L’effet de grappe, s’il n’est pas atténué, risque de réduire fortement


l’efficacité du sondage en grappes par rapport au sondage élémentaire.

Lorsque les grappes sont clairement identifiées et qu’il n’existe aucun


problème de chevauchement sur toute la zone à enquêter, il convient
d’apprécier le problème de leur ressemblance vis à vis du caractère
étudié ainsi que celui de leur taille.

Si les grappes sont loin d’être semblables en ce qui concerne le


caractère d’étude, on peut répartir les grappes en un certain nombre de
strates dans lesquelles la variabilité du caractère d’étude est faible. Le
critère servant à la stratification devrait être corrélé à la variable de
l’étude.

En tout cas, la stratification est d’autant plus utile et indiquée que


l’homogénéité à l’intérieur de chaque strate et l’hétérogénéité entre les
strates sont grandes. Des grappes sont alors tirées des strates selon la
technique d’échantillonnage aléatoire simple. La base de sondage est
constituée bien sûr par les grappes et les fractions de sondage peuvent
être identiques ou non dans les strates.

Un problème supplémentaire peut se poser : celui de l’inégalité de la


taille des grappes.

Lorsque les grappes sont d’importance comparable, c’est à dire


qu’elles contiennent environ le même nombre d’unités statistiques, le
tirage de grappes selon la technique aléatoire simple n’engendre
aucune difficulté particulière.
ϭϮϳ

Toutefois, si les grappes sont de taille différente, diverses solutions
sont possibles.

S’il existe de petites et de grosses grappes, on peut, avant de procéder


au sondage, subdiviser celles-ci pour former des grappes de taille
sensiblement égale.

On peut aussi stratifier les grappes sur leur effectif. On veut réaliser,
par exemple, un sondage en grappes pour mesurer un phénomène au
niveau des centres de santé d’une région donnée.

Les secteurs sanitaires qui constituent les unités de sondage sont des
grappes de centres de santé. Les secteurs sanitaires peuvent être
répartis en trois strates par exemple, selon qu’ils contiennent plus de
10, entre 5 et 10, et moins de 5 centres. Des secteurs sanitaires sont
ensuite tirés dans chaque strate et le phénomène étudié mesuré dans
tous les centres de santé des secteurs tirés.

La troisième possibilité consiste à tirer les grappes avec la même


probabilité mais la précision du sondage risque d’être mauvaise. En
tout cas, on conçoit aisément qu’il n’est pas judicieux de donner la
même probabilité de tirage à deux grappes dont le nombre d’unités
statistiques est disproportionné. Comme par exemple, deux communes
dont l’une compte 100000 habitants et l’autre 1000.

C’est pour cela que l’on adopte plus souvent la quatrième solution en
réalisant un tirage à probabilités inégales. On attribue à chaque grappe
une chance d’être tirée proportionnellement au nombre d’unités
statistiques qu’elle contient.

On peut, par exemple, tirer des districts proportionnellement à la taille


de leur population, des secteurs sanitaires au prorata de leur nombre
de centres de santé ou de lits d’hôpitaux, etc. Ainsi, on offre une
chance plus grande aux grosses grappes d’être tirées. Pour cela, on
emploie souvent la technique des « totaux cumulés » dont le principe
est exposé dans l’exemple suivant.
ϭϮϴ

On veut mesurer la prévalence des handicaps parmi la population
d’une commune de 95000 habitants. Puisqu’on a une liste de districts
de la commune avec le nombre correspondant d’habitants (les districts
sont des grappes d’habitants), on décide de réaliser un sondage en
grappes.

Les données sont disposées au tableau tronqué suivant (tableau 8.1).


La première colonne renferme les numéros des districts qui sont au
nombre de 101 (seuls les 10 premiers y figurent à titre d’illustration).
La deuxième colonne contient les effectifs d’habitants des différents
districts qui sont manifestement de taille différente.

Tableau 8.1 Disposition des données pour tirer de grappes


avec des probabilités proportionnelles à leur effectif
District Effectifs Numéros
habitants cumulés des individus
1 1094 1094 1 à 1094
2 645 1739 1095 à 1739
3 1218 2957 1740 à 2957
4 749 3706 2958 à 3706
5 603 4309 3707 à 4309
6 1010 5319 4310 à 5319
7 998 6317 5320 à 6317
8 1054 7371 6318 à 7371
9 712 8083 7372 à 8083
10 1124 9207 8084 à 9207
… … … …

C’est pour cela qu’on souhaite tirer ces districts avec des probabilités
proportionnelles à leur taille, c’est à dire respectivement à
(1094/95000 = 1.15%), (645/95000 = 0.7%), etc. La troisième colonne
contient les effectifs cumulés « moins de » correspondant à chaque
district. Dans la dernière colonne du tableau, on note les numéros des
individus qui forment des intervalles séparant les grappes.

ϭϮϵ

On tire autant de nombres que l’on désire de grappes, par exemple à
l’aide d’une table de nombres au hasard. Ces nombres doivent être
compris entre 1 et 95000. Si le premier numéro tiré est 06004, il
tombe dans l’intervalle (5320 à 6317) désignant ainsi le district n° 7.
Si le deuxième numéro est 00059, c’est la grappe n° 1 qui doit être
aussi tirée, etc.

Une grappe peut être tirée plusieurs fois. Selon que le tirage est
effectué avec ou sans remise, elle compte autant de fois qu’elle est
tirée dans le calcul ou n’est retenue qu’une seule fois (sections 3.1 et
3.2 subséquentes).

En pratique, on peut avoir intérêt à pratiquer une variété de tirage


systématique sur le numéro des individus. Dans l’exemple, il faut tirer
au sort un nombre compris entre 1 et 95000 à partir duquel on effectue
les prélèvements de pas d’échantillonnage en pas d’échantillonnage.

Le pas d’échantillonnage peut être obtenu simplement en divisant le


total des unités statistiques par le nombre de grappes à prélever. Si on
veut prélever 15 grappes, dans l’exemple, le pas d’échantillonnage
est : 95000/15 = 6333. Si le premier nombre aléatoire est 2200, le
district n° 3 est tiré, ainsi que district n° 10 (2200 + 6333 = 8533), etc.

10. Technique d’échantillonnage à deux degrés

Le sondage à deux degrés consiste à réaliser deux sondages distincts.


On constitue d’abord des grappes (si elles n’existent pas déjà
physiquement) et on tire un échantillon de ces grappes. C’est le
premier degré.

On établit la liste des unités statistiques des seules grappes tirées. On


tire un certain nombre d’unités statistiques dans chaque grappe
retenue par la technique d’échantillonnage aléatoire simple (ou la
technique de numérotage).

ϭϯϬ

Les unités statistiques tirées sont examinées et/ou interrogées selon le
protocole d’enquête. Cette étape constitue le deuxième degré.

On veut, par exemple, mener une étude sur les services hospitaliers en
Algérie. Au lieu de tirer un échantillon de services parmi la liste
exhaustive de tous les services hospitaliers en Algérie, on tire un
échantillon d’hôpitaux. Puis, dans chaque hôpital tiré, on prélève un
échantillon de services.

Les grappes qui participent au premier tirage sont appelées unités


primaires (UP). Les unités statistiques composant les grappes sont
appelées unités secondaires (US). Dans l’exemple précédent, les
hôpitaux sont les UP tandis que les services sont les US.

Le sondage en grappes est un cas particulier de sondage à deux


degrés. Le second degré, dans le sondage en grappes, consiste à
étudier l’ensemble des unités statistiques des grappes tirées.

Le sondage à deux degrés est une combinaison pratique du sondage en


grappes et du sondage élémentaire. La liste des US n’est indispensable
que pour les grappes tirées (cette opération peut cependant se révéler
difficile). Seul un échantillon d’unités secondaires est choisi de
chaque grappe tirée. En principe, il faut au moins deux unités
statistiques par grappe, mais, en général, on en prélève plus.

Pour atténuer l’effet de grappe, les UP (comme pour les grappes)


devraient être aussi semblables les unes aux autres. En outre,
l’hétérogénéité vis à vis du caractère étudié devrait être aussi grande
que possible à l’intérieur des UP.

S’il existe une grande disparité dans la taille des grappes, on peut les
tirer avec des probabilités inégales proportionnelles à leur taille en
utilisant la technique des totaux cumulés.

ϭϯϭ

On peut envisager, bien sûr, une technique d’échantillonnage à trois
degrés. On pourrait, par exemple, tirer des communes, ensuite des
écoles et enfin des classes.

La détermination des paramètres et de la précision du sondage


lorsqu’on utilise la technique d’échantillonnage par strates, par
grappes et à deux degrés est bien plus complexe par rapport au
sondage élémentaire. Ces aspects sont passés en revue dans les
ateliers pour éviter de longs calculs fastidieux.

11. Techniques d’échantillonnage non probabilistes

Les techniques d’échantillonnage exposées précédemment sont


considérées comme probabilistes (chaque élément de la population a
au départ une chance égale d’être choisi).

Il existe des techniques qui permettent de choisir des échantillons qui


risquent d’être moins représentatifs. Ces techniques sont qualifiées de
non-probabilistes car chaque élément de la population n’a pas une
chance égale d’être choisi.

Il en est ainsi des échantillons de convenance dont les éléments sont


choisis sur une base volontaire, des échantillons accidentels lorsque
les éléments sont incorporés dans l’échantillon au fur et à mesure
qu’ils se présentent (retenir les 10 premiers consultants d’une
consultation…).

Les échantillons par réseau sont choisis à travers des réseaux d’amitié
ou des réseaux sociaux…Un certain profil est recherché et des
personnes similaires sont incorporées dans l’échantillon.

Les échantillons par choix raisonné où le recrutement des sujets est


basé sur le jugement du chercheur par rapport à leur caractère typique
ou atypique permettent d’étudier des phénomènes rares.

ϭϯϮ

Les échantillons par quotas donnent des échantillons dont les sujets
sont choisis de façon non aléatoire à partir de strates découpant la
population-cible selon certaines caractéristiques et en respectant le
poids respectif de chaque strate. C’est une technique très utilisée dans
les sondages d’opinion qui peut permettre de donner une image fidèle
de la population. On pourrait ainsi étudier le phénomène des congés
scientifiques dans une faculté en fonction du grade des enseignants (si
la faculté compte 70% de maîtres-assistants, l’échantillon doit
comporter 70% de maitres-assistants.

ϭϯϯ

Chapitre 9

Etude cohorte et étude pronostique

1. Introduction

Les objectifs d’une étude ou d’une investigation épidémiologique sont


conditionnés aussi par la structure de cette étude ou de cette
investigation.

La structure de tout protocole de recherche peut être schématisée


comme suit : des sujets à l’état initial (EI) sont soumis à une
manœuvre (M) qui entraîne un changement et le passage à l’état
secondaire ou subséquent (ES) :

M
EI ----------------------→ ES ♦ (cible)

L’état initial des sujets qui vont participer à l’étude est, en règle
générale, très hétérogène. Cette hétérogénéité est à l’origine de
grandes difficultés d’interprétation des données recueillies.

La manœuvre est le facteur qui entraîne le passage de l’état initial à


l’état subséquent : déroulement du temps, exposition, consommation
d’un aliment, administration d’un vaccin ou d’un traitement...

La cible constitue l’intérêt principal de l’étude et est la variable que


l’on se propose de mesurer. Si la manœuvre a été l’administration
d’un vaccin, la cible peut être la variable « maladie » avec ses deux
modalités : malades, non malades.

En fonction de l’absence ou de la présence d’un groupe de


comparaison, une étude épidémiologique est descriptive ou
étiologique.
ϭϯϱ

Une étude descriptive n’implique qu’un seul groupe de sujets soumis à
l’effet d’une manœuvre principale.

Une étude étiologique (ou analytique) implique obligatoirement un


groupe de sujets soumis à une manœuvre principale et un autre groupe
de sujets soumis à une manœuvre comparative. Le but d’une étude
étiologique est de mettre en évidence les causes, ou, en termes moins
engageants, les facteurs de risque des maladies.

Les structures de base des études épidémiologiques : étude cohorte,


étude transversale, étude cas - témoins, peuvent être, soit descriptives,
soit étiologiques, à l’exception de l’étude cas - témoins qui est
toujours étiologique. Cependant, une étude cohorte ou une étude
transversale, sans autre qualificatif, désigne de plus en plus une étude
étiologique.

2. Structure d’une étude cohorte

Une cohorte est composée d’individus ayant en commun au moins une


caractéristique : travailleurs exposés à une certaine substance, groupe
de femmes enceintes, convives ayant partagé le même repas, groupe
de personnes suivies au cours du temps...

L’étude cohorte étiologique consiste à comparer deux groupes :

• un groupe exposé au facteur étudié et


• un groupe témoin non exposé à ce facteur.

Une étude cohorte est une étude d’observation : les deux groupes se
sont constitués d’eux mêmes. L’investigateur qui mène l’étude
n’intervient pas pour imposer la répartition entre ceux qui sont
exposés et ceux qui ne le sont pas.

ϭϯϲ

Une étude cohorte étiologique pourrait être schématisée par la figure
9.1.
Figure 9.1 Schéma d’une étude cohorte étiologique

Malades

• Exposés

Non malades

Malades

• Non exposés

Non malades

Les deux groupes sont suivis dans le temps pour détecter les nouveaux
cas de maladie ou d’autres événements (décès, récidives...). Les sujets
déjà malades à l’état initial sont éliminés de l’étude.

Il faut en effet s’assurer que la cible n’est pas présente à l’état initial,
auquel cas les sujets concernés doivent être exclus de la cohorte.
Ainsi, même les sujets atteints au stade infra-clinique doivent être
exclus si la cible est une maladie donnée.

L’étude cohorte étiologique présente un avantage méthodologique


important sur tous les autres types d’études en matière de causalité. En
cas de liaison entre la maladie et le facteur d’étude, on peut être
raisonnablement sûr que la cause hypothétique a précédé la maladie.
C’est là un critère majeur de causalité (chapitre 16, section 3).

Une étude cohorte peut être uniquement descriptive.

ϭϯϳ

On peut s’intéresser, par exemple, aux sujets chez qui une
chimioprophylaxie a été prescrite pour détecter la survenue éventuelle
d’une maladie.

L’indicateur de santé mesuré à l’occasion d’une étude cohorte est


l’incidence qui est définie comme le nombre de nouveaux cas d’une
affection donnée au cours d’une période de temps bien déterminée.

On peut aussi mesurer à l’occasion d’une étude cohorte un taux de


mortalité lorsque seuls les décès constituent le numérateur. Le taux de
mortalité a les mêmes expressions que celles du taux d’incidence,
seules les atteintes mortelles sont comptabilisées au numérateur tandis
que la population à risque ou les personnes-temps sont déterminées de
la même façon au dénominateur.

Si la proportion des sujets exposés dans la population générale est


faible (cas le plus fréquent), le risque de la maladie dans la population
et dans la cohorte des non exposés est pratiquement le même.

3. Cohorte fixe et cohorte dynamique

Une étude cohorte implique :

• soit une cohorte fixe (ou fermée) dans laquelle tous les sujets de la
cohorte sont inclus au début de l’étude, sans inclusion nouvelle au
delà ;

• soit une population dynamique (ou ouverte) caractérisée par la


venue de nouvelles recrues dans la cohorte, l’inclusion des sujets
se poursuit au fur et à mesure du déroulement du temps.

4. Cohorte prospective et cohorte historique

Une étude cohorte est généralement réalisée en suivant les sujets de la


cohorte au fur et à mesure du déroulement du temps : c’est l’étude
cohorte prolective ou étude cohorte prospective.
ϭϯϴ

Le suivi doit avoir une durée suffisamment longue pour détecter la
cible de l’étude (maladie).

On peut ainsi suivre deux groupes d’enfants. Les uns sont


approvisionnés par une eau de bonne qualité bactériologique (groupe
non exposé), les autres par une eau de mauvaise qualité (groupe
exposé). La cible de l’étude peut être la survenue d’une diarrhée.

Les taux d’incidence de la diarrhée dans les deux groupes peuvent être
ainsi comparés. L’eau de mauvaise qualité bactériologique pourrait
être incriminée dans la survenue de la diarrhée si l’incidence de celle-
ci est significativement plus élevée dans le groupe exposé.

L’étude cohorte peut aussi être réalisée en remontant dans le passé


lorsque l’investigateur l’aborde en fin de parcours parce que les sujets
de la cohorte sont déjà à l’état subséquent, c’est l’étude cohorte
rétrolective ou étude cohorte historique (ou encore étude cohorte
rétrospective).

Ainsi, à l’occasion d’une intoxication alimentaire ayant affecté les


malades d’un service d’un hôpital, on peut rechercher l’aliment
responsable en constituant à posteriori, pour chaque aliment
consommé, deux cohortes.

La cohorte des sujets qui ont consommé un aliment donné constitue le


groupe exposé. Le groupe non exposé est constitué par les sujets qui
n’ont pas consommé l’aliment en question. L’aliment à incriminer est
celui pour lequel la différence des taux d’attaque est la plus élevée
(chapitre ).

Une étude de cohorte historique ne garantit pas la fiabilité et la


validité des informations recueillies dans le passé, c’est là que réside
son inconvénient majeur.

Les études cohortes rétrospectives ont été surtout développées pour les
maladies avec une longue base d’induction comme les cancers.
ϭϯϵ

Dans une étude cohorte, la survenue éventuelle de plusieurs maladies,
en rapport avec le facteur de risque défini, peut toujours être étudiée.

L’étude cohorte (sauf pour l’étude cohorte rétrolective) n’envisage


habituellement qu’un seul facteur à la fois en raison de la répartition
précise entre exposés et non exposés au début de la période de suivi.

Cependant, même dans une étude cohorte prospective, il est tout à fait
possible d’envisager plusieurs facteurs à la fois.

La Framingham Heart Study dont la cohorte est constituée de la


population de cette ville a permis d’étudier la relation entre plusieurs
facteurs de risque (cholestérolémie, tabagisme, obésité, consommation
d’alcool) et les maladies cardio-vasculaires. Cette étude qui a débuté
en 1950 continue toujours.

En matière d’infections nosocomiales, on pourrait tout à fait


considérer une cohorte unique de patients hospitalisés dans un service
pendant une période donnée et dont les membres sont ensuite répartis
en catégories d’exposition à des facteurs différents en vue de mettre
en évidence des facteurs de risque.

Il importe de noter que si l’on désire étudier simultanément plusieurs


facteurs, le groupe défini comme non exposé est composé d’individus
ne présentant aucun des facteurs de risque que l’on se propose
d’évaluer.

5. Ressemblance des cohortes et son maintien

Les deux cohortes dans une étude étiologique devraient idéalement se


ressembler le plus possible en ce qui concerne toutes les autres
variables, sauf évidemment pour l’exposition.

Une telle ressemblance permettra d’incriminer le facteur d’exposition


en cas de différence significative entre les deux taux d’incidence des
deux cohortes comparées.
ϭϰϬ

Mais les individus constituant les deux cohortes vont être à priori
différents vis-à-vis de nombreuses variables autres que l’exposition.

Pour garantir un minimum de comparabilité entre les deux cohortes à


l’état initial, les sujets non exposés devraient :

• provenir de la même population que les sujets exposés pour


présenter une forte similitude avec le groupe exposé,
• être caractérisés par l’absence d’exposition au facteur
étudié, ou du moins par un niveau d’exposition
objectivement plus faible que celui du groupe exposé,
• avoir le même risque théorique que les sujets exposés de
développer la maladie s’ils étaient mis en contact avec le
facteur étudié.

On ne pourrait pas, dans l’étude de la relation entre la qualité de l’eau


et la diarrhée, choisir les sujets exposés parmi la population d’un
quartier pauvre et les sujets non exposés parmi la population d’un
quartier aisé situé à l’autre extrémité de la ville.

Les deux populations différeraient par une multitude d’autres facteurs


(classe sociale, état nutritionnel, autres composantes de
l’assainissement, facteurs inconnus ou mal cernés…) qui vont
perturber l’étude de la relation entre la qualité de l’eau et la diarrhée.

Pour beaucoup d’études cohortes étiologiques, il peut être utile de


disposer de plusieurs cohortes de comparaison, cela d’autant plus que
la cohorte de comparaison initialement retenue ne paraît pas
suffisamment proche de la cohorte principale pour permettre une
comparaison valable.

Deux possibilités sont offertes pour le choix du groupe des sujets non
exposés :

ϭϰϭ

• Groupe de référence interne à la cohorte unique dont fait partie
le groupe exposé, l’étude de cohorte est alors appelée
« cohorte avec référence interne » ; il en est ainsi de la cohorte
de médecins britanniques étudiée par Doll et Hill au début des
années 50 pour incriminer le rôle du tabac dans la mortalité par
cancer du poumon, ou encore, de la Framingham Heart Study
où les participants de la cohorte ont été répartis en catégories
identifiées par les quintiles d’exposition selon le taux de
cholestérol (les pressions systoliques et diastoliques furent
notées au départ en début d’étude).
• Groupe de référence externe à la cohorte du groupe exposé, ce
groupe peut être la population de la commune, de la région...

Les individus de la cohorte principale (exposés) et ceux de la cohorte


comparative (non exposés) doivent être évalués de façon identique en
termes d’atteinte de la cible (survenue de la maladie).

Un observateur qui ignore le statut d’exposition des sujets devrait


mesurer la cible avec des critères aussi objectifs que possible. Cette
procédure d’insu n’est pas directement applicable dans une étude
cohorte historique puisque le diagnostic de la maladie a été porté dans
le passé.

6. Etude pronostique

Une étude de pronostic estime, par le suivi d’un échantillon de sujets tout au
long de l’évolution d’une maladie, la probabilité de survenue (en utilisant
éventuellement les méthodes de survie décrites au chapitre ) d’événements
importants qui jalonnent l’histoire naturelle de la maladie comme certaines
complications à l’origine d’une prise en charge spécifique, le décès, la
guérison...

ϭϰϮ

La représentativité des sujets inclus dans une étude de pronostic (à défaut
d’une cohorte exhaustive) est un critère habituellement obligatoire
contrairement à une série de cas cliniques (ci-dessous).

Une étude de pronostic peut être une étude fondamentalement descriptive


mais elle est habituellement assimilée à une étude cohorte analytique avec
référence interne. La cohorte est une série de sujets ayant déjà contracté une
maladie et pour lesquels le rôle pronostique (risque de décès, d’aggravation,
de rechute…) de différents facteurs est étudié.

Les membres de la cohorte unique sont alors répartis en des catégories


d’exposition à des facteurs pronostiques dont la description minutieuse est
obligatoire. Ces facteurs qui permettent de prédire la survenue d’événements
importants sont aussi appelés marqueurs pronostiques tandis que d’autres
caractéristiques des sujets inclus peuvent être des facteurs de confusion qu’il
convient de neutraliser.

Le suivi des différents groupes doit être régulier et suffisamment long pour
permettre la détection de l’événement. La quantité de suivi (nombre de
personnes-temps) devrait être systématiquement déterminée pour estimer
l’incidence de l’événement (chapitre 6).

L’analyse d’une étude pronostique emprunte aussi bien à celle d’une étude
cohorte étiologique (atelier Biosta TGV et Open-epi) que celle d’une étude
diagnostique (chapitre ).

Si on assimile la survenue éventuelle de l’événement à un référentiel, il est


habituel, à l’occasion d’une étude de pronostic, de déterminer les indices de
validité interne et les indices de validité prédictive à partir d’un tableau de
contingence 2*2. Ainsi, la sensibilité est la proportion de la présence du
facteur pronostique parmi les malades chez lesquels l’événement est
survenu. Cette proportion peut-être remplacée par la densité d’incidence de
l’événement en prenant pour dénominateur la quantité de suivi des sujets qui
présentent le facteur. Par ailleurs, la valeur prédictive positive dépend de
l’incidence de l’événement parmi les malades de la cohorte unique.

ϭϰϯ

L’architecture d’une étude cas-témoins (comparaison de sujets qui
présentent l’événement à ceux qui ne le présentent pas vis-à-vis de facteurs
pronostiques) n’est habituellement pas utilisée pour identifier des facteurs
pronostiques à moins qu’elle ne soit emboîtée dans une cohorte exhaustive
clairement identifiée. Un tel schéma, s’il peut permettre de connaître
l’incidence de l’évènement parmi l’ensemble de la cohorte, ne permet pas
de déterminer l’incidence de l’événement dans le groupe de ceux qui
présentent le facteur ou dans celui de ceux qui ne le présentent pas.

En pratique clinique, une demande d’information d’ordre pronostique est


souvent exprimée après l’annonce d’un diagnostic. Des vérités « moyennes »
devraient alors être présentées en tenant en compte la variabilité individuelle
qui peut justifier des espoirs.

ϭϰϰ

Chapitre 10

Essai randomisé

1. Structure d’un essai randomisé

Un cas particulier de l’étude cohorte est l’essai thérapeutique


randomisé qui est une véritable expérience et est utilisé non pas pour
déterminer des facteurs de risque mais pour évaluer l’utilité de
traitements, de vaccins ou de toutes autres manœuvres préventives. La
répartition des sujets éligibles entre les différentes cohortes est
réalisée par un tirage au sort qui assure dès le départ la comparabilité
de celles-ci.

L’essai randomisé se distingue de l’étude cohorte par deux


caractéristiques essentielles :

• Les sujets éligibles de l’étude sont sélectionnés par tirage au


sort pour former la cohorte principale et la cohorte de
comparaison, on dit aussi que les sujets sont randomisés ;
• L’application des manœuvres (traitements, vaccins…) est
contrôlée directement par l’investigateur ou le chercheur en
charge de l’étude.

Le dessin (ou l’architecture) d’un essai randomisé peut être


schématisé comme suit :

Manœuvre Etat secondaire *


principale

Sujets éligibles * = cible ou critère de jugement


à l’état initial Z

Randomisation Manœuvre Etat secondaire*


comparative
ϭϰϱ

Un sujet devrait avoir la même probabilité de subir l’une ou l’autre
des manœuvres. Cela constitue le respect du principe d’ambivalence
qui justifie le tirage au sort.

La cible peut être mesurée par une densité d’incidence, un


pourcentage ou une moyenne. La comparaison de ces paramètres
s’effectue le plus souvent à l’aide d’un test statistique.

Les résultats de l’essai, s’il a été correctement réalisé, peuvent être


attribués à la manœuvre car le tirage au sort, qui répartit les différents
facteurs pronostiques de manière identique dans les deux groupes, a
constitué deux groupes comparables à l’état initial.

L’essai par l’utilisation d’un plan factoriel 2*2 peut vérifier deux
hypothèses en même temps pour réduire les problèmes de coût et
améliorer l’efficacité d’un essai randomisé. Les sujets éligibles sont
d’abord répartis par tirage au sort pour comparer un traitement A à un
traitement B (ou à un placebo) en vue de tester la première hypothèse.
Ensuite, après un nouveau tirage au sort dans chaque cohorte, un
traitement C est comparé à un traitement D (ou à un placebo) en vue
de tester la seconde hypothèse.

C’est par l’utilisation d’un plan factoriel 2*2 que l’utilité de l’aspirine
et du sulfinpyrazone dans la prévention des accidents cérébraux a été
évaluée. Cet essai a envisagé d’étudier l’efficacité :

• de l’aspirine,
• du sulfinpyrazone,
• de leur association.

L’essai a été réalisé chez des sujets ayant présenté des accidents
ischémiques cérébraux transitoires.

ϭϰϲ

Le dessin de l’essai peut être schématisé comme suit :

Sujets hommes ou femmes ayant eu au moins un épisode


transitoire ischémique cérébral dans les trois mois précédents
Randomisation

Aspirine Placebo d’aspirine

Sulfinpyrazone *
Placebo
de sulfinpyrazone *
Sulfinpyrazone *
Placebo
de sulfinpyrazone *
* Cible :
• Ischémie cérébrale transitoire
• Ictus cérébral
• décès

Ainsi, les sujets éligibles de l’étude furent soumis à l’un des quatre
régimes thérapeutiques suivants possibles : aspirine seul,
sulfinpyrazone seul, aspirine + sulfinpyrazone, ou deux placebos.

L’organisation d’un essai selon un plan factoriel permet d’étudier


l’interaction (chapitre ) entre les deux traitements.

Les résultats de l’essai ont été les suivants :

• l’aspirine a réduit le risque d’accidents ischémiques cérébraux


récidivants, d’ictus et de décès ;
• le sulfinpyrazone n’a pas d’utilité.

ϭϰϳ

La réalisation d’un essai randomisé est devenue obligatoire pour
démontrer l’efficacité de nouvelles interventions thérapeutiques ou
préventives. L’effet relatif de ces interventions est souvent faible ne
diminuant le risque de contracter la maladie que de 10 à 20% pour
ceux qui sont soumis à la nouvelle manœuvre mais peut être très
important sur le plan clinique ou celui de la santé publique lorsque la
mortalité ou la morbidité imputable sont considérées.

Une étude d’observation peut mettre difficilement en évidence un effet


relatif aussi faible d’autant plus qu’il faut compter avec l’intensité
générée par une confusion mal contrôlée.

Par ailleurs, un essai randomisé n’est jamais utilisé pour évaluer le


pronostic et est rarement utilisé pour évaluer un test diagnostique
(chapitre ).

On peut imaginer cependant que l’on puisse, par exemple, comparer


deux groupes de sujets constitués par tirage au sort pour effectuer chez
les uns une échographie et chez les autres une tomodensitométrie
(examen de référence). Il pourrait même être mieux indiqué de
comparer les examens en les réalisant chez un même sujet selon le
dessin d’une étude randomisée en cross-over : chaque sujet étant son
propre témoin. Une forte comparabilité des groupes contrôle et traité
est ainsi assurée puisque ce sont les mêmes patients que l’on retrouve
dans ces deux groupes. Seule une variabilité intra-patient subsiste
mais elle est bien plus faible que la variabilité inter-patient qui
n’intervient plus dans ce schéma.

2. Substituts au tirage au sort

Les autres méthodes proposées pour remplacer le tirage au sort, qui


peut paraître comme une solution brutale, sont incorrectes car elles
introduisent un biais susceptible d’entraver la validité des résultats de
l’étude.

ϭϰϴ

Ces méthodes sont au nombre de huit :

• Méthode des témoins historiques ou approche historique : cette méthode


repose sur l’idée que les malades sont comparables d’une époque à une
autre. En fait, l’amélioration des conditions diagnostiques et les
modifications des contextes hospitaliers aboutissent à la constitution de
groupes non comparables.
• Comparaison des malades de deux hôpitaux ou approche géographique :
les malades peuvent différer de façon considérable d’un hôpital à un
autre.
• Observation simple ou approche systématique : les groupes comparés
risquent fort de n’être pas comparables, la diversité thérapeutique traduit
une diversité initiale même en présence d’un dossier médical
informatisé. Cette approche doit faire l’objet de plus de méfiance.
• Cohorte de comparaison constituée par les sujets refusant la manœuvre :
le refus peut être dicté par des raisons sociales, psychologiques ou
médicales liées au traitement.
• Répartition systématique : la distribution des malades dans chaque
cohorte est réalisée par un moyen alphabétique, par la date de
naissance… Cette technique peut être plus compliquée que le tirage au
sort, n’offre aucune garantie éthique et recèle des biais.
• Techniques adaptatives : la distribution des sujets dans l’une ou l’autre
des deux cohortes est fonction des résultats par l’accumulation des cas.
Le plus grand nombre possible de malades est affecté au traitement le
plus efficace en administrant toujours le même traitement tant qu’un
échec ne survient pas (play the winner ». La qualité éthique est en réalité
plus apparente que réelle.
• Essai thérapeutique non contrôlé ou essai simple : la manœuvre
comparative n’existe pas, aucune conclusion ferme ne peut être énoncée
mais des hypothèses peuvent éventuellement être suggérées.
• Techniques d’appariement (matching) : des paires de sujets aussi
identiques que possible à l’état initial sont constituées. Cet appariement
ne peut s’effectuer que pour des variables connues. C’est la seule
technique qui présente néanmoins quelque intérêt surtout lorsqu’on a
affaire à des groupes de sujets qu’on répartit entre la cohorte de la
manœuvre principale et celle de la manœuvre comparative.

ϭϰϵ

3. Echantillonnage dans une expérimentation

Le choix de la population dépend de la nature des interventions qui


peuvent être des méthodes de prévention primaire (empêcher la
survenue de la maladie) ou des méthodes de prévention secondaire
(traitement des maladies) et tertiaire (réduction des séquelles). Les
populations peuvent selon le cas être définies sur des bases
administratives, professionnelles ou recrutées dans des organismes de
soins.

Par ailleurs, les essais peuvent porter sur des individus ou des groupes
d’individus appelés unités collectives.

Il est en effet parfois plus commode que la cohorte de la manœuvre


principale et celle de la manœuvre comparative ne soient pas
composées d’individus mais de groupes entiers. Mais il faut
évidemment s’assurer que les deux cohortes ne diffèrent pas par des
caractéristiques inégalement réparties d’une cohorte à l’autre.

On peut, par exemple, attribuer la population d’une école (ou d’un


quartier) à une cohorte et celle d’une autre école (ou d’un autre
quartier) à une autre cohorte en vue de la réalisation d’un essai sur un
vaccin.

Il est plus sûr cependant de disposer de plusieurs paires de groupes et


d’attribuer les groupes de chaque paire au hasard à la cohorte
principale et à la cohorte comparative.

Le choix d’unités collectives est obligatoire lorsque :

• Les interventions sont appliquées de façon collective (effet sur


la fréquence des caries dentaires par la fluoration de l’eau,
campagnes d’éducation sanitaire réalisées par la voie des
media…) ;

ϭϱϬ

• Les interventions appliquées de façon individuelle peuvent
avoir un effet collectif (comme la réalisation d’un essai de
vaccin par la répartition aléatoire d’habitants de villages en
deux groupes car l’incidence de la maladie peut diminuer non
seulement dans le groupe des sujets vaccinés mais aussi dans
le groupe des sujets non vaccinés protégés par l’augmentation
du nombre de sujets immunisés…) ;
• Certaines interventions engendrent des phénomènes de
contamination (réactions inattendues de sujets de la cohorte de
comparaison qui peuvent suivre le régime prescrit aux sujets
de la cohorte principale…).

La définition des unités collectives peut être fondée sur des


caractéristiques géographiques, professionnelles ou sanitaires.

Ces unités peuvent être de nature extrêmement variée :

• Petites unités nombreuses et relativement homogènes, leur


randomisation en deux groupes ne pose pas de problèmes
particuliers ;

• Unités collectives de grandes dimensions très différentes entre


elles. Pour pallier cet inconvénient, des strates homogènes
peuvent être constituées et à l’intérieur desquelles les unités
sont réparties en deux groupes par tirage au sort. Si le nombre
d’unités est faible, des paires peuvent être éventuellement
constituées pour lesquelles l’appartenance à l’une des deux
cohortes est déterminée par tirage au sort.

ϭϱϭ

4. Modalités pratiques de tirage au sort

Le tirage au sort doit être effectué le plus tard possible après


l’inclusion du malade dans l’essai juste avant de commencer le
traitement. Le système de randomisation doit être disponible au
moment où se présente un malade.

Il s’agit de constituer à partir d’un groupe donné deux cohortes


soumises à deux manœuvres différentes si on veut, par exemple,
comparer un traitement A à un traitement B. Le système le plus
simple est celui des enveloppes cachetées classées dans un ordre
chronologique (malade n°1, malade n°2, etc.) dans lesquelles sont
contenues les exigences du traitement A ou du traitement B. Ces
exigences sont préalablement randomisées grâce à l’utilisation d’une
table de nombres au hasard.

Pour effectuer la randomisation, deux techniques sont possibles :


tirage au sort simple et raffinement.

Le tirage au sort simple consiste à utiliser une seule colonne de la liste


des nombres au hasard (table statistique 4). Les chiffres 0, 1, 2, 3, 4
peuvent être attribués aux sujets de la cohorte A et les chiffres 5, 6, 7,
8, 9 sont attribués aux sujets de la cohorte B. Le premier chiffre est
désigné au hasard dans la colonne. S’il s’agit d’un 8 par exemple, la
première enveloppe doit contenir les exigences relatives au traitement
B. Si le chiffre suivant est 2, l’enveloppe correspondante doit contenir
Les instructions du traitement A et ainsi de suite.

On peut généraliser aisément à plus de deux traitements. Pour trois


traitements A, B, C, on peut établir la correspondance suivante : 0, 3,
6 sont attribués à A ; 1, 4, 7 peuvent désigner B et 2, 5, 8 sont
attribués à C. Le chiffre 9 est tout simplement ignoré.

Si le rapport de randomisation est de 2/1 en faveur d’un traitement, les


chiffres 0, 1, 2, 3, 4, 5 peuvent désigner A tandis que les chiffres 6, 7,
8 sont attribués à B (le chiffre 9 est ignoré).
ϭϱϮ

Le tirage au sort simple aboutit à des effectifs à peu près égaux, mais
des inégalités restent possibles surtout si les effectifs sont faibles.

Le raffinement, ou tirage au sort équilibré, permet d’assurer l’égalité


numérique des cohortes subissant chacune une des manœuvres de
l’essai. Le raffinement sur le groupe total et le raffinement par séries
sont les techniques utilisées pour réaliser l’équilibrage des cohortes.

Le raffinement sur le groupe total est effectué si l’essai est conduit


dans un seul centre et si l’effectif total des sujets éligibles est
déterminé d’emblée. Pour répartir de façon équilibrée un groupe de 50
patients (numérotés de 00 à 49) en deux cohortes comprenant chacune
25 sujets, on utilise deux colonnes de la table des nombres
randomisés. Les 25 premiers chiffres seront associés, par exemple, au
traitement A tandis que les 25 suivants désigneront le traitement B (les
chiffres 50 à 99 sont ignorés).

Le raffinement par séries est la technique usuelle, il est toujours


effectué dans les essais randomisés multicentriques impliquant
plusieurs centres.

Pour deux traitements, l’équilibrage est réalisé par séries de 4, 6, 8 ou


10 patients. Le nombre usuel de malades dans une série est de 6. A
cette fin, on utilise une table de permutations au hasard à 6 éléments
(en annexe de ce chapitre).

On lit au hasard (en fermant les yeux et en pointant un crayon) une


première permutation, suite de six chiffres de 1 à 6.

Cette suite peut être, par exemple, 246315. Si les chiffres 1, 2, 3 sont
associés au traitement A et les chiffres 4, 5, 6 au traitement B, on
obtient la séquence ABBAAB qui détermine le contenu des six
premières enveloppes de randomisation. Les permutations suivantes
de la table, lues dans un sens quelconque, déterminent la suite du
tirage au sort.

ϭϱϯ

Dans un essai comparant trois traitements, on peut désigner le
traitement A par les chiffres 1 et 2, le traitement B par les chiffres 3 et
4 et le traitement C par les chiffres 5 et 6. Si le rapport de
randomisation est 2/1, le traitement A peut être associé aux chiffres 1,
2, 3, 4 et le traitement B aux chiffres 5 et 6.

Si l’essai est multicentrique, le plus simple est d’établir une liste pour
un centre et de reprendre la même liste pour les autres centres en
commençant par une autre suite, quitte à revenir au début si la liste est
insuffisante.

5. Elaboration d’un protocole d’essai randomisé

Un essai randomisé obéit aux mêmes règles qui régissent la réalisation


de toute étude épidémiologique (chapitre 24). C’est ainsi que le
protocole guide l’exécution de l’essai et assure à tous les participants
une exécution identique de ses différentes phases.

Le protocole d’un essai comporte obligatoirement :

• la définition de la maladie,
• la définition des malades,
• la définition des manœuvres,
• le choix et la définition des cibles.

Toutes les précautions relatives à la définition de la maladie, des


malades et des manœuvres ont pour but d’assurer la comparabilité et
l‘homogénéité des cohortes tout au long de l’essai.

Il convient, en matière de cibles, de retenir le moins possible de


critères et seulement ceux utilisables avec profit au moment de
l’analyse. Un critère très utilisé est le délai d’apparition d’un
événement.

ϭϱϰ

Dans tous les cas, les critères retenus doivent tendre vers l’objectivité
(examen bactériologique…) mais certains critères restent
essentiellement subjectifs (appréciation de l’intensité d’une
douleur...).

Les techniques à l’aveugle sont susceptibles de réduire cette


subjectivité.

Le résultat du travail d’élaboration du protocole se concrétise par trois


documents :

• le protocole proprement dit ;

• le questionnaire d’enregistrement avec cinq grandes


rubriques :

o renseignements généraux et identification ;


o description du malade et de la maladie ;
o facteurs éventuellement pronostiques ;
o description des traitements reçus ;
o cibles.

• la liste d’enregistrement des exclus.

La valeur des conclusions de l’étude dépend en grande partie de la


qualité du protocole et de son application. Aucune analyse statistique
ne peut pallier les insuffisances d’un protocole.

6. Analyse des résultats

L’analyse d’un essai randomisé est la comparaison des résultats,


obtenus dans les cohortes, des critères de jugement retenus dans le
protocole (comparaison de pourcentages, de densités d’incidence, de
moyennes).

ϭϱϱ

Une étape obligatoire dans cette analyse est la description des sujets
inclus :

• description des caractéristiques des sujets ;


• description des écarts au protocole.

Les caractéristiques des sujets inclus, les traitements administrés, les


modalités de détection des cibles doivent être en principe l’exact reflet
de ce qui est exigé dans le protocole.

L’existence d’écarts au protocole est cependant inévitable en


pratique : sujets inclus à tort, écarts au protocole de traitement, perdus
de vue.

Un biais survient à chaque fois que les erreurs d’inclusion, les écarts
au protocole ou les perdus de vue sont liés au traitement.

Les sujets inclus à tort ne vérifient pas les critères d’inclusion. Si les
erreurs d’inclusion ne sont pas liées à la manœuvre, les sujets inclus à
tort peuvent être exclus au moment de l’analyse car l’atteinte des
cibles pour les deux cohortes ne s’en trouvera pas affectée.

Par contre, si les erreurs d’inclusion sont en relation avec le


traitement, l’exclusion de l’analyse des sujets inclus à tort devient une
opération illicite et un biais de sélection survient. Il vaut mieux alors
apporter des modifications au protocole de l’essai que d’opérer des
exclusions illicites au moment de l’analyse.

Les écarts au protocole concernent les sujets qui n’ont pas respecté les
conditions d’administration de la manœuvre telles qu’elles ont été
définies dans le protocole. Si les écarts au protocole dépendent du
traitement, un biais d’information survient.

Dans la plupart des cas, les écarts au protocole de traitement ne sont


pas dus à des raisons identiques dans les deux cohortes.

ϭϱϲ

Si l’un des deux traitements entraîne des effets indésirables sévères,
les deux groupes seront ainsi déséquilibrés étant donné que les
malades qui ont reçu un tel traitement seront plus nombreux à
l’abandonner par rapport à ceux qui ont reçu l’autre traitement. Dans
de telles conditions, l’exclusion de la comparaison finale de malades
dont la manœuvre s’écarte trop de celle qui leur a été attribuée est une
attitude erronée et illicite. D’une cohorte à une autre, les malades qui
s’écartent de leur traitement peuvent avoir une attitude si différente
vis-à-vis de l’atteinte des cibles qu’une comparaison effectuée sur les
seuls malades restants sera lourdement biaisée.

L’analyse des résultats doit toujours se faire en intention de traiter,


avec tous les malades déclarés bons pour l’essai et inclus dans l’essai
tels qu’ils ont été affectés par tirage au sort. L’analyse par traitement
réellement reçu (analyse per-protocole) doit toujours être prudente
sinon rejetée si ses résultats ne coïncident pas avec ceux de l’analyse
en intention de traiter.

L’analyse en intention de traiter n’augmente pas le risque Į. Par


contre, le risque ȕ augmente et engendre une perte de puissance de
l’étude. La probabilité de ne pas mettre en évidence une différence qui
existe réellement augmente évidemment lorsque les sujets changent de
groupe.

Dans certains cas, le nombre de ces écarts a une importance telle qu’il
conduira à mettre en doute l’applicabilité du protocole et la possibilité
d’une analyse à moins de reformuler les objectifs de manière
pertinente.

Les perdus de vue sont les sujets pour lesquels le résultat de la cible
n’a pu être obtenu. Les perdus de vue ne pouvant être pris en compte
dans l’analyse, le test statistique est moins puissant que celui
initialement prévu et un biais de répartition peut survenir.

ϭϱϳ

Dans les essais où la cible est le délai d’apparition d’un événement,
les perdus de vue sont pris en compte jusqu’au moment de leur
disparition grâce aux méthodes de survie (chapitre 22).

L’analyse d’un essai est effectuée le plus souvent lorsqu’on dispose du


résultat de la cible pour le nombre de sujets nécessaire déterminé dans
le protocole (analyse en fin d’essai).

La comparaison doit :

• porter sur les critères de jugement définis dans le protocole ;


• comparer les « bons groupes », c'est-à-dire sans exclusion
illicite ;
• déterminer les mesures d’association statistique et
épidémiologique appropriées.

Sans attendre le résultat de la cible pour tous les sujets de l’essai, une
analyse intermédiaire peut être réalisée. Une analyse intermédiaire est
toute analyse effectuée avant le recueil du résultat de la cible pour le
nombre de sujets nécessaire déterminé dans le protocole.

Il est d’usage d’apprécier la comparabilité des groupes de l’essai et le


maintien de cette comparabilité tout au long de l’essai (depuis
l’inclusion des patients jusqu’à l’analyse en passant par la
randomisation, l’attribution des manœuvres et le suivi) par un
organigramme appelé diagramme de flux (flowchart).

Le diagramme de la grille Consort peut facilement être téléchargé


(chapitre 25). La figure suivante est le diagramme de la grille
Consort dont la référence est : Altman DG et al for the Consort
Group : The revised Consort statement for reporting randomized trials.
Ann Int med. 2011 ; 134 : 663-674 (traduction française Brindel P –
2006).

ϭϱϴ

Diagramme de la grille Consort

ϭϱϵ

7. Analyse intermédiaire

Une analyse intermédiaire peut se justifier pour de multiples raisons


liées en fait plus ou moins directement à la durée de l’essai :

• stimulation des participants ;


• attitude thérapeutique à adopter envers les malades se
présentant alors que l’inclusion dans l’essai est terminée ;
• raisons éthiques ;
• vérification de la valeur des paramètres utilisés pour
déterminer le nombre de sujets nécessaire.

Cependant, il ne peut être question de procéder à des analyses répétées


sans prendre en compte le fait que le risque Į augmente avec le
nombre de tests réalisés.

Pour un seuil Į acceptable retenu, la probabilité qu’une étude conclut


à l’absence de différence significative, c'est-à-dire à une absence
d’effet dans la population, est égale à (1 – Į) élevé à une puissance
égale au nombre de tests effectués. Au seuil classique de 5%, la
probabilité de conclure à une différence non significative est de 95%.
Celle-ci passe à 77% quand on effectue 5 tests et à seulement 36%
lorsque 20 tests sont effectués.

On peut utiliser au lieu de Į, d’après la combinaison proposée par


Bonferroni, un seuil égal à Į/t, où t correspond au nombre de tests,
pour rejeter l’hypothèse nulle et donc de conclure à une présence
d’effet dans la population.

En matière d’essais randomisés, la combinaison de Bonferroni utilise


à chaque analyse intermédiaire et au moment de l’analyse finale un
seuil égal à Į/(i + 1), où i correspond au nombre d’analyses
intermédiaires prévues dans le protocole. L’analyse finale et les
analyses intermédiaires sont ainsi considérées comme équivalentes.

ϭϲϬ

En pratique, il est recommandé de prendre une petite valeur pour Į
pour les analyses intermédiaires (0.01 ou même 0.001 au lieu de 0.05)
car celles-ci ne peuvent que déceler un effet bien plus important que
celui prévu pour le calcul du nombre de sujets nécessaires.

Enfin, la neutralisation d’un facteur pronostic (stade de la maladie,


âge…) au niveau de l’analyse est possible et peut s’avérer nécessaire
pour comparer les cohortes de l’essai.

Cette neutralisation est effectuée par une technique d’ajustement qui


permet de prendre en compte un facteur pronostique dans un test
unique (chapitre 20, et atelier BiostaTgv et OpenEpi).

C’est grâce à cette technique d’ajustement qu’on n’a généralement pas


besoin de stratifier le tirage au sort en fonction des facteurs de
pronostic, cela d’autant plus que de grands échantillons sont
impliqués.

Cependant, un tirage au sort à l’intérieur des sous-groupes déterminés


par les modalités du facteur pronostique peut être indiqué pour une
étude intéressant de petits échantillons. Ce tirage au sort stratifié,
appelé aussi effet de bloc, augmente la comparabilité des groupes
traités.

Dans tous les cas, il n’est jamais indiqué de faire des analyses par sous
groupes. Une telle démarche peut être dangereuse et conduire à des
conclusions erronées.

Au terme de cette section, il est utile d’évoquer une méthodologie en


pleine expansion : l’essai d’équivalence ou de non infériorité pour
montrer, par exemple, que deux traitements sont équivalents.

L’absence de différence significative entre deux traitements, dans un


essai d’efficacité classique ou essai de supériorité, ne signifie en
aucun cas que les deux traitements sont équivalents ou identiques sauf
si on peut montrer que l’étude est très puissante.
ϭϲϭ

La conclusion prudente qu’il convient d’exprimer dans ce cas est qu’il
n’a pas été démontré que les deux traitements étaient d’efficacité
différente.

L’hypothèse nulle de l’essai d’équivalence est que les deux


traitements sont différents tandis que l’hypothèse alternative exprime
le fait qu’ils sont équivalents. Cet échange des hypothèses nulle et
alternative mène à une analyse statistique différente dans un essai
d’équivalence, notamment en ce qui concerne le calcul du nombre de
sujets nécessaire et l’exécution de tests statistiques spécifiques (tests
d’équivalence). L’essai d’équivalence nécessite des tailles
échantillonnales plus importantes.

L’essai d’équivalence est indiqué lorsqu’il n’est pas attendu de


supériorité thérapeutique mais une utilisation plus commode, une
simplification thérapeutique, un bénéfice individuel (qualité de vie,
tolérance…) ou collectif (coût…).

8. Ethique

Les problèmes éthiques, en matière d’essais randomisés, dominent


tous les autres. Les difficultés éthiques dépendent :

• de la gravité de la maladie ;
• du type de traitement proposé ;
• de la spécificité du traitement vis-à-vis de la maladie.

Le problème éthique est minimum si la maladie est bénigne, s’il existe


un traitement classique de cette maladie et si l’on veut tester les effets
symptomatiques de ce traitement.

Le problème éthique est maximum si la maladie est grave, s’il n’existe


jusqu’alors aucun traitement efficace et si l’on cherche à mettre en
évidence un traitement curatif.

ϭϲϮ

Des conventions internationales fixent des règles strictes en ce qui
concerne les recherches biomédicales portant sur l’être humain qui
sont plus ou moins respectées.

En santé communautaire, des populations considérables peuvent être


impliquées. Ce qui, du point de vue éthique, amplifie chaque erreur.


ϭϲϯ



Annexe : Table de permutation au hasard à 6 éléments

421536 154623 345162 513642 132654 324615


213564 124536 543216 364521 254631 452316
243516 143256 521643 235641 135246 531246
154623 635241 263541 642315 623514 132654
142635 134562 316425 514362 426135 241356
615243 126345 523614 156324 246315 541326
653412 425361 213645 523641 425361 126435
351624 156423 625431 245613 621345 641532
364215 461325 524361 216543 152346 651234
451326 162534 564231 263514 456213 264513
245361 456132 531246 563214 241563 435162
164253 432165 463152 126354 536142 213465
632514 321645 426153 451632 432165 462513
351642 314625 142635 653142 352146 536241
526341 215346 642315 142356 461325 153642
253164 132546 314526 263415 142635 614325
214365 561423 126534 523461 123564 352164
461532 423165 612453 436251 241635 615243
615324 632514 254163 235614 135642 324156
345162 426531 365124 362154 132465 531624

ϭϲϰ

Chapitre 11

Etude cas-témoins

1. Structure d’une étude cas-témoins

L’étude cas-témoins compare un groupe de cas (sujets atteints d’une


maladie bien déterminée) à un groupe de témoins (sujets non atteints
par la maladie des cas) vis à vis de l’exposition à un facteur.

La fréquence d’une maladie dans une étude cas-témoins ne peut pas


être estimée. Dans une étude cas témoins, on détermine deux
fréquences relatives qu’on compare :

• le pourcentage d’exposition au facteur chez les cas et


• le pourcentage d’exposition au facteur chez les témoins.

Le pourcentage d’exposition varie bien sûr de 0 à 1, il peut être


assimilé à la probabilité d’avoir été exposé dans le passé.

Alors que la maladie est la cible dans une étude cohorte, l’exposition
(modalités : exposé, non exposé) est la cible dans une étude cas
témoins.

Une étude cas-témoins est toujours étiologique, elle pourrait être


schématisée comme à la figure 11.1.

L’exposition, dans une étude cas-témoins, est souvent recherchée


rétrospectivement. Dans une étude cas-témoins emboîtée dans une
cohorte, l’information sur les facteurs d’exposition peut cependant
être recueillie au fur et à mesure pour les cas incidents.

L’étude cas-témoins est plus rapide à réaliser qu’une étude cohorte,


convient particulièrement à l’évaluation des maladies rares et des
maladies à longue période de latence.
ϭϲϱ

Figure 11.1 Schéma d’une étude cas-témoins

Exposés

• Cas
Non exposés

Exposés

• Témoins
Non exposés

L’étude cas témoins permet d’aborder simultanément l’investigation


de plusieurs facteurs d’exposition.

Cependant, l’étude cas-témoins ne convient pas pour l’évaluation


d’une exposition rare à moins d’être très fréquente chez les cas de
maladie. Une étude cas-témoins a ainsi pu être réalisée sur l’asbestose
et le mésothélium, le chlorure de vinyle et et l’angiosarcome
hépatique, le diéthylstiboestrol et le cancer du vagin. De telles études
sont caractérisées par une fraction étiologique du risque élevée
(Atelier Biosta TGV et OpenEpi).

Lorsque la maladie est rare, la fréquence de l’exposition parmi les


témoins est considérée comme proche de celle de la population
générale.

2. Choix des témoins

Le choix des témoins est toujours une question ardue.

La validité de l’étude cas-témoins est conditionnée par le fait que la


sélection des cas et des témoins doit être indépendante de l’exposition.
ϭϲϲ

Dans une étude cas-témoins, les témoins doivent, dans la mesure du
possible, provenir de la même population que les cas. Il importe que le
groupe des témoins soit comparable au groupe des sujets malades et
que toute exclusion ou restriction appliquée dans la sélection des cas
soit également appliquée dans la sélection des témoins. Il s’agit de
respecter le principe selon lequel les témoins doivent représenter la
population d’où proviennent les cas mais qui ne sont pas atteints du
problème de santé étudié.

L’étude cas-témoin réalisée au sein d’une cohorte illustre ce principe.


A partir d’une cohorte unique, les cas de maladie sont identifiés. Les
témoins sont issus de la même cohorte et peuvent, par exemple, être
tirés au sort.

Un sujet témoin acceptable provient donc de la même population


d’origine que les cas. La population d’origine, aussi bien celle des cas
que celle des témoins, doit impérativement être caractérisée d’après
des caractéristiques de personnes, de lieu, de temps (période de
sélection) et de possibilité d’exposition.

Il ne viendrait à l’idée de personne, à l’occasion de l’investigation


d’une toxi-infection alimentaire collective, de choisir des témoins en
dehors des convives qui ont pris le même repas (même population).

Dans une étude cas-témoins sur le cancer du sein et le tabagisme dans


une région où existerait un registre du cancer, les témoins idéaux
devraient être tirés au sort parmi l’ensemble des femmes de cette
région non atteintes de cancer de sein. On devrait toujours exclure un
groupe potentiel de témoins lorsque celui-ci n’a pas une distribution
du facteur de risque (fumeuses, non fumeuses) identique à celle de la
population générale. Toutes les femmes de ce groupe, qu’elles soient
fumeuses ou non fumeuses, ne devraient pas faire partie du groupe des
témoins.

ϭϲϳ

Si les cas sont choisis dans la communauté, les sources potentielles de
témoins peuvent être la famille, le voisinage, les collègues
professionnels, les amis.

L’emploi de témoins provenant de la population générale et ceux


provenant de groupes particuliers (parents, conjoints, amis, voisins…)
doit cependant être envisagé avec soin en fonction de l’hypothèse à
étudier.

Par exemple, dans une étude cas-témoins sur l’activité physique,


comme facteur de risque, et la maladie coronarienne, l’emploi de
témoins issus de la population générale recrutés à domicile peut
engendrer la constitution d’un groupe de sujets moins actifs, leur
probabilité d’être sélectionnés chez eux par les enquêteurs étant à
priori plus grande.

Des individus étroitement associés peuvent avoir la même


distribution pour certains facteurs de risque étudiés, comme les
habitudes alimentaires ou même tabagiques. Des membres de la
même famille, des amis qui auront alors tendance à avoir des
pourcentages d’exposition identiques à ceux des cas de maladie ne
vont pas constituer des témoins appropriés, la relation entre le facteur
de risque et la maladie risquant d’être occultée.

Par commodité, on peut opter pour le choix de témoins hospitalisés.


Auquel cas, ces témoins devraient avoir des caractéristiques aussi
proches que possible de celles de témoins idéaux.

Si les cas de maladie sont hospitalisés, la sélection de témoins


hospitalisés dans la même structure augmente la comparabilité avec
les cas vis-à-vis de la présence éventuelle de facteurs sélectifs
influençant le choix des sujets pour un hôpital donné, de la motivation
et de la connaissance de l’exposition et de ses conséquences.

ϭϲϴ

Cependant, l’emploi de témoins hospitalisés ne convient pas à toutes
les maladies. Un centre spécialisé réputé pour la prise en charge d’une
affection particulière est une bonne source de cas. Mais ces cas ont
peu de chances de ressembler à des témoins recrutés dans le même
centre, les cas pouvant provenir d’une aire géographique beaucoup
plus étendue et être d’un niveau socio-économique plus élevé.

L’inconvénient principal de l’emploi de témoins hospitalisés est leur


statut de malades différents d’individus en bonne santé pour leurs
antécédents d’exposition non représentatifs de ceux de la population
dont sont issus les cas. Les témoins hospitalisés peuvent ainsi avoir
plus tendance à fumer par rapport aux individus non hospitalisés.
L’emploi de malades hospitalisés comme témoins pour l’étude d’un
facteur de risque comme le tabagisme peut ne pas être approprié.

Par exemple, une étude cas-témoins sur le tabagisme et le cancer de la


vessie en milieu hospitalier peut occulter une relation entre ces deux
variables du fait de l’importance du tabagisme parmi les témoins
hospitalisés.

De même, une fausse association positive peut être décelée à


l’occasion d’une étude cas-témoins sur le café et le cancer de la vessie
parce que le pourcentage d’exposition au café peut être très faible chez
des sujets hospitalisés pour des affections chroniques, de tels patients
ayant tendance à boire moins de café que les sujets bien portants.

Par ailleurs, les malades atteints de maladies connues pour être


associées positivement ou négativement au facteur étudié doivent être
exclus du groupe témoin.

Par exemple, l’utilisation de patients atteints de bronchite comme


témoins dans une étude cas-témoins sur le tabagisme et le cancer du
poumon n’est pas adéquat. Cela aboutirait à masquer le rôle du
tabagisme en matière de genèse du cancer du poumon puisque le
tabagisme constitue un important facteur de risque pour beaucoup de
maladies respiratoires dont la bronchite.
ϭϲϵ

De même, l’emploi de femmes ayant utilisé à titre contraceptif des
diaphragmes vaginaux comme témoins dans une étude cas-témoins sur
les contraceptifs oraux et le cancer du col utérin n’est pas adéquat. On
sait, en effet, que l’utilisation de diaphragmes vaginaux contraceptifs
est associée à une diminution du risque du cancer du col.

Pour de nombreux facteurs d’exposition, notamment ceux liés au


mode de vie, on ne peut pas toujours garantir que le recrutement des
témoins n’est pas lié au facteur étudié.

Il peut alors être indiqué de constituer plusieurs groupes de témoins


avec à chaque fois un diagnostic différent et de comparer les résultats
observés.

Les cas de cancer du sein peuvent être comparés avec des femmes
hospitalisées en gynécologie pour une affection non cancéreuse, ou
admises dans un service d’urgences chirurgicales, ou des témoins
atteintes de cancers gynécologiques. Si le pourcentage d’exposition
chez les cas est nettement différent de celui des témoins, quel que soit
le groupe auquel ils appartiennent, la crédibilité d’une exposition
anormale chez les cas va s’en trouver renforcée.

Les sujets témoins doivent aussi avoir la même potentialité de


contracter la maladie des cas.

Dans l’étude de la relation entre la diarrhée et la qualité de l’eau, on


pourrait prendre comme témoins des enfants se présentant aux mêmes
consultations que les cas de diarrhée et qui seraient atteints
d’infections respiratoires aiguës. Celles-ci présentent un même degré
de gravité que les diarrhées et sont tout aussi fréquentes. Les
infections respiratoires aiguës, d’autre part, ne sont pas connues pour
être associées à la qualité de l’eau ou à celui de l’assainissement.

Les cas d’une étude cas-témoins peuvent être des cas incidents ou des
cas existants. Le choix de cas incidents est en principe préférable pour
éviter la survenue d’un biais de survie sélective.
ϭϳϬ

La question d’inclure les cas décédés peut être posée dans certains cas,
leur exclusion pouvant engendrer le même biais.

Il est tout aussi important que les cas inclus dans l’étude ne soient pas
sélectionnés par un niveau particulier d’exposition au facteur étudié.

Les procédés d’identification de la maladie des cas doivent être


suffisamment précis et détaillés pour que la fiabilité et la validité du
diagnostic soient assurées.

Si les critères d’inclusion des cas sont imprécis, des sujets ayant une
autre affection risquent d’être inclus à tort (erreur de classement). Ce
qui va estomper la différence entre les cas et les témoins qui devient
trop faible pour être décelée statistiquement (effet de dilution).

En l’absence de critères formels, comme un résultat anatomo-


pathologique, les cas peuvent toujours être classés en cas certains, en
cas probables ou en cas possibles.

L’existence d’une erreur de classement chez les cas peut alors être
soupçonnée si la différence entre les cas et les témoins est d’autant
plus intense que les cas sont des « cas certains ».

Si l’histoire naturelle d’une maladie évolue par étapes successives, il


peut être utile, pour identifier des facteurs de risque, de constituer
plusieurs groupes de cas correspondant chacun à l’une de ces étapes
(adénocarcinome du colon, du col…).

La multiplication et la diversification des lieux de recrutement pour


les cas peuvent être préférables au recrutement à partir d’une source
unique pour éviter d’identifier un facteur qui serait associé à cette
source et non pas à la maladie étudiée.

ϭϳϭ

Le plus souvent, les témoins ne sont pas tirés au sort à partir d’une
base de sondage. Celle-ci n’est habituellement pas disponible sauf
dans les études ambidirectionnelles qui sont appelées aussi études
emboîtées.

Dans une étude emboîtée, une population unique est définie au début
sans référence au facteur d’étude et est suivie pendant une période
donnée en vue de détecter les nouveaux cas de maladie.

Les nouveaux cas de maladie sont ensuite comparés en ce qui


concerne les facteurs d’étude avec un groupe de témoins tirés au sort à
partir de la même population.

L’appariement qui consiste à associer à chaque cas un ou plusieurs


témoins ayant les mêmes caractéristiques vis-à-vis du facteur ou des
facteurs que l’on veut neutraliser dès l’étape de la mise en place des
groupes à comparer ne semble indiqué que si ces facteurs sont des
caractères complexes (parenté, voisinage…) ou si le nombre de cas est
réduit (chapitre 21).

La mesure de l’exposition doit également être correctement décrite et


être aussi objective que possible pour en cerner la fiabilité et la
validité. La période de recherche de l’exposition devrait notamment
être suffisamment longue en fonction de la latence et de l’histoire
naturelle de la maladie.

Le procédé et la technique pour mesurer l’exposition doivent être


identiques pour les cas et pour les témoins, en insu si possible. Un
observateur qui ne sait pas si l’individu évalué est un cas ou un témoin
devrait même appliquer ou interpréter ce procédé et cette technique.

D’ailleurs, la première étape de l’analyse d’une étude cas-témoins


consiste à examiner la comparabilité des cas et des témoins pour en
relever les défauts.

ϭϳϮ

Chapitre 12

Etude transversale, structures incomplètes


et synthèse de littérature

1. Etude transversale

L’étude transversale, appelée aussi étude de prévalence, n’implique


pas de déroulement du temps et ne peut donc mesurer l’incidence
d’une maladie.

Cependant, même si chaque sujet de l’étude n’est vu qu’une seule


fois, la survenue des nouveaux cas de maladie peut être appréciée
grossièrement en interrogeant les sujets sur la date de début de la
maladie pour déterminer une incidence cumulée (annuelle,
mensuelle…) mais les erreurs de mesure dus à une mauvaise
mémorisation sont fréquentes.

Dans une étude transversale étiologique, on recueille simultanément


sur une population particulière à un moment donné (ou un échantillon
représentatif) l’information sur la maladie et l’exposition.
Une étude transversale débute sans la connaissance préalable du statut
de la maladie et de l’exposition et les évalue concomitamment en
cours d’étude.

Dans une étude transversale, l’état initial, la manœuvre et l’état


subséquent sont autant de cibles concomitantes.

Une étude transversale implique donc une sélection à partir d’une


population cible unique contrairement à une étude cas – témoins où
ces deux groupes sont sélectionnés ordinairement à partir de
populations séparées de cas et de témoins disponibles.

ϭϳϯ

Dans une étude cohorte historique, le statut de maladie et le statut
d’exposition sont déterminés aussi simultanément mais on était assuré
que les cas de maladie sont des cas incidents, ce qui permettait de
mesurer la fréquence de la maladie sous forme d’incidence.

L’indicateur de santé qui est mesuré à l’occasion d’une étude


transversale est la prévalence qui est définie comme le nombre de cas
d’une affection donnée dans une population à un moment donné du
temps (chapitre 6).

Ce moment correspond à l’ensemble de la période pendant laquelle


l’enquête est réalisée. Cette période devrait être courte, en tout cas
négligeable par rapport à la durée de la maladie. La prévalence devient
alors l’indicateur privilégié pour mesurer la fréquence des maladies
chroniques.

Les études transversales sont donc particulièrement utiles pour l’étude


des maladies relativement fréquentes dont la durée d’évolution est
longue (diabète, hypertension artérielle…). Mais une prévalence peut
toujours être déterminée pour des maladies dont l’évolution est moins
longue (infections nosocomiales actives dans les hôpitaux…).

En règle générale, les études transversales ne sont pas appropriées


pour l’étude de maladies de courte durée ou rares.

Pour procéder à des comparaisons entre les groupes, il faut ramener


les effectifs des cas observés aux effectifs de ces groupes pour obtenir
des taux de prévalence. Le taux de prévalence est une proportion
exprimée sans unité de temps.

Dans une étude transversale étiologique, l’analyse consiste à


comparer, comme une étude cohorte étiologique, les sujets exposés et
ceux non exposés. Mais au lieu de l’incidence, on détermine la
prévalence de la maladie dans chacun de ces deux groupes.

ϭϳϰ

De même, le diagnostic de la maladie devrait être établi en insu de
l’exposition du sujet. Concomitamment, la mesure de l’exposition
devrait être interprétée en insu du statut de la maladie.

L’étude transversale étiologique, par rapport à l’étude cas - témoins et


surtout l’étude cohorte, est de réalisation relativement facile.

On peut, par exemple, chercher à éclaircir, par une étude transversale,


la relation entre la consommation de phénacétine et la néphropathie
interstitielle.

Pour cela, 700 sujets hospitalisés et consommateurs d’analgésiques de


toute nature ont été inclus dans une étude. Tous ces sujets ont été
interrogés sur leur consommation éventuelle de phénacétine et on a
noté en même temps pour chacun d’entre eux l’existence éventuelle
d’un « dysfonctionnement rénal ».

Dans une étude transversale, l’investigateur ne sait pas si la cause


supposée a précédé effectivement la survenue de la maladie.

Dans notre exemple, on ne peut assurer que la néphropathie est une


conséquence de la consommation de la phénacétine. La néphropathie
peut être antérieure à la consommation de phénacétine. C’est là un
handicap majeur de l’étude transversale.

Une étude transversale peut être uniquement descrtiptive. Ainsi, on


pourrait s’intéresser uniquement, pour reprendre notre exemple, à
mesurer la prévalence de la néphropathie interstitielle chez les seuls
sujets consommateurs de phénacétine.

Cependant, le vocable d’étude transversale est habituellement associé


à une étude étiologique.

ϭϳϱ

2. Structures incomplètes

Une étude transversale descriptive ou une étude cohorte descriptive


peuvent être considérées comme des structures incomplètes dans le
sens où elles ne sont pas à visée étiologique.

D’autres structures incomplètes existent même si elles pourraient être


assimilées à des variétés particulières d’études transversales
descriptives : étude écologique, étude proportionnelle, étude de
grappe.

2.1 Etude écologique

Une étude écologique (ou corrélationnelle) utilise les données de


populations entières pour comparer la fréquence d’une maladie dans
différents groupes au cours d’une même période. Elle peut aussi
comparer la fréquence de la maladie dans la même population mais à
des périodes différentes.

L’étude écologique est caractérisée par un manque d’information sur


la distribution croisée entre le facteur et la maladie.

Par exemple, on a constaté que les habitants des régions


approvisionnées essentiellement en eau douce possédaient une
prévalence élevée d’affections cardio-vasculaires. Tandis que les
habitants des régions approvisionnées essentiellement en eau dure
avaient au contraire une prévalence d’affections cardio-vasculaire plus
faible.

Il s’agit là d’une étude écologique car on ne sait pas très bien si les
sujets porteurs d’affections cardio-vasculaires consomment
effectivement de l’eau douce.

ϭϳϲ

L’unité d’analyse dans une étude écologique est un groupe le plus
souvent défini sur une base géographique. L’étude écologique permet
de mesurer l’incidence, la prévalence ou la mortalité.

La vérification d’une hypothèse soulevée par une étude écologique


nécessite, en règle générale, la réalisation d’études étiologiques : étude
cas-témoins ou étude cohorte étiologique.

2.2 Etude proportionnelle

L’étude proportionnelle implique souvent les cas nouveaux d’une


maladie ou les décès pour lesquels l’information sur le facteur d’étude
est connue.

De simples fréquences relatives peuvent ainsi être calculées. Le fait de


s’intéresser au port de la ceinture de sécurité chez les automobilistes
décédés dans un accident de la circulation routière conduit à mettre en
place une étude proportionnelle. La proportion des automobilistes
décédés qui ne portaient pas la ceinture de sécurité pourrait ainsi être
déterminée.

2.3 Etude de grappe

Dans une étude de grappe, les cas de maladie peuvent être reliés à une
population définie mais aucune information sur le facteur d’exposition
n’est collectée. Mais le calcul de taux d’incidence, de prévalence ou
de mortalité est ordinairement possible.

Les cas peuvent être distribués dans l’espace (comparaisons


internationales, interrégionales…) ou dans le temps (étude de la
tendance temporelle, détermination de seuils épidémiques…).

On peut s’intéresser, par exemple, à comparer les taux d’incidence de


la fièvre typhoïde entre les différentes régions d’un pays.
ϭϳϳ

Il suffit de rapporter les cas de fièvre typhoïde pendant une période
donnée à la population à risque de chaque région. On peut aussi
s’intéresser à l’évolution temporelle des taux d’incidence annuels de
la fièvre typhoïde dans ces régions.

Dans le cadre des études de grappe, le constat d’un regroupement


apparent de cas d’une maladie à un endroit précis, désigné par le terme
d’agrégat ou de « cluster » en anglais, évoque l’existence d’un facteur
causal situé à proximité.

Mais il s’agit d’abord d’exclure, du point de vue statistique, le rôle du


hasard comme explication possible à ce regroupement de cas.

Les études ayant une structure incomplète n’empêchent pas


d’effectuer des comparaisons entre les groupes issus de la population
enquêtée. C’est ainsi que la mesure de la prévalence de l’asthme parmi
une population scolarisée peut permettre de comparer les prévalences
des deux sexes ou des différentes classes sociales.

2.4 Série de cas

Une série de cas (ou série de cas cliniques) est constituée d’individus
présentant des caractéristiques particulièrement intéressantes fixées
habituellement à posteriori.

Une série de cas cliniques est une étude descriptive qui pourrait être
assimilée à une variété particulière d’une étude transversale
descriptive et non pas à une étude cohorte descriptive parce que les
sujets de la série ne font pas l’objet d’un suivi systématisé.

Une série de cas cliniques peut fonctionner comme un système de


surveillance qui alerterait la communauté médicale sur une nouvelle
maladie ou sur de nouvelles manifestations. Les séries de cas peuvent
apporter des informations d’une importance cruciale.
ϭϳϴ

Des hypothèses étiologiques, thérapeutiques ou pronostiques
pourraient ainsi être formulées et faire l’objet d’une publication si les
arguments avancés sont suffisamment clairs et précis. La prudence
doit toujours caractériser les conclusions énoncées.

La fréquence de manifestations relatives à une série de cas cliniques


ne devrait pas être accompagnée par un intervalle de confiance sauf si
l’inclusion des cas dans la série est fondée sur un sondage. La
représentativité d’une série de cas d’une population cible clairement
identifiée est toujours souhaitée.

2.5 Etude avant/après et étude ici/ailleurs

Les études avant/après sont aussi quelquefois incluses parmi les


études cliniques lorsque leur matériel est constitué par des séries de
cas.

Les études avant/après et les études ici/ailleurs sont


fondamentalement des études descriptives même si elles peuvent être
assimilées à des études de causalité particulière. Ces études sont aussi
assimilées à des schémas semi-expérimentaux.

On pourrait ainsi mesurer la fréquence des caries dentaires avant et


après l’adjonction de fluor dans l’eau potable dans la même région ou
comparer deux villes dont l’une a bénéficié de l’adjonction de fluor
tandis que l’autre n’en a pas bénéficié.

On pourrait aussi s’appuyer sur un système de surveillance


d’infections nosocomiales pour évaluer l’introduction du lavage
systématique des mains du personnel soignant…

ϭϳϵ

De fait, les études avant/après peuvent être des études d’évaluation de
pratiques professionnelles et s’identifient alors à une démarche d’audit
clinique visant à améliorer la qualité des soins ou des autres actions de
santé avec les étapes essentielles suivantes :

• Définition du problème ;
• Etude des écarts entre pratiques de référence et pratiques
observées ;
• Elaboration d’actions d’amélioration ;
• Evaluation des actions d’amélioration par l’approche
avant/après.

Si l’action d’amélioration est originale, un essai randomisé serait


mieux indiqué pour apporter la preuve définitive de l’action élaborée.

3. Synthèse de littérature

Plusieurs techniques permettent de procéder à une synthèse de la


littérature : revue simple, revue systématique (ou critique), méta-
analyse.

L’analyse de décision, la synthèse des meilleures données disponibles


sont aussi considérées comme des techniques abordant la synthèse de
la littérature et font l’objet de développements constants.

Une revue simple est aussi appelée une revue narrative où l’auteur
écrit selon son bon vouloir. Les critères d’inclusion ou d’exclusion des
articles de la littérature ne sont pas explicités en l’absence de stratégie
de recherche systématique. Des études non incluses pourraient même
renverser la signification des résultats et affectent en règle générale la
validité des revues narratives.

ϭϴϬ

Par contre, une revue systématique (systematic review) obéit à une
interrogation explicite et globale de la littérature médicale. Outre le
fait que les objectifs et les critères de jugement sont clairement
définis, les articles de bases bibliographiques identifiées sont
recherchés de façon explicite, exhaustive et reproductible. Les critères
d’exclusion sont justifiés sur une base explicite (niveau de preuve,
langue, période...).

Les critères d’inclusion et d’exclusion d’une revue systématique


concernent essentiellement la population cible, les manœuvres
principales et comparatives évaluées ainsi que les implications pour la
pratique clinique. L’équation de recherche, par l’utilisation de la base
Medline par exemple, doit être mentionnée pour que le lecteur puisse
juger de l’exhaustivité de la population d’articles retenus et de son
impact sur la pratique.

La réalisation d’une grille de lecture des articles retenus (grille


générique ou grille selon la structure d’étude : chapitre sur la lecture
d’un article médical) en vue d’évaluer leur validité et la réalisation
d’un tableau de synthèse des résultats contribuent à faire des revues
systématiques des articles originaux à part entière.

Une méta-analyse est une démarche statistique combinant les résultats d'une
série d'études primaires et indépendantes. Les résultats sur un problème
donné provenant d’études distinctes considérées comme suffisamment
homogènes sont regroupés rigoureusement pour être analysées ensemble. La
méta-analyse permet une meilleure précision des mesures d’association
épidémiologique par l'augmentation du nombre de cas étudiés.

Cette démarche est largement utilisée pour l'interprétation globale d'études


cliniques parfois contradictoires. Elle permet aussi de détecter des biais
affectant les études analysées avant de généraliser les résultats ou de
déterminer les mesures d’association épidémiologiques au sein de sous-
groupes de la population.

ϭϴϭ

La méta-analyse peut néanmoins elle-même être sujette à un biais de
publication, les chercheurs pouvant avoir moins tendance à publier
une étude concluant à une absence de liaison. Le site suivant permet
d’en connaître bien plus sur les méta-analyses :
htpp://ims.cochrane.org/revman/download.
Un graphique en forêt ou un graphique en entonnoir sont souvent
utilisés pour représenter les résultats des revues systématiques ou des
méta-analyses (chapitre 5).

ϭϴϮ

Chapitre 13

Tailles échantillonnales et puissance dans une étude comparative

1. Tailles échantillonnales

La question du nombre de sujets nécessaire à inclure dans une étude


est une question de fond qui doit notamment spécifier la différence
intéressante qu’on souhaite démontrer. Cela implique une fine
connaissance du sujet et une très bonne compréhension des enjeux.

Quelle que soit la structure d’étude étiologique, ainsi que pour l’essai
randomisé, la détermination de la taille de deux groupes A et B à
comparer, avec autant de sujets dans les deux groupes, peut utiliser la
formule suivante :

N = nA = nB = (zĮ + z2ȕ)²/[2(arc sin¥PA – arc sin¥PB)²]

où PA et PB sont les deux proportions à comparer (la calculatrice étant


en mode radian)

En situation unilatérale, pour pouvoir travailler sur un nombre plus


réduit de sujets, on remplacera zĮ par z2Į.

Lorsque le critère de jugement est quantitatif (comparaison de


moyennes), on peut utiliser les formules suivantes pour déterminer le
nombre de sujets nécessaire :

• test unilatéral

n = nA = nB = (z2Į + z2ȕ)² * [2S²/D²]

ϭϴϯ

• test bilatéral

n = nA = nB = (zĮ + z2ȕ)² * [2S²/D²]


avec :

ƒ D : différence entre les moyennes qui mérite


d’être décelée,
ƒ S² : variance du critère de jugement supposée
identique dans les deux groupes,
ƒ Les écarts réduits z correspondant aux risques Į
et ȕ consentis sont lus directement dans la table
2 de l’écart réduit.

On peut aussi utiliser ces formules lorsque le critère de jugement est


qualitatif. Il suffit de remplacer S² par PQ (variance de la distribution
d’une variable qualitative dichotomique, section 2 du chapitre 3). Les
conditions de validité sont constamment : n • 5/D et : n • 5/(1-D).

Un essai de prévention des conséquences de l’immaturité pulmonaire


chez les nouveau-nés prématurés, c’est à dire de la détresse
respiratoire, par l’administration de surfactant (substance revêtant la
face interne des alvéoles pulmonaires qui facilite leur fonctionnement)
a été réalisé.

On veut calculer le nombre de sujets nécessaire sachant que le taux de


mortalité à 28 jours est de 50% en l’absence de traitement et que l’on
souhaite mettre en évidence une différence d’au moins 20% avec le
surfactant. Par ailleurs, on garantit des risques d’erreur Į = 5% et ȕ =
10%.

ϭϴϰ

La formulation de l’essai est unilatérale car on imagine difficilement
un éventuel effet nocif du surfactant d’où :

n = nA = nB = (z2Į + z2ȕ)² / [2(arc sin¥PB – arc sin¥PA)²]

= (1.645 + 1.282)²/2(0.991-0.785)² = 8.57/0.09

≈ 100 sujets par groupe

Les éléments du calcul sont :

z2α = z (10%) = 1.645; z2β = z(20%) = 1.282; arcsin√0.70 = 0.991;


arcsin√0.50 = 0.785 en privilégiant la modalité survie. Si on travaille
avec la modalité décès, arcsin√0.50 = 0.785 et arcsin√30 = 0.580 et le
nombre de sujets aurait été le même.

Si on utilise la formule pour un critère de jugement quantitatif :

n = nA = nB = (1.645 + 1.282)² * [2(0.5)²/0.2²] § 107 sujets par groupe.

On retrouve à peu près les mêmes résultats.

On désire maintenant comparer deux antitussifs en prenant comme


critère de jugement la durée de sédation de la toux exprimée en
heures. On peut admettre, par des études antérieures, que la durée de
la rémission de la toux en utilisant des produits de ce type est
distribuée normalement avec une moyenne de 12 heures et un écart
type de trois heures. On ne retiendra l’un de ces deux traitements que
s’il permet d’obtenir une durée de rémission de plus de trois heures
par rapport à l’autre. On veut calculer le nombre de sujets nécessaire
dans chaque groupe en fixant les risques d’erreur à 5%.

ϭϴϱ

Il s’agit de comparer les durées moyennes de sédation de la toux de
deux antitussifs A et B. Le critère de jugement est quantitatif, La
formulation est bilatérale. Les hypothèses à tester sont :

Ho : µA = µB

* H1 : «µA - µB«> 0
D’où :

n = nA = nB -= [(1.96 + 1.65)² * 2 * 3²] / 3²

= 26 sujets par groupe, soit 52 sujets en tout.

Si l’on désire déceler une différence minimale d’une heure, il faut :

n = nA = nB -= [(1.96 + 1.65)² * 2 * 3²] / 1²

= 234 sujets par groupe, soit 468 sujets en tout (facteur de


multiplication : 468/52 = 9).

Si l’on inclut une population hétérogène dans laquelle la variance de


la durée de sédation est doublée, il faut :

n = nA = nB -= [(1.96 + 1.65)² * 2 * 18] / 3²

= 52 sujets par groupe, soit 104 sujets en tout (facteur de


multiplication : 104/52 = 2).

Si on garantit les risques d’erreur α = 1% et β = 5%, le nombre de


sujets nécessaire est :

n = nA = nB -= [(2.58 + 1.65)² * 2 * 3²] / 3² = 36 sujets par groupe.

Puisque le risque consenti de première espèce est plus faible, le


nombre de sujets nécessaire est plus grand par rapport à la première
situation.
ϭϴϲ

On peut quelquefois d’emblée, lors de la préparation d’un protocole,
déséquilibrer les effectifs des groupes à comparer. Par exemple, dans
une étude cas témoins on peut décider de prendre, pour augmenter la
puissance de l’étude, quatre témoins pour un cas : k = 4. Si nA est le
nombre de cas, le nombre de témoins est nB = nA * k. Le nombre de
cas peut être donné par la formule :

nA =[(k + 1) / k] * (zĮ + z2ȕ)²/[4(arc sin¥PA – arc sin¥PB)²]

2. Puissance d’une étude

La puissance d’une étude comparative, complément à 1 de ȕ, lorsque


le nombre de sujets est connu, peut être tirée de la formule
précédente :

zĮ + z2ȕ = (arc sin¥PA – arc sin¥PB) / ¥(1/4nA + 1/4nB)

Le mieux est là aussi d’utiliser un logiciel (Atelier OpenEpi en


annexe).

Le calcul de la puissance d’une étude cohorte s’appuie sur les


éléments suivants :

• RR : risque relatif intéressant à détecter


• c : rapport exposés/non exposés (E/NE)
• 1 – Į : niveau de confiance
• TAne : proportion de la maladie chez les non exposés

Par exemple, le nombre de sujets exposés est de 250 avec un rapport


E/NE = 1. Si le RR intéressant à détecter est de 1.5, si TAne est de
22%, la puissance de l’étude, avec un risque d’erreur Į = 5%, est
donnée immédiatement par le logiciel :

ϭϴϳ

• 1 – ȕ = 75.8% pour c = 1
• 1 – ȕ = 84.7% pour c = 2
• 1 – ȕ = 87.5% pour c = 3
• 1 – ȕ = 88.8% pour c = 4
• 1 – ȕ = 89.5% pour c = 5

On voit que le gain de puissance est minime au-delà de trois sujets


exposés pour un sujet non exposé.

Le calcul de la puissance dans une étude cas-témoins s’appuie sur les


éléments suivants :

• OR intéressant à détecter
• c : rapport témoins / cas
• 1 – Į : niveau de confiance
• pt : proportion des exposés parmi les témoins

Par exemple, le nombre de cas est de 250 et le rapport c est de 1. Si


l’OR intéressant à détecter est de 1.8 et si la proportion des exposés
parmi les témoins est de 25%, la puissance de l’étude, avec un risque
d’erreur Į = 5%, est donnée immédiatement par le logiciel :

• 1 – ȕ = 85.4% pour c = 1
• 1 – ȕ = 94.4% pour c = 2
• 1 – ȕ = 96.8% pour c = 3
• 1 – ȕ = 97.7% pour c = 4
• 1 – ȕ = 98.2% pour c = 5

Là aussi, on voit que le gain de puissance est minime au-delà de c = 3.

ϭϴϴ

Le problème de la puissance peut être posé différemment en
cherchant, par exemple dans une étude cas-témoins, la valeur de l’OR
qui peut être mise en évidence avec une puissance de 80%
habituellement considérée comme acceptable.

Si, dans une étude, on trouve un OR non significatif entre deux


variables, on peut déterminer quel OR pourrait être déterminé avec
une puissance acceptable avec les mêmes échantillons de l’étude.

Par exemple, la fréquence de l’exposition chez les témoins (nB = 433)


est : PB = 75% et on veut mettre en évidence un OR = 1.5. Par
définition, l’OR est le rapport des deux cotes d’exposition :

OR = [PA / (1 – PA)] / [PB / (1 – PB)]

[PA / (1 – PA)] = OR * / [PB / (1 – PB)] = 1.5 (0.75/0.25)

PB = 0.82

PA et PB peuvent aussi être reliées par la relation suivante :

PA = (PB * OR) / [1 + PB (OR – 1)]

Par ailleurs, nA = 235. D’où :

zĮ + z2ȕ = (arc sin¥PA – arc sin¥PB) / ¥(1/4nA + 1/4nB)

La puissance de l’étude est donc de 56%.

Si on veut mettre en évidence un OR = 2, il faut seulement changer la


valeur de PB :

PB = (0.75 * 2) / [(1 + 0.75(2 – 1)] = 0.86

ϭϴϵ

En exécutant les mêmes calculs, la puissance de l’étude serait cette
fois-ci de 93%.

Ainsi, si l’OR vrai était de 2, il serait mis en évidence avec une très
bonne puissance (93%). On peut donc conclure avec un risque
d’erreur ȕ de 7% (1 - 93%) que la vraie valeur de l’OR mesurant
l’intensité de la relation entre les deux variables est égale à 2.

Le problème peut être posé de façon différente en déterminant la


valeur de l’OR qui peut être déterminée pour cette étude avec une
puissance convenable de 80%. La valeur de PB peut être déterminée
comme suit :

arc sin¥PA = arc sin¥PB + (zĮ + z2ȕ)*¥(1/4nA + 1/4nB)

= 1.047 + 2.802*¥[1/(4*235) + 1/( 4*433)] = 1.161

sin arc sin¥PA = PA = 0.84.

On en déduit la valeur de l’OR :

OR = [0.84/(1 – 0.84)] / [0.75/(1 – 0.75)] = 1.75

On peut donc conclure avec un risque d’erreur ȕ de 20% que la vraie


valeur de l’OR mesurant l’intensité de la relation entre les deux
variables est égale à 1.75.

Prenons un autre exemple. Le tableau 13.1 contient les données


relatives à la comparaison de deux traitements.

Tableau13.1 Comparaison de deux traitements A et B chez 100 malades


Traitement A Traitement B
Résultat Effectif % Effectif %
Succès 43 79.6 31 67.4
Echecs 11 20.4 15 32.6
Ensemble 54 100.0 46 100.0
ϭϵϬ

Ȥ² = 1.93 ; NS (p = 16%). Le pourcentage de succès avec A (79.6%)
n’est significativement pas différent de celui de B (67.4%). Le risque
relatif de succès, en considérant les sujets soumis au traitement B
comme le référentiel, est : RR = 79.6% / 67.4% = 1.18 (IC 95% : 0.93
– 1.51). Cependant, cette absence de différence peut être due à un
manque de puissance de l’étude. Le programme OpenEpi montre que
la puissance d’une telle étude est à peine de 28%.

Un résultat non significatif peut provenir d’une absence de relation


(hypothèse nulle vraie) ou d’un manque de puissance. On pense
d’autant à un manque de puissance que le risque relatif estimé est
grand

Avec les mêmes échantillons, on pourrait montrer que le RR qui


pourrait être détectée avec la puissance acceptable de 80%, avec la
même proportion de succès pour B, est de 1.3. On pourrait interpréter
ce résultat en exprimant que la vraie valeur du RR de succès associé
au traitement est égale à 1.3, cette conclusion étant émise avec un
risque d’erreur ȕ de 20%.

Pour une étude cohorte, la même formule pour déterminer la


puissance peut être utilisée. PA et PB sont alors les incidences
cumulées respectivement dans la cohorte exposée et dans la cohorte
non exposée (les incidences cumulées pourraient être estimées à partir
des densités d’incidence). Dans deux cohortes de 343 personnes
chacune, on veut déterminer la puissance de l’étude pour mettre en
évidence un risque relatif égal à 3 sachant que l’incidence cumulée de
la maladie dans le groupe non exposé est de 3%. Les éléments du
calcul sont les suivants :

PB * 3% ;PA = 9% (PB * 3) ; zĮ = 1.96 (situation bilatérale adoptée) ;


nA = nB = 343.

z2ȕ = 3.43 – 1.96 = 1.47


2ȕ = 14% (table 2 de l’écart réduit) ȕ = 7%

ϭϵϭ

Puissance = 1 – ȕ = 93%

Cette étude aurait une très bonne puissance pour détecter un risque
relatif égal à 3.

Lorsque z2ȕ est négatif, la probabilité ȕ est le complément à 1 de la


moitié de la probabilité lue dans la table 2 de l’écart réduit.

En cas de déséquilibre dans les effectifs des groupes à comparer, la


puissance d’une étude peut être déterminée par la formule suivante :

zĮ + z2ȕ = ¥[k / (k + 1)] * (arc sin¥PA – arc sin¥PB) / ¥(1/4nA)

ϭϵϮ

Chapitre 14

Association statistique entre deux variables

1. Méthode du test de l’hypothèse nulle

Il n’est pas difficile d’imaginer qu’une liaison entre deux variables


puisse être due au seul hasard. La différence entre les deux
pourcentages du tableau 14.1, par exemple, pourrait ainsi être
expliquée par le seul hasard.

Tableau 14.1 Données d’une étude cas - témoins sur la diarrhée


et la qualité de l’eau
Enfants Mauvaise qualité de l’eau
enquêtés Effectif %
Diarrhéiques 71 54 76.1
Non 105 55 52.4
diarrhéiques

La réalisation d’un test statistique (test de signification) selon la


méthode du test de l’hypothèse nulle donne la probabilité p que le
hasard puisse expliquer les résultats. La méthode du test de
l’hypothèse nulle permet de garder ou de rejeter l’hypothèse nulle
(Ho) qui est une hypothèse d’absence de relation entre deux variables
(ou absence de différence entre pourcentages, moyennes…).

Si la probabilité p donnée par le test statistique est inférieure ou égale


à un certain seuil, l’Ho est rejetée et la différence est dite significative.
Par contre, si p est supérieur au seuil, Ho n’est pas rejetée et la
différence est dite non significative. Lorsque le test est non
significatif, il ne convient pas d’affirmer que l’hypothèse nulle est
vraie car le manque de puissance éventuel de l’étude peut être à
l’origine d’un test non significatif (atelier OpenEpi).

ϭϵϯ

Lorsqu’on compare deux traitements, un test statistique non
significatif ne permet pas de conclure que les deux traitements sont
identiques mais on conclut plutôt qu’il n’a pas été démontré que les
deux traitements étaient d’efficacité différente. Une telle conclusion
est plus prudente.

Le seuil de signification noté α est habituellement fixé à 5%. Il s’agit d’une


convention très largement adoptée. Un seuil de 5% réduit à une proportion
acceptable le rôle du hasard puisque celui-ci ne va intervenir que dans 5 cas
sur 100 pour expliquer la différence observée. Le hasard peut alors être
considéré comme une explication improbable des résultats.

Bien sûr, on peut choisir un seuil de signification plus faible que 0.05,
par exemple 0.02 ou 0.01 ou même 10-5, etc., pour réduire encore plus
le rôle du hasard. Mais on s’expose à ne pas rejeter Ho et finalement à
ne pas conclure puisqu’on aura tendance à retenir constamment Ho, à
moins que la probabilité p donnée par le test ne soit elle même très
petite.

En tout cas, le rôle du hasard ne peut être éliminé totalement. Il faut


bien comprendre que le jugement se fonde sur une probabilité et
n’offre pas une sécurité absolue.

Qu’une hypothèse soit acceptée pour toujours est en contradiction


avec la démarche scientifique. On garantit à l’hypothèse nulle une
probabilité faible d’être rejetée (Į = 5%) si elle est vraie.

Que l’on rejette ou que l’on garde une hypothèse nulle, on prend le
risque de commettre un type d’erreur.

• L’erreur de type α est commise lorsque Ho est rejetée à tort. Cette


erreur peut être déterminée, c’est la probabilité p que le hasard
puisse expliquer les résultats.

ϭϵϰ

• L’erreur de type β est commise lorsque Ho est retenue de façon
injustifiée. L’erreur β est parfois exprimée par son complément à
100 qui est appelé puissance du test, celle-ci exprime la capacité
du test à mettre en évidence une différence qui existe réellement et
peut aussi être déterminée.

Il y a antagonisme entre les erreurs α et β qui sont aussi appelées


respectivement risque de première et de deuxième espèce. L’erreur β
est d’autant plus grande que le seuil de signification a été choisi petit.

Prenons comme exemple la comparaison de deux traitements, on veut


comparer la proportion de succès avec un traitement A (pA) à celle
obtenue avec un traitement B (pB). L’hypothèse nulle qui ne concerne
que les proportions des populations cibles d’où sont extraits les
échantillons pourrait s’écrire :

Ho : PA = PB.

Si on veut avoir une probabilité très faible d’adopter un traitement


sans effet (erreur α), la probabilité de laisser passer un traitement
efficace (erreur β) sera d’autant plus grande.

Si on suppose connaître la certitude (qui nous est inaccessible) à


propos de la véracité ou non de Ho, on peut résumer les concepts
relatifs aux erreurs α et β comme dans le tableau 14.2.

Tableau 14.2 Résumé des concepts relatifs aux erreurs α et β


Conclusions de l’étude Certitude (inaccessible)
Ho non vraie Ho vraie
Différence significative Conclusion correcte Erreur α
Différence non Erreur β Conclusion correcte
significative

ϭϵϱ

2. Comparaison de pourcentages

Le test du χ² (chi-deux ou khi-carré) permet de tester la relation entre


deux variables qualitatives. En d’autres termes, il permet de comparer
deux ou plusieurs pourcentages.

Le test du χ² s’applique à tous les tableaux de contingence (tableau


contenant les données de deux variables qualitatives) quel que soit le
nombre de modalités des deux variables qualitatives.

Le principe du test du Ȥ² consiste à calculer pour chacune des cases du


tableau de contingence l’écart quadratique (O -C)²/C et à en faire la
somme :

Ȥ² = Σ [(O - C)² / C].

Dans l’expression du Ȥ²,

• O est l’effectif observé de la case,


• C est l’effectif calculé (ou théorique) correspondant à la case et qui
devrait être observé si Ho était vraie (C = total ligne x total
colonne correspondant à la case / total général).

A côté du calcul du Ȥ², il faut déterminer le nombre de degrés de


libertés (dl) :

dl = (nombre de lignes - 1) (nombre de colonnes - 1)

La probabilité que le hasard puisse expliquer les résultats est donnée


par la table du Ȥ² (table 4) à la ligne identifiée par le dl. Au seuil de
signification 5%, les deux variables sont liées si p ≤ 5%.

Reprenons les données du tableau 4.1 (chapitre 4) pour tester la


relation entre la diarrhée et la qualité de l’eau. Le tableau 14.3 y ajoute
les effectifs calculés nécessaires au calcul du Ȥ².

ϭϵϲ

Tableau 14.3 Etude de la relation entre la diarrhée et la qualité de l’eau
Disposition des données pour le calcul du Ȥ²
Eau mauvaise Eau bonne Total
Diarrhéiques 54(44.0)* 17(27.0) 71
Non diarrhéiques 55(65.0) 50(40.0) 105
Total 109 67 176
*44.0 est l’effectif calculé correspondant à 54 (44= 109x71/176)

Les effectifs calculés doivent être supérieurs à 5 pour pouvoir calculer


le Ȥ² avec la formule donnée, ce qui est le cas avec notre exemple :

Ȥ² = (54-44)²/44 + (17-27)²/27 + (55-65)²/65 + (50-40)²/40 = 10.1 ;


dl = 1, p < 0.01.

La probabilité que le hasard puisse expliquer les résultats est donc


inférieure à 1%. La différence entre les deux pourcentages est donc
significative.

Autrement dit, en matière de sens (ou de direction) de la liaison, la


proportion de ceux qui disposent d’une eau de mauvaise qualité parmi
les enfants qui ont contracté une diarrhée est significativement
supérieure à celle des enfants qui n’ont pas contracté de diarrhée.

Il faut savoir que ce qui importe lors de l’exécution d’un test


statistique c’est le p (probabilité que le hasard puisse expliquer les
résultats). La valeur du Ȥ² ou de toute autre statistique peut même ne
pas être mentionnée dans un rapport contrairement à p qui doit
toujours être précisé si une liaison existe entre les deux variables.

Si le p a une valeur supérieure au seuil retenu, il suffit alors d’écrire


NS (non significatif). Cependant, il est généralement indiqué de
mentionner la valeur de p plutôt que de déclarer une différence non
significative surtout si p est proche du seuil de signification.

ϭϵϳ

Lorsque les conditions d’application du Ȥ² ne sont pas remplies, il est
toujours possible de déterminer, par l’utilisation d’autres variantes de
ce test, la probabilité p.

Les logiciels gratuits disponibles offrent cette possibilité et permettent


par ailleurs de tester la liaison entre deux variables quelle que soit la
nature de ces variables (atelier Biosta TGV et OpenEpi).

3. Test bilatéral et test unilatéral

3.1 Hypothèse alternative

La formulation de l’hypothèse nulle Ho devrait être accompagnée de


celle de l’hypothèse alternative (ou rivale). Reprenons notre exemple
sur la comparaison de deux traitements pour illustrer ce concept.

Rappelons que Ho s’écrit :


Ho : PA = PB.

Si PA est différent de PB, on peut alors écrire sous une forme abrégée :

PA ≠ PB ou PA < PB ou PA > PB.

L’hypothèse alternative, notée H1, est l’une ou l’autre de ces trois


hypothèses. L’adoption de l’hypothèse alternative a des implications
sur la décision finale comme cela est exposé ci-dessous. Bien sûr, au
lieu de pourcentages, on peut travailler avec des moyennes.

ϭϵϴ

3.2 Test bilatéral

Le test avec Ho : PA = PB et H1 : PA ≠ PB, où l’on s’intéresse à l’existence


d’une différence, quel que soit son signe, est appelé test bilatéral ou test à
deux issues.

Le test bilatéral est justifié lorsqu’il s’agit de détecter une différence quel
que soit le sens de celle-ci (exemple : traitement A meilleur que traitement B
ou B meilleur que A). Il convient d’adopter cette situation bilatérale dès
qu’on envisage la possibilité d’une différence dans un sens quelconque.

En cas de doute, il faut aussi adopter la situation bilatérale. Celle-ci est


d’ailleurs la plus commune, et sauf indication contraire, c’est elle qui
prévaudra.

La figure 14.1 illustre ce concept de situation bilatérale par


l’utilisation du test de l’écart réduit z. Le seuil de signification étant de
5%, nous avons deux zones de rejet de Ho aux deux extrémités avec
chacune 2.5%.

En d’autres termes, dès que z est égal ou supérieur à +1.96 ou dès


qu’il est égal ou inférieur à –1.96, on rejette Ho. Il suffit de dire qu’on
rejette Ho dès que z est supérieur à 1.96 en valeur absolue.

Figure 14.1 Test z bilatéral


Zone de rejet et de rétention de Ho

α/2 = 2.5% α/2 = 2.5%

Zone de rejet de Ho -1.96 0 +1.96 Zone de rejet de Ho

Zone de rétention de Ho

ϭϵϵ

3.3 Test unilatéral

Le test avec Ho : PA = PB et H1 : PA > PB ou le test avec Ho : PA = PB et


H1 : PA < PB où l’on s’intéresse exclusivement à mettre en évidence, si
elle existe, une différence dans un sens donné, soit PA - PB >0, soit PB –
PA >0, sont appelés tests unilatéraux ou tests à une issue.

Le terme « test unilatéral » provient du fait que la zone de rejet de Ho


se situe d’un seul côté.

La figure 9.2 illustre, toujours par l’emploi du test de l’écart réduit, le


concept de situation unilatérale.

Il n’existe plus, contrairement à la situation bilatérale, qu’une seule


zone de rejet de Ho. On rejette Ho dès que z est égal ou supérieur à
1.65, en valeur absolue, lorsque le seuil de signification est de 5%.

Pour trouver la valeur de z correspondant au seuil de signification à


partir de la table de l’écart réduit (table 1), il suffit de lui faire
correspondre le double de ce seuil puisque cette table est établie pour
la somme des risques à gauche et à droite.

Donc, si le seuil de signification est α, l’écart réduit z correspond à 2α


en situation unilatérale.

Inversement, si un test unilatéral donne à l’écart réduit une valeur z, il


faut diviser par deux la probabilité lue dans la table de l’écart réduit
pour trouver la probabilité p que le hasard puisse expliquer les
résultats.

Par exemple, si un test unilatéral donne z = 1.96, la probabilité p que


le hasard puisse expliquer les résultats est : 0.05/2 = 2.5%.


ϮϬϬ

Figure 14.2 Test z unilatéral
Zone de rejet et de rétention de Ho
N(0, 1)

α = 5%

0 1.64 z

Zone de rejet de Ho

Zone de rétention de Ho

Le test du Ȥ² est conçu comme un test bilatéral. La table du Ȥ² est


construite pour un test bilatéral (au seuil de signification 5%, la
différence est significative si p ” 5%). Pour un test unilatéral, la
valeur seuil du Ȥ² n’est plus de 3.84 mais de 2.71 qui est la valeur de la
loi du Ȥ² à un dl pour le risque 10%.

La justification d’un test unilatéral est quelquefois évidente lorsque


seul un sens déterminé importe pour l’investigateur.

L’investigateur peut adopter la situation unilatérale si, par exemple, il


n’est intéressé que par le fait qu’un nouveau traitement puisse être
meilleur à celui utilisé jusqu’ici.

Toutes choses étant égales par ailleurs, le test unilatéral donne une
plus grande puissance que le test bilatéral.

On a plus de chances de mettre en évidence une différence


significative avec un test unilatéral, celui-ci traduisant une hypothèse
moins large.

ϮϬϭ

4. Signification statistique et signification clinique

La probabilité p que le hasard puisse expliquer les résultats (donnée par les
tests de signification statistique) dépend en effet non seulement de l’ampleur
de la différence mais aussi des tailles échantillonnales.

C’est pour cela que la probabilité p ne doit pas être considérée comme
une panacée en mesure de valider rigoureusement et rapidement la
conclusion relative au rôle d’un facteur donné mais plutôt comme une
incitation à poursuivre la réflexion sur ce rôle.

Si le seuil de signification est fixé à 0.05 et que la probabilité donnée


par un test est de 0.07, l’ampleur de la différence peut être considérée
comme non significative.

Cependant, cette valeur est très proche du seuil de signification et


pourrait probablement l’atteindre avec un échantillon plus grand. Une
autre étude avec une taille échantillonnale plus adéquate pourrait
même être envisagée pour poursuivre l’évaluation du rôle d’un facteur
donné.

Pour mieux apprécier le rôle du hasard, à cause des limitations de la


valeur de p, on détermine l’intervalle de confiance de la différence (ou
d’un rapport) dont l’ampleur renseigne aussi bien sur la variabilité
(précision) de l’estimation que sur l’impact de la taille d’échantillon.

L’information la plus complète sur le rôle du hasard est en effet


donnée par la détermination conjointe de p et de l’intervalle de
confiance.

L’intervalle de confiance, exprimé avec un certain degré de certitude,


a une signification plus riche que la probabilité p sur laquelle
d’ailleurs il renseigne.

ϮϬϮ

Si la valeur de référence (0 pour une différence, 1 pour un rapport) se
situe dans l’intervalle de confiance à 95%, la valeur correspondante de
p est, par définition, supérieure à 0.05 et la différence (ou la mesure
d’association de façon générale) n’est pas statistiquement
significative.

Si cette valeur de référence ne se situe pas dans l’intervalle au même


coefficient de sécurité, la valeur de p est inférieure à 0.05 et la
différence (ou la mesure d’association de façon générale) est
statistiquement significative.

Une différence (ou une mesure d’association de façon générale) peut


être déclarée significative ou non significative par la seule
détermination de l’intervalle de confiance sans l’exécution d’un test
statistique.

L’information fournie par l’intervalle de confiance est


particulièrement utile pour interpréter un résultat non significatif.

Un intervalle de confiance étroit traduit une estimation solide (ou


stable) tandis qu’un intervalle de confiance large peut suggérer une
taille échantillonnale insuffisante qui pourrait engendrer une
association significative si elle était corrigée.

Le risque de conclure à tort qu’il n’y pas de différence est petit dans le
premier cas tandis qu’il est grand dans le second cas.

Un test statistique peut déceler une différence significative mais qui


en réalité peu importante du point de vue biologique ou clinique
lorsque la comparaison est effectuée sur des populations de taille
importante.

Les enquêtes qui portent sur un grand nombre de sujets ont en effet
une puissance statistique élevée en conduisant à des tests statistiques
significatifs même si la différence entre les pourcentages ou les
moyennes observées n’est pas très grande quantitativement.
ϮϬϯ

Cela ne remet pas en cause la décision du test avec le rejet de
l’hypothèse nulle mais l’importance pratique de la différence mise en
évidence doit néanmoins être tempérée.

Les études impliquant des milliers de sujets, voire des centaines de


sujets, pourraient systématiquement mettre en évidence des
différences significatives, cependant cliniquement insignifiantes :
« statistiquement significatif » ne signifie pas nécessairement
« intéressant du point de vue clinique ».

Par ailleurs, une différence importante sur le plan biologique ou


clinique, mais non significative statistiquement, peut être mise en
évidence à partir d’échantillons de faible effectif.

La signification clinique est systématiquement mieux perçue par les


mesures d’association épidémiologique (risque relatif, différence de
risque, fraction étiologique du risque…) ainsi que les mesures
dérivées (nombre de sujets à traiter = NNT…) accompagnées de leur
intervalle de confiance (chapitre 15).

Il reste cependant que la signification clinique traduit surtout


l’importance que peut avoir le résultat sur un changement de pratique
par l’intégration de l’innovation rapportée par l’article scientifique. A
ce propos, une grande élasticité peut être permise pour la valeur des
mesures d’association épidémiologique (comme le nombre de sujets à
traiter) en fonction de la gravité du critère de jugement.

Par exemple, supposons qu’il faille traiter 75 sujets par des statines,
plutôt que de ne pas leur en administrer, pour éviter la survenue d’un
accident vasculaire cérébral (AVC). L’AVC ayant une gravité
potentielle avérée, on pourrait être tenté d’administrer des statines et
considérer le résultat cliniquement significatif. Mais il faut tenir
compte de l’applicabilité (pertinence) des résultats dans le contexte du
lecteur de tels résultats. Il serait inapproprié de donner des statines à
des sujets de pays méditerranéens qui consommeraient régulièrement
de l’huile d’olive.
ϮϬϰ

On pourrait peut-être aussi traiter un grand nombre de sujets pour
éviter un décès tandis que le nombre de sujets à traiter pour éviter une
rechute d’une affection bénigne devrait être petit…

Dans tous les cas, si la valeur de p et/ou de l’intervalle de confiance


permet de conclure à une explication improbable des résultats par le
hasard, elle ne renseigne pas sur la possibilité que l’association
observée puisse être expliquée par des biais ou des facteurs de
confusion inconnus.

Ces deux dernières explications, parallèlement au rôle du hasard,


doivent toujours être envisagées lors de l’interprétation des résultats
d’une étude épidémiologique (chapitres 19 et 20).

5. Intervalle de confiance de la différence de deux pourcentages

L’intervalle de confiance de la différence de deux proportions PA et PB


calculées sur deux échantillons indépendants de taille nA et nB est
déterminé selon la formule suivante :

pA - pB ± z√( pAqA/nA + pBqB/nB)

Au risque 5%, l’écart réduit z est évidemment égal à 1.96. Cet


intervalle aurait alors 95 chances sur 100 de contenir la vraie valeur de
la différence (PA - PB) des pourcentages des populations d’où ont été
tirés les échantillons.

L’intervalle de confiance de la différence des pourcentages du tableau


2.2 au risque 5% est :

0.761 – 0.524 ± 1.96√[(0.761*0.239)/54 + (0.524*0.476/55)]


0.237 ± 0.174, soit :
[0.063 – 0.411].

ϮϬϱ

L’intervalle de confiance ne contient pas la valeur de référence 0, la
différence entre les deux pourcentages est donc significative au risque
5%. On pourrait même montrer par la détermination de l’intervalle de
confiance que la différence est significative au risque 1%.

6. Intervalle de confiance de la différence de deux moyennes

L’intervalle de confiance (IC) de la différence de deux moyennes est


déterminé par la formule générale suivante :

IC = mA – mB ± t(dl) √(s²/nA + s²/nB)

La valeur de t se confond avec celle de l’écart réduit z dès que le


nombre de degrés de liberté (dl) dépasse 30, aux différents risques
consentis.

On se propose de voir dans quelle mesure l’administration d’un


traitement A et d’un traitement B améliore le poids des malades. Deux
groupes sont ainsi constitués par tirage au sort. Les résultats pour
chaque groupe sont au tableau 14.4. Il s’agit de petits échantillons et la
situation est celle d’un test bilatéral.

Tableau 14.4 Résultats d’un essai thérapeutique comparant deux


traitements vis à vis du gain en poids (en kg)

Groupe A Groupe B
Effectif 25 28
Moyenne 1.20 1.60
Ecart type 0.11 0.14

On pourrait montrer que la différence entre les deux moyennes est très
significative : p < 10-9. Le traitement B engendre un gain en poids
significativement plus important (atelier BiostaTGV et Open-Epi).

ϮϬϲ

L’intervalle de confiance de la différence des deux moyennes au
risque 5% est :

IC = 1.20 – 1.60 ± t dl(25+28-2) √(0.0161/25 + 0.0161/28)

IC = 1.20 – 1.60 ± 1.96 √(0.0161/25 + 0.0161/28)

IC = 0.40 ± 0.068 = 0.332 à 0.468

Puisque cet intervalle de confiance ne contient pas la valeur 0, la


différence observée est statistiquement significative au seuil 5%.

On pourrait montrer, par la détermination de l’intervalle de confiance,


que cette différence est même significative au risque 10-9.

ϮϬϳ

Chapitre 15

Mesures d’association épidémiologique

1. Généralités

En matière d’études étiologiques, l’analyse des données identifie


invariablement trois grandes étapes :

• déceler une éventuelle liaison statistique entre la maladie et le


facteur (section );
• quantifier la force de ce lien par une mesure d’association
épidémiologique (risque relatif, odds ratio) ;
• apprécier l’impact, en termes d’imputabilité, du facteur sur la
genèse de la maladie (différence de risque, fraction
étiologique du risque).

Quel que soit le type d’étude étiologique, l’analyse statistique et


épidémiologique des données recueillies utilise le même tableau où est
contenue l’information sur l’exposition et la maladie.

Dans sa plus simple expression, c’est un tableau de contingence 2 x 2,


chacune des deux variables a deux modalités. Les notations utilisées ci-
après sont celles du tableau 15.1

Tableau 15.1 Notations pour l’analyse d’un tableau 2 x 2


Malades Non malades Total
Exposés a b a+b
Non exposés c d c+d
Total a+c b+d a+b+c+d

La structure du tableau change quelque peu s’il s’agit d’une étude


cohorte qui mesure la fréquence de la maladie sous forme de densité
d’incidence (tableau 15.3 ci-dessous).

ϮϬϵ

2. Mesures pour une étude cohorte

2.1 Risque relatif

Le risque relatif est de manière générale le rapport de deux taux : taux


d’incidence, de prévalence, de mortalité.

Dans une étude cohorte, le risque relatif (RR) est le rapport de deux
taux d’incidence : le taux d’incidence de la maladie chez les sujets
exposés et le taux d’incidence de la maladie chez les sujets non
exposés.

L’incidence est exprimée sous forme d’incidence cumulée ou de


densité d’incidence.

Le risque relatif, nombre sans dimension compris entre 0 et +∞,


mesure l’intensité de la relation entre l’exposition et la maladie. C’est
la mesure d’association épidémiologique qui mesure au mieux le rôle
étiologique possible d’un facteur dans la survenue de la maladie.

Le RR, lorsque le facteur a un effet délétère, a une valeur supérieure à


1 et exprime de combien le risque de développer la maladie est
multiplié pour ceux qui sont exposés par rapport à ceux qui ne sont
pas exposés. Plus le risque relatif est élevé, lorsque le facteur a un
effet délétère, plus la liaison entre la maladie et l’exposition a des
chances d’être causale.

Le risque relatif d’une maladie associé à la présence d’un facteur, par


exemple, est égal à 1.4. Cela signifie que le risque de contracter la
maladie est 1.4 fois plus élevé pour les sujets exposés par rapport aux
sujets non exposés, soit une augmentation de 40% du risque de la
maladie chez les sujets exposés (RR – 1).

L’effet n’est pas toujours délétère même avec un risque relatif


supérieur à 1.

ϮϭϬ

On peut par exemple s’intéresser à l’incidence (ou pourcentage)
d’amélioration dans deux groupes lorsqu’on compare deux traitements
A et B. Si le risque relatif correspondant est égal à 1.7, cela exprime
qu’il y a 1.7 fois plus d’améliorations dans le groupe A par rapport au
groupe B. En d’autres termes, les chances d’amélioration sont
augmentées de 70% dans le groupe A.

Le RR, lorsque le facteur peut avoir un effet protecteur, a une valeur


inférieure à 1 (entre 0 et 1) et exprime de combien le risque est réduit
pour ceux qui sont protégés par rapport à ceux qui ne sont pas
protégés (1 – RR).

Le risque relatif d’une maladie associé à l’administration d’un


traitement (ou d’un vaccin) est, par exemple, égal à 1/3. Les sujets
traités (exposés) ont un risque réduit des deux tiers de contracter la
maladie par rapport aux sujets du groupe non traité (le risque est
diminué de 66.7% pour les sujets traités). On peut dire aussi que le
risque de contracter la maladie est trois fois moins important pour les
sujets traités par rapport aux sujets non protégés.

Bien évidemment, on peut toujours considérer, pour l’exemple


précédent, que les sujets traités sont les sujets non exposés. Le risque
relatif devient alors égal à 3 (inverse de 1/3). Les sujets non traités
(exposés) ont un risque trois fois plus élevé de contracter la maladie
par rapport aux sujets traités.

De même, un risque relatif égal 0.2 pour un facteur protecteur est


l’équivalent d’un risque relatif égal à 5 pour un facteur délétère, un
risque relatif égal à 0.1 pour un facteur protecteur est l’équivalent d’un
risque relatif égal à 10 pour un facteur délétère, etc.

Le tableau 15.2 évalue l’intensité de l’effet délétère ou protecteur d’un


facteur en fonction de la valeur du risque relatif.

Ϯϭϭ

Tableau 15.2 Intensité de l’effet protecteur ou délétère en fonction
de la valeur du risque relatif (RR)
Intensité Effet délétère Effet protecteur
Faible 1.0 – 2.0 1 – 0.5
Modéré 2.0 – 5 0.5 – 0.2
Fort ≥5 ≤ 0.2

L’usage veut que l’on parle de facteur de risque, sans que cela n’ait de
connotation causale, lorsque le risque de maladie augmente en
présence du facteur de risque.

On devrait éviter de parler de facteur protecteur, à cause de la forte


connotation causale, lorsque le risque de maladie diminue avec la
présence du facteur mais plutôt d’une diminution de risque

Il est utile, étant donné l’importance des mesures d’association en


épidémiologie causale, d’exposer d’autres exemples.

La densité d’incidence de la pneumonie à Pneumocystis carinii (PCP),


dans un essai randomisé, chez des patients sidéens traités par la
pentamidine (médicament utilisé dans le traitement d’infections à
protozoaires) est de 8.6 pour 100 personnes-années.

La densité d’incidence de la PCP chez les patients sidéens traités par


un placebo (substance inactive) est de 27.1 pour 100 personnes-
années (indicateurs calculés comme indiqué à la section 2 du chapitre
6 et rappelés au tableau 15.3).

Tableau15.3 Evaluation du traitement par la pentamidine chez des patients


sidéens pour prévenir la survenue de la pneumonie à Pneumocystis carinii
(PCP)
Nombre Personnes- Densité d’incidence
de PCP années de suivi pour 100 personnes-
(1) (2) années (1)/(2)
Pentamidine 8 93 8.6
Placebo 23 85 27.1
Ensemble 31 178
ϮϭϮ

Le risque relatif de contracter une PCP pour les malades traités par le
placebo (sujets exposés) par rapport aux malades traités par la
pentamidine est :

27.1/8.6 = 3.2 (≈3.15)

Les patients traités par le placebo ont donc un risque 3.2 fois plus
élevé de contracter une PCP que les patients traités par la pentamidine.
Le risque pour les patients soumis au placebo de contracter une PCP
est augmenté de 220% : 3.2 = 1*3.2 = 1(1+2.2) = 1 + 220%.

On aurait tout aussi bien dire, si on assimile les sujets traités par la
pentamidine aux sujets exposés, que les patients traités ont un risque
réduit de 68.8% de contracter une PCP (RR = 0.313). Cette diminution
du risque traduit l’efficacité du traitement autant que la FERe (section
2.4 ci-dessous).

Lorsqu’il s’agit d’une incidence cumulée, le risqué relatif, par


l’utilisation des notations du tableau 15.1, s’écrit :

RR = [a/(a+b)] / [c/(c+d)]

Le tableau 15.4 contient les données d’un essai randomisé sur la


prévention des rétinopathies diabétiques par un traitement « intensif »
du diabète.

Tableau 15.4 Résultats d’un essai randomisé sur la prévention


de la rétinopathie diabétique
Traitement Rétinopathie Ensemble
Présence Absence
Intensif 21 59 80
Standard 51 69 120
Ensemble 72 128 200

Les résultats gagneraient à être présentés comme au tableau 15.4 bis.

Ϯϭϯ

Tableau 15.4 bis Incidence de la rétinopathie diabétique à l’occasion
d’un essai randomisé en vue de la prévention de celle-ci
Ensemble Rétinopathie Incidence RR p
(%) (IC à
95%)
Traitement 80 21 26.3 1.6 0.02
intensif (1.1 – 2.5)
Traitement 120 51 42.5
standard

Le risque, exprimant la probabilité de survenue d’un événement,


est assimilé ici à l’incidence cumulée de la rétinopathie chez les
sujets diabétiques soumis à l’un des deux régimes :
• Traitement intensif : 21/80 = 26.3%
• Traitement standard : 51/120 = 42.5%
• Ȥ² : 5.50 ; p = 0.02 (différence significative)

Le risque relatif de rétinopathie, en considérant les sujets bénéficiant


du traitement standard comme les sujets exposés, est : 42.5% / 26.3%
= 1.62 (IC à 95% : 1.06 – 2.47). Le risque est donc augmenté de 62%.

On peut dire aussi que le risque est 1.6 fois plus élevé (plus important)
pour les diabétiques bénéficiant du traitement standard de développer
une rétinopathie par rapport aux diabétiques bénéficiant du traitement
intensif.

Le risque relatif de rétinopathie, en considérant les sujets bénéficiant


du traitement intensif comme les sujets exposés, est : 26.3% / 42.5%
= 0.62 (IC à 95% : 0.40 – 0.94). Le risque est donc diminué de 38%.

Cette diminution en pourcentage du risque traduit l’efficacité du


traitement. On peut dire aussi que le risque de développer une
rétinopathie est 1.6 moins élevé (moins important) pour les sujets
bénéficiant du traitement intensif par rapport au traitement standard.

Ϯϭϰ

Si le taux de mortalité des accidents de la circulation routière est de 96
pour 100000 automobilistes consommateurs d’alcool et par an et n’est
que de 7 pour 100000 et par an chez les automobilistes abstèmes, le
risque pour les automobilistes consommateurs d’alcool de décéder des
suites d’un accident de la route est multiplié par 13.7 par rapport aux
automobilistes abstèmes :

96/7 = 13.7 (IC à 95% : 6.4 ; 29.5).

Le risque a augmenté de 1270%.


Toutes les mesures ponctuelles d’association épidémiologique doivent
toujours être accompagnées par leur intervalle de confiance. A cet
effet, plusieurs techniques de calcul sont disponibles.

Le mieux est d’utiliser un logiciel d’épidémiologie pour éviter des


calculs fastidieux (atelier BiostaTGV et OpenEpi). Une technique de
calcul simple est exposée en annexe pour le calcul de l’intervalle de
confiance du risque relatif.

Soulignons seulement le fait que l’intérêt de l’intervalle de confiance


de la mesure ponctuelle du risque relatif est de donner la force, le
sens et de le degré de signification de l’association.

La mesure d’association statistique (khi-deux) ne donnait que le degré


de signification de l’association. L’intervalle de confiance du RR ou
du OR, lorsqu’il ne contient pas la valeur 1, au risque consenti, a la
même signification que la probabilité p du hasard donnée par le test de
signification statistique. Ces mêmes remarques peuvent être
formulées à propos de l’odds ratio exposé ci-dessous (section 2.2).

A l’occasion de l’investigation étiologique relative à la survenue d’un


nombre élevé de cas de gastro-entérites aiguës (GEA) dans un
camping, le tableau 15.5 contient l’histoire de l’exposition, à quatre
facteurs étudiés.
Ϯϭϱ

Tableau 15.5 Histoire de l’exposition à 4 facteurs étudiés (approche cohorte)
Age Consommation de l’eau du Baignade Blocs
(ans) robinet du camping (verres dans la sanitaires
d’eau) rivière près (WC) du
du camping
camping fréquentés
• < Non < 4 ou •6 Non Oui Non* Oui
25* 25 buveurs* 4** 5 ou
peu*
GEA 48 69 18 41 22 25 56 51 44 71
oui
GEA 101 57 38 67 24 18 98 40 39 116
non
RR 1.70 1 1.18 1.49 1.81 1.54 0.72
(IC à (1.28 – (0.75 (0.92 (1.15 (1.17 – (0.55 – 0.94)
95%) 2.25) – – – 2.03)
1.85) 2.42) 2.86)
Ȥ² 14.2 8.2 9.0 5.3
p < 0.001 <0.05 < 0.01 < 0.03
* Catégorie de référence
** y compris l’exposition cachée (utilisation de glaçons et de boissons allongées
avec l’eau du robinet).

La consommation de l’eau du robinet du camping est une variable qui


comprend quatre niveaux croissants d’exposition.

On pourrait constater que le taux d’attaque de la GEA augmente avec


le nombre de verres consommés (tableau 15.6).

Tableau 15.6 .Taux d’attaque de la GEA en fonction du nombre


de verres consommés
Ensemble Cas de GEA Taux d’attaque (%)
Non buveurs 56 18 32.1
<4 108 41 38.0
4 ou 5 46 22 47.8
•6 43 25 58.1
Ensemble 253 106 41.9


Ϯϭϲ

La détermination du risque relatif en prenant les non buveurs comme
catégorie de référence (RR = 1) pour chaque niveau d’exposition
montre aussi que le risque relatif de GEA augmente en fonction du
nombre de verres consommés. Il s’agit là de la mise en évidence d’une
relation dose-effet (ou dose-réponse) entre la consommation de l’eau
du robinet du camping et la GEA.

Après la séquence temporelle entre l’exposition et la maladie, la


puissance de cette relation mesurée par le risque relatif, la relation
dose-effet est le troisième critère majeur de causalité entre l’exposition
et la maladie (chapitre 21). La variabilité des expositions peut
permettre de tester l’existence d’une liaison de type dose-effet.

La fréquentation des blocs sanitaires du camping ne semble pas en


cause dans la survenue de la GEA et pourraient même paraître
protecteurs (RR < 1 et l’intervalle de confiance ne contient pas la
valeur de référence 1). La proportion des cas de GEA qui fréquentent
les sanitaires est significativement plus basse que celle des campeurs
qui n’ont pas contracté de GEA.

L’âge, l’eau du robinet et la baignade dans la rivière sont liés à la


GEA. Il y a même une relation dose-réponse entre la consommation
de l’eau du robinet et la GEA. On peut imaginer que l’eau du robinet
peut provenir de l’eau de la rivière. On peut penser aussi que les
moins de 25 ans se baignent dans la rivière plus fréquemment et plus
longtemps. Les trois facteurs peuvent en effet être liés entre eux.

2.2 Odds ratio

L’odds ratio (OR), ou rapport de cotes, par l’utilisation du tableau


15.1, a pour expression :

OR = ad / bc.

Ϯϭϳ

Lorsque la maladie est suffisamment rare (fréquence de la maladie
inférieure à 5% ou même à 10%) au point que l’effectif a est
négligeable devant b et c négligeable devant d, l’odds ratio devient
pratiquement égal au risque relatif calculé sur les mêmes données et a
alors la même signification :

RR = (a/b) / (c/d) = ad/bc = OR.

En fait, dans une étude cohorte, seule la valeur du risque relatif est
systématiquement retenue.

L’odds ratio pour les données du tableau 14.4 est immédiatement


calculé :

OR = (51 x 59) / (21 x 69) = 2.08

La valeur de l’OR diffère notablement de celle du RR qui est de 1.62,


soit une augmentation de 28.4%, parce que la maladie est très
fréquente (taux d’attaque global de la rétinopathie = 72/200 = 36%).

2.3 Différence de risque

2.3.1 Différence de risque (risque attribuable dans le groupe des


sujets exposés)

La différence de risque ou risque attribuable chez les exposés (ou


risque excédentaire ou risque absolu ou réduction absolue du risque),
notée DR, est tout simplement la différence des deux taux
d’incidence :

• le taux d’incidence de la maladie dans le groupe exposé et


• le taux d’incidence de la maladie dans le groupe non exposé.

Ϯϭϴ

La différence de risque (DR) est un taux et traduit l’excès de risque
encouru par les sujets exposés de développer la maladie par rapport
aux sujets non exposés.

La DR exprime surtout un surcroît d’incidence (ou incidence réelle)


de la maladie imputable au facteur de risque chez les sujets exposés et
qui pourrait être évité en les soustrayant à l’exposition. La notion de
cas « attribuables » n’a de sens que si le facteur d’exposition est un
facteur causal de la maladie.

Le RR traduit aussi un excès de risque de développer la maladie chez


les sujets exposés par rapport aux sujets non exposés. Mais cet excès
de risque dans le RR ne s’exprime pas par un taux mais par un nombre
sans dimension qui quantifie la puissance de la relation sans notion
d’imputabilité.

La DR, lorsqu’on détermine des incidences cumulées, a pour


expression en utilisant les notations du tableau 15.1 :

DR = [a/(a+b)] - [c/(c+d)]

Dans une étude cohorte, par exemple, les sujets à l’état initial sont des
fumeurs qui ont tous été victimes d’un infarctus du myocarde (IDM).

Les sujets d’un groupe ont continué de fumer tandis que les sujets du
deuxième groupe ont cessé de fumer. Après une certaine période de
suivi, l’incidence de récidive d’IDM a été de 25.0% dans le premier
groupe tandis qu’elle n’a été que de 5.0% dans le second groupe.

Le risque relatif de récidive d’IDM associé au fait de continuer de


fumer est évidemment égal à 5 (25.0%/5.0%). Les sujets qui
continuent de fumer ont un risque 5 fois plus élevé de développer un
deuxième IDM par rapport à ceux qui ont cessé de fumer.

Ϯϭϵ

La différence de risque est :

25.0% - 5.0% = 20.0%.

Les sujets qui continuent de fumer ont un excès de risque de 20.0%


(ou de 200 pour 1000) de développer un deuxième infarctus par
rapport à ceux qui ont cessé de fumer. En termes d’imputabilité, 20
récidives d’IDM pour 100 sujets victimes d’un premier IDM qui
continuent de fumer sont imputables au tabagisme.

La différence de risque ou risque absolu de rétinopathie chez les


diabétiques bénéficiant d’un traitement standard (tableau 14.3) est :

42.5% - 26.3% = 16.2% (IC à 95% : 3.2% – 29.3%).

Autrement dit, 16.2 rétinopathies pour 100 sujets diabétiques


bénéficiant du traitement standard sont imputables au traitement et
pourraient être évitées s’ils bénéficiaient du traitement intensif.

En d’autres termes, il faut traiter 100 sujets diabétiques (du groupe


traitement standard) par le traitement intensif pour obtenir 16 cas de
rétinopathie de moins qu’avec le traitement standard.

Le nombre de malades à traiter pour éviter un cas de rétinopathie


(number needed to treat = NNT des anglo-saxons) est : 1 / 16.2% § 6.

En effet, d’après la différence de risque, il faut traiter 100 patients du


groupe standard par le traitement intensif pour éviter 16 cas de
rétinopathie. En conséquence, pour éviter un cas, il faut diviser 100
par 16 (inverse de la différence de risque). En des termes plus exacts,
il faut traiter 6 malades diabétiques avec le traitement intensif pour
obtenir un cas de rétinopathie de moins qu’avec le traitement standard.

ϮϮϬ

D’ailleurs, le nombre de patients à traiter pour éviter un cas s’obtient
de façon générale comme l’inverse du risque évitable :

Nombre de patients à traiter = 1 / risque évitable

Autre exemple, si le pourcentage de succès d’un traitement A est de


100% tandis que le pourcentage de succès d’un traitement B est de
0%, il suffit de traiter un seul malade par A plutôt que par B pour
avoir un succès. Ce paramètre traduit le coût de l’efficacité et est très
important pour cerner la signification clinique des résultats.

En ce qui concerne l’exemple relatif au rôle de l’alcool dans la


survenue d’accidents mortels parmi les automobilistes, la différence
de risque :

96 – 7 = 89 pour 100000 et par an

mesure le surcroît de mortalité des accidents de la circulation routière


imputable à l’alcool chez ceux qui en consomment. C’est l’excès
annuel de mortalité des accidents de la circulation routière qui pourrait
être évité chez les automobilistes consommateurs d’alcool par
l’éradication de l’alcoolisme.

Dans l’exemple de l’essai randomisé relatif au traitement de la PCP, la


différence de risque est :

27.1 – 8.6 = 18.5 pour 100 personnes-années.

On a bien sûr assimilé les sujets non traités par la pentamidine aux
sujets exposés. Il est en effet incommode de parler de différence de
risque négative lorsque le facteur est protecteur.

ϮϮϭ

Par contre, on peut parler de risque évitable pour désigner la
différence de risque lorsque celle-ci, comme dans l’exemple, est la
différence entre le risque dans le groupe contrôle et le risque dans le
groupe traité.

Les sujets non traités ont un excès de risque de 18.5 pour 100
personnes-années de contracter la PCP par rapport aux sujets traités.

Dans le groupe placebo, 18 à 19 cas de PCP pour 100 personnes-


années sont imputables au fait de ne pas traiter par la pentamidine et
pourraient être évités par le traitement par la pentamidine. On pourrait
éviter un cas de PCP en traitant 5 à 6 patients pendant un an (18.5% ≈
1/5.4).

Dans l’exemple, par l’application de la formule :

1/0.185 = 5.4,

Il faut donc 5.4 malades séropositifs à traiter par an par la pentamidine


pour obtenir un cas de PCP de moins qu’avec le placebo.

2.3.2 Risque attribuable dans l’ensemble de la population étudiée

Outre la différence de risque qui mesure le risque attribuable chez les


sujets exposés (ou l’excès de risque chez ceux qui sont exposés par
rapport à ceux qui ne le sont pas), il est intéressant de mesurer le
risque attribuable chez l’ensemble de la population étudiée (sujets
exposés et non exposés) pour y estimer l’excès de risque imputable à
l’exposition.

Le risque attribuable chez l’ensemble de la population (RAp) étudiée


est déterminé ainsi :

RAp = Incidence dans la population – incidence du groupe non exposé

ϮϮϮ

ou par la formule équivalente :

RAp = DR * P,

c’est à dire le produit de la différence de risque et de la proportion des


sujets exposés parmi l’ensemble de la population

Dans l’exemple de la pentamidine et de la PCP,

RAp = 31/178 – 8/93 = 8.8 pour 100 personnes-années ou :

RAp = 18.5 pour 100 personnes-années * 85/178

= 8.8 pour 100 personnes-années

Ainsi, si la pentamidine avait été systématiquement prescrite, l’excès


annuel d’incidence de la PCP qui pourrait être évité chez les patients
sidéens participant à l’étude serait de 8.8 pour 100. Le risque
attribuable chez les sujets exposés est évidemment supérieur à celui
déterminé pour l’ensemble de la population car l’impact de l’arrêt de
l’exposition sur le nombre de cas de maladie est toujours plus
important pour les sujets exposés que pour l’ensemble de la
population étudiée.

2.4 Fraction étiologique du risque

La fraction étiologique du risque (FER) mesure la proportion des cas


de maladie qui peut être attribuée à un facteur et qui pourrait donc
être évitée. En d’autres termes, la FER mesure la proportion des cas
évitables si l’exposition au facteur de risque cessait.

En réalité, la fraction étiologique du risque est une expression du


risque attribuable sous forme de pourcentage.

ϮϮϯ

La FER peut être déterminée aussi bien pour le groupe exposé au
facteur que pour l’ensemble de la population (groupe exposé et non
exposé réunis), respectivement notées FERe et FERp.

La FER peut être déterminée par la connaissance préalable du nombre


de cas attribuables au facteur appelé aussi nombre de cas évitables

Le nombre de cas évitables est égal au produit de la différence de


risque et du nombre de personnes-temps ou celui des sujets exposés :

nombre de cas évitables =


différence de risque * nombre de personnes-temps des exposés

ou
différence de risque * nombre de sujets exposés

Dans l’exemple de l’essai randomisé, le nombre de cas évitables est :

18.5 /100 personnes-années * 85 personnes-années = 15.7 ≈ 16

La fraction étiologique du risque dans le groupe exposé (FERe),


improprement qualifiée de risque attribuable chez les exposés, indique
la proportion des cas de maladie imputable à l’exposition chez les
sujets exposés ou, alternativement, la proportion des cas de maladie
évitables si la cause est proscrite chez les sujets exposés uniquement.

La FERe s’obtient ainsi :

FERe = nombre de cas évitables / nombre de malades recensés


dans le groupe exposé

Dans l’exemple, FERe = 15.7/23 = 68.3%.

Ainsi, 68.3% des cas de PCP qui sont survenus chez les malades
traités par le placebo sont imputables au traitement et auraient pu être
évités s’ils avaient été traités par la pentamidine.
ϮϮϰ

La FERe mesure de façon plus expressive l’efficacité du traitement
par la pentamidine : celle-ci est efficace à 68%.

Si la FERe dans l’étude de la relation entre le tabagisme et le cancer


du poumon est de 90%, cela signifie, si le tabagisme engendre le
cancer, que 90% des cancers du poumon qui surviennent chez les
fumeurs sont imputables (ou sont attribuables ou sont dus) au
tabagisme. En d’autres termes 90% des cancers du poumon survenant
chez les fumeurs auraient pu être évités s’ils avaient cessé de fumer.

La fraction étiologique du risque dans la population (FERp),


improprement qualifiée de risque attribuable dans la population,
indique la proportion des cas de maladie évitables si la cause est
proscrite dans la population.

La FERp s’obtient par la formule :

FERp = nombre de cas évitables / nombre de malades recensés


dans la population

Dans l’exemple de l’essai randomisé :

FERp = 15.7/31 = 50.6%.

Ainsi, 50.6% des cas de PCP qui sont survenus dans la population
(groupe traité par la pentamidine et groupe placebo) sont imputables
au traitement et auraient pu être évités si tous les patients sidéens
avaient reçu de la pentamidine.

Si la FERp dans l’étude de la relation entre le tabagisme et le cancer


du poumon est de 60%, cela signifie, si le tabagisme engendre le
cancer, que 60% des cancers du poumon qui surviennent dans la
population (fumeurs et non fumeurs) sont imputables (ou sont
attribuables ou sont dus) au tabagisme.

ϮϮϱ

En d’autres termes, 60% des cancers du poumon survenant dans la
population auraient pu être évités si le tabagisme avait été éradiqué.

La FERe peut aussi être déterminée par les formules, équivalentes à la


précédente, suivantes :
FERe = différence de risque / taux dans le groupe exposé
= (RR – 1)/RR

On comprend dès lors pourquoi la FERe, qui peut donc se calculer en


divisant la différence de risque par le taux de la maladie chez les sujets
exposés et qui exprime la diminution en pourcentage d’un taux à un
autre, est aussi appelée pourcentage de risque attribuable ou
pourcentage attribuable chez les sujets exposés.

Dans l’exemple de l’essai randomisé :

FERe = (27.1 – 8.6)/27.1 = (3.2 – 1)/3.2 = 68.2%

Dans l’exemple de la relation entre l’alcoolisme et les accidents


mortels de la circulation routière :

FERe = (96 – 7)/96 = 92.7%.

Ainsi, 92.7 des accidents mortels de la circulation routière qui


surviennent chez les automobilistes sous l’emprise de l’alcool sont dus
à ce facteur et auraient pu être évités si ils n’en avaient pas consommé.

Dans l’exemple de la relation entre le tabagisme et la récidive d’IDM,

FERe = (25.0% - 5.0%)/25.0% = (5 – 1)/5 = 80.0%.

Ainsi, 80% des récidives d’IDM sont en relation avec le tabac chez les
sujets qui continuent de fumer.

ϮϮϲ

Si l’usage du tabac est responsable de récidive d’IDM, 80% des
récidives d’IDM survenant chez ceux qui continuent de fumer sont
imputables au tabac et pourraient être évités s’ils cessaient de fumer.

La FERp peut aussi s’obtenir par la formule :

FERp = FERe * Pc
(Pc est la proportion de sujets exposés parmi les cas de maladie)

ou par :

FERp = (Incidence dans la population – incidence du groupe


non exposé) / Incidence dans la population

ou encore par :

FERp = P(RR – 1) / [P(RR – 1) + 1]


(P est la proportion des sujets exposés parmi l’ensemble
de la population)

La deuxième expression de la FERp dont le numérateur est constitué


par le risque attribuable dans la population et le dénominateur par
l’incidence dans la population explique clairement pourquoi la FERp,
exprimant la diminution en pourcentage d’un taux à un autre, est aussi
appelée pourcentage de risque attribuable ou pourcentage attribuable
dans la population.

Dans l’exemple de l’essai thérapeutique sur la pentamidine et la


pneumonie :

FERp = 68.2% * 23/31 = 50.6% ou :


FERp = (31/178 – 8/93)/(31/178) = 50.6% ou :
FERp = 85/178(3.15 – 1)/ [85/178(3.15 – 1) + 1] = 50.6%

Les résultats sont identiques à ceux trouvés précédemment.

ϮϮϳ

Si le facteur étudié a un rôle protecteur (vaccination…), le taux
d’incidence de la maladie est plus bas chez les sujets exposés
(vaccinés…) et le risque relatif est inférieur à 1.

La FER se transforme alors en fraction préventive (FP) qui a pour


expression :

dans le groupe exposé : FPe = 1 – RR

Par exemple, l’incidence d’une maladie est de 20% chez les sujets
vaccinés et de 80% chez les sujets non vaccinés, le RR est égal à 0.25.

D’où :

FPe = 1 – 0.25 = 0.75

Ainsi, dans le groupe des vaccinés, 75% des cas potentiels de maladie
ont été évités grâce au vaccin. La FPe mesure l’efficacité du vaccin :
le vaccin est efficace à 75%.

On pourrait utiliser les formules usuelles de la FERe pour mesurer


l’efficacité du vaccin en considérant que les sujets exposés sont les
sujets non vaccinés. D’où :

FERe = (RR – 1)/RR = (80/20 – 1)/(80/20) = 75.0%.

Les deux démarches sont tout à fait équivalentes.

Dans l’exemple de la pentamidine et la PCP, si on considère les sujets


traités comme les sujets exposés, la fraction préventive deviendrait :

FPe = 1 – 0.313 = 68.7%.

Là aussi, on détermine que le traitement est efficace à environ 69%.

ϮϮϴ

Dans l’exemple de la rétinopathie et du traitement intensif, l’efficacité
du traitement, pour les données du tableau 15.4, pourrait aussi être
quantifiée par la fraction étiologique du risque chez les sujets exposés
(FERe chez les diabétiques bénéficiant du traitement standard) ou la
fraction préventive du risque chez les sujets exposés (FPe chez les
diabétiques bénéficiant du traitement intensif) :

FERe = (42.5% - 26.3%)/42.5% = (1.62 – 1)/1.62 = 38%


(IC à 95% : 5.8% - 59.5%)
FPe = 1 – (26.3%/42.5%) = 1 – 0.62 = 38%
(IC à 95% : 5.8% - 59.5%).

Ainsi, 38% des cas de rétinopathie survenant chez les sujets


diabétiques soumis au traitement standard sont imputables au
traitement et auraient pu être évitées s’ils avaient bénéficié du
traitement intensif.

En d’autres termes, en raisonnant sur la FPe, 38% des cas potentiels


de rétinopathie chez les sujets bénéficiant du traitement intensif ont
été évités grâce à ce traitement.

On peut déterminer autrement la FERe (formules ci-dessus) :


Nombre de cas évitables : 16.2% * 120 = 19.44. D’où : FERe =
19.4/51 = 38%
FERe = 16.2%/42.5% = 38%

On peut utiliser une des formules ci-dessus pour déterminer la FERp :


FERp = [(120/200)(1.62 – 1)] / [(120/200)(1.62 – 1) + 1] = 27% (IC à
95% : 4% - 42%)

Il convient enfin de signaler que les FERe ou les FERp ne doivent pas
être additionnées, la somme de ces proportions dépasserait
allègrement 100%. En réalité certains facteurs ne sont pas causaux et
n’interviennent dans la relation avec la maladie que parce qu’ils sont
liés à des facteurs de confusion non identifiés tandis que d’autres
facteurs ne sont qu’en interaction avec d’autres facteurs.
ϮϮϵ

2.5 Interprétation des mesures d’association épidémiologique en
santé publique

Bien que le risque relatif et la différence de risque mesurent tous les


deux un excès de risque, l’information qu’ils véhiculent est néanmoins
très différente.

En mesurant l’intensité ou l’ampleur de la relation entre un facteur et


une maladie, le risque relatif renseigne sur le rôle d’un facteur dans
l’étiologie d’une maladie et permet de savoir si une association
observée peut être causale.

Par contre, la différence de risque, si la relation est causale, mesure


les conséquences d’une exposition au facteur sur la santé publique.

La puissance de la relation exprimée par le risque relatif ne permet pas


à elle seule de prévoir ce qui est imputable au facteur et ce qui pourrait
être évité en soustrayant les sujets exposés ou la population à
l’exposition.

C’est dire l’importance de la différence de risque pour l’établissement


rationnel de priorités dans les décisions de santé publique.

Considérons les données du tableau 14.7 relatives au rôle du


tabagisme sur la mortalité engendrée par le cancer du poumon et les
maladies cardio-vasculaires chez 100000 fumeurs et 200000 non
fumeurs appartenant à une même population.

Du point de vue étiologique, le tabagisme constitue un facteur de


mortalité beaucoup plus important pour le cancer du poumon que pour
les maladies cardio-vasculaires.

ϮϯϬ

Cependant, le nombre de décès évitables, par l’éradication du
tabagisme, est deux fois plus élevé (au moins) pour les maladies
cardio-vasculaires que pour le cancer du poumon, respectivement 300
et 130.

D’ailleurs, la lecture des différences de risque exprimait le même


constat : la lutte contre le tabagisme réduit beaucoup plus le nombre
de décès par maladies cardio-vasculaires que le nombre de décès par
cancer du poumon.

La différence de risque est en effet deux fois plus élevée (au moins)
pour les maladies cardio-vasculaires que pour le cancer du poumon,
respectivement 3.0 et 1.3 pour 1000. Un raisonnement analogue peut
être tenu sur la base du risque attribuable dans la population.

Cela s’explique par le fait que si le taux de mortalité par cancer du


poumon est seulement de 0.1 pour 1000 chez les non fumeurs, le taux
de mortalité par maladies cardio-vasculaires chez le même groupe est
beaucoup plus élevé : 7.0 pour 1000. Une augmentation de 40% du
risque de décès par maladies cardio-vasculaires chez les fumeurs
concerne plus de personnes qu’un risque de mortalité par cancer du
poumon augmenté de 1300% chez le même groupe.

Il faut toujours tenir compte de cet aspect lorsqu’un étudie le rôle d’un
facteur dans la genèse de deux maladies différentes et que le nombre
de cas pour une maladie est beaucoup plus important dans la
population que celui de l’autre maladie.

En tout cas, la différence de risque revêt beaucoup plus d’importance


pour les responsables de la santé publique une fois la causalité admise
entre une maladie et un facteur de risque, causalité évaluée, entre
autres, par la valeur du risque relatif (chapitre 21, section 4).

Ϯϯϭ

Tableau 15.7 Comparaison du rôle du tabagisme sur la mortalité
par cancer du poumon et par maladies cardio-vasculaires
(100000 fumeurs et 200000 non fumeurs)
Cancer du poumon Maladies cardio-vasculaires
Fumeurs Non fumeurs Fumeurs Non fumeurs
Taux de 1.4 0.1 10.0 7.0
mortalité
(p.1000)
Risque 14.0 1.4
relatif
Différence 1.3 3.0
de risque
(p.1000)
Nombre 100000 * 1.3/1000 = 100000 * 3.0/1000 =
de décès 130 300
évitables
Effectif des 1.4/1000 0.1/1000 10.0/1000 7.0/1000
décès * 100000 * 200000 * 100000 * 200000
observés = 140 = 20 = 1000 = 1400
Risque (140 + 20)/300000 (1000 + 1400)/300000 –
attribuable à – 20/200000 1400/200000
population = 0.43 = 1.00
(p.1000)
FERe 130/140 = 0.929 = 92.9% 300/1000 = 0.300 = 30.0%
FERp 130 / (140 + 20) = 81.3% 300/ (1000 + 1400) = 12,5%

3. Mesures dans une étude cas-témoins

La relation entre la maladie et la cible (exposition) peut bien


évidemment être testée sur le plan statistique par le calcul du test du Ȥ²
à partir des données du tableau 15.1

Deux mesures d’association épidémiologique peuvent en outre être


calculées dans une étude cas témoins, l’odds ratio (OR) et la fraction
étiologique du risque :

ϮϯϮ

OR = ad / bc
FERe = (OR - 1) / OR.
FERp = FERe * Pc = P(OR – 1) / [P(OR – 1) + 1]

Dans l’expression de la FERp, Pc et P sont aussi respectivement la


proportion de sujets exposés parmi les cas et la proportion de sujets
exposés parmi l’ensemble de la population. Celle-ci est estimée par la
proportion de témoins exposés (on fait l’hypothèse que les témoins
sont représentatifs de la population générale)

L’odds ratio dans une étude cas-témoins a la même expression que


celle vue à propos de l’étude cohorte (section 2.2 ci-dessus).

L’OR a donc la même signification que le RR lorsque la maladie est


suffisamment rare.

L’OR est là aussi toujours supérieur au RR. Si le facteur augmente le


risque de maladie, l’OR surestime le RR et donc l’effet délétère (il
peut aussi surestimer l’effet protecteur si le facteur protège de la
maladie).

Mais si la maladie est rare dans le groupe des sujets non exposés,
(fréquence inférieure à 5 ou même 10%), l’OR a une valeur proche de
RR pour des valeurs de RR inférieurs à 5.

Si Pc est la fréquence de l’exposition chez les cas et Pt est la fréquence


de l’exposition chez les témoins, l’odds ratio peut aussi s’écrire :

OR = [(Pc(1 –Pc)] / [(Pt(1 – Pt)]

Dans l’exemple de la relation entre la diarrhée et la qualité de l’eau


(tableaux 2.1 et 2.2 du chapitre 2), la valeur de l’odds ratio est :

OR = (54x50) / (55x17) = 2.9.

Ϯϯϯ

Ainsi, les enfants qui disposent d’une mauvaise qualité d’eau ont un
risque près de trois fois supérieur de contracter une diarrhée que les
enfants disposant d’une eau de bonne qualité.

La FERe est :

FERe = (2.9 - 1) / 2.9 = 65.5 %.

Cela implique que, s’il existe une relation de causalité entre la qualité
de l’eau et la diarrhée, 65.5% des cas de diarrhées chez les enfants qui
consomment de l’eau de mauvaise qualité lui sont donc imputables et
pourraient être évités si cette consommation cessait.

La FERp est :

FERp = 0.655 * 54/71 = [55/105(2.9 – 1)]/[55/105(2.9 – 1) + 1]


= 49.9%

Cela implique que, s’il existe une relation de causalité entre la qualité
de l’eau et la diarrhée, 50% des cas de diarrhées qui surviennent chez
l’ensemble des enfants sont imputables à la qualité de l’eau et ne
seraient pas observés si la qualité de l’eau était constamment bonne.

Au cours d’une investigation d’une toxi-infection alimentaire


collective (TIAC), l’histoire alimentaire a été relevée pour les 18
malades de cet épisode et les 13 témoins ayant participé au même
repas et qui ne sont pas tombés malades. Les données sont contenues
au tableau 15.8.

Avec un OR égal à 26.7, la mayonnaise est le premier aliment


incriminé dans la survenue de cette TIAC. Les œufs durs, avec un OR
supérieur à 5, peuvent cependant être à l’origine de la TIAC (chapitre
20, section 4).

Ϯϯϰ

De manière générale, un OR supérieur à 4, quel que soit le résultat du
test statistique, est un bon argument pour identifier l’aliment
responsable lors de l’investigation d’une TIAC.

Tableau 15.8 Histoire alimentaire (consommation éventuelle d’aliments)


de 18 cas d’intoxication alimentaire et de 13 témoins
Aliment Malades Témoins Ȥ² p OR
C+ C- % C+ C+ C- % C+
Œuf dur 13 5 72.2 4 9 30.8 5.2 <0.05 5.9
Mayonnaise 16 2 88.9 3 10 23.1 13.8 <0.001 26.7
Carottes 5 13 27.8 10 3 76.9 7.3 <0.02 0.1
Poisson 7 11 38.9 7 6 53.8 0.7 NS 0.5
Gâteau* 6 11 35.3 7 6 53.8 1.0 NS 0.5
Omelette** 10 7 41.7 5 7 41.7 0.8 NS 2.0
* histoire inconnue pour un cas
** histoire inconnue pour un cas et un témoin

Malgré l’existence d’une relation statistique entre la TIAC et les


carottes, celles-ci ne peuvent être incriminées dans la survenue de la
TIAC avec un OR inférieur à 1. Le pourcentage des témoins qui ont
consommé des carottes est significativement supérieur à celui des
malades qui en ont consommés. On devrait cependant éviter de dire
que les carottes ont eu un effet protecteur.

On pourrait aussi utiliser l’approche cas-témoins pour l’investigation


étiologique de la gastro-entérite aiguë (GEA) survenue parmi les
vacanciers d’un camping (tableau 15.9).

Les deux approches aboutissent à la même conclusion : blocs


sanitaires hors de cause, les trois autres facteurs sont liés à la GEA. Le
test étendu du chi carré de Mantel-Haenszel pour tendance linéaire
entre la GEA et la consommation de l’eau du robinet aurait donné : Ȥ²
= 7.64, dl = 1, p = 0.006. La relation dose-réponse est donc prouvée et
renforce la causalité entre les deux variables (atelier OpenEpi).

Ϯϯϱ

Tableau 15.9. Histoire de l’exposition à 4 facteurs étudiés
(approche cas-témoins, source : source tableau 15.5)
Age Consommation de l’eau du Baignade Blocs
(ans) robinet du camping (verres dans la sanitaires
d’eau) rivière près (WC) du
du camping camping
fréquentés
• < 25 Non < 4 ou • 6 Non Oui Non* Oui
25* buveurs* 4** 5 ou
peu*
GEA 48 69 18 41 22 25 56 51 44 71
oui
GEA 101 57 38 67 24 18 98 40 39 116
non
OR 1 2.5 1 1.3 1.9 2.9 1 2.2 1 0.5
(1.6- (0.7- (0.9- (1.3- (1.3- (0.3-
4.2) 2.6) 4.3) 6.7) 3.8) 0.9)
* Catégorie de référence (boivent exclusivement de l’eau minérale embouteillée)
** y compris l’exposition cachée (utilisation de glaçons et de boissons allongées
avec l’eau du robinet)

Le tableau 15.10 rapporte les résultats d’une étude cas-témoins pour


évaluer l’efficacité de la vaccination contre Haemophilus influenzae
de type b.

Tableau 15.10 Etude cas-témoins sur la vaccination contre Haemophilus


influenzae de type b et la pneumonie diagnostiquée radiologiquement chez
le jeune enfant de 3 à 11 mois - Bolivie (tableau de contingence)
Non vaccinés Vaccinés Total
(exposés) (non exposés)
Cas (pneumonie) 11 5 16
Témoins (pas de pneumonie) 17 47 64
Total 28 52 80
Ȥ² = 10.01; p = 0.002

Les données gagneraient à être présentées comme dans le tableau


15.10bis.

Ϯϯϲ

Tableau 15.10 bis Etude cas-témoins sur la vaccination contre Haemophilus
influenzae de type b et la pneumonie diagnostiquée radiologiquement chez le
jeune enfant de 3 à 11 mois (Bolivie)
Nombre Nombre d’enfants OR p
d’enfants Vaccinés (IC à
Effectif % 95%)
Cas (pneumonie) 16 5 31.3 6.1 0.002
(1.6 –
25.1)
Témoins (pas de 64 47 73.4
pneumonie)

Les mesures d’association épidémiologique habituellement calculées


dans une étude cas-témoins sont :

• Odds ratio = OR = (11 * 47) / (5 * 17) = 6.1 (IC à 95% : 1.6 –


25.1)
Les enfants non vaccinés ont un risque 6 fois plus élevé de contracter
une pneumonie. Le risque est donc augmenté de 500%.

On peut assimiler les sujets vaccinés aux sujets exposés :


• OR = (5*17) / ((11*47) = 0.16 (IC à 95% : 0.04 – 0.62). Le
risque est donc diminué de 84%.

• FERe = (OR - 1) / OR = (6.1 – 1)/6.1 = 83.6% (IC à 95% :


45.7 %– 95.0%)

Si la relation entre la vaccination contre Haemophilus influenzae et la


pneumonie est avérée, 84% des cas de pneumonie survenant chez les
enfants non vaccinés sont imputables à la vaccination et auraient pu
être évités s’ils avaient bénéficié de la vaccination. Le vaccin est
efficace à 84%.

• La FERp dans une étude cas-témoins peut aussi être


déterminée par les formules suivantes :

Ϯϯϳ

FERp = FERe*Pc = P(OR – 1) / [P(OR – 1) + 1]
= 0.836*11/16 = 57%
= [(17/64)(6.1 – 1)]/ [(17/64)(6.1 – 1) + 1] = 57%

(Pc et P sont respectivement la proportion des sujets exposés parmi les


cas et la proportion des sujets exposés parmi l’ensemble de la
population estimée par la proportion des témoins exposés)

La différence de risque ne peut évidemment pas être déterminée dans


une étude cas-témoins.

Cependant, si l’incidence de la maladie peut être estimée pour


l’ensemble de la population étudiée (TIp) et si la distribution de
l’exposition chez les témoins (%E et %NE pour désigner la proportion
des exposés et celle des non exposés) peut être considérée comme
représentative de l’ensemble de la population, les taux d’incidence de
la maladie peuvent être estimés chez le groupe des individus exposés
et celui des individus non exposés.

Le taux d’incidence de la maladie chez les individus non exposés


(TIne) peut être déterminé ainsi :

TIne = TIp / (OR * %E + %NE)

Le taux d’incidence de la maladie chez les sujets exposés (TIe) peut


être déterminé ainsi :

TIe = TIne * OR

On pourrait ainsi déterminer le surcroît d’incidence (TIe –TIne) d’une


maladie imputable à l’exposition chez les sujets exposés et mesurer
les conséquences d’une exposition au facteur sur la santé publique.

Ϯϯϴ

L’exemple suivant est emprunté à Hennekens (Hennekens CH :
Epidémiologie en Médecine. Editions Frison-Roche. Paris, 1998 : 87-88).

Les données de l’étude cas-témoins, datant de 1952, de Doll et Hill sur


le tabagisme et le cancer du poumon sont contenues au tableau 15.11

Tableau 15.11 Etude cas témoins sur le tabagisme et le cancer du poumon


Fumeurs1 Non fumeurs Ensemble
Cancéreux 1350 7 1357
Témoins 1296 61 1357
Ensemble 2646 68 2714
1. Fumeurs définis comme ceux qui ont fumé régulièrement des cigarettes
au cours des 10 années précédentes

L’odds ratio est : OR = (1350*61)/(1296*7) = 9.1

Si le taux d’incidence du cancer du poumon dans la population totale


peut être estimé à 480/106/an, le taux d’incidence du cancer du
poumon chez les non fumeurs peut être estimé à :

TIne = [480/106/an] / (9.1 * 1296/1357 + 61/1357) = 55/106/an

Quant au taux d’incidence du cancer du poumon chez les fumeurs il


peut être estimé à :

TIe = 9.1 * 55/106/an = 500/106/an

La différence de risque serait :

DR = 500/106/an – 55/106/an = 445/106/an

Ainsi, le surcroît d’incidence du cancer du poumon chez les fumeurs


serait par an de 445/106.

Ϯϯϵ

Notons enfin que l’odds ratio peut véhiculer une information
purement descriptive lorsque le facteur de risque n’intervient
visiblement pas dans la genèse de la maladie.

Par exemple, dans une étude cas-témoins sur le cancer du sein et


l’exposition à l’aluminium (par le truchement de déodorants)
documentée par un proche de la famille qui serait interrogé (fille,
autre), on trouve un odds ratio égal à 2. Il est malaisé alors d’exprimer
que le risque de cancer est deux fois plus élevé lorsque le proche
interrogé est la fille que lorsqu’il s’agit d’un autre proche de la
famille. On pourrait juste, dans un but descriptif, exprimer que la
proportion de filles interrogées chez les cas est supérieure à celle des
témoins ou alternativement que la cote que le proche interrogé soit la
fille est 2.6 fois plus élevée par rapport à celle des témoins.

4. Mesures dans une étude transversale

Les seules mesures d’association épidémiologique qui méritent d’être


calculées à l’occasion d’une étude transversale analytique sont
habituellement le risque relatif et l’odds ratio. On peut cependant
déterminer les mesures d’impact si on a des raisons de penser que
l’exposition a précédé la survenue de la maladie comme, par exemple,
dans le cas des infections nosocomiales.

Reprenons notre exemple sur l’étude transversale sur la consommation


de phénacétine et la néphropathie interstitielle (tableau 15.12) :

Tableau 15.12 Etude transversale sur la consommation de phénacétine


et la néphropathie interstitielle
Enquêtés Néphropathes Prévalence (%)
Consommateurs 70 56 80.0
Non consommateurs 630 126 20.0
Ensemble 700 182 26.0
X² = 117.88 p<0.001
ϮϰϬ

Le tableau de contingence correspondant est le tableau 15.12bis.

Tableau 15.12bis Etude transversale sur la consommation de phénacétine


et la néphropathie interstitielle
Nephropathes Non néphropathes Total
Consommateurs 56 14 70
Non consommateurs 126 504 630
Total 182 518 700
X² = 117.88 p<0.001

RR = 80.0% / 20.0% = 4.0


et OR = (56 x 504) / (126 x 14) = 16.0.

Les deux mesures diffèrent énormément, ce qui ne surprend pas


puisque la prévalence de la maladie est élevée (26.0%).

L’OR n’est une bonne estimation du risque relatif que si la maladie est
rare (<5%) dans la population. La relation entre l’OR et le RR est la
suivante :

OR = (1- Pne) / (1 – Pne*RR)

Dans cette relation, Pne est la fréquence de la maladie chez les non
exposés. Plus précisément, l’OR et le RR n’ont des valeurs proches
que si Pne et Pne*RR (Pne*RR = Pe, fréquence de la maladie chez les
exposés) sont faibles.

Dans notre exemple, il convient d’opter pour le RR. Les sujets qui
consomment de la phénacétine ont un risque 4 fois plus élevé de
développer une néphropathie par rapport aux sujets qui n’en
consomment pas.

Ϯϰϭ

On a relevé simultanément pour l’ensemble des membres d’un
personnel hospitalier leur statut vis-à-vis de l’infection par le virus de
l’hépatite B détectée sérologiquement et leur statut vis-à-vis du
contact avec le sang. Les données sont contenues au tableau 15.13.

Tableau 15.13 Prévalence de l’infection par le virus de l’hépatite B en


fonction du contact avec le sang parmi le personnel d’un hôpital
Contact avec le sang Enquêtés Infectés Prévalence (%)
Fréquent 264 64 24.2
Rare 1238 160 12.9
Ensemble 1502 224 14.9
Source :Bezzaoucha A : Infection du personnel hospitalier d’un pays d’endémicité
moyenne par le virus de l’hépatite B. Prévalence des marqueurs sériques (HBs Ah,
Anti-HBs) parmi 1502 personnes. Médecine et maladies Infectieuses.1985, 11 : 632-
635.

La prévalence de l’infection par le virus de l’hépatite B étant


largement supérieure à 5%, il convient d’adopter le risque relatif (RR
= 1.9) ou lieu de l’odds ratio (OR = 2.2) pour quantifier la force de la
relation entre l’infection par le virus de l’hépatite B et le contact avec
le sang.

Le risque relatif est donc le rapport de deux taux de prévalence, celui


des sujets exposés et des sujets non exposés.

Le même effet relatif, qui aurait été décelé à partir des taux
d’incidence, est estimé lorsqu’on suppose que la durée de la maladie
est la même dans les deux groupes à comparer (l’incidence varie
comme le produit de la prévalence et de la durée de la maladie).

Cependant, il est usuel, à cause des limites de l’étude transversale


étiologique pour l’analyse de la relation causale, de ne retenir que
l’odds ratio si la fréquence de la maladie est rare.

ϮϰϮ

Annexe : Calcul de l’intervalle de confiance d’un RR et d’un OR

• Risque relatif
Les données doivent être disposées comme dans le tableau ci-dessous

Ensemble Malades
Exposés 343 29
Non exposés 343 11

RR = (29/343) / (11/343) = 2.64

Pour calculer l’intervalle de confiance du RR, il faut d’abord calculer


celui de son logarithme :

Variance (ln RR) = (343 – 29) / (343 * 29) + (343 – 11) /(343*11) =
0.1196

Intervalle de confiance de lnRR : 0.9693 ± 1.96¥0.1196 = [0.2915 ;


1.647]

Intervalle de confiance de RR : [e0.2915 ; e1.647] = [1.34 ; 5.19]

• Odds ratio

Etude cas-témoins sur le suivi d’une formation en épidémiologie et la


production d’un article original en tant que premier auteur
Cas Témoins Total
Formation oui 33 69 102
Formation non 16 120 136
Total 49 189 238
L’odds ratio de production d’un article original associé au suivi d’une
formation en épidémiologie est :
OR = (33*120) / (16 * 69) = 3.59

Ϯϰϯ

Ceux qui ont suivi une formation en épidémiologie ont 3.59 fois plus
de chances de produire un article original en tant que premier auteur.

Pour obtenir l’intervalle de confiance de l’OR, il faut d’abord


déterminer celui de son logarithme. Au risque 5% :
Ln OR ± 1.96 ¥[(1/33) + (1/69) + (1/16) + (1/120)]
1.28 ± 1.96 ¥0.12 = 1.28 ± 0.68 = [0.60 ; 1.96]

L’intervalle de confiance à 95% de l’OR est donc :


[e0.60 ; e1.96] = [1.82 ; 7.10] = [1.84 ; 6.99] d’après les calculs
plus exacts du logiciel

Ϯϰϰ

Chapitre 16

Indices de validité interne et prédictive d’une étude diagnostique

1. Généralités

Les outils diagnostiques dune part, les systèmes de surveillance


d’autre part doivent impérativement être évalués sur le plan de la
validité.

Les indices de validité interne (ou validité intrinsèque ou exactitude)


d’un test diagnostique renseignent sur son aptitude à identifier la
maladie en tant que telle, c’est à dire à réagir correctement à la
présence ou à l’absence de la maladie.

La validité interne est mesurée par deux indices : la sensibilité qui est
l'aptitude du test à bien détecter la présence de l’événement cherché et
la spécificité qui est son aptitude à ne détecter que l’événement
cherché. Cette aptitude doit être appréciée par rapport à un test de
référence (ou outil de référence) qui est un indicateur présumé exact
de l’apparition ou de l’absence du phénomène étudié.

Il convient de souligner l’intérêt de l’approche cas-témoins pour


déterminer les indices de validité interne : les sujets malades et non
malades sont ainsi identifiés selon un outil de référence appelé
référentiel.

L’approche cohorte est cependant possible lorsque les sujets, répartis


entre ceux qui ont un test positif et ceux qui ont un test négatif, sont
suivis jusqu’à l’établissement du diagnostic définitif.

On peut même selon le schéma d’une étude transversale, déterminer


simultanément le statut (positif ou négatif) du test à évaluer et du
référentiel pour chacun des sujets d’un échantillon représentatif où la
prévalence de la maladie serait suffisamment élevée.
Ϯϰϱ

L’approche transversale est le protocole de choix pour une étude
diagnostique.

Dans tous les cas, un tableau de contingence 2*2, contenant les


données de la maladie et du test est habituellement présenté pour
juger de la validité interne de l’outil diagnostique.

2. Sensibilité d’un test

La sensibilité d’un test (Se) est une probabilité conditionnelle, elle


mesure la probabilité que le signe soit présent parmi les malades.
C’est aussi la probabilité que le sujet présente le signe sachant qu’il
est malade.

Un test a une sensibilité de 80% s’il détecte 80% des personnes qui
ont réellement la maladie.

La sensibilité d’un test est aussi égale au pourcentage de malades qui


présentent le signe (tableau 16.1).

Ainsi, si parmi 200 malades atteintes d’un cancer du sein confirmé par
l’acte chirurgical (référentiel), 185 ont un test de diagnostic du cancer
du sein (basé sur une mammographie) positif, la sensibilité du test
est :
Se = 185/200 = 92.5%.

Tableau 16.1 Evaluation de la sensibilité d’un test


Maladie présente
(référentiel)
Test Positif Vrais positifs (VP)
Négatif Faux négatifs (FN)
Total VP + FN
Sensibilité = VP / (VP + FN)

Ϯϰϲ

Ainsi, si parmi 200 malades atteintes d’un cancer du sein confirmé par
l’acte chirurgical (référentiel), 185 ont un test de diagnostic du cancer
du sein (basé sur une mammographie) positif, la sensibilité du test
est :

Se = 185/200 = 92.5%.

La simplicité foncière de l’expression de la sensibilité contraste avec


la difficulté du protocole visant à la mesurer. Les malades doivent
constituer un échantillon représentatif des différentes formes cliniques
(graves et bénignes, débutantes et évoluées, typiques et trompeuses…)
que la maladie est susceptible d’emprunter tout en tenant compte des
terrains différents sur lesquels elle peut survenir (âge, sexe, classe
sociale…).

En effet, l’évaluation de la sensibilité ne doit pas être restreinte aux


formes faciles à reconnaître ou aux formes caractéristiques pour ne
pas sous-estimer les faux négatifs.

L’identification des cas incidents de la maladie par un registre est une


option souhaitable mais les délais souvent lents d’inclusion et de
validation des cas peuvent compromettre cette solution qui a la
préférence des méthodologistes.

Comme tout paramètre estimé sur un échantillon représentatif, il est


indiqué d’assigner à la sensibilité, même si elle est parfaite, un
intervalle de confiance, exactement comme pour un pourcentage
(section 4.1 du chapitre 7).

Dans l’exemple du dépistage du cancer du sein, l’intervalle de


confiance de la sensibilité de la mammographie au risque 5% est :

0.925 ± 1.96√[0.925(1 – 0.925)/200] = 0.925 ± 0.037, soit :

(88.8% - 96.2%)

Ϯϰϳ

ϯ͘^ƉĠĐŝĨŝĐŝƚĠĚ͛ƵŶƚĞƐƚ

La spécificité d’un test (Sp) est une probabilité conditionnelle, elle


mesure la probabilité que le signe soit absent parmi les non malades.
C’est aussi la probabilité que le sujet ne présente pas le signe sachant
qu’il n’est pas atteint par la maladie en question.

Un test a une spécificité de 90% s’il est négatif chez 90% des
personnes n’ayant pas la maladie.

L’indice de sensibilité ne permet pas à lui seul de renseigner sur la


validité interne d’un test qui n’est bon que s’il détecte aussi
convenablement les sujets qui n’ont pas la maladie. C’est pourquoi il
est aussi important de déterminer la spécificité.

La spécificité d’un test est aussi égale au pourcentage de non malades


qui ne présentent pas le signe (tableau 16.2).

Tableau 16.2 Evaluation de la spécificité d’un test


Maladie absente
(référentiel)
Test Positif Faux positifs (FP)
Négatif Vrais négatifs (VN)
Total FP + VN
Spécificité = VN / (FP + VN)

Ainsi, si la mammographie est réalisée chez 150 patientes non


atteintes de cancer du sein et si elle est positive chez 20 d’entre elles,
la spécificité du test est :
Sp = (150-20)/150 = 130/150 = 86.7%

Là aussi, le protocole d’étude pour estimer la spécificité peut être très


ardu. Le statut de non malade ne devrait pas être évident au point de
n’inclure dans l’étude que des sujets jeunes et actifs, forcément en
meilleure santé.

Ϯϰϴ

Des patients atteints d’une autre maladie pouvant prêter à confusion
avec l’affection étudiée, mais en définitive distincte et bien
individualisée, peuvent contribuer, par leur inclusion dans l’étude, à
valider plus fortement la spécificité de l’outil diagnostique.

On devrait là aussi assigner à la spécificité un intervalle de confiance


même si elle est parfaite.

La sensibilité et la spécificité devraient être estimées sur des


échantillons de taille proche pour obtenir une précision équivalente.

Dans tous les cas, la relation entre l’effectif et la précision repose sur
l’intervalle de confiance, généralement au risque de 5%. La
signification clinique des résultats est non seulement appréciée par la
largeur de l’intervalle de confiance mais aussi par la nature et les
conséquences des erreurs diagnostiques.

4. Relation entre sensibilité et spécificité

La valeur diagnostique d’un test est d’autant plus intéressante que sa


sensibilité et sa spécificité sont grandes et se rapprochent de 100%. En
fait, il n’existe pas de test pathognomonique présentant une sensibilité
et une spécificité de 100%. Bien qu’il n’existe pas de seuil absolu à
partir duquel un test est jugé intéressant, on peut considérer comme
douteux les tests dont la sensibilité et la spécificité sont inférieurs à
80%.

D’ailleurs, un test dont la sensibilité ou la spécificité serait inférieure à


50% est considéré comme moins performant qu’une décision prise au
hasard.

La sensibilité et la spécificité varient en sens inverse. L’augmentation


de la sensibilité d’un examen se fait au détriment de sa spécificité et
vice-versa.

Ϯϰϵ

On privilégie la sensibilité, par une baisse du seuil de positivité et en
conséquence par une diminution du nombre de faux négatifs, lorsque
le coût du faux négatif est élevé. Il en est ainsi de la phénylcétonurie,
maladie héréditaire enzymatique rare due à un trouble du métabolisme
de la phénylalanine qui va engendrer essentiellement un retard mental
sévère (oligophrénie). Il importe, dès la naissance, de réduire les
apports de phénylalanine par des mesures diététiques appropriées en
vue de prévenir la survenue de l’oligophrénie. Un dépistage de cette
maladie est pratiqué dans certains pays chez tous les nouveau-nés par
un test simple et sûr.

Un autre exemple est celui du dépistage pré-transfusionnel du


paludisme dans les banques de sang. Un test très sensible n’entraîne
que le rejet à tort de flacons de sang tandis qu’un test peu sensible est
à l’origine de flacons parasités faussement négatifs à l’origine de
paludisme transfusionnel.

On privilégie la spécificité, par une hausse du seuil de positivité et en


conséquence par une diminution du nombre de faux positifs, lorsque
le coût du faux positif est élevé.

Il en est ainsi de l’anencéphalie ou de la toxoplasmose congénitale qui


exigeraient toutes deux une interruption de la grossesse.

On peut retenir qu’un résultat négatif élimine le diagnostic lorsque le


test a une sensibilité élevée tandis qu’un résultat positif confirme
l’hypothèse diagnostique lorsque le test a une spécificité élevée (règle
de Sackett).

La relation entre sensibilité et spécificité est encore plus évidente


lorsque le signe est une variable quantitative. La sensibilité aussi bien
que la spécificité sont fonction du seuil de positivité retenu et varient
en sens inverse en fonction de ce seuil.

ϮϱϬ

Par exemple, si on retient un seuil très bas pour porter le diagnostic
d’hypertension artérielle avec une nouvelle procédure diagnostique,
celle-ci est alors très sensible mais peu spécifique.

Le choix d’un seuil plus élevé indiquerait un test moins sensible mais
plus spécifique.

Un seuil fixé peut avoir un sens clinique précis ou obéir à des critères
explicites d’optimisation de la décision clinique, optimisation qui peut
favoriser la sensibilité (choix d’un seuil inférieur aux valeurs les plus
faibles observées chez les malades) ou la spécificité (choix d’un seuil
supérieur aux valeurs les plus élevées recensées parmi les non
malades).

On peut aussi construire un diagramme (avec zone de traçage carrée)


appelé courbe ROC (Receiver Operating Curve) en faisant varier le
seuil décisionnel tout au long du critère considéré. Pour cela, chaque
seuil possible est représenté par un point ayant pour abscisse le
pourcentage de « faux positifs » (1-Sp) et pour ordonnée le
pourcentage de « vrais positifs » (Se).

La courbe ROC qui montre la relation entre la proportion de vrais


positifs et la proportion de faux positifs reflète la capacité du test à
distinguer les malades des non malades pour tous les seuils
considérés. La figure 16.1 est un exemple de courbe ROC.

Le tracé complet de la courbe s’effectue à l’aide d’un logiciel de


calcul (OpenEpi du logiciel Epi-info) mais on peut toujours la
représenter par des segments de droite reliant les quelques points pour
lesquels le calcul a été fait.

Un seuil optimal pour un examen donné correspond au point


d’inflexion proche du coin supérieur gauche. Un test non informatif
aurait une courbe suivant la diagonale tandis que la courbe d’un test
pathognomonique s’ajusterait au point supérieur gauche du
diagramme.
Ϯϱϭ

L’aire sous la courbe de ROC (AROC) accompagnée d’un intervalle
de confiance à 95% est aussi déterminée par des logiciels (OpenEpi du
programme Epi-info) et est comprise entre 0.5 (examen au hasard) et
1 (examen parfait).

Figure 16.1 Exemple de courbe ROC


Se

0.90

0.80

0.70

0.60

0.50

0.10 0.20 0.30 1 - Sp

5. Indices pour synthétiser la sensibilité et la spécificité

Il existe des indices de synthèse permettant de prendre en compte


simultanément la sensibilité et la spécificité.

On peut ainsi estimer l’exactitude du test (ou exactitude du diagnostic)


par la quantité (VP + VN)/n qui représente le pourcentage de sujets
bien classés, pourcentage qui doit aussi être accompagné par son
intervalle de confiance à 95%.

Un autre indice de synthèse prenant en compte la sensibilité et la


spécificité a été proposé : c’est l’indice de Youden qui est égal à (Se +
Sp – 1).
ϮϱϮ

L’indice de Youden est égal à 1 si l’examen présente une sensibilité et
une spécificité parfaites (100%). Par contre, il est égal à 0 si l’examen
en question n’a pas de valeur diagnostique. L’équilibre à rechercher
entre sensibilité et spécificité est fonction des besoins de l’étude.

Par exemple, dans le cas d’une maladie comme le diabète qui a une
évolution qui n’est pas totalement influencée par le traitement, la
spécificité doit être élevée. La sensibilité sera plus faible et la
détection précoce de certains cas ne se fera pas mais la demande en
matière de diagnostic sera limitée.

Les rapports de vraisemblance (likelihood ratios) sont d’autres indices


de synthèse qui décrivent l’apport d’un test au diagnostic en exprimant
le nombre de fois où un résultat de test est plus vraisemblablement
trouvé chez des malades par rapport à des non malades.

On dit que ces rapports, qui quantifient la capacité d’un test à


différencier les sujets malades des sujets non malades, expriment le
changement entre la probabilité pré-test (prévalence de la maladie
dans la population étudiée) et post-test (VPP, section 2.1 ci-dessous)
d’avoir la maladie. Si le rapport de vraisemblance est égal à 1, cela
exprime l’absence de changement et en conséquence que le gain
diagnostique apporté par le test est nul.

Les rapports de vraisemblance sont un bon indicateur de la « valeur


diagnostique » d’un test et sont indépendants de la prévalence de la
maladie.

Le rapport de vraisemblance positif (RV+), souvent noté par L,


exprime qu’un sujet a L fois plus de chance d’avoir un test positif s’il
est atteint de la maladie que d’avoir un test positif s’il n’est pas atteint
par la maladie :

RV+ : L = Se/(1 – Sp)

Ϯϱϯ

Ce rapport varie de 0 (sensibilité nulle) à l’infini (quand la spécificité
tend vers 100%). Plus le rapport de vraisemblance d’un test positif est
supérieur à 1, plus il permet de confirmer la maladie. Ainsi, l’apport
diagnostique d’un résultat positif du test est d’autant plus grand que la
valeur de L est plus élevée.

Un rapport de vraisemblance positif de 5 indique que le test a cinq fois


plus de chance d’être positif lorsque la personne est malade que
lorsque la personne n’est pas malade.

Le rapport de vraisemblance négatif (RV-), souvent noté Ȝ, exprime


qu’un sujet à Ȝ fois plus de chance d’avoir un test négatif s’il est
atteint de la maladie que d’avoir un test négatif s’il n’est pas atteint
par la maladie :

RV- : Ȝ = (1 – Se)/Sp

Ce rapport varie de 0 à 1. Plus le rapport de vraisemblance d’un test


négatif est petit et proche de 0, plus il permet d’exclure la maladie.
Ainsi, l’apport diagnostique d’un résultat négatif du test est d’autant
plus grand que la valeur de Ȝ est proche de 0.

Par exemple, si Ȝ = 0.1034, cela exprime qu’un sujet a 0.10 fois plus
de chance d’avoir un test négatif s’il est atteint de la maladie que
d’avoir un test négatif s’il n’est pas atteint par la maladie. Ou
alternativement, un sujet a 9.67 (1/0.1034) plus de chance d’avoir un
test négatif s’il n’est pas atteint par la maladie que d’avoir un test
négatif s’il est atteint de la maladie.

Un rapport de vraisemblance de 0.20 indique que le test a cinq fois


plus de chance (1/0.20) d’être négatif lorsque la personne n’est pas
malade que lorsque la personne est malade.

Le tableau 16.3 a été proposé pour interpréter le rapport de


vraisemblance.

Ϯϱϰ

Il est important de savoir que la sensibilité et la spécificité ne
dépendent pas de la prévalence de la maladie étudiée (proportion de
sujets malades parmi les individus auxquels l’outil diagnostique est
appliqué).

En effet, ces indices restent invariants aux changements de prévalence,


ce qui n’est pas le cas, comme nous le verrons ci-dessous, des valeurs
prédictives.

C’est pourquoi la sensibilité et la spécificité représentent la précision


intrinsèque (accuracy dans la littérature de langue anglaise) d’un
examen car, quel que soit le lieu où il est employé, sa puissance
diagnostique est la même.

Tableau 16.3 Interprétation du rapport de vraisemblance


(d’après Michel Labrecque)
Valeur du rapport de Changement entre la probabilité prétest et
vraisemblance posttest d’avoir la maladie
Rapport de Rapport de
vraisemblance vraisemblance
du test positif du test négatif
10 et plus 0.1 et moins Important
5 - 10 0.1 – 0.2 Modéré
2-5 0.2 – 0.5 Faible mais parfois cliniquement
significatif
1-2 0.5 - 1 Faible rarement cliniquement significatif
1 1 Aucun

Ϯϱϱ

6. Indices de validité prédictive

6.1 Estimation des indices

Le seuil de positivité fixé, il convient de déterminer l’utilité du test sur


le terrain en déterminant les indices de validité prédictive qui sont au
nombre de deux : la valeur prédictive positive et la valeur prédictive
négative.

Car en situation réelle (diagnostic ou dépistage), des sujets sont


soumis à un test. Celui-ci est alors soit positif, soit négatif. Le statut
réel de la maladie est encore inconnu contrairement au contexte des
indices de validité interne. Le problème est maintenant d’interpréter
ces résultats quant à l’état de santé réel des sujets.

La valeur prédictive positive (VPP) mesure la probabilité qu’une


personne ayant un test positif soit réellement atteinte par la maladie.

La valeur prédictive négative (VPN) mesure la probabilité qu’une


personne ayant un test négatif ne soit pas atteinte de la maladie.

Les tableaux ayant servi à déterminer la Se et la Sp peuvent être


regroupés en un seul tableau pour la détermination des indices de
validité prédictive, comme s’il s’agit d’un échantillon unique
représentatif (tableau 16.4). La prévalence de la maladie serait estimée
par (VP + FN)/n.

Tableau 16.4 Etablissement des indices de validité prédictive


Maladie Total
Présente Absente
Test Positif VP FP VP+FP
Négatif FN VN FN+VN
Total VP+FN FP+VN n

Ϯϱϲ

La valeur prédictive positive est estimée par :

VPP = VP / (VP + FP).

La valeur prédictive négative est estimée par :

VPN = VN / (FN +VN)

Ces expressions des valeurs prédictives ne peuvent être utilisées que si


l’échantillon sur lequel elles sont déterminées est représentatif de la
population à laquelle le test est destiné en routine. Les valeurs
ponctuelles de valeurs prédictives doivent être accompagnées par leur
intervalle de confiance.

Ainsi, la VPP, quand bien même serait-elle élevée, doit être


interprétée avec précaution si elle est assortie d’un intervalle de
confiance large du fait d’une taille échantillonnale faible.

Le rapport VPP/(1-VPN) = k exprime le fait qu’un sujet avec un test


positif a k fois plus de chances d’être malade qu’un sujet avec un test
négatif. Ce rapport à la signification d’un risque relatif (chapitre 14).
En effet :
k =[a/(a+b)] / [1 – d/(c+d)] = [a/(a+b)] / [c/(c+d)].

Reprenons les données qui ont permis de déterminer les indices de


validité interne relatifs au test de mammographie pour établir le
diagnostic de cancer du sein en supposant que ces indices ont été
estimés à partir d’un même groupe de patientes fréquentant un même
service spécialisé.

Les indices de validité prédictive peuvent être déterminés pour les


patients recrutés dans un tel service spécialisé où la prévalence du
cancer du sein est de 57.1% (200/350). Le tableau synoptique 16.5 est
le tableau de synthèse correspondant d’où on peut tirer :

• VPP = 185/205 = 90.2%


Ϯϱϳ

• VPN = 130/145 = 89.7%

Tableau 16.5 Validité prédictive d’un test de mammographie


pour établir le diagnostic de cancer du sein dans un service spécialisé
Atteints de cancer Non atteints de cancer Total
Positif 185 20 205
Négatif 15 130 145
Total 200 150 350

La stratégie diagnostique dans ce contexte spécialisé semble assez


performante puisque 90.2% des résultats positifs et 89.7% des
résultats négatifs sont exacts.

Si le même test, avec la même validité interne (Se = 92.5%, Sp =


86.7%), est utilisé chez tous les malades admis à l’hôpital, parmi
lesquels on retrouve les 200 patientes atteintes d’un cancer du sein,
mais où la prévalence de celui-ci n’est plus que de 10% (200/2000),
les indices de validité deviennent (tableau 16.6) :

• VPP = 185/424 = 43.6%


• VPN = 1561/1576 = 99.0%.

Tableau 16.6 Validité prédictive d’un test de mammographie


pour établir le diagnostic de cancer du sein dans un hôpital général
Atteints de cancer Non atteints de cancer Total
Positif 185 239 424
Négatif 15 1561 1576
Total 200 1800 2000

Si le test devient une très bonne stratégie diagnostique pour affirmer


l’absence de cancer (la quasi-totalité des sujets avec des tests négatifs
ne sont effectivement pas atteints de cancer), il représente par contre
une très mauvaise stratégie diagnostique pour signer la présence de
cancer puisque la VPP s’est effondrée (plus de la moitié des sujets
avec un test positif ne sont pas atteints de cancer).

Ϯϱϴ

Un autre exemple de dépistage inefficace est illustré par les données
du tableau 16.7

Tableau 16.7 Données d’un test de dépistage


Référentiel pour la maladie Total
Présente Absente
Signe présent 9 991 1000
Signe absent 1 8999 9000
Total 10 9990 10000

Même si la sensibilité et la spécificité ont chacune une valeur de 90%,


la VPP n’est que 0.9% (9/1000)

Un indice a été proposé qui établit une relation entre la VPP et la


prévalence. Il s’agit du gain diagnostique positif d’un test qui est la
différence entre la probabilité pré-test (prévalence) de la maladie et la
probabilité post-test (VPP). Le gain est positif si la différence (VPP –
prévalence) est positive

Un diagramme a aussi été proposé (diagramme de Fagan) qui permet


sans calcul de déterminer la probabilité post-test (VPP) à partir de la
prévalence (probabilité pré-test) et du rapport de vraisemblance
positif.

6.2 Relation entre valeurs prédictives, sensibilité et spécificité

La valeur prédictive positive et la valeur prédictive négative d’un test


s’écrivent, de façon plus formelle, en fonction de la sensibilité, de la
spécificité et de la prévalence (ou de la probabilité à priori) P de la
maladie dans la population considérée :

VPP = (Se* P) / [Se*P + (1-Sp)(1-P)]

VPN = [Sp(1- P)] / [Sp(1-P) + (1-Se)P]

Ϯϱϵ

Ce sont les formules de Bayes qui illustrent le fait que les valeurs
prédictives dépendent non seulement de la sensibilité et de la
spécificité mais aussi et surtout de la proportion de sujets réellement
malades parmi les patients à qui le test diagnostic est destiné.

On a évalué par exemple, dans un service de réanimation, le


positionnement intragastrique de la sonde nasogastrique (SNG) par
l’insufflation d’air avec auscultation de l’épigastre sachant que le
moyen le plus sûr d’affirmer le bon positionnement de la SNG est le
contrôle radiographique (cliché thoracique).

Tous les patients du service de réanimation, pendant une période de


deux ans, chez lesquels était indiquée une pose de SNG pour
aspiration nasogastrique ou nutrition entérale ont été inclus dans
l’étude.

Les malades inclus dans l’étude peuvent être considérés comme une
population ou un échantillon représentatif de tous les malades du
service nécessitant la pose d’une SNG. Les résultats sont consignés au
tableau 16.8.

Tableau 16.8 Indices de validité de l’insufflation d’air avec auscultation de


l’épigastre pour évaluer le positionnement intragastrique
de la sonde nasogastrique
Cliché thoracique (référentiel) Total
Oui Non
Test positif 356 35
Test négatif 16 7 23
Total 372 42

Les indices de validités accompagnés de leur intervalle de confiance à


95% sont immédiatement déterminés par le programme OpenEpi du
logiciel Epi-info :

• Sensibilité : 95.7% (93.1 – 97.3)


• Spécificité : 16.7 (8.3 – 30.6)
ϮϲϬ

• VPP : 91.1% (87.8 – 93.5)
• VPN : 30.4% (15.6 – 50.9)
• Exactitude du diagnostic : 87.7% (84.2 – 90.5)
• Rapport de vraisemblance positif : 1.15 (1.09 – 1.22)
• Rapport de vraisemblance négatif : 0.26 (0.06 – 1.18)
• Coefficient kappa (section 2, chapitre 17) : 0.15 (0.06 – 0.25)

L’insufflation d’air avec auscultation de l’épigastre ne se hisse pas au


niveau du cliché thoracique pour affirmer le positionnement
intragastrique de la SNG : la spécificité est particulièrement effondrée
tandis que la valeur du rapport de vraisemblance du test positif
n’indique pas de changement cliniquement significatif.

On pourrait calculer la VPP et la VPN en utilisant les formules de


Bayes :

• VPP = (0.957*372/414)/[(0.957*372/414)+(1-0.167)*(1-372/414)]
= 91.1%

• VPN = [0.167*(1-372/414)]/{[ 0.167*(1-372/414)]+[(1-0.957)*372/414]}


= 30.4%

La valeur de la VPN est loin d’être intéressante.

Alors que la sensibilité et la spécificité doivent toujours être estimées


pour juger la validité d’un outil diagnostique, le calcul des valeurs
prédictives peut ne pas être effectué. On doit cependant mettre en
exergue les variations de ces valeurs en fonction des prévalences
estimées parmi les groupes de population auxquels le test peut être
appliqué.

De façon générale, pour un test donné, la VPP varie dans le même


sens que la prévalence alors que la VPN varie en sens inverse.

Il faut noter que la valeur prédictive d’un examen ne dépend pas de la


prévalence lorsque la sensibilité ou la spécificité est égale à 100%.
Ϯϲϭ

Si Se = 100% (d’après le tableau 16.4), cela veut dire que le signe est
constamment présent chez les malades et que VPN = 1. Donc, tout
sujet ne présentant pas le signe est non malade, quelle que soit P. La
VPN dépend donc de la sensibilité.

Si l’objectif de la stratégie diagnostique est plutôt de rassurer les


patients et de confirmer l’absence de la maladie, on a donc intérêt à
utiliser un test très sensible dans une population où la prévalence de la
maladie est faible. C’est pourquoi on exige un test très sensible
lorsqu’on désire effectuer un dépistage laissant échapper le moins
possible de sujets malades.

Si Sp = 100% (d’après le tableau 16.4), cela veut dire que le signe est
constamment absent chez les sujets sains et que VPP = 1. Donc, tout
sujet présentant le signe est malade, quelle que soit P. La VPP d’un
test dépend donc de la spécificité.

Si l’objectif de la stratégie diagnostique est de confirmer la présence


de la maladie, on a donc intérêt à utiliser un test très spécifique dans
une population où la prévalence de la maladie est élevée. C’est
pourquoi on exige un test très spécifique lorsqu’on désire obtenir une
certitude diagnostique élevée, comme cela se passe en pratique
clinique avant de prendre une décision lourde.

ϮϲϮ

Chapitre 17

Indices de validité externe : reproductibilité des résultats

1. Définition

La validité externe d’un examen est son aptitude à reproduire


régulièrement la même information à l’occasion de mesures répétées,
dans les mêmes conditions, sur la même personne.

La validité externe est aussi désignée par reproductibilité, constance,


crédibilité, fiabilité, fidélité, variabilité ou précision des résultats. On
peut retenir que plus un examen est reproductible, plus il est fiable.

La validité externe d’une étude est un concept également utilisé


lorsque les résultats de l’étude sont confirmés par les résultats d’autres
études et/ou lorsque les résultats d’une étude sont cohérents avec les
connaissances fondamentales qu’elles soient biologiques,
physiopathologiques ou épidémiologiques.

L’exemple suivant illustre le concept de reproductibilité. Un même


manipulateur effectue 25 fois la mesure de la glycémie à partir du
même prélèvement par chacune de trois méthodes différentes à
comparer (méthode A, B, C).

La valeur réelle de la glycémie est supposée connue au moment du


prélèvement qui a servi à effectuer les mesures. La figure 17.1
schématise les résultats obtenus.

La méthode A donne des résultats reproductibles avec une bonne


validité interne. La méthode B donne aussi des résultats
reproductibles, mais avec une validité interne mauvaise. La méthode
C ne donne pas de résultats reproductibles bien que la mesure
moyenne obtenue soit proche de la valeur réelle.

Ϯϲϯ

Figure 17.1 Distribution de 25 valeurs de la glycémie à partir
du même prélèvement par 3 méthodes différentes

Valeur réelle

Méthode A

0.8 1g 1.2

Valeur réelle

Méthode B

1g 1.2 1.4 1.6

Valeur réelle

Méthode C

0.8 1g 1.2 1.4 1.6

Ϯϲϰ

Les mesures d’association statistique habituelles comme le coefficient
de corrélation de Pearson (atelier Biosta TGV et OpenEpi) ne
renseignent pas sur la reproductibilité.

Une corrélation parfaite pourrait s’observer entre deux examinateurs


qui noteraient un examen lorsque un examinateur donne
systématiquement 10 points de plus pour chaque copie par rapport à
l’autre. La corrélation est parfaite mais il n’y a aucun accord entre les
deux examinateurs.

2. Quantification de la reproductibilité : écart type et mesure


Kappa

On chiffre la reproductibilité, lorsque le caractère étudié est


quantitatif, par le calcul de la variance (ou de l’écart type).

La mesure Kappa mesure l’accord entre deux observateurs lorsque le


critère de jugement est un caractère qualitatif.

Supposons que l’on veuille mesurer la reproductibilité d’une


technique pour le dosage du sucre urinaire. Les résultats sont exprimés
ainsi : négatif, faiblement positif et positif (les modalités peuvent être
plus ou moins nombreuses). Le test est effectué sur chaque malade
deux fois par deux médecins différents. Supposons que les résultats
observés sur un groupe de 70 sujets soient ceux du tableau 17.1.

Tableau 17.1 Estimation qualitative par deux médecins de la présence


de sucre dans les urines chez un même groupe de 70 malades
(distributions marginales uniquement)
Sucre dans les urines
Médecin Négatif Faiblement positif Positif Total
Médecin A 42 20 8 70
Médecin B 42 20 8 70

Ϯϲϱ

Les deux distributions sont parfaitement identiques. Mais l’on ne peut
juger de la reproductibilité des résultats que si l’on fait apparaître la
correspondance des résultats en tenant compte des sujets (cross
tabulation ou visualisation des distributions conditionnelles). Le
tableau 17.2 tient compte de cette exigence.

L’accord observé (ou concordance observée identifiée par la


diagonale) est :
(28 + 4 + 2) / 70 = 0.49.

Cette concordance observée est donc mauvaise puisqu’elle est


pratiquement égale à 50% Cette valeur est celle que l’on aurait
observé du fait du seul hasard.

Tableau 17.2 Estimation qualitative par deux médecins de la présence


de sucre dans les urines chez un même groupe de 70 malades
(cross tabulation)
Médecin A
Négatif Faiblement Positif Total
positif
Médecin B Négatif 28 14 0 42
Faiblement 10 4 6 20
positif
Positif 4 2 2 8
Total 42 20 8 70

Le coefficient Kappa quantifie l’accord observé par rapport à l’accord


lié au hasard. En d’autres termes, il calcule la concordance réelle après
prise en compte de la concordance due au hasard :

Kappa = (O –C) / (1 – C),

avec O = concordance observée et C = concordance attendue (due au


hasard).

Ϯϲϲ

La concordance attendue est obtenue en multipliant les totaux des
distributions marginales (ligne et colonne) correspondant à chaque
modalité, on fait la somme des produits et on divise par le carré de
l’effectif du groupe :

Concordance attendue = (42*42 + 20*20 + 8*8) / 70² = 0.45.

Ainsi, Kappa = (0.49 – 0.45) / (1 – 0.45) = 0.07.

Cette valeur de Kappa est non satisfaisante car le coefficient de Kappa


peut varier de –1.0 (désaccord absolu) à 1.0 (concordance totale) en
passant par la valeur 0 qui traduit l’accord du au hasard, ce qui est le
cas de notre exemple.

Le coefficient Kappa, par une transformation algébrique, peut aussi


s’écrire :
Kappa = (d – d’) / (n – d’),

avec d = somme des effectifs de la diagonale et d’ = somme des


effectifs théoriques de la diagonale (ces effectifs théoriques sont ceux
qu’on obtient comme pour le calcul d’un khi-deux).

Dans notre exemple :


d = 28+4+2 = 34 et d’ = (42*42+20*20+8*8)/70 = 31.83.
D’où Kappa = (34-31.83)/(70-31.83) = 0.07 (la même valeur est
retrouvée).

On peut tester la signification de Kappa par l’écart réduit :

z = Kappa√[n(n-d’)/d’].

Pour notre exemple, où l’hypothèse nulle consiste à dire qu’il n’y a


pas d’accord entre les deux médecins (ou que l’accord entre les deux
médecins n’est pas significatif),
z = 0.07√[70(70-31.83)/31.83] = 0.64, NS.
Ϯϲϳ

L’accord entre les deux médecins n’est donc pas significatif. L’accord
aurait été significatif si z ≥ 1.96 au seuil 5%.

Comme toute mesure calculée sur des données observées, l’estimation


de Kappa est soumise aux fluctuations d’échantillonnage. L’erreur
type sur Kappa est : [1/(n-d’)]*√[d(1-d/n)].

On peut vérifier, pour notre exemple, que l’erreur type sur Kappa est
égale à 0.11. L’intervalle de confiance (IC) de Kappa à 95% peut être
approximativement donné par (0.07 - 1.96*0.11 ; 0.07 + 1.96*0.11),
soit (-0.15 ; 0.29).

La signification clinique des résultats est appréciée par la largeur de


l’intervalle de confiance, ainsi que sur la nature et les conséquences
des discordances observées.

Prenons un autre exemple. On a demandé à deux enquêteurs de classer


126 sujets selon leur classe sociale subdivisée en cinq classes. Les
résultats sont au tableau 17.3.

Tableau 17.3 Classement par deux enquêteurs d’un même groupe


de 126 sujets selon leur classe sociale (CS)
Enquêteur 1
CS 1 CS 2 CS 3 CS 4 CS 5 Total
CS 1 18 2 0 2 3 25
Enquê- CS 2 3 9 0 0 0 12
teur 2 CS 3 1 0 11 4 2 18
CS 4 3 1 8 13 1 26
CS 5 2 0 6 11 26 45
Total 27 12 25 30 32 126

Puisque d = 77 et d’ = 27.7, Kappa = (77-27.7)/(126-27.7) = 0.50.

Calculons z pour tester la signification de Kappa :


z = 0.50√[126(126-27.7)/27.7’] = 10.58, p < 10-9.

Ϯϲϴ

L’accord entre les deux enquêteurs est très significatif, cette situation
est donc souhaitable.

Sans test de signification, on peut admettre que la concordance est :

• bonne si Kappa > 0.6


• mauvaise si Kappa < 0.3
• intermédiaire entre ces deux valeurs.

Dans le cas d’une appréciation quantitative enfin, l’accord entre deux


observateurs peut aussi être mesuré par Kappa si on transforme la
variable quantitative en critère qualitatif. Mais si on veut maintenir à
l’appréciation son caractère quantitatif, il faut calculer une autre
mesure, non envisagée ici, qui est le coefficient de corrélation intra-
classe.

3. Sources de la variabilité

Quatre sources de variabilité sont susceptibles d’affecter la


reproductibilité :

• Variation biologique (due au sujet)


• Crédibilité de l’instrument
• Variabilité liée à l’observateur
• Variabilité liée à plusieurs observateurs (par leur façon de
travailler et d’interpréter les résultats)

Les sources de variabilité, à l’occasion d’une étude relative à


l’évaluation d’un test diagnostique, doivent toujours être discutées. Un
test diagnostique est en effet non seulement évalué sur le plan de la
validité, mais aussi sur le plan de la reproductibilité.

Ϯϲϵ

La validité et la reproductibilité sont en effet deux aspects
complémentaires de l’évaluation d’un test diagnostique. Mais il est
exceptionnel qu’une même étude puisse avoir comme objectif
l’évaluation simultanée de ces deux aspects à cause d’exigences
méthodologiques propres.

Une mauvaise reproductibilité engendre habituellement un défaut de


validité. Par contre, une bonne reproductibilité peut être observée pour
un test diagnostique qui présente un défaut de validité. La validité
d’un test diagnostique devrait être envisagée après que la
reproductibilité a été établie.

Par exemple, au cours de la phase préparatoire d’une étude, huit


enquêteurs ont été formés pour prendre des mesures
anthropométriques. Pour évaluer leur apprentissage, on demande à
chacun de ces enquêteurs de mesurer la taille (en cm) d’un même
groupe de 16 sujets avec le même matériel.

L’indice de sujet est représenté par i tandis que l’indice d’enquêteur


est représenté par j. Les différentes que les huit enquêteurs ont
relevées pour chacun des 16 sujets sont contenues au tableau 17.4 où
tous les nij sont égaux à 1 (une seule mesure par case).

Le tableau 17.4 contient les données de trois variables :

• L’enquêteur : 8 modalités qui déterminent les 8 enquêteurs


à comparer ( j = 1, 2, …, 8) ;
• Le sujet enquêté : 16 modalités, elle joue le rôle de variable
d’ajustement (i = 1, 2, …, 16) ;
• La taille des sujets qui sert de critère de jugement.

Le problème qui se pose est de savoir si les 8 enquêteurs travaillent


tous en moyenne de la même façon ou si, au contraire, ils travaillent
différemment.

ϮϳϬ

Tableau 17.4 Taille en cm de 16 sujets selon 8 enquêteurs
Enq 1 2 3 4 5 6 7 8 mi si ¦ix ¦ix²
Suj (Ti)
1 175 175 176 175 176 176 175
176 175. 0.5 1404 246
5 404
2 176 177 178 176 176 177 176 176 176. 0.8 1412 249
5 222
3 169 170 170 170 170 171 170 169 169. 0.6 1359 230
9 863
4 174 174 174 174 173 174 173 174 173. 0.5 1390 241
8 514
5 168 168 168 168 167 168 168 168 167. 0.4 1343 225
9 457
6 174 173 174 174 174 174 174 174 173. 0.4 1391 241
9 861
7 183 184 182 182 183 182 183 182 182. 0.7 1461 266
6 819
8 182 183 182 182 183 183 183 182 182. 0.5 1460 266
5 452
9 167 167 167 166 167 167 167 167 166. 0.4 1335 222
9 779
10 173 173 174 173 174 173 173 173 173. 0.5 1386 240
3 126
11 162 162 162 162 162 161 162 162 161. 0.4 1295 209
9 629
12 172 173 173 173 173 173 173 173 172. 0.4 1383 239
9 087
13 169 169 169 169 169 169 169 170 169. 0.4 1353 228
1 827
14 176 175 175 176 176 176 175 176 175. 0.5 1405 246
9 755
15 167 168 167 168 168 168 167 167 167. 0.5 1340 224
5 452
16 179 179 179 179 179 179 179 179 179. 0.0 1432 256
0 328
mj 172. 173. 173. 172. 173. 173. 172. 173.
9 1 1 9 1 2 9 0
sj 5.7 5.9 5.7 5.6 5.8 5.8 5.8 5.6
¦jx 276 277 277 276 277 277 276 276 ¦x =
(Tj) 6 0 0 7 0 1 7 8 22149
¦jx² 478 480 480 478 480 480 479 479 ¦x² =
664 070 038 985 064 405 015 334 3836575
Ϯϳϭ

On peut penser résoudre le problème en comparant par une analyse de
variance usuelle (à une dimension) les moyennes mj des 8 enquêteurs
sans prendre en compte le fait que les mêmes sujets subissent 8 fois la
mesure de la taille.

En fait, le problème ne peut être résolu correctement et globalement


qu’en réalisant une analyse de variance à deux dimensions. Celle-ci
consiste à établir un tableau d’analyse qui prend en compte
l’intervention simultanée des deux variables « enquêteur » et « sujet »
dans la détermination des valeurs de la taille (tableau 17.5).

Tableau 17.5 Analyse de la variance à deux dimensions


pour les facteurs « enquêteur » et « sujet » simultanément
(données du tableau 17.4)
Origine Somme des carrés des écarts dl Varianc F
(1) (2) (3) e
(4)
=(2)/(3)
Entre ¦Tj²/16 - ¦x²/(16*8) = 8- 0.21 0.88a
enquêteurs 3832643.7-3832642 = 1.7 1=7 NS
Entre sujets ¦Ti²/8 - ¦x²/(16*8) = 16 260.40 1085.0b
3836547.9 – 3832642 = - p<0.00
3905.9 1=15 1
Résiduelle 3932.8-(1.5+3905.9) = 25.4 127- 0.24
(15+7)
=105
Total ¦x² - (¦x)²/(16*8) = (16*8)
3836575 – 3832642 = 3932.8 - =127
a
: F = 0.21/0.24 = 0.88 et F7105 à 5% = 2.13 (par interpolation)
b
: F = 260.40/0.24 = 1085.0 et F15105 à 1 pour 1000 =2.13 (par
interpolation)

ϮϳϮ

C’est à partir du tableau 17.4 que les termes suivants ont été calculés :

• ¦Tj²/16 =
(2766²+2770²+2770²+2767²+2770²+2771²+2767²+2768²)/16
= 3832643.7
• ¦Ti²/8 = (1402²+1412²+1359²+1390²+1343²+1391²+…+1432²)/8
= 3836547.9

On conclut à partir du tableau d’analyse 17.5 qu’il existe un facteur


« sujet » mais qu’il n’existe pas de facteur « enquêteur ». Autrement
dit, les sujets diffèrent entre eux par la taille mais les enquêteurs
travaillent de la même façon.

Pour effectuer l’analyse, les variances des cases devraient être égales.
Cette condition est admise à priori parce qu’elle ne peut pas être
vérifiée du fait de la présence d’une seule observation par case. Le
critère de jugement quantitatif devrait être, quant à lui, distribué
normalement.

En outre, l’analyse d’un plan d’ordre 2 à une répétition suppose qu’il


n’y ait pas d’interaction entre les deux facteurs, interaction qui ne peut
d’ailleurs pas être mesurée dans un tel plan.

Dans l’exemple, l’absence d’interaction veut dire d’une part que si un


sujet est grand (ou petit), il est perçu comme tel par tous les
enquêteurs. D’autre part, si un enquêteur a tendance à augmenter (ou à
diminuer) la taille d’un sujet, il augmente (ou diminue) la taille des
autres sujets.

Mais l’analyse reste quand même valable si l’absence d’interaction ne


traduit pas toujours la réalité. Le test statistique proposé est en effet
robuste, il résiste à des écarts des conditions d’application.

Ϯϳϯ

L’évaluation de la reproductibilité d’un outil diagnostique devrait être
effectuée, sur des individus aussi hétérogènes que possible, par tirage
au sort qui peut intéresser plusieurs sources de variation dans les plans
factoriels. Les huit enquêteurs et les seize sujets de l’exemple
devraient être tirés au sort pour effectuer et subir la mesure de la taille
dans un ordre donné. La mise en place de mesures d’insu pour
mesurer un phénomène suggestif est habituellement exigée pour
valider l’étude.

4. Régression vers la moyenne

Une valeur anormalement élevée observée chez un individu a


tendance à être suivie spontanément par une valeur moindre plus près
de la moyenne. Ce phénomène très général est appelé « régression
vers la moyenne » et doit toujours pris en compte lorsqu’il s’agit
d’estimer la prévalence d’un état pathologique donné.

Pour y arriver, on peut répéter (une ou plusieurs fois) les mesures de


base, notamment pour les sujets dont la valeur est supérieure au seuil,
et prendre la valeur moyenne. On peut aussi prendre comme valeur
définitive celle de l’examen de contrôle et non celle du premier
examen. On peut aussi préconiser l’auto mesure.

Ainsi, en matière de tension artérielle, une estimation valable peut être


fournie par la moyenne de plusieurs mesures effectuées selon un
protocole détaillé et standardisé par des enquêteurs formés.

La baisse spontanée enregistrée sur les variables biologiques


quantitatives (tension artérielle, glycémie, cholestérol…) n’est pas
due à une quelconque intervention médicale, mais peut être considérée
comme un artéfact statistique. Le phénomène inverse, c’est à dire les
valeurs basses suivies par des valeurs plus moyennes, peut aussi
s’observer. On peut citer à ce propos les tests d’intelligence.

Ϯϳϰ

Chapitre 18

Dépistage et normalité

1. Définition du dépistage

Selon l’Organisation Mondiale de la Santé, « un dépistage est une


action de prévention secondaire visant à identifier présomptivement à
l’aide d’un test, d’un examen ou de toute autre technique d’application
rapide, les personnes atteintes d’un problème de santé latent, passé
jusque-là inaperçu ». Le dépistage vise donc, par l’application
systématique d’un test à une population, à détecter une maladie avant
l’apparition des symptômes.

La figure 18.1 illustre les différentes étapes de l’histoire naturelle


d’une maladie ainsi que la phase préclinique dépistable :

La longueur de la phase préclinique peut être déterminée par les


études de l’histoire naturelle de la maladie. Le cancer du col utérin qui
met environ 10 ans à arriver au stade invasif caractérisé par la
survenue des symptômes est un bon exemple d’une maladie avec une
longue phase préclinique.

Figure 18.1 Etapes de l’histoire naturelle d’une maladie

A B C D

Début Maladie Apparition Décès


Biologique dépistable des symptômes

Phase préclinique dépistable

Ϯϳϱ

Un dépistage n’est indiqué que si la phase préclinique de la maladie
est longue.

2. Critères de dépistage d’une maladie

Pour faire l’objet d’un dépistage, une maladie devra être sérieuse ; le
traitement instauré avant l’apparition des symptômes devra être plus
bénéfique que celui établi après leur survenue (en termes de réduction
de la mortalité et de la morbidité) et la prévalence (proportion ou
probabilité à priori)) de la maladie au stade infra-clinique devra être
élevée au sein de la population soumise au dépistage.

C’est ainsi que l’hypertension artérielle et le cancer du col utérin


satisfont aux critères de dépistage d’une maladie.

Par contre, à cause de son pronostic très mauvais, quel que soit la date
de début du traitement, le dépistage du cancer du poumon ne se
justifie pas.

Il en est de même pour la lithiase biliaire qui n’est habituellement pas


mortelle ou des cancers cutanés (à l’exception du mélanome) qui sont
pratiquement curables dans tous les cas.

3. Critères d’un bon test de dépistage

Un bon test de dépistage devrait être non seulement reproductible


mais aussi hautement sensible et spécifique.

Un bon test de dépistage devrait aussi avoir des valeurs prédictives


élevées.

Ϯϳϲ

La VPP mesure le rendement du dépistage et dépend non seulement
de la validité intrinsèque du test (sensibilité et spécificité) mais
également de la prévalence de la maladie au stade infraclinique.

Plus le test sera spécifique, plus il est probable qu’un individu testé
comme positif aura la maladie et plus grande sera la valeur prédictive
positive.

La VPP peut donc être augmentée soit en accroissant la spécificité du


test (en modifiant le critère de positivité), soit en augmentant la
prévalence de la maladie infraclinique dans la population soumise au
dépistage (dépistage du cancer du sein chez des femmes ayant des
antécédents familiaux de la maladie, dépistage du cancer de la vessie
chez des sujets professionnellement exposés…).

4. Evaluation d’un programme de dépistage

La définition du dépistage, les critères de dépistage d’une maladie et


d’un bon test de dépistage ont été exposés par ailleurs. Dans tous les
cas, ces critères ainsi que l’acceptabilité du test utilisé, le coût par cas
dépisté, la proportion des cas dépistés dans la population-cible ne
permettent pas de prévoir si un programme de dépistage diminue la
morbidité et la mortalité inhérentes à une maladie donnée.

L’évaluation d’un programme de dépistage sur le plan de l’efficacité


obéit en effet à quelques considérations particulières.

Selon Hennekens (Hennekens CH and al : Epidémiologie en médecine.


Editions Frison-Roche, Paris, 1998 : 333-339), « la mesure la plus claire
de l’efficacité d’un programme de dépistage est la comparaison des
taux de mortalité spécifique chez les sujets dont le dépistage a permis
le diagnostic et chez ceux dont le diagnostic a été établi après la
survenue des symptômes ».

Ϯϳϳ

En situation descriptive, la mesure ultime du succès d’un programme
de dépistage est une réduction avérée du taux de mortalité spécifique
de la maladie dans la population soumise au dépistage.

Outre le biais d’autosélection, la mortalité spécifique, pour être


correctement évaluée, doit prendre en considération deux biais
principaux : le biais de latence et le biais de durée.

Les sujets volontaires qui participent à un programme de dépistage,


s’ils peuvent être en meilleure santé que le reste de la population,
peuvent aussi avoir un risque plus élevé de contracter la maladie du
fait d’antécédents personnels ou familiaux, et donc de présenter un
taux de mortalité élevé quelle que soit l’efficacité du programme de
dépistage.

Le biais de latence correspond à l’intervalle de temps entre le


diagnostic réalisé à la suite du dépistage et le moment où la maladie
aurait été diagnostiquée suite à l’apparition des symptômes.

Cet intervalle de temps, appelé aussi intervalle latent, qui est contenu
dans la phase préclinique dépistable, représente le temps gagné pour le
diagnostic grâce au dépistage. Cet intervalle pourrait en fait ne
représenter, en cas de dépistage inefficace, qu’un gain apparent de
survie et non point un gain effectif de survie attribuable au dépistage.

L’augmentation apparente de la durée de survie peut être expliquée


simplement par le fait, à l’occasion d’un dépistage, qu’un plus grand
délai s’écoule entre le diagnostic de la maladie et le décès.

Par exemple, pour deux femmes, le cancer du sein a débuté


biologiquement à 45 ans. A 50 ans, ce cancer devient dépistable. La
première femme a participé à un programme de dépistage, ce qui a
permis de détecter son cancer du sein alors qu’elle était âgée de 51
ans.

Ϯϳϴ

Pour la deuxième femme, qui n’a pas participé à ce programme, le
diagnostic de cancer du sein a été établi à 53 ans suite à la découverte
d’une grosseur dans le sein. Les deux femmes moururent toutes les
deux à l’âge de 56 ans.

La première femme a survécu cinq ans après que le diagnostic de


cancer du sein a été posé (56 – 51) tandis que la seconde femme n’a
survécu que trois ans (56 – 53) après que le même diagnostic a été
posé, soit deux ans de moins que la première femme.

En fait, le dépistage n’a pas été bénéfique en matière de mortalité. Le


dépistage n’a pas engendré une survie plus longue pour la femme
dépistée, le diagnostic a seulement été établi plus tôt. Il s’agit
simplement d'une avance du diagnostic.

Pour tenir compte de l’effet du temps de latence, il ne convient pas


que le critère de jugement soit la durée de survie après l’établissement
du diagnostic. Le dépistage n’a un véritable intérêt que si la survie
plus longue s’accompagne également d’une diminution de la mortalité

On peut aussi directement tenir compte du temps de latence pour


appuyer cette comparaison si celui-ci a pu être estimé.

Le temps de latence moyen, pour le cancer du sein par exemple, a pu


être estimé à un an.

Il convient alors, si l’on veut comparer les probabilités de survie à 5


ans dans les deux groupes par la méthode directe, de considérer pour
les malades dépistés un recul de six ans en prenant comme date
d’origine le moment du dépistage et pour les malades non dépistés un
recul de 5 ans en prenant comme date d’origine le moment où le
diagnostic a été établi après la survenue des symptômes. Les taux de
survie à 5 ans, par exemple, peuvent aussi être établis par la méthode
actuarielle et comparés (chapitre 22).

Ϯϳϵ

Le biais de durée est le reflet de la disparité de l’histoire naturelle de
la maladie selon les sujets. La phase préclinique dépistable peut être
longue pour certains sujets et courte pour d’autres.

Le groupe dépisté comprendra une plus grande proportion de sujets


dont la phase préclinique est longue, et dont le pronostic est d’emblée
meilleur par rapport aux sujets dont la maladie évolue rapidement
avec une phase préclinique courte. Les tumeurs les moins agressives
sont dépistées.

Le dépistage n’est pas alors forcément bénéfique, les différences entre


les mortalités observées dans les groupes reflétant simplement un
dépistage des cas de meilleur pronostic et une létalité élevée chez les
malades symptomatiques.

Le biais de durée est très difficile à contrôler et à quantifier, des


comparaisons itératives entre les nouveaux cas dépistés et les
nouveaux cas symptomatiques pourraient aider à cerner ce biais.

L’approche transversale, lorsqu’elle peut être réalisée à partir d’un


échantillon représentatif, peut constituer une méthode de choix pour
l’évaluation d’un dépistage.

L’approche cohorte étiologique est fréquemment retenue pour évaluer


un programme de dépistage, elle doit impérativement tenir compte de
ces biais pour établir une comparaison valide entre le taux de mortalité
des sujets dépistés et celui des sujets pour lesquels le diagnostic a été
établi après l’apparition des symptômes.

Ainsi qu’il est d’usage dans toutes les études étiologiques, la


comparabilité de la cohorte des sujets dépistés et celle des sujets non
dépistés devrait en outre être assurée pour toutes les variables
susceptibles de retentir sur l’atteinte de la cible, c’est à dire de la
mortalité.

ϮϴϬ

L’essai randomisé (chapitre 10) constitue la méthodologie la meilleure
pour établir l’efficacité d’un programme de dépistage, la cible devant
cependant être la comparaison de taux spécifiques (mortalité…) en
fonction de l’âge dans les groupes dépisté et non dépisté, ou encore
une probabilité de survie dont le recul tient compte du temps de
latence.

Aussi bien pour l’étude cohorte que pour l’essai randomisé, l’analyse
de la survie par la méthode actuarielle est une autre alternative pour
évaluer l’intérêt d’un dépistage. Si les petits cancers sont plus souvent
guéris, le nombre de petits cancers dans le groupe des sujets soumis au
dépistage aboutirait à une courbe de survie plus favorable que celle
observée dans le groupe des sujets non dépistés.

L’approche cas-témoins qui va comparer des sujets malades à des


témoins (sujets bien-portants…) pour déterminer le statut de
l’exposition, c’est à dire le dépistage, doit résoudre convenablement
l’épineuse question relative à la sélection et à la définition des cas et
des témoins en vue de valider les conclusions de l’étude.

Les études écologiques (corrélationnelles) peuvent éventuellement


soulever l’hypothèse d’un effet bénéfique d’un programme de
dépistage parmi les participants (frottis vaginal par la méthode de
Papanicolaou et mortalité par cancer du col utérin…) sans pour autant
établir de façon définitive son efficacité.

5. Normalité

Il peut être facile pour certaines observations de les classer comme


anormales. Il en est ainsi d’une fracture d’un os ou d’une clarté d’un
téléthorax.

Plus souvent cependant, la limite entre le normal et l’anormal est


difficile. Les observations prennent des valeurs dans un champ de
variation et il devient malaisé de poser cette limite.
Ϯϴϭ

Si on s’intéresse au poids de naissance d’enfants nés à 42 semaines
d’aménorrhée, nous pouvons avoir pour la distribution de ce poids les
percentiles suivants :

Percentile 3 5 10 50 90 95 97
Poids de naissance 2646 2745 2899 3414 4040 4214 4359

D’après la signification des percentiles, on peut dire que :


• 3% des enfants ont un poids de naissance inférieur à 2646 g,
• 5% des enfants ont un poids de naissance inférieur à 2745 g, etc.

On peut utiliser les percentiles pour fixer les limites de l’hypotrophie


(poids de naissance insuffisant en fonction du terme). Mais alors que
certains auteurs préconisent P3, d’autres préconisent P5 ou même P10.
Ce qui illustre l’arbitraire relatif au choix d’un seuil.

La définition d’un seuil est cependant nécessaire pour séparer le


« normal » du « pathologique ».

Trois définitions du normal ont pu être proposées :

• définition probabiliste,
• définition pronostique,
• définition thérapeutique.

La définition probabiliste du normal qui est définie sur des critères


statistiques est la plus contestée et la moins acceptable. Cette
définition implique que toutes les maladies auraient une fréquence de
5%. En effet, il était d’usage en médecine d’utiliser comme « limites
normales » les 2.5 et 97.5 percentiles de la distribution d’une variable
donnée, ce qui correspond à plus ou moins deux écarts types autour de
la moyenne lorsque la distribution est caractérisée par une loi normale
(la plus commune en sciences médicales).

ϮϴϮ

La définition pronostique du normal tient compte de la probabilité
plus élevée de survenue de complications au delà d’un seuil. Cette
définition n’est cependant pas très satisfaisante car on observe, en
règle générale, un accroissement continu du risque tout au long des
valeurs d’un facteur quantitatif.

C’est ainsi que l’augmentation du risque de morbidité et de mortalité


cardio-vasculaire serait directement lié à l’élévation de la pression
artérielle à partir de 115/75 mmHg selon une relation log-linéaire
(chaque augmentation de la pression artérielle systolique de 20 mmHg
ou de la pression artérielle diastolique de 10 mmHg est associé à un
doublement du risque d’accident vasculaire cérébral quel que soit
l’âge), présomption scientifique établie par des études de niveau de
preuve intermédiaire (méta-analyse).

Puisque le risque de complications cardio-vasculaires augmente de


plus en plus gravement à mesure que la pression artérielle est plus
élevée, il est difficile de fixer un seuil de normalité.

La définition thérapeutique du normal tient compte de la pertinence


éventuelle d’un traitement. Le seuil de normalité est la limite au delà
de laquelle on a pu montrer qu’une intervention correctrice réduisait le
risque de morbidité et de mortalité ultérieure. C’est la définition la
plus satisfaisante qui évite d’étiqueter comme malades les sujets qui
ne doivent pas être traités, mais le plus difficile est de faire cette
démonstration.

Ϯϴϯ

Chapitre 19

Biais dans les études épidémiologiques et cliniques

1. Définition d’un biais et situation du problème

Un biais est une distorsion causée par les défauts d’une étude qui a
pour conséquence une estimation incorrecte d’une fréquence
(indicateur de santé…) ou d’une mesure d’association (risque
relatif…).

Les biais concernent aussi bien les études descriptives que les études
étiologiques et expérimentales.

En épidémiologie étiologique et expérimentale, il faut non seulement


envisager le rôle du hasard mais aussi les biais et les facteurs de
confusion comme explications alternes possibles pour évaluer une
liaison entre deux variables, que l’association statistique entre ces
deux variables soit positive, négative ou nulle.

Le rôle du hasard peut être quantifié. L’effet de confusion peut-être


neutralisé au moment de l’analyse des données. Mais le biais ne peut-
être évité que par un protocole rigoureux et une conduite méticuleuse
de l’étude.

Il existe deux grandes familles de biais :


• Les biais de sélection
• Les biais d’information.

La terminologie des biais à l’intérieur de chacune de ces deux grandes


familles n’est pas parfaitement fixée. Un même biais peut avoir
plusieurs appellations, il convient surtout de le rattacher à sa famille.

Ϯϴϱ

L’effet de confusion non contrôlé se manifeste en pratique comme un
biais puisqu’il peut fallacieusement réduire, amplifier ou inverser une
mesure d’association entre deux variables (chapitre 16).

2. Biais de sélection

2.1 Définition et circonstances de survenue

Les défauts d’une étude au niveau de la sélection des sujets


engendrent une distorsion appelée biais de sélection.

A l’occasion d’une étude descriptive, le biais de sélection se manifeste


lorsque l’échantillonnage n’est pas adéquat (tirage au sort mal
réalisé, participation sur la base du volontariat…)

A l’occasion d’une étude étiologique (étude cohorte, étude cas-


témoins), le biais de sélection se manifeste lorsque le processus de
sélection est différent pour les groupes à comparer. Le recrutement des
sujets est d’emblée lié à la cible : maladie dans une étude cohorte et
exposition dans une étude cas-témoins. Les deux groupes ne sont pas
comparables à l’état initial vis-à-vis de variables qui peuvent avoir une
influence sur l’atteinte des cibles.

Dans une étude cohorte, les deux groupes devraient idéalement se


ressembler le plus possible, sauf évidemment pour l’exposition. En
d’autres termes, les cohortes à comparer doivent être aussi proches
que possible pour tous les autres facteurs susceptibles d’avoir un
rapport avec la maladie, excepté celui faisant l’objet de la recherche.

Les incidences de la maladie seront ainsi les mêmes dans les cohortes
comparées s’il n’existe réellement aucune relation entre exposition et
maladie. Pour garantir un minimum de comparabilité entre les deux
cohortes à l’état initial, les sujets non exposés devraient provenir de la
même population que les sujets exposés pour présenter une forte
similitude avec le groupe exposé.

Ϯϴϲ

Dans une étude cohorte prospective, un biais de sélection pourrait
survenir si le choix des individus exposés et non exposés a un rapport
avec l’apparition de la maladie étudiée. Le biais de sélection est peu
probable, si tous les sujets sélectionnés (au moins 90%) participent à
l’étude puisque l’exposition est appréhendée avant l’apparition de
l’événement étudié.

La possibilité de réaliser une étude cohorte prolective avec référence


interne est toujours susceptible d’empêcher la survenue d’un biais de
sélection. Il en est ainsi, par exemple, si l’on veut mettre en évidence
des facteurs de risque d’infections nosocomiales affectant les
nouveau-nés à partir d’une cohorte principale unique de nourrissons
admis en néonatologie pendant une période donnée. La cohorte
principale est constituée de nourrissons présentant les facteurs de
risque postulés et les nouveau-nés de la cohorte comparative n’en
présentent pas.

Dans toute étude de cohorte, seule une certaine proportion de sujets


sélectionnés acceptent de participer à l’étude. Ce volontariat
n’engendre pas un biais si une comparaison interne à la cohorte est
réalisée ultérieurement. La cohorte de la manœuvre comparative est
issue de la cohorte principale initiale (étude cohorte avec référence
interne, chapitre 13).

En effet, si la nature des sujets sélectionnés pour l’étude est


susceptible de limiter la généralisation de ses résultats, elle n’affecte
généralement pas leur validité. La relation entre exposition et maladie
ne sera biaisée que si l’absence de réponse est liée à l’exposition et à
d’autres facteurs de risque de la maladie étudiée.

Par exemple, environ deux tiers des médecins britanniques, qui


avaient reçu un questionnaire, acceptèrent de participer à l’étude de
cohorte de Doll et Hill sur le tabagisme et le cancer du poumon. Le
suivi de ces médecins révéla que le risque de décéder d’un cancer du
poumon était 20 fois plus élevé chez les gros fumeurs.

Ϯϴϳ

Les fabricants de tabac avaient proclamé que cet excès du risque
observé chez les gros fumeurs n’était pas valable du fait de la
proportion élevée (un tiers) de non-réponses.

En fait, les résultats observés étaient valables pour les sujets inclus
dans l’étude, et la question était seulement de savoir si ces résultats
étaient généralisables aux sujets qui n’avaient pas participé à l’étude.

La modification du résultat observé du fait des non-réponses aurait


supposé une réduction très importante du risque engendrée par les
vertus préventives du tabac chez le tiers constitué de non-répondants.

Un autre moyen de connaître l’impact éventuel de l’absence de


réponse sur la possibilité de généralisation, ou sur la validité, consiste
à comparer participants et non-participants à l’étude.

Si les participants et les non-participants à l’étude possèdent les


mêmes variables connues, il devient alors possible de savoir si leur
devenir sera aussi le même.

Les comparaisons de la cohorte principale avec la population générale


ne sont possibles que pour les données dont les taux sont disponibles,
telles que la mortalité, l’incidence du cancer…

Le principal désavantage de l’emploi de la population générale comme


groupe de comparaison est dû au fait que ses membres peuvent ne pas
être directement comparables à ceux de la cohorte principale qui
pourrait être constituée, par exemple, par les travailleurs d’une
certaine industrie.

Tout excès de risque associé à une profession particulière sera ainsi


sous-estimé si on le compare à celui de la population générale. Les
personnes qui travaillent sont, dans l’ensemble, en meilleure santé que
celles qui n’ont pas d’emploi.

Ϯϴϴ

Les sujets d’une cohorte fixe en milieu professionnel présentes à un
moment donné dans une entreprise sont de même en état de travailler
et par conséquent en meilleure santé que les personnes composant une
cohorte dynamique qui ont travaillé ou sont susceptibles de travailler.

Ce qui engendre une sous-estimation de la mesure d’association


épidémiologique du fait de ce biais de sélection connu sous le nom de
« healthy workers effect » ou « biais du travailleur sain ».

Dans les études de cohorte historique (ou rétrospective) réalisées en


milieu professionnel, le « biais du travailleur sain » est lié à
l’exclusion naturelle des sujets fragiles en ce qui concerne les emplois
perçus comme dangereux. La mesure d’association entre la maladie et
l’exposition en est là aussi sous-estimée.

Dans les études sur les expositions professionnelles, la cohorte de


comparaison devrait être constituée par des travailleurs exerçant
d’autres emplois, affectés à des postes différents dans la même
entreprise. Le biais du travailleur sain n’a pas de raison de se produire
lorsque les groupes comparés proviennent de populations au travail.

La population générale pourrait être considérée comme représentative


d’une cohorte principale si la proportion des sujets exposés dans la
population et la cohorte se rejoignent : expositions peu fréquentes
comme les expositions professionnelles ou expositions fréquentes
comme le tabagisme ou la consommation d’aspirine.

Dans une étude cas témoins, un biais de sélection surviendra si la


sélection des cas et des témoins repose sur différents critères et
lorsque ceux-ci ont un rapport avec l’exposition. En d’autres termes,
si le mode de sélection des sujets participant à l’étude diffère selon
qu’il s’agit de cas ou de témoins, et si ce mode de sélection a un
rapport avec le statut d’exposition, la survenue d’un biais est possible
et doit être pris en compte lors de l’évaluation de la relation entre les
deux variables.

Ϯϴϵ

L’étude cas-témoins n’est valide que si les mêmes contraintes sont
appliquées à la sélection des cas et des témoins. Il s’agit de respecter
le principe selon lequel les témoins doivent représenter la population
d’où proviennent les cas mais qui ne sont pas atteints du problème de
santé étudié : les témoins doivent provenir de la même population que
les cas.

A l’occasion de l’investigation d’une toxi-infection alimentaire


collective, il ne viendrait à l’idée de personne de choisir des témoins
en dehors des sujets qui ont partagé le même repas.

Quand l’association entre contraceptifs oraux et maladie


thromboembolique fut signalée pour la première fois dans le monde
médical, par exemple, les médecins avaient plus tendance à faire
hospitaliser, parmi les femmes atteintes de maladie
thromboembolique, les utilisatrices de contraceptifs oraux que les non
utilisatrices. Par conséquent, une étude cas témoins sur la relation
entre contraceptifs et maladie thromboembolique en milieu hospitalier
pouvait surestimer la mesure d’association épidémiologique.
C’est le fameux biais de Berkson qui ne se manifeste que dans des
situations particulières, lorsque la présence de l’exposition est une
cause d’hospitalisation.

Dans une étude cas-témoins aussi, on se préoccupe toujours de


l’existence de biais de sélection lorsque le taux de réponse est
différent entre cas et témoins. Le biais est d’autant plus accentué que
les cas ou les témoins qui acceptent de participer diffèrent de ceux qui
refusent pour des raisons liées à l’exposition.

Dans une étude cas-témoins sur le cancer du sein, les témoins idéaux
devraient être tirés au sort dans l’ensemble de la population des
femmes non atteintes d’un cancer du sein. Lorsque, par commodité,
on prend des témoins hospitaliers, il faut s’assurer que leurs
caractéristiques soient les plus proches possibles de celles des témoins
idéaux.

ϮϵϬ

Lorsqu’un groupe de témoins potentiels a une distribution du facteur
de risque qui n’est pas semblable à celle de la population générale,
tous les sujets de ce groupe devraient être exclus du groupe témoin,
qu’ils soient exposés ou non.

Il peut même être indiqué à l’occasion d’une étude cas-témoins de


constituer plusieurs groupes de témoins pour porter un jugement sur
l’existence éventuelle d’un biais de sélection.

Si la mesure d’association est la même quel que soit le groupe témoin


utilisé, l’existence d’un biais de sélection est peu vraisemblable.

Mais si la mesure d’association est variable d’un groupe témoin à un


autre, l’existence d’un biais de sélection peut être suspectée à juste
titre.

Le biais de sélection constitue un problème particulier dans les études


cas témoins ainsi que dans les études de cohorte historiques, où
l’exposition et sa conséquence sont présentes au moment de la
sélection des sujets à inclure dans l’étude.

A l’occasion d’un essai randomisé (chapitre 17), un biais de sélection


sous forme de biais de représentativité survient inévitablement (les
sujets sont libres de participer ou non à l’essai).

La randomisation des sujets à l’état initial ne garantit pas


complètement la suppression d’un autre biais de sélection appelé biais
de susceptibilité qui fait intervenir trois dimensions temporelles
(temps séculaire, temps biologique, temps zéro).

Cependant, on peut assimiler un tel biais à un biais de confusion


lorsque l’effet des variables, pour lesquelles les deux groupes
diffèrent, peut-être neutralisé au moment de l’analyse par des procédés
de stratification.

Ϯϵϭ

Les biais de sélection sont définitifs et doivent être évalués au
moment de l’analyse même s’ils sont impossibles à corriger. Seul un
protocole d’étude de bonne qualité permet de contenir dans des limites
acceptables la survenue de tels biais.

Les grilles de lecture d’articles médicaux scientifiques évaluent


systématiquement en fonction du type d’étude les procédures de
sélection des sujets pour évaluer la survenue de biais de sélection qui
ont pu affecter la réalisation de l’étude.

La manipulation des données à l’intérieur de tableaux de contingence


2*2 peut aider à l’atteinte de ce but en envisageant les différents cas
de figure.

Le tableau 19.1 identifie les principaux biais de sélection qui affectent


les études épidémiologiques ou cliniques et donne des exemples de
circonstances de survenue. Un même biais peut affecter différents
types d’étude.

ϮϵϮ

Tableau 19.1. Biais de sélection dans les études épidémiologiques
Biais de Exemples de circonstances de survenue
Etude descriptive
Echantillonnage Liste des écoles non mise à jour pour estimer la prévalence de
l’asthme chez les enfants scolarisés d’une région
Volontaires Risque de recruter des sujets préoccupés par leur état de santé et
(autosélection) non atteinte de la population cible (étude des effets sur la santé
liés à une source locale de pollution atmosphérique)
Non réponse Refus massif de participer à une étude (>10%)
Publication Etudes négatives rarement publiées
Etude étiologique
Identification Définition équivoque de la maladie (étude cas-témoins)
ou de l’exposition (étude cohorte)
Admission Cas exposés plus susceptibles d’être éligibles que les cas non
exposés
(biais de Berkson)
Non réponse Refus de témoins exposés de participer à l’étude
Volontaires Participation massive de volontaires à une consultation d’un
médecin réputé
Effet centripète Institution spécialisée attirant des cas de régions éloignées
Travailleur sain Cohorte de la manœuvre principale constituée de travailleurs
sains et cohorte de la manœuvre comparative constituée par la
population générale (excès de risque sous-estimé)
Survie sélective Inclusion non pas des cas incidents mais de survivants moins
exposés
(cas exposés de mauvais pronostic)
Evolution Changement de la définition de la maladie ou de l’exposition
temporelle en cours d’étude
Durée Inclusion plus fréquente de tumeurs « lentes »
(Evolutivité) dans la cohorte bénéficiant du dépistage avec une mortalité plus
faible
Taille des Echantillons trop petits pour établir une relation entre la
échantillons maladie
et l’exposition (puissance faible)
Essai randomisé
Arrivée Amélioration des conditions diagnostiques entre le début et la
(temps séculaire) fin d’un essai
qui a duré plusieurs années
Temps biologique Age et/ou comorbidité différents d’une cohorte à une autre
Temps zéro Stade de maladie différent d’une cohorte à une autre

Ϯϵϯ

2.2 Exemples relatifs à l’influence du biais de sélection sur la
mesure d’association épidémiologique

Exemple 1
Etude cohorte sur le poids de naissance à terme et la mortalité
au cours de la première année de vie en milieu rural sahélien défavorisé
(Résultats publiés)
Poids de Nombre de nouveau- Nombre de Taux de
naissance nés décès mortalité
< 2500 g 160 19 11.9%
• 2500 g 853 47 5.5%
Ensemble 1013 66 6.5%
• RR = 2.2 (IC à 95% : 1.3 – 3.6)

Etude cohorte sur le poids de naissance à terme et la mortalité


au cours de la première année de vie en milieu rural sahélien défavorisé
(En réalité, 147 nouveau-nés d’un poids •2500g ont été exclus à tort de
l’étude dont 23 décès)
Poids de Nombre de nouveau- Nombre de Taux de
naissance nés décès mortalité
< 2500 g 160 19 11.9%
• 2500 g 1000 70 7.0%
Ensemble 1013 66 6.8%
• RR = 1.7 (IC à 95% : 1.1 – 2.7) ; le RR a diminué de 23% : (2.2 – 1.7)/2.2

Etude cohorte sur le poids de naissance à terme et la mortalité


au cours de la première année de vie en milieu rural sahélien défavorisé
(En réalité, 40 nouveau-nés d’un poids < 2500 g ont été exclus à tort de
l’étude dont 11 décès)
Poids de Nombre de nouveau- Nombre de Taux de
naissance nés décès mortalité
< 2500 g 200 30 15.0%
• 2500 g 853 47 5.5%
Ensemble 1013 66 6.5%
• RR = 2.7 (IC à 95% : 1.8 – 4.2) ; le RR a augmenté de 23% : (2.7 – 2.2)/2.2

Ϯϵϰ

Exemple 2
Etude cas-témoins sur la vaccination contre Haemophilus influenzae de type
b et la pneumonie diagnostiquée radiologiquement chez le jeune enfant de 3
à 11 mois
(Résultats publiés)
Non vaccinés Vaccinés Total
(exposés) (non exposés)
Cas (pneumonie) 11 5 16
Témoins (pas de pneumonie) 17 47 64
Total 28 52 80
OR = 6.1 (IC à 95% : 1.6 – 25.1)

Etude cas-témoins sur la vaccination contre Haemophilus influenzae de type


b et la pneumonie diagnostiquée radiologiquement chez le jeune enfant de 3
à 11 mois
(En réalité, 8 pneumonies à pneumocoque ont été incluses à tort dans le
groupe des cas)
Non vaccinés Vaccinés Total
(exposés (non exposés)
Cas (pneumonie) 5 3 8
Témoins (pas de pneumonie) 23 49 72
Total 28 52 80
OR = 3.6 (IC à 95% : 0.6 -24.4) ; l’OR a diminué de 41%

L’efficacité du vaccin n’a pas été démontrée, mais il faut compter avec les
tailles échantillonnales réduites qui induisent un manque de puissance.

3. Biais d’information

3.1 Définition et circonstances de survenue

Un biais d’information (ou biais d’observation ou biais de classement)


survient à l’occasion d’erreurs de classement de la maladie ou de
l’exposition. L’erreur de classement est le résultat d’un instrument
d’observation défectueux et est donc tributaire de la validité de cet
instrument qui a été utilisé pour cette classification.
Ϯϵϱ

A l’occasion d’une étude descriptive, un biais d’observation peut être
dû, par exemple, à la véracité des déclarations des sujets à cause de
l’appréhension que suscite le sujet ou de la méfiance vis-à-vis des
enquêteurs…

Dans les études étiologiques, les erreurs de classement ont une


importance extrême sur l’étude de la relation entre la maladie et
l’exposition. L’erreur de classement doit toujours être envisagée : les
inexactitudes dans le recueil des données sont inévitables. Le biais
d’observation résulte de différences systématiques dans les modes de
recueil des données sur l’exposition dans une étude cas-témoins ou
des conséquences de celle-ci (maladie, accident, décès,
comportement…) dans une étude cohorte.

Le biais de mémoire, par exemple, est pratiquement indissociable de


l’étude cas-témoins. Ce biais peut être dû à la tendance des cas à
scruter leur mémoire plus intensément que ne le font les témoins en
bonne santé. Dans tous les cas, les procédés et les techniques pour
mesurer l’exposition doivent être identiques pour les cas et les
témoins.

Pour une étude cohorte, sauf pour l’étude cohorte historique, le biais
de remémoration est moins marqué car le statut de l’exposition est en
principe déterminé avant que la maladie ne soit diagnostiquée.

La possibilité de réaliser une étude cohorte prospective avec référence


interne diminue aussi bien la possibilité d’un biais de sélection que
celle d’un biais d’information si l’investigateur, au moment de
déterminer le statut de maladie, est dans l’ignorance de l’état
d’exposition ou ne peut être influencé par celui-ci.

Par exemple, la survenue éventuelle d’infections nosocomiales parmi


les nouveau-nés d’une cohorte initiale principale peut être détectée
indépendamment du statut d’exposition.

Ϯϵϲ

Le biais de détection de la cible dans une étude cohorte, par exemple,
survient lorsque les deux groupes ne sont pas évalués de façon
identique (mêmes examens, fréquence identique de ces examens...) en
termes d’atteinte de la cible (maladie). Par ailleurs, l’erreur de
classement peut être différentielle ou non différentielle.

L’erreur de classement imputable au hasard, qui augmente la


similitude entre deux groupes (avec une même proportion
d’inexactitudes dans les deux groupes), affaiblit toute association
réelle entre exposition et maladie. Le risque relatif observé est en
général plus proche de 1 que le risque relatif réel. L’erreur de
classement due au hasard peut donc minimiser l’association véritable
entre exposition et maladie, mais ne risque pas de faire apparaître une
association inexistante.

Le biais de classement est alors dit non différentiel.

Ce biais survient, dans une étude cas-témoins, lorsque la mesure de


l’exposition a la même sensibilité et spécificité pour les cas et les
témoins.

L’erreur de classement a plus de chances d’être le fait du hasard


lorsque le recueil de l’information sur l’exposition précède la
survenue d’accidents de santé. Si la consommation d’aspirine a été
relevée avant la survenue de cancer, dans une étude cohorte sur le
cancer et la consommation d’aspirine, la réponse des sujets ne peut
pas être influencée par la survenue du cancer. Un biais différentiel ne
peut être incriminé. Par contre, un biais non différentiel peut affecter
les résultats de l’étude en engendrant une sous-estimation du RR. La
possibilité de ce biais peut cependant être exclue si le résultat est
significatif (l’intervalle de confiance de RR ne contient pas la valeur
1).

Ϯϵϳ

Les études de cohorte rétrospectives concernant les expositions
professionnelles, par exemple, puisent souvent leur information dans
des registres dont les données remontent à de nombreuses années
avant le début de l’étude.

En outre, pour identifier une exposition à tel ou tel facteur, elles font
souvent appel à des variables telles que le poste de travail ou le fait
d’appartenir à une association professionnelle.

Si ces variables par approximation constituent des marqueurs grossiers


du degré réel d’exposition, et au pire n’ont qu’un faible rapport avec
l’exposition réelle de chaque individu, il est cependant improbable que
l’exactitude et la complétude de ces données diffèrent chez les sujets
atteints de la maladie étudiée et chez ceux qui ne l’ont pas contractée.

Là aussi, tant que les erreurs de classement peuvent être imputées au


hasard, elles n’auront pour conséquence que d’affaiblir toute
association réelle entre exposition et maladie.

Le biais de classement différentiel (avec des proportions de données


incorrectes différentes entre les deux groupes) a pour conséquence de
biaiser l’estimation de la mesure d’association, avec soit une
surestimation, soit une sous-estimation, selon les circonstances. Par
exemple, les cas comparés aux témoins, dans une étude cas-témoins,
signalent plus ou moins fréquemment des antécédents d’exposition.

Il est même possible que, par hasard ou du fait d’un biais


supplémentaire, l’estimation de la mesure d’association soit correcte.

Si, dans une étude cohorte sur le rôle du tabagisme dans la survenue
de la bronchite, les médecins s’intéressent plus aux fumeurs qu’aux
non-fumeurs, il est probable que la bronchite sera plus souvent et
mieux diagnostiquée chez les sujets exposés que chez ceux qui le sont
pas.

Ϯϵϴ

Il importe donc que les procédés employés pour appréhender le
devenir des sujets soient identiques dans la cohorte des sujets exposés
et celle des sujets non exposés.

Si, par exemple, un groupe soumis à une exposition professionnelle


subit des examens de santé périodiques dans une industrie, et que ce
groupe soit comparé à la population générale, l’estimation de
l’incidence de cette maladie peut être biaisée dans le groupe exposé,
simplement parce qu’elle aura plus de chance d’être diagnostiquée. En
conséquence, si la seule information sur un groupe témoin issu de la
population générale provient des certificats de décès, la cause de la
mort figurant sur le certificat de décès doit également servir à
appréhender le devenir de la cohorte exposée, même si l’on dispose
d’une information supplémentaire sur ce groupe.

Un moyen très efficace pour diminuer la possibilité de biais, en ce qui


concerne le mode de recueil des donnés, consiste à travailler le plus
complètement possible en aveugle. L’interrogatoire « à l’aveugle »
devrait être considéré comme une condition nécessaire pour éviter les
biais de classement différentiels.

En termes pratiques, cela signifie que le personnel de l’étude, qui


extrait les informations des dossiers, mène les interviews ou examine
les sujets, doit ignorer l’état d’exposition d’un sujet lorsqu’il
recherche ses conséquences prévues lors d’une étude de cohorte.

Dans une étude cas-témoins, le statut de maladie de l’individu devrait


être ignoré lors de la recherche de l’exposition. Cette condition est
nécessaire mais non suffisante. Une autre source de biais différentiel
est constituée par les conditions différentes dans lesquels se trouvent
les sujets au moment de leur interrogatoire. Par exemple, dans une
étude cas-témoins sur la prématurité et le tabagisme, les mères
interrogées de prématurés (cas) connaissent le statut de prématurité de
leur enfant et peuvent répondre de façon bien différente que les mères
d’enfants nés à terme (témoins) même si les enquêteurs ignorent s’ils
interrogent la mère d’un cas ou celle d’un témoin.
Ϯϵϵ

De plus, les sujets de l’étude devront ignorer leur appartenance à tel
ou tel groupe, ainsi que les hypothèses particulières à l’étude, dans la
mesure du possible et de l’éthique.

Par exemple, dans une étude cas-témoins sur la relation entre


consommation d’alcool et l’infarctus du myocarde (IM), la manière de
présenter l’étude aux participants éventuels était une enquête sur les
facteurs de risque des maladies graves nécessitant une hospitalisation.

En conséquence, si les sujets savaient certainement qu’ils avaient été


hospitalisés pour IM, ils ignoraient que le critère de sélection était
constitué par le diagnostic d’IM plutôt que par l’hospitalisation.

De plus, les investigateurs s’enquirent de facteurs très variés, dont les


variables démographiques, les antécédents médicaux personnels ou
héréditaires, l’activité physique, le type de personnalité, la
consommation de médicaments, de café et menèrent une enquête
alimentaire détaillée, si bien que la consommation d’alcool se situait
parmi une douzaine de variables.

L’hypothèse principale de l’étude était ainsi masquée pour diminuer la


possibilité de biais de mémoire chez les sujets ou lors du recueil de
l’information par les personnes menant les interviews.

Autre exemple, dans une étude cas-témoins sur la relation entre


l’usage régulier de l’aspirine et l’IM, on peut recueillir une
information sur de nombreuses expositions pharmacologiques jouant
le rôle de variables prétextes, telles que d’autres analgésiques, dont on
sait ou on soupçonne qu’elles ne constituent pas des facteurs de risque
pour l’IM.

Si l’usage de l’aspirine diffère chez les témoins et les cas, mais que
celui d’autres analgésiques est le même, on pensera plus à un usage
réellement différent de l’aspirine qu’à un rapport avec le protocole de
l’étude ou sa conduite.

ϯϬϬ

Au contraire, si la prise d’aspirine et des autres analgésiques, signalée
par les cas, est supérieure à celle des témoins, on pourra soupçonner
quelque biais de mémoire ou un biais imputable à la personne qui
mène l’interview.

L’utilisation de plusieurs sources de données permet aussi, lorsque


cela est possible, de vérifier indépendamment le statut d’exposition ou
de maladie et constitue un moyen de réduire les biais.

Dans les études de cohorte, un autre biais d’observation important


appelé biais de répartition ou biais par interruption de suivi peut
survenir. Ce biais est d’autant plus probable que les participants
doivent être suivis au fil de mois, d’années, voire de décennies.

Ce biais est souvent la principale source de biais dans les études de


cohorte. Si la proportion des perdus de vue est importante, de 30 à
40%, de sérieux doutes planeront sur la validité des résultats de
l’étude. Cependant, même si le taux des perdus de vue est moindre,
l’écueil le plus important, pour l’interprétation, est que ces perdus de
vue soient liés à l’exposition, à la maladie ou aux deux.

Une approche indirecte utilisée pour évaluer l’étendue du biais lié aux
perdus de vue est de calculer l’association exposition – maladie en
prenant les situations les plus extrêmes d’exposition et de maladie :
tous les sujets exposés n’ont pas développé la maladie, tous les sujets
non exposés ont développé la maladie.

Une autre hypothèse est que tous les perdus de vue ont développé la
maladie ou que tous les perdus de vue n’ont pas développé la
maladie. Le calcul de ces estimations donne une fourchette où se situe
la véritable association. Cette fourchette peut cependant être trop large
pour donner quelque information d’importance si le nombre de perdus
de vue est important.

ϯϬϭ

Pour diminuer les biais imputables aux perdus de vue, les
investigateurs choisissent souvent des populations bien définies, soit
par leur profession,, leur lieu de travail, leur lieu de résidence ou tout
autre caractéristique donnant accès à des sources d’information
centralisées (diplômés d’une institution, membres d’une profession de
santé…)

Dans les essais randomisés (chapitre 17), les biais d’information


concernent aussi bien l’application de la manœuvre, la répartition des
sujets de l’essai par interruption du suivi, la découverte des cibles et
les mesures non aveugles.

Comme pour les biais de sélection, les biais d’information sont


définitifs et impossibles à corriger au moment de l’analyse des
données. Seul un protocole rigoureux et une conduite méticuleuse de
l’étude permettent d’éliminer, autant que possible, les sources
éventuelles de biais.

Cependant, en pratique, il est rarement possible de savoir avec


certitude si ces efforts ont été couronnés de succès. Mais il est
toujours nécessaire d’envisager attentivement les biais susceptibles
d’avoir influé sur les résultats obtenus, le sens probable de leur
impact : association réelle masquée ou association fausse (en réalité
inexistante) trouvée, et si possible, l’ampleur de cette distorsion.

Là aussi, comme pour les biais de sélection, la manipulation des


données à l’intérieur de tableaux de contingence 2*2 peut aider à
l’atteinte de ce but en envisageant les différents cas de figure.

L’élimination de tout biais de classement peut être difficile mais il


faut éviter qu’il soit différentiel car il est difficile de prévoir dans quel
sens il peut modifier la valeur des mesures d’association
épidémiologique (risque relatif et odds ratio).

ϯϬϮ

Les grilles de lecture d’articles médicaux scientifiques évaluent
systématiquement en fonction du type d’étude la conduite de l’étude et
l’analyse des résultats pour évaluer la survenue de biais
d’information qui ont pu affecter la réalisation de l’étude.

Le tableau 19.2 identifie les principaux biais d’information qui


affectent les études épidémiologiques ou cliniques et donne des
exemples de circonstances de survenue. Un même biais peut affecter
différents types d’étude.

Tableau 19.2 Principaux biais d’information et circonstances de survenue


Biais de Exemples de circonstances de survenue
Etude descriptive
Déclaration des sujets Peur, oubli, mensonge, méfiance
Méthodes et techniques Mesure de la pression artérielle avec des appareils
de mesure différents – Prise de mesure unique pour certains sujets et
répétée pour d’autres
Enregistrement Codification effectuée sur le terrain par différents
et codification des enquêteurs qui ne travaillent pas de la même façon
données
Migration Habitants d’une région victimes d’accidents de la route en
dehors de la région
Maladies honteuses Infections nosocomiales non rapportées par les services
d’un hôpital en vue d’évaluer leur fréquence
Etude écologique
Confusion écologique Fréquence plus élevée d’affections respiratoires dans une
(spécification) zone « polluée » expliquée par une fréquence plus élevée
de sujets allergiques par rapport à la zone « non polluée »
Agrégation Les individus qui ont présenté un effet ne sont pas
forcément ceux qui ont été exposés (ceux qui développent
un cancer du colon ne sont pas forcément ceux qui
consomment de la viande en excès)
Etude étiologique
Détection Maladie dans une étude cohorte et exposition dans une
de la cible étude cas-témoins ou une étude cohorte historique
(protopathique, (bronchite souvent et mieux diagnostiquée chez les
prédictif) fumeurs)
Rappel Question posée à plusieurs reprises aux cas et une seule
(Interview ou saisie de fois aux témoins
l’exposition)

ϯϬϯ

Tableau 19.2 (suite)
Mémoire Souvenir plus sélectif des familles des sujets malades
(remémoration, Les malades fournissent des informations variées
rumination) quant à leur exposition précédente
Intervalle latent Survie apparemment plus longue chez les sujets dépistés
(latence)
Participation servile Fournir des informations qui plaisent à l’investigateur
Paralogisme de Détection tardive de la cible chez les sujets exposés et cas
Neyman fatals précoces non enregistrés (confusion entre incidence
et prévalence)
Signification établie Plan d’analyse non respecté : comparer la survie de deux
post-hoc groupes en fonction du stade de la maladie alors que la
comparaison devait être globale
Répartition Proportion importante de perdus de vue dans une étude
(abandon, exclusion) cohorte ou interruption de suivi pour une proportion
appréciable de sujets
Essai randomisé
Manœuvre (adhésion, Présentation différente du placebo et du médicament
compliance) Des sujets n’ont pas subi la manœuvre ou l’ont subie en
partie
Contamination Les sujets de la manœuvre comparative imitent les sujets
(Effet Hawthorne) de la manœuvre principale
Attrition (répartition) Patients randomisés écartés de l’analyse (résultats de
l’étude non donnés en intention de traiter). Raisons de
perte de vue liées au traitement (inefficacité et intolérance)
Découverte La prescription d’un médicament demande une
des cibles surveillance plus attentive permettant de mieux détecter la
cible
Mesures non aveugles Comparaison d’un traitement médical à un traitement
chirurgical

ϯϬϰ

3.2 Exemples relatifs à l’influence du biais d’information sur la
mesure d’association épidémiologique

Exemple 1
Distribution réelle de femmes atteintes d’un cancer de l’endomètre et
de témoins
en fonction de la consommation d’oestrogènes
Cancéreuses Témoins
Ont consommé 40 20
N’ont pas consommé 30 50
Total 70 70
OR = 3.3 (1.6 – 7.2)

Distribution observée de femmes atteintes d’un cancer de l’endomètre


et de témoins
en fonction de la consommation d’oestrogènes
Cancéreuses Témoins
Ont consommé 44 18
N’ont pas consommé 26 52
Total 70 70
OR = 4.9 (2.4 – 10.8)

L’odds ratio a augmenté de près de 50% même s’il n’existe qu’une


légère différence entre les nombres de la distribution réelle et ceux de
la distribution observée. C’est dire qu’on peut verser facilement dans
le faux lorsqu’il s’agit d’étudier la relation entre une maladie et un
facteur de risque si on ne s’acharne pas à réduire au maximum les
erreurs de classement.

ϯϬϱ

Exemple 2
Essai préventif sur l’aspirine et la prééclampsie chez la primipare
à partir de la dixième semaine d’aménorrhée (CHU de Blida)
(Résultats présentés)
Traitement préventif Sans Avec p
aspirine aspirine (degré de
(82) (82) signification)
Nombre de 10 3 0.043
prééclampsies
Pourcentage 12.19 3.66

Il est vrai que pour ce tableau, la mesure d’association statistique Ȥ² =


4.9 ( p = 0.043, < 5%)
Pour ce même tableau, on pourrait déterminer la mesure d’association
épidémiologique :
RR = 3.33 (0.95 – 11.67) : le traitement préventif n’est pas efficace

Essai préventif sur l’aspirine et la prééclampsie chez la primipare


à partir de la dixième semaine d’aménorrhée (CHU de Blida)
(On peut supposer qu’un cas de prééclampsie n’ait pas été détecté
dans le groupe aspirine)
Traitement préventif Sans Avec p
aspirine aspirine (degré de
(82) (82) signification)
Nombre de 10 4 0.09
prééclampsies
Pourcentage 12.19 4.88
Ȥ² = 2.81, NS ; RR = 2.5 (0.8 -7.7)

Une telle situation illustre le biais de la guerre aux virgules


récalcitrantes (biais protopathique)

ϯϬϲ

Exemple 3

Essai randomisé sur la prévention de la PCP (pneumonie à


pneumocystis carinii) chez des malades atteints de Sida et la
pentamidine
(Résultats publiés)
Nombre Personnes- Densité d’incidence
de PCP années de suivi pour 100 personnes-
(1) (2) années (1)/(2)
Pentamidine 8 93 8.6
Placebo 23 85 27.1
Ensemble 31 178 17.4
RR = 3.2 (1.4 – 7.0)

Essai randomisé sur la prévention de la PCP (pneumonie à


pneumocystis carinii) chez des malades atteints de Sida et la
pentamidine
(On suppose qu’un excès de 5 cas de PCP, du fait d’examens moins
spécifiques, ait été détecté dans le groupe placebo)
Nombre Personnes- Densité d’incidence
de PCP années de suivi pour 100 personnes-
(1) (2) années (1)/(2)
Pentamidine 8 93 8.6
Placebo 18 90 20.0
Ensemble 26 183 14.2
RR = 2.33 (1.01 – 5.35) ; le RR a diminué de 26%
(Efficacité de la pentamidine démontrée de justesse, valeur p bilatérale
exacte = 0.049,
mais valeur p unilatérale exacte = 0.031)

ϯϬϳ

Exemple 4 (Bouyer : Epidémiologie – exercices corrigés : Editions
Estem - Paris)

Etude cas-témoins sur la gonarthrose (maladie) et les varices (cible


principale)

Cette étude s’est déroulée auprès de centaines de médecins


généralistes répartis à travers tout le pays. Chacun d’entre eux devait
recruter parmi ses patients tous ceux dont le motif de consultation était
la gonarthrose dont le diagnostic était lié à l’appréciation du médecin
ou reposait sur un examen clinique. Un examen clinique standardisé
recherchait aussi la présence de varices. Le diagnostic de varices n’a
donc pas fait appel à des examens sophistiqués (échographie-doppler)
parce que c’était plus facile pour une enquête de cette taille avec
autant de médecins participants. Un biais d’information peut
s’introduire mais on peut supposer qu’il est non différentiel car un
même médecin fera le même type d’erreur pour les cas et pour les
témoins. Finalement, un tel biais, qui force la mesure d’association
épidémiologique vers la valeur de référence 1, n’a pas eu un impact
décisif puisque un OR significatif a été trouvé :

Etude cas-témoins sur la gonarthrose et les varices


Varices Cas Témoins OR (IC à 95%)
Absence 1916 3365 1
Présence 4571 3152 2.55 (2.37 –
2.74)

ϯϬϴ

Chapitre 20

Analyse stratifiée pour contrôler un effet de confusion


et déceler une interaction

1. Position du problème

On a déjà insisté sur le fait que la construction d’un tableau à trois


variables visait essentiellement à tester la relation entre deux variables
en neutralisant l’effet de la troisième. Il convenait alors de stratifier les
données sur les modalités de cette variable qu’on cherche à
neutraliser.

En épidémiologie analytique, un concept domine tous les autres : le


fondement multifactoriel d’une maladie. En effet, une maladie n’a
rarement qu’une seule cause. En règle générale, il y a plusieurs causes
pour une même maladie.

Ce fondement multifactoriel des maladies et l’hétérogénéité des


groupes à comparer sont à l’origine de grands problèmes
d’interprétation. Une variable (ou un facteur de risque) peut perturber
la relation entre une autre variable (ou un autre facteur de risque) et la
maladie. Ces variables perturbatrices sont plus communément
appelées facteurs de confusion.

Il existe plusieurs techniques qui permettent de neutraliser l’effet des


variables de confusion : stratification, appariement (chapitre 21),
régression logistique dans les études étiologiques (annexe au chapitre
21), standardisation d’indicateurs de santé dans les études descriptives
(chapitre 7).

La stratification des données sur une variable est une opération


obligatoire dès lors que cette variable est soupçonnée de jouer un effet
de confusion ou encore un effet de modification (section 3 ci-
dessous).
ϯϬϵ

2. Effet de confusion

L’effet de confusion est une distorsion perverse de la mesure


d’association épidémiologique entre une maladie et un facteur
d’exposition introduite par une tierce variable appelée facteur de
confusion ou variable de contamination.

La distorsion est due à un mélange particulier des sujets inclus dans


l’étude.

La survenue éventuelle d’un effet de confusion est conditionnée


seulement par la distribution inégale du facteur de confusion entre les
groupes étudiés.

Dans une autre étude, de structure différente ou avec un


regroupement différent des sujets, la même variable peut ne pas
constituer un facteur de confusion pour la même association.

Conceptuellement, un facteur de confusion est un déterminant de la


maladie étudiée.

En effet, il y a confusion d’effets lorsque la présence de relation ou


l’absence de relation apparente entre la cause étudiée et la maladie
peut être due à une troisième variable, le facteur de confusion, qui est
une cause, identifiée ou non, de la maladie étudiée.

En pratique, l’effet de confusion non contrôlé se manifeste comme un


biais : il peut fallacieusement réduire, amplifier ou inverser l’effet
étudié. Il convient donc de contrôler la confusion. On dit aussi qu’on
élimine l’effet de confusion.

En pratique, tout caractère lié à la maladie dans la population étudiée


et qui est aussi lié statistiquement (relation statistique non causale) à la
cause postulée peut se comporter comme un facteur de confusion
(figure 20.1).
ϯϭϬ

Figure 20.1 Illustration de l’effet de confusion

Facteur de confusion

Cause postulée --------------------------------------------------→ Maladie


?

La flèche à deux pointes indique une relation statistique non causale


entre la cause postulée et le facteur de confusion. La flèche à une
pointe entre la maladie et le facteur de confusion signifie qu’il y a une
relation causale.

En ce qui concerne la stratification, lorsqu’il y a confusion, le risque


absolu ou relatif (mesuré respectivement par la différence de risque et
le risque relatif) est homogène dans les strates définies par les
modalités de la variable de confusion.

Une méthode simple pour détecter un effet de confusion est de


comparer la mesure brute de l’association épidémiologique entre la
maladie et l’exposition aux mesures spécifiques de cette association
déterminées dans les strates identifiées par les modalités du facteur de
confusion.

Si la mesure brute de l’association épidémiologique n’est pas


comprise dans l’intervalle déterminé par la plus petite valeur et la plus
grande valeur des mesures spécifiques, il y a assurément confusion.

Il ne convient pas dans la présentation des résultats de présenter la


valeur brute qui est biaisée. Il faut présenter une valeur ajustée qui est
une mesure pondérée des mesures spécifiques.

ϯϭϭ

L’âge, en tant que puissant déterminant de la maladie, est une variable
de confusion majeure qu’il convient pratiquement de toujours
neutraliser pour étudier la liaison entre une cause postulée et la
maladie si les groupes de l’étude sont très hétérogènes du point de vue
âge.

Ainsi, la relation entre le tabagisme et le cancer du poumon implique


que l’on neutralise l’effet de l’âge. L’âge est statistiquement lié au
tabagisme et est un facteur déterminant dans la survenue du cancer du
poumon.

Dans l’étude de la relation entre le tabagisme et le cancer du sein, il


convient de tenir compte de la prise éventuelle de contraceptifs oraux
si celle-ci est liée au tabagisme. Car la prise de contraceptifs est un
facteur de risque du cancer du sein.

L’effet de confusion ne peut pas se produire en l’absence de relation


entre la cause postulée et le facteur de confusion ou si celui-ci n’est
pas lié à la maladie étudiée.

L’effet de confusion ne peut pas se produire non plus si le facteur de


confusion est la conséquence de la cause postulée. On parle alors
plutôt de facteur intermédiaire et non pas de facteur de confusion. Sur
le plan statistique, rien ne permet de différencier un facteur de
confusion d’un facteur intermédiaire puisque tous les deux sont liés à
la cause postulée et à la maladie. Le jugement épidémiologique ou des
considérations médicales sont seuls susceptibles de les séparer.

Par exemple, si une cause postulée engendre d’abord des anomalies de


l’ECG avant d’engendrer un décès par maladie coronarienne, il ne
convient pas d’ajuster sur les anomalies de l’ECG (facteur
intermédiaire) au risque de faire disparaître de façon artéfactuelle
toute relation entre la cause postulée et le décès par maladie
coronarienne.

ϯϭϮ

Si on décrit le tabagisme comme un facteur intermédiaire entre le
travail de nuit et la survenue d’une hospitalisation pour maladie
cardiaque, il ne faut pas non plus ajuster sur le tabagisme au risque de
faire disparaître artéfactuellement une relation entre le travail de nuit
et une hospitalisation pour maladie cardiaque.

3. Modification de l’effet

L’effet de confusion et la modification de l’effet sont deux concepts


très différents.

L’effet de confusion est le résultat du mélange des effets de plusieurs


causes qui agissent de façon indépendante. Par contre, une
modification de l’effet indique que plusieurs causes agissant sur le
même processus causal ont des effets qui ne sont pas indépendants.

Une tierce variable V est modificatrice de l’effet entre une maladie M


et un facteur F si la mesure d’association épidémiologique entre M et
F diffère dans les strates individualisées par les modalités de la
variable V. On dit aussi que la variable V introduit une « interaction »
parce-qu’elle conduit à des résultats différents selon tel ou tel sous-
groupe.

La modification de l’effet se vérifie en déterminant si l’importance ou


même le sens de la liaison entre M et F varie en fonction de la
présence éventuelle de V.

La variable V correspond à une caractéristique qui existe


indépendamment des sujets ou de l’architecture de l’étude.

Une interaction correspond à un phénomène réel qui ne peut pas et qui


ne doit en aucun cas être occulté.

La stratification des données permet de distinguer la confusion de


l’interaction des effets.
ϯϭϯ

En effet, l’éventuelle homogénéité des effets spécifiques dans les
strates distingue l’effet de confusion de l’interaction d’effets.

Lorsque l’effet spécifique, mesuré par les mesures d’association


épidémiologique, est homogène mais distinct de l’effet brut, on est en
présence d’un effet de confusion.

Lorsque l’effet spécifique diffère selon la strate, on a affaire à une


interaction. En d’autres termes, il existe une modification de l’effet.
Auquel cas, il convient de présenter les mesures d’association
épidémiologique par strate.

Un facteur modifiant peut aussi être un facteur de confusion. Mais la


confusion est un problème moins important si la modification de
l’effet est prépondérante.

Pour cette raison, à l’occasion d’une analyse sur des données


stratifiées, la recherche de la modification de l’effet doit être effectuée
avant celle de la confusion.

En tout état de cause, devant une liaison observée entre deux


variables, une troisième variable peut constituer :

• un facteur de confusion modifiant l’effet ;


• un facteur de confusion ne modifiant pas l’effet ;
• un facteur modifiant n’occasionnant pas de confusion ;
• un facteur non modifiant n’occasionnant pas de confusion.

Par ailleurs, l’interaction peut être multiplicative ou additive. Soient


deux causes V et F d’une maladie M.

ϯϭϰ

Si les effets relatifs de V et de F sont indépendants, le risque relatif
conjoint de développer la maladie en présence de V et de F (par
rapport à des sujets qui ne sont exposés ni à V ni à F) sera le produit
du risque relatif engendré par la seule cause V et du risque relatif
engendré par la seule cause F.

On parle d’interaction multiplicative entre V et F lorsque le risque


relatif de développer la maladie suite à l’exposition conjointe à la
cause V et à la cause F est différent du produit des risques relatifs
lorsque V et F sont pris isolément.

Il peut alors s’agir de synergie multiplicative si le risque relatif


conjoint est plus grand que le produit des risques relatifs de chaque
facteur, ou d’antagonisme multiplicatif si le risque relatif conjoint est
plus petit que le produit des risques relatifs de chaque facteur.

Par exemple, dans une étude cas-témoins multicentrique réalisée chez


des femmes, l’OR d’IC associé au tabac seul est deb 1.3 tandis que
l’OR d’IC associé à la contraception seule est de 2.1. L’OR d’IC
associé conjointement au tabac et à la contraception est de 7.2. Il
s’agit d’une synergie multiplicative [7.2 > (1.3*2.1) = 2.7]

Si les effets absolus de V et de F sont indépendants, La différence de


risque conjointe chez les sujets exposés à V et F sera la somme de la
différence de risque chez ceux qui sont exposés à V en l’absence de F
et de la différence de risque chez ceux qui sont exposés à F en
l’absence de V.

On parle d’interaction additive entre V et F lorsque la différence de


risque observée de l’exposition conjointe à V et F est différente de la
somme des différences de risque de chaque facteur V et F prises
isolément.

ϯϭϱ

Il y a alors synergie additive si la différence de risque conjointe est
plus grande que la somme des différences de risque de chaque facteur,
ou antagonisme additif si la différence de risque conjointe est plus
petite que la somme des différences de risque de chaque facteur.

Par ailleurs, on parle d’interaction quantitative lorsque les effets dans


chaque strate diffèrent par leur intensité seulement, et d’interaction
qualitative lorsque l’effet est protecteur dans une strate mais délétère
dans l’autre.

Il existe différents tests d’interaction (test de Woolf, test de Zelen,


indice de Breslow, atelier OpenEpi). Ces tests manquent de puissance
et ne sauraient remplacer le jugement épidémiologique basé sur la
connaissance que l’on a du problème.

En outre, le phénomène de l’interaction et le test correspondant sont


symétriques. Si dans une étude cas-témoins entre le tabagisme et le
cancer du poumon, le genre joue un rôle d’interaction, alors :

• l’odds ratio du cancer du poumon associé au tabagisme chez


les hommes est différent de celui des femmes ;
• l’odds ratio du cancer du poumon associé au genre chez les
fumeurs est différent de celui des non fumeurs.

4. Exemples relatifs à la confusion et à l’interaction

Pour éviter de longs calculs fastidieux, l’analyse des exemples


suivants a été réalisée par le programme OpenEpi du logiciel Epi-Info.

ϯϭϲ

Exemple 1

Procédons à l’analyse des tableaux 4.4 et 4.5 du chapitre 4.

Il s’agissait de l’investigation d’une toxi-infection alimentaire


collective (TIAC) qui incriminait deux aliments d’un même repas : la
mayonnaise et les œufs durs.

Comme la mayonnaise et les œufs durs étaient liés (parce que servis
ensemble dans le même plat d’entrée), il était indispensable d’étudier
séparément la relation, d’une part entre la TIAC et les œufs en
neutralisant la mayonnaise, et d’autre part entre la TIAC et la
mayonnaise en neutralisant les œufs.

La relation statistique entre la TIAC et chacune des deux autres


variables à niveau constant de l’autre (en neutralisant l’effet de
l ‘autre) s’effectue par un test d’ajustement, qui donne une mesure
d’association statistique unique et globale, comme celui qui consiste à
calculer la statistique du chi-deux de Mantel-Haenszel.

Le chi-deux de Mantel-Haenszel (χ² M-H, annexe ) est une statistique


qui se lit comme un χ² à 1 dl et s’applique à une série de tableaux 2*2
qui sont autant de strates déterminées par les modalités de la variable à
contrôler.

Dans le cas de notre exemple, pour l’analyse de la relation entre la


TIAC et les œufs en neutralisant la mayonnaise (tableau 4.4), on
obtient :

χ² M-H = 0.04 (dl = 1), NS.

La TIAC n’est donc pas liée aux œufs lorsqu’il est tenu compte de la
mayonnaise. En d’autres termes, les œufs ne doivent pas être
considérés comme responsables de la survenue de la TIAC.

ϯϭϳ

Par contre, l’analyse de la relation entre la TIAC et la mayonnaise en
neutralisant les œufs (tableau 4.5) donne :

χ² M-H = 6.31 (dl = 1), p < 0.02

Finalement, seule la mayonnaise est liée à la TIAC. La proportion des


cas de TIAC qui ont consommé de la mayonnaise (16/18 = 88.9%) est
significativement supérieure à celle des témoins (3/13 = 23.1%).

La liaison entre la TIAC et les œufs n’était qu’un artéfact du fait qu’ils
étaient liés à la mayonnaise. Seule la mayonnaise doit être incriminée
dans la survenue de cette TIAC.

Il est remarquable que l’analyse stratifiée des données puisse


« innocenter » un facteur dans la survenue de la maladie.

Bien évidemment, On peut en outre déterminer les mesures


d’association épidémiologique.

Pour le tableau 4.4 (TIAC par œufs durs en neutralisant l’effet de la


mayonnaise), les OR dans les deux strates sont nuls tandis que l’OR
brut est égal à 5.85 permettant de détecter l’effet de confusion de la
mayonnaise dans la relation entre les œufs et la TIAC. La valeur de
l’OR brut ne doit pas être présentée mais remplacée par la valeur de
l’OR ajusté (ORa) selon la méthode de Mantel-Haenszel qui est de
0.0.

Les données du tableau 4.5 (TIAC par mayonnaise en neutralisant


l’effet des œufs) ne permettent pas de déterminer les valeurs des OR
spécifiques dans les strates (OR indéfini car le dénominateur est nul).

On peut cependant rajouter la valeur 0.5 à chaque effectif des cases


des strates. L’OR brut 15.58 (IC à 95% : 2.91 – 83.45) est compris
entre les valeurs des OR spécifiques des deux strates : 11.57 – 26.6
démontrant ainsi que les œufs ne jouent pas un rôle de confusion dans
la relation entre la TIAC et la mayonnaise.
ϯϭϴ

Si on rajoute 0.5 à chacune des cases du tableau 4.4, l’OR brut 4.67
(IC à 95% : 1.11 – 19.65) n’est pas compris dans l’intervalle des
valeurs des OR des deux strates : 0.55 – 1.27 et doit être remplacé par
l’OR ajusté de Mantel-Haenszel 0.78 (IC à 95% : 0.07 – 7.94) qui
confirme ainsi qu’il n’y a pas de relation entre la consommation
d’œufs et la TIAC. L’ORa peut d’autant plus être utilisé que le test de
l’indice de Breslow pour l’interaction de l’OR sur la strate (Ȥ² = 0.12,
p = 0.73, >0.05) ne suggère pas d’interaction.

Exemple 2

Etude cas-témoins en vue d’identifier des facteurs de risque du cancer


du sein (d’après Bouyer : Epidémiologie – Exercices corrigés –
Editions Estem, 2001)
Age aux premières Cas Témoins
règles
” 12 ans 1984 1760
> 12 ans 1950 2141
OR = 1.24 (1.13 - 1.35).

Si la relation entre les deux variables est causale, un âge aux premières
règles ” 12 ans multiplie par 1.2 le risque de cancer du sein.

On s’est posé la question de savoir si le nombre d’années d’études


joue un rôle de confusion dans la relation entre le cancer du sein et
l’âge aux premières règles.

On doit donc étudier la relation entre le cancer du sein et l’âge aux


premières règles en stratifiant sur le nombre d’années d’études pour
neutraliser cette dernière variable.

ϯϭϵ

Les données de l’étude sont les suivantes :

Nombre Age aux Cas Témoins OR (IC Ȥ²


d’années premières règles 95%)
d’études
” 12 ans ” 12 ans 485 449 1.26 6.78
(1.06-
1.51)
> 12 ans 498 582
13 – 15 ans ” 12 ans 869 731 1.20 6.90
(1.04-
1.37)
> 12 ans 899 906
• 16 ans ” 12 ans 630 580 1.28 9.33
(1.09-
1.51)
> 12 ans 553 653

• Le nombre d’années d’études ne joue pas un rôle de modification,


les valeurs des OR sont homogènes dans les strates. Le test de
l’indice de Breslow pour l’interaction de l’OR sur la strate (Ȥ² =
0.46, p = 0.79, >0.05) ne suggère pas d’interaction. D’ailleurs, le
Ȥ² du test de Zelen (homogénéité des OR dans les strates) est non
significatif : Ȥ² = 6.78 + 6.90 + 9.33 – 22.32 = 0.69, dl = 3, NS
(Ȥ²MH = 22.32, p < 10-5)
• Le nombre d’années d’études ne joue pas non plus un rôle de
confusion, la valeur brute de l’OR (1.24) est compris dans
l’intervalle (1.20 - 1.28)
• Puisque le nombre d’années d’études ne joue pas un rôle de
confusion, il n’est pas nécessaire de déterminer un odds ratio
ajusté (ORa) pour quantifier la force de la relation entre l’âge
aux premières règles et le cancer du sein. D’ailleurs ORa =
1.24 (1.13 – 1.35), cette valeur est la même que celle de l’OR
brut.

ϯϮϬ

Exemple 3

Etude cas-témoins sur la prématurité et la consommation de boissons


caféinées pendant la grossesse (d’après Bouyer : Epidémiologie – Exercices
corrigés – Editions Estem 2001)
Fumeuses Non fumeuses
Boissons Ne Consomment OR Ne Consomment OR
caféinées consomment (IC à consomment (IC à
pas 95%) pas 95%)
Témoins 65 82 1.23 57 286 1.26
Cas 22 34 (0.65- 48 304 (0.83-
2.29) 1.91)

Association brute entre prématurité et boissons caféinées


Ne consomment pas Consomment Total
Témoins 122 368 490
Cas 70 338 408
Total 192 706 898
OR = 1.60 (1.15 – 2.22)

• L’OR brut (1.60) étant à l’extérieur de l’intervalle formé par


les valeurs des odds ratios spécifiques (1.23 – 1.26), le
tabagisme joue un rôle de confusion dans la relation entre la
prématurité et la consommation de boissons caféinées qu’il
convient de neutraliser par la détermination de l’odds ratio
ajusté :
ORa = 1.25 (0.88 – 1.77)
On peut remarquer que les intervalles de confiance de l’OR
brut et de l’OR ajusté n’ont qu’une faible zone de
recoupement, ce qui confirme le rôle de confusion du
tabagisme. Ce rôle serait encore plus manifeste si les
intervalles ne se recoupaient pas. A l’inverse, le rôle de
confusion n’existerait pas si la zone de recoupement était
large.

ϯϮϭ

• Après ajustement sur le tabagisme, la prématurité n’est plus
liée à la consommation de boissons caféinées. D’ailleurs on
pouvait exprimer cette conclusion à partir du tableau à trois
variables (analyse bivariée) : quelle que soit la strate identifiée
par le tabagisme, la prématurité n’est pas liée à la
consommation de boissons caféinées. L’effet de confusion du
tabagisme a amplifié l’association entre prématurité et
boissons caféinées d’environ 1.3 fois (1.60/1.25). Il s’agit d’un
effet de confusion positif.

Exemple 4

Etude cas-témoins sur la consommation de poppers et le sarcome de


Kaposi (d’après Morabia : Epidémiologie causale ; Editions Médecine
et Hygiène – Genève 1996)

Au début des années 1980, des médecins états-uniens de New York et


de Californie observèrent une surprenante épidémie de sarcome de
Kaposi (SK) dans la communauté homosexuelle. Une des hypothèses
étiologiques était que la déficience immunitaire favorisant le
développement du sarcome pouvait être due au pouvoir
immunosuppressif d’aphrodisiaques à base d’amyle nitrite ou de
butyle nitrite appelés « poppers ».

Une étude cas-témoins pour tester cette hypothèse a été réalisée :


Interrogation d’homosexuels souffrant de SK confirmé par biopsie et
de témoins homosexuels n’ayant pas de SK sur leur consommation
passée de poppers.

ϯϮϮ

Données d’une étude cas-témoins sur la consommation de poppers et le
sarcome de Kaposi parmi une communauté homosexuelle américaine
Episodes Cas Témoins Ȥ² P OR*
de consommation Effectif Effectif
de poppers % %
0-499 8 40 34 85 12.9 <0.001 8.5
500 et plus 12 60 6 15
Total 20 100 40 100
*OR = 12*34/8*6 = 8.5 (IC 95% : 2.4 – 29.6)

A l’époque, cette relation avait déjà être interprétée avec précaution


car la véritable cause du sarcome pouvait être un virus oncogène
transmis sexuellement qui a été identifié ultérieurement comme le
virus de l’immunodéficience humaine (VIH). L’infection par le VIH
pouvait ainsi être un facteur de confusion dans l’association observée
entre le SK et les poppers et devait donc être neutralisée.

Les données sont stratifiées dans le tableau suivant sur l’infection par
le VIH pour neutraliser l’effet de cette variable.

VIH, poppers et sarcome de Kaposi


(Disposition des données pour neutraliser l’effet de l’infection
par le VIH)
Infection au Poppers Cas Témoins
VIH
Présente 500 et plus 12 3
0-499 7 6
Absente 500 et plus 0 3
0-499 1 28

Les OR spécifiques déterminés dans les deux strates sont :


• OR (strate VIH présent) = 12*6/3*7 = 3.4 (IC à 95% : 0.5 –
27.0)
• OR (strate VIH absent) = 0*28/3*1 = 0.0 (IC à 95% : 0.0 –
377.0)

ϯϮϯ

La valeur brute (8.5) est à l’extérieur de l’intervalle (0 - 3.4),
l’infection par le VIH joue effectivement un rôle de confusion dans la
relation observée entre les aphrodisiaques et le SK.

Puisque l’infection par le VIH joue un rôle de confusion, la valeur


brute de l’OR ne devrait pas être présentée car elle est biaisée et doit
être remplacée par l’OR ajusté (ORa) qui est une mesure d’association
épidémiologique ajustée qui prend en compte toutes les strates
déterminées par les modalités de la variable dont on cherche à
neutraliser l’effet :

ORa = (12*6/28 + 0/32)/(3*7/28 + 3/32) = 3.0 (IC à95% : 0.47 –


18.24)

L’utilisation de l’ORa est d’autant plus justifié que le test de l’indice


de Breslow ne suggère pas d’interaction.
La consommation de poppers n’est donc plus liée au SK lorsqu’on
tient compte de l’infection par le VIH. D’ailleurs Ȥ² résumé de Mantel-
Haenszel = 1.80, NS

L’association entre poppers et SK est artéfactuelle. La consommation


de poppers n’est liée au SK que parce qu’elle est liée à l’infection par
le VIH.

On peut quantifier et commenter l’intensité de l’effet de confusion


par le rapport de l’odds ratio brut sur l’odds ratio ajusté :
8.5/3.0 = 2.8

L’effet de confusion du VIH amplifie l’association entre poppers et


SK d’environ 2.8 fois. Il s’agit d’un effet de confusion positif.

Par ailleurs, on pourrait montrer que l’infection par le VIH est


associée au SK et le reste après prise en compte de la consommation
de poppers :

ϯϮϰ

VIH, poppers et sarcome de Kaposi
(Disposition des données pour neutraliser l’effet des poppers)
Poppers Infection au Cas Témoins
VIH
500 et plus Présente 12 3
Absente 0 3
0-499 Présente 7 6
Absente 1 28

• strate poppers 500 et plus : OR = (12.5*3.5)/(0.5*3.5)= 25.0


(en rajoutant 0.5 aux effectifs de la strate 2*2) ; ou OR = ’
• strate poppers 0 - 499 : OR = (7*28)/*6*1) = 32.7;
• Ȥ² résumé de Mantel-Haenszel = 18.1 ; p < 0.001
• OR (les deux strates confondues) = 65.4 (IC à 95% : 7.7 –
2802.6)

Exemple 5

Etude cohorte étiologique sur la diarrhée nosocomiale et deux facteurs


de risque : le sondage oro-gastrique et le poids de naissance (d’après
Bezzaoucha : L’épidémiologie en 50 problèmes commentés ; OPU,
Alger 2010)

ϯϮϱ

Etude cohorte étiologique ayant intéressé 574 nouveau-nés à risque
(durée de séjour hospitalier • 2 jours) sur la diarrhée nosocomiale et
le sondage oro-gastrique (neutralisation du poids de naissance)
(Néonatologie – CHU de Blida ; 2008)
Poids Sondage Nourrissons Diarrhée Incidence Risque Différence
à risque cumulée relatif de risque
(%) (IC à (IC à
95%) 95%)
” 1.5 kg Oui 34 19 55.9 3.1 37.5%
(0.9– (9.4- 65.9)
11.1)
Non 11 2 18.2
> 1.5 kg Oui 91 21 23.1 14.4 21.5 %
(6.3 – (12.7–
33.0) 30.2)
Non 438 7 1.6
Ensemble Oui 125 40 32.0 16.0 30%
(8.0 – (21.7 -
32.0) 38.3)
Non 449 9 2.0

Disposition des données pour neutraliser le sondage oro-gastrique


Sondage Poids Nourrissons Diarrhée Incidence RR (IC DR (IC
à risque (%) à 95%) à 95%)
Présent ” 1.5 kg 34 19 55.9 2.4 32.8
(1.5 – (14.0 –
3.9) 51.6)
> 1.5 kg 91 21 23.1
Absent ” 1.5 kg 11 2 18.2 11.4 16.6
(2.7 – (-6.2 –
48.7) 39.4)
> 1.5 kg 438 7 1.6
Ensemble ” 1.5 kg 45 21 46.7 8.8 41.4
(5.5 – (26.7 –
14.2) 56.1)
> 1.5 kg 529 28 5.3

ϯϮϲ

Risque relatif
Le poids de naissance joue un rôle de confusion dans la relation entre
le sondage et la diarrhée nosocomiale (en faisant abstraction de son
effet de modification). La valeur brute du risque relatif (16.0) est en
effet à l’extérieur de l’intervalle formé par les valeurs du risque relatif
dans les strates (3.1 et 14.4). Il ne convient pas de présenter cette
mesure brute mais de déterminer le risque relatif ajusté selon la
méthode de Mantel-Haenszel :

RRa = [(19*11)45 + (21*438)/529]/[(2*34)/45 + (7*91)/529] =


8.11 (IC à 95% : 4.2 – 15.7)

On peut quantifier et commenter l’intensité de l’effet de confusion par


le rapport du risque relatif brut sur le risque relatif ajusté : 16/8.11 =
2.0. L’effet de confusion du poids de naissance amplifie l’association
entre le sondage oro-gastrique et la diarrhée nosocomiale de deux fois.
Il s’agit d’un effet de confusion positif.

Cependant, le test de l’indice de Breslow pour l’interaction du risque


relatif avec la strate (Ȥ² = 3.93, p = 0.047, <0.05) suggère un effet de
modification. L’effet de modification prime l’effet de confusion dans
cet exemple, les données doivent être présentées strate par strate.

Lorsqu’on stratifie sur le sondage oro-gastrique, celui-ci ne joue pas


un rôle de confusion dans la relation entre la diarrhée et le poids : la
valeur brute du risque relatif est de 8.8 (IC à 95% : 5.5 – 14.2) est
comprise dans l’intervalle des valeurs spécifiques du RR dans les deux
strates (2.4 – 11.4).

Mais là aussi, le sondage a un effet de modification. Les données


doivent être présentées par strate. Il convient de noter qu’on retrouve
la même valeur pour le test de l’indice de Breslow (Ȥ² = 3.93, p =
0.047, <0.05) : le problème de l’interaction et son test sont
symétriques.

ϯϮϳ

En ce qui concerne le risque relatif de diarrhée associé au sondage oro-
gastrique chez les nourrissons dont le poids est > 1.5 kg, il est de :
23.1/1.6 = 14.4
Par ailleurs, le risque relatif de diarrhée associé au poids de naissance chez
les nourrissons non sondés est de :
18.2/1.6 = 11.4
De même, le risque relatif conjoint de diarrhée associé au poids de naissance
et au sondage est :
55.9/1.6 = 34.9
Ainsi, si les effets relatifs du poids et du sondage sont indépendants, leur
risque relatif conjoint attendu serait égal au produit des risques relatifs
correspondants, soit :
14.4 * 11.4 = 164.2
Or le risque relatif conjoint observé (34.9) est nettement inférieur : il y a
donc un antagonisme multiplicatif (interaction multiplicative à type
d’antagonisme multiplicatif).

Différence de risque
Pour les deux tableaux, le test de l’indice de Breslow pour
l’interaction de la différence de risque sur la strate (commun aux deux
tableaux) ne suggère pas un effet de modification (Ȥ² = 1.2, p = 0.28, >
0.05). La différence de risque (DR) ajustée peut être utilisée :
• Stratification sur le poids : DR = 22.9% ( 14.6 – 31.2)
• Stratification sur le sondage : DR = 26.3% ( 11.7 – 40.8)

Exemple 6

Amiante et mortalité par cancer du poumon (d’après Morabia :


Epidémiologie causale ; Editions Médecine et Hygiène – Genève
1996)

Dès les années 50, on a remarqué que les ouvriers exposés à l’amiante
développaient plus de cancers bronchiques par rapport à la population
générale. Toutefois, les malades cancéreux étant souvent des fumeurs.
Le rôle indépendant de l’amiante restait à prouver. A cette fin, une
étude cohorte concernant des ouvriers a été réalisée et les résultats
sont présentés succinctement au tableau suivant.
ϯϮϴ

Taux de mortalité du cancer du poumon
en fonction de l’exposition au tabac et à l’amiante
Tabagisme Amiante Taux de mortalité *
Absent Absente 10
Absent Présente 60
Présent Absente 120
Présent Présente 600
*pour 100000 ouvriers-années

Les données sont disposées de façon à neutraliser d’abord l’effet du


tabac (tableau 16.4) et disposées de façon à neutraliser l’effet de
l’amiante (tableau 16.5). Pour chacune des strates, le risque relatif, la
différence de risque et la fraction étiologique du risque chez les
exposés ont été déterminés.

Disposition des données pour neutraliser le tabac


Tabac Amiante Mortalité RR DR FERe (%)
Présent Présent 600 5 480 80.0
Absent 120
Absent Présent 60 6 50 83.3
Absent 10

Disposition des données pour neutraliser l’amiante


Amiante Tabac Mortalité RR DR FERe (%)
Présent Présent 600 10 540 90.0
Absent 60
Absent Présent 120 12 110 91.7
Absent 10

L’amiante et le tabac restent liés au cancer du poumon en neutralisant


l’effet de l’autre variable. Cela est attesté à chaque fois par la valeur
élevée des RR dans les strates. Les deux causes interviennent dans la
genèse du cancer du poumon.

ϯϮϵ

Les risques relatifs sont homogènes à chaque fois dans les strates et
l’interaction ne semble concerner que les différences de risque qui
sont franchement hétérogènes entre fumeurs et non fumeurs d’une part
et exposés et non exposés à l’amiante d’autre part.

En ce qui concerne le risque relatif du cancer du poumon associé à


l’amiante chez les non fumeurs, il est de :

RR = 60/10 = 6.

Par ailleurs, le risque relatif du cancer du poumon associé au tabac


chez les ouvriers non exposés à l’amiante est :

RR = 120/10 = 12
.
De même, le risque relatif conjoint associé au tabac et à l’amiante est :

RR = 600/10 = 60.

Ainsi, si les effets relatifs du tabac et de l’amiante sont indépendants,


leur risque relatif conjoint attendu serait égal au produit des risques
relatifs correspondants, soit 72 (6*12).

Or, le risque relatif conjoint observé (60), quoique légèrement plus


faible, ne diffère pratiquement pas du risque relatif attendu.

Il n’y a donc pas d’interaction multiplicative ou d’interaction des


effets relatifs. L’absence d’interaction des effets relatifs suggérerait
que les causes (tabac et amiante dans l’exemple) n’interviennent pas
simultanément au même niveau du processus pathogénique.

En ce qui concerne la différence de risque attribuable à l’amiante chez


les non fumeurs, elle est de :

60 - 10 = 50 p.100000 ouvriers-années

ϯϯϬ

Par ailleurs, la différence de risque attribuable au tabac chez les non
exposés à l’amiante est :

120 - 10 = 110 p.100000 ouvriers-années

De même, la différence de risque conjointe attribuable à l’amiante et


au tabac est :

600 - 10 = 590 ouvriers-années.

Ainsi, si les effets absolus du tabac et de l’amiante mesurés par la


différence de risque sont indépendants, on s’attend à ce que la
différence de risque conjointe soit égale à la somme des différences
de risque individuelles correspondantes :

110 + 50 = 160 p.100000 ouvriers-années.

Or le risque attribuable conjoint observé est de 590 p.100000 ouvriers-


années. L’exposition conjointe au tabac et à l ‘amiante accroît le taux
de mortalité par cancer du poumon de 590 p.100000 ouvriers-années
par rapport à l’absence d’exposition aux deux facteurs.

Il s’agit d’une synergie additive entre le tabac et l’amiante puisque le


risque attribuable conjoint attendu (160 p.100000) est beaucoup plus
faible. La présence d’interaction additive signifierait que le tabac et
l’amiante agissent en deux points séparés du même processus causal.

En dehors de l’exemple relatif à la synergie des effets absolus du


tabagisme et de l’amiante en ce qui concerne le cancer du poumon ou
celui relatif à la synergie des effets absolus du tabagisme et de l’alcool
en ce qui concerne le cancer du larynx ou encore celui relatif à la
synergie des effets relatifs du tabac et de la pilule contraceptive par
rapport à l’infarctus du myocarde, le nombre d’interactions jusqu’à
présent démontrées en épidémiologie analytique reste faible.

ϯϯϭ

Cela n’empêche nullement à l’occasion d’une analyse de données
d’une étude étiologique quelconque d’identifier des variables en tant
que facteurs modifiants ou facteurs de confusion selon le rôle apparent
qu’elles semblent jouer.

ϯϯϮ

Chapitre 21

Appariement simple pour neutraliser un facteur de confusion


Critères de causalité

1. Définition

L’appariement simple (matching) est un procédé permettant de


contrôler à priori un facteur de confusion dès l’étape de la mise en
place des groupes à comparer.

Cette méthode, surtout employée dans les études cas-témoins, consiste


à associer à chaque cas un ou plusieurs témoins ayant les mêmes
caractéristiques vis-à-vis du facteur ou des facteurs que l’on veut
neutraliser.

Ces facteurs sont neutralisés puisque leur distribution est identique


dans les deux groupes à comparer et ne sont donc plus pris en compte
dans l’analyse.

Nous nous intéressons uniquement la situation où un seul témoin est


associé au cas (série appariée 1–1). Les paires formées sont
dénombrées et présentées selon le tableau 21.1.

2. Mesure d’association statistique et épidémiologique

Le test statistique permettant de tester la liaison entre le facteur et la


maladie pour des séries appariées 1–1 est le test de Mc Nemar :

χ² = (f – g)² / (f + g)

qui suit une loi de χ² à 1 dl, la somme des paires discordantes (f+g)
doit être au moins égale à 10 ou mieux à 20. Sinon, on utilise une
correction de continuité en transformant le numérateur en (|f - g| -
0.5)²
ϯϯϯ

Le risque relatif estimé (ou odds ratio) est estimé par :

OR = f / g

Tableau 21.1 Etude cas-témoins : série appariée 1–1


Présentation des données
Témoins Total paires
Exposés Non exposés
Cas Exposés e1 f e + f2
Non exposés g h g + h3
Total paires e+g f+h n/24
1. nombre de paires où le cas est exposé et où le témoin est exposé…
2 : nombre total de paires où le cas est exposé
3 : nombre total de paires où le cas est non exposé…
4. Si n est le nombre total de sujets, le nombre total de paires formées est
évidemment n/2.

A l’occasion d’une étude cas-témoins (série appariée 1–1) sur la


consommation d’œstrogènes comme facteur de risque du cancer de
l’endomètre, on a obtenu les données suivantes contenues au tableau
21.2.

Tableau 21.2 Etude cas-témoins sur le cancer de l’endomètre


et la consommation d’oestrogènes
Témoins Total paires
Exposés Non exposés
Cas Exposés 5 27 32
Non exposés 7 64 71
Total paires 12 91 103

Les paires discordantes sont f = 27 et g = 7. Les mesures d’association


statistique et épidémiologique sont respectivement :

• χ² = (27 - 7)² / (27 + 7) = 11.8 ; p < 0.001. Ȥ² = 10.6 avec la


correction de continuité de Yates qui n’a pas d’indication
absolue ici puisque le nombre de paires discordantes est égal à
34, mais la correction peut-être utilisée systématiquement.
ϯϯϰ

Le sens de la liaison est le suivant : la proportion de celles qui
utilisent des œstrogènes parmi les cas (32/103 = 31.1%) est
significativement supérieure à celle des témoins (12/103 =
11.7%) comme le montre le tableau 16.8 ci-dessous (données
après rupture de l’appariement).

• OR = 27/7 = 3.9 (IC à 95% avec l’utilisation du programme


OpenEpi : 1.7 – 8.8)

On remarque que seules les paires discordantes sont prises en compte


dans le calcul des mesures d’association statistique et
épidémiologique. La consommation d’œstrogènes et le cancer de
l’endomètre sont donc liés significativement sur le plan statistique.

En outre, les femmes qui consomment des œstrogènes ont un risque


près de 4 fois plus élevé de développer un cancer de l’endomètre que
celles qui n’en consomment pas.

3. Indications de l’appariement

Le développement de techniques de contrôle des facteurs de confusion


au moment de l’analyse (stratification, régression logistique) ont
cependant diminué l’intérêt de l’appariement et sa nécessité, sauf
dans certaines circonstances bien définies.

Il ne faut pas utiliser systématiquement l’appariement, mais seulement


après avoir envisagé soigneusement son opportunité pour une étude
particulière.

Dans la plupart des cas, il semble préférable de choisir un groupe de


comparaison approprié et de contrôler les facteurs de confusion par
stratification ou analyse multivariée (régression logistique en annexe).

ϯϯϱ

En tout cas, un appariement sur un facteur qui caractérise une étape
intermédiaire entre le facteur d’étude et la maladie ou sur un facteur
fortement lié à ce facteur d’étude risque d’introduire une trop grande
similitude des cas et des témoins vis-à-vis de l’exposition (sur
appariement) qui fait disparaître des différences réelles qui auraient
été observées avec d’autres témoins.

Si le nombre de cas est limité ou fixe, on peut augmenter la possibilité


de l’étude à trouver une association statistique significative, dans le
cas où celle-ci existe effectivement, en sélectionnant plus d’un témoin
par cas (R : 1). En général, lorsque le rapport témoins-cas devient
supérieur à 4 : 1, le gain de puissance statistique pour établir une
comparaison globale sera faible par rapport au coût en argent et en
temps.

Il est difficile d’utiliser l’analyse stratifiée basée sur des données


appariées pour contrôler des éléments de confusion qui n’étaient pas
considérés au départ comme tels. Bien que ce contrôle puisse être
réalisé grâce à des techniques multivariées particulières (régression
logistique conditionnée par paires), la taille effective de l’échantillon
s’en trouve réduite car les analyses ne portent que sur les paires
discordantes.

L’appariement est nécessaire pour des facteurs complexes qui


risqueraient de faire apparaître des disparités entre groupes étudiés,
variables comme le voisinage ou la parenté qui représentent une
gamme importante et indéfinissable de facteurs environnementaux et
génétiques particulièrement difficiles, sinon impossibles à quantifier et
donc à contrôler par d’autres procédés.

Une autre circonstance où l’appariement peut être utile est celle où le


nombre de cas est très restreint. Sinon, la taille de l’échantillon peut
être tout simplement insuffisante pour permettre la répartition des
facteurs de confusion dans des strates appropriées pour contrôler ces
variables au moment de l’analyse.

ϯϯϲ

Si les facteurs appariés sont réellement des facteurs de confusion,
l’appariement déterminera une plus grande similarité des antécédents
d’exposition chez les cas et chez les témoins.

Si l’on ne tient pas compte dans l’analyse de cette similarité produite


par l’appariement, il en résultera une sous-estimation de l’association
réelle entre exposition et maladie.

Les paires concordantes, où l’exposition est la même chez les cas et


chez les témoins, ne donne pas d’information sur l’importance de
l’association entre le facteur de risque. Cette information dépend des
paires discordantes (où l’un des sujets est exposé et l’autre pas).

Si l’estimation de l’effet à partir des sujets non appariés diffère


nettement de celle à laquelle on parvient avec des sujets appariés, les
variables d’appariement sont en réalité des facteurs de confusion dans
l’association entre le facteur de risque et la maladie. Il faut donc tenir
compte de l’appariement lors de l’analyse pour donner une estimation
correcte de l’association entre facteur de risque et maladie.

Par contre, si l’estimation est la même avec les données appariées et


non appariées, l’appariement n’introduit pas dans ce cas une similarité
d’exposition entre cas et témoins, et les analyses peuvent être publiées
à partir de données non appariées.

Les données du tableau 21.2, en brisant l’appariement, figurent au


tableau 21.3.

Tableau 21.3 Etude cas-témoins sur le cancer de l’endomètre


et la consommation d’œstrogènes
(données du tableau 21.2 après rupture de l’appariement)
Ont consommé N’ont pas consommé Total
Cas 32 71 103
Témoins 12 91 103
Total 44 162 206
Ȥ² non corrigé = 11.56 ; p < 0.001

ϯϯϳ

Ȥ² avec correction de continuité de Yates = 10.43 ; p < 0.01

Les mesures d’association statistique sont très proches de celles


obtenues lorsqu’on tient compte de la solution de continuité. L’odds
ratio, quant à lui, devient :

OR = (32*91)/(12*71) = 3.4 (IC à 95% : 1.6 – 7.8)

Ainsi, de 3.9 (lorsqu’on tient compte de l’appariement), l’OR diminue


de 12.8% lorsqu’on brise l’appariement : (3.4 – 3.9)/3.9. Puisque
l’OR est légèrement inférieur, cela suggère que le facteur de confusion
jouait un rôle limité de confusion. Les données de cette étude peuvent
légitimement être présentées sans tenir compte de l’appariement
(tableau 21.3) sans oublier les proportions des exposés chez les cas et
chez les témoins).

4. Critères de causalité

La causalité en sciences médicales ne repose pas sur l’expérience


comme en physique ou en chimie.

L’essai randomisé (chapitre 10), véritable expérience qui constituerait


une méthode très efficace pour établir la causalité, n’est utilisé, pour
des raisons éthiques évidentes, que pour démontrer l’efficacité de
traitements ou de mesures préventives.

Le tirage au sort, caractéristique prédominante de l’essai randomisé,


assure que les variables de confusion (connues ou inconnues) sont
distribuées de façon homogène entre les groupes à comparer. Ceux-ci
ne différeraient alors que par la manœuvre appliquée qui seule
pourrait expliquer une éventuelle différence significative de
l’incidence de la maladie entre les groupes. Il faut aussi que la
comparabilité des groupes soit maintenue tout au long de l’essai.

ϯϯϴ

Les études épidémiologiques étiologiques sont des enquêtes
d’observation où les phénomènes qui déterminent la santé des
populations humaines peuvent être d’une complexité inextricable.

Comme l’élucidation de ces phénomènes ne peut faire appel à


l’expérience, la médecine en est alors réduite à utiliser un système
d’inférence causale qui est un processus synthétique reposant
seulement sur l’évaluation de critères de causalité souvent sans
preuve. Par exemple, si le rôle causal du tabagisme dans l’étiologie du
cancer du poumon ne se fonde pas sur une preuve expérimentale, son
incrimination dans le développement de ce cancer est admise parce
qu’elle se fonde sur de nombreux arguments recensés dans ce sens
ainsi que sur la critique logique.

Les fondements de l’inférence causale en épidémiologie reposent sur


des critères connus sous le nom de critères de Hill. Ceux-ci sont au
nombre de neuf, les trois premiers d’entre eux sont prééminents :

• La clause de temporalité, ou antériorité temporelle de la cause sur


l’effet qui lui est attribué, est certainement le critère le plus
important. Une cause doit précéder les faits. Un tel critère n’est
clairement perçu que dans une étude cohorte.

• La force de l’association entre deux facteurs est le deuxième


critère en importance et est mesuré par le risque relatif ou l’odds
ratio. Plus la valeur du risque relatif ou celle de son estimation sont
élevées et plus la relation causale s’en trouve renforcée. En dehors
de l’investigation d’épisodes de toxi-infection alimentaire
collective ou d’épisodes épidémiques de façon générale, la plupart
des associations observées sont de faible intensité avec un risque
relatif souvent inférieur à deux. L’étude de ces associations de
faible intensité peut engendrer des résultats conflictuels qu’il est
difficile de départager avec les critères de Hill.

ϯϯϵ

• La relation dose-effet, lorsque le facteur de risque a plus de deux
niveaux, est une autre caractéristique importante d’une
association causale : le risque relatif de la maladie augmente avec
le niveau du facteur de risque. La relation entre tabac et cancer du
poumon aurait été plus difficile à faire admettre, par exemple, si
le risque relatif du cancer, par rapport aux non fumeurs, chez les
fumeurs modérés avait été plus élevé que celui des gros fumeurs.
A ce propos, il n’est pas recommandé de prendre comme
référentiel une classe dont l’effectif est petit car tous les RR (ou
OR) seraient affectés d’une forte imprécision. En effet, si les
effectifs de catégories sont très déséquilibrées, le choix du
référentiel peut être soumis à quelque contrainte et n’est pas tout à
fait libre.

Les autres critères peuvent renforcer la relation de causalité entre deux


variables.

• La constance de l ‘association entre deux variables


(reproductibilité du résultat) implique que celle-ci peut être
reproduite dans différentes populations, par différents chercheurs,
dans différents lieux et à des époques différentes. Il est difficile
alors d’accepter que des biais aient pu affecter systématiquement
cette association. En matière de séries chronologiques, il convient
de neutraliser l’effet naturel de la période lié aux progrès
médicaux ou celui de l’âge qui perturbent l’analyse étiologique et
de ne tenir compte que de l’effet de génération qui seul
habituellement correspond à un facteur étiologique.

• La cohérence de l’association avec les connaissances établies sur


l’histoire naturelle de la maladie peut être également utile. La
relation entre le cancer du poumon et le tabac a été renforcée par
les modifications histopathologiques de l’épithélium bronchique
observées chez les fumeurs ainsi que par l’isolement dans la
fumée de cigarettes de composés carcinogènes.

ϯϰϬ

• La démonstration qu’une relation causale soit biologiquement
plausible est souhaitable même si l’épidémiologie a souvent été
en avance sur la biologie. L’effet de l’eau polluée sur la survenue
du choléra a eu des explications biologiques bien après que la
causalité a été établie même si la découverte du vibrion cholérique
n’a plus laissé de place au doute.

• La spécificité de cause ou d’effet est un autre argument pour


renforcer la causalité entre deux variables. Ce critère, en raison du
fondement multifactoriel des maladies, notamment chroniques,
est rarement vérifié. Une maladie n’est pas engendrée
spécifiquement par une seule cause. L’effet carcinogène du tabac
concerne aussi bien, par exemple, le cancer du poumon que celui
de la vessie.

• Le raisonnement par analogie est accepté aussi quelquefois


comme un critère de causalité. Ainsi, la démonstration qu’un
virus est la cause d’une maladie donnée peut faire admettre, par
analogie, la responsabilité d’un autre virus dans une autre
maladie.

• La démonstration que l’arrêt ou l’atténuation de l’exposition, en


dehors de tout essai clinique contrôlé éthiquement impossible à
réaliser, diminue le risque de la maladie peut constituer un autre
critère de causalité. Ainsi, le risque de cancer du poumon chez les
ex-fumeurs diminue proportionnellement au nombre d’années
d’arrêt du tabagisme.

Les critères de Hill, parce qu’ils manquent de spécificité, ne sont pas


toujours satisfaisants et ne peuvent prétendre se hisser au rang de
dogme. Mais il n’a point été proposé jusqu’à présent de meilleur
système susceptible de faire l’unanimité des scientifiques.

Mais la causalité a pu être établie pour un grand nombre de maladies.


Cela a permis, ce qui est essentiel, l’action préventive.

ϯϰϭ

C’est ainsi que l’étiologie de nombreuses maladies infectieuses non
contagieuses (typhus, la fièvre boutonneuse méditerranéenne…) ou de
maladies infectieuses contagieuses (choléra, la fièvre typhoïde,
sida…) a été élucidée.

Le tabac, l’alcool et l’amiante occupent une place prépondérante dans


les relations causales élucidées en matière de maladies chroniques non
transmissibles : le tabac est une cause principale ou associée des
cancers des voies aériennes supérieures et du poumon, de
l’artériosclérose ainsi que du cancer de la vessie. L’alcool est une
cause principale ou associée du cancer de l’œsophage. L’amiante est
associé au mésothélium et au cancer du poumon chez les ouvriers
exposés.

D’autres relations ont été élucidées. Les graisses alimentaires


interviennent dans la genèse de l’artériosclérose, l’hypertension dans
celle des accidents vasculaires cérébraux, les œstrogènes dans celle du
cancer du corps utérin, le diéthylstiboestrol dans celle du cancer
vaginal de l’enfant.

Des études épidémiologiques d’observation ont permis de mettre en


évidence de telles associations fortes et convaincantes. Les
associations de faible intensité, avec des risques relatifs compris entre
1.5 et 2, sont encore plus nombreuses et font toujours l’objet de
controverses parmi les scientifiques.

L’évolution des idées sur la causalité pourrait avoir des perspectives


plus larges avec des avancées probantes à l’avenir.

ϯϰϮ

Annexe : régression logistique

La régression logistique, méthode très employée en épidémiologie,


permet de contrôler simultanément l’effet de confusion de plusieurs
variables entre une variable dépendante binomiale (présence ou
absence d’une maladie) et un nombre élevé de facteurs de risque
potentiels.

La régression logistique s’applique au cas où la variable dépendante à


expliquer est une probabilité P. On peut ainsi s’intéresser à la
probabilité qu’un enseignant algérien en sciences médicales écrive un
article en fonction de son genre, d’une formation en épidémiologie,
de son ancienneté, d’une collaboration étrangère, de son grade, de la
connaissance de l’anglais… (atelier régression logistique).

Le modèle logistique utilisé est de la forme :


Logit P = Į + ȕ1X1 + ȕ2X2 + ȕ3X3 + ȕ4X4 + ȕ5X5 + ȕ6X6 + ȕ7X7 + … +
constante
Si P varie de 0 à 1, Logit P varie de - ’ à + ’. Le modèle de la
régression multiple est écrit avec Logit P comme variable expliquée et
non plus P. Les Xi sont les variables expliquantes dites encore
covariables. La constante d’un modèle logistique, dans une étude cas-
témoins, n’a aucune interprétation concrète.

La plus forte corrélation possible entre une fonction linéaire des Xi et


P est obtenue lorsque l’équation de régression est assimilée à une
fonction linéaire. C’est une corrélation multiple de P avec les Xi. Le
coefficient de corrélation multiple est au moins supérieure à tous les
coefficients de corrélation simples entre P et Xi.

En matière de régression logistique, ce modèle linéaire ne convient


pas parce qu’il pourrait fournir des valeurs à l’extérieur de [0 ;1] alors
qu’une probabilité est prédite.

ϯϰϯ

De façon générale, les catégories de variables qui doivent être incluses
dans une analyse multivariée sont au nombre de trois :

• les variables sur lesquelles un appariement simple ou un


appariement de fréquence (assortiment) a été effectué. Par
construction, la distribution de ces variables est la même pour
les groupes à comparer : cas, témoins… Cela contraint à
laisser ces variables dans le modèle même si leur coefficient
correspondant n’est pas significatif;
• les facteurs de risque reconnus en tant que tels dans la
littérature scientifique (recherche documentaire sur le sujet) ;
• les variables liées à la cible de l’étude avec un p (probabilité
que le hasard puisse expliquer les résultats) allant
habituellement jusqu’à 20%.

Tous ces facteurs sont inclus dans un modèle de régression logistique


et peuvent être testés dans une procédure de pas à pas descendante.
Les facteurs restant indépendamment associés (p < 0.05) sont gardés
dans le modèle et des Odds ratios ajustés, avec leur intervalle de
confiance, sont calculés.

Il n’est pas judicieux de procéder directement à l’analyse des données


par une régression logistique sans effectuer au préalable une analyse
univariée (tableaux à une seule variable), une analyse bivariée
(tableaux à deux variables) et une analyse de tableaux à trois
variables.

L’analyse de tableaux à trois variables permet notamment de déceler


des interactions entre les variables avant d’introduire ces interactions
dans le modèle, le nombre d’interactions introduites ne devrait pas
dépasser deux. Au-delà de deux interactions, le modèle deviendrait
vite inextricable.

ϯϰϰ

Cette préparation des données évite de donner à la régression
logistique une impression de « cuisine » où des modèles sont
comparés à l’emporte-pièce sans aucune justification ou stratégie
d’analyse, en dehors de considérations didactiques.

Chaque modèle a une vraisemblance donnée exprimée par Ln V.


Quand deux modèles ne sont pas significativement différents, il faut
prendre le plus simple. Quand deux modèles sont significativement
différents, il faut retenir le plus complet, celui dont la valeur de Ln V
est la plus grande en valeur algébrique (échelle de bas en haut, des
valeurs négatives aux valeurs positives).

Signalons que lorsque l’OR n’est pas une bonne estimation de RR


(parce que la maladie est fréquente). La régression logistique ne peut
déterminer que les odds ratios ajustés. En conséquence, l’effet de
l’ajustement ne peut être apprécié qu’en comparant l’odds ratio ajusté
à l’odds ratio brut et non au risque relatif brut.

Lorsqu’on scinde une variable en plusieurs autres variables, celle-ci


devraient toutes figurer dans un modèle ou en être toutes absentes.

Quand on veut tester l’existence d’une relation dose-réponse à l’aide


d’un modèle logistique pour une variable quantitative, cette variable
pourrait être incluse dans le modèle sous forme quantitative ou sous
forme d’une variable qualitative ordinale à trois catégories
correspondant aux différentes classes et qui pourraient, par exemple,
être codées 1, 2 et 3.

La catégorie de référence est celle pour laquelle un OR égal à 1 est


associé. Dans tous les cas, les coefficients devraient être
significativement différents de 0 en la présence d’une relation dose-
réponse. En d’autres termes, les OR doivent être significativement
différents de 1 (leur intervalle de confiance des ne doit pas contenir la
valeur de référence 1).

ϯϰϱ

Le problème se pose parfois entre une analyse séparée et une analyse
globale. Il arrive parfois que l’on donne la préférence à des analyses
éparées. Il est ainsi habituel, en matière de recherche sur le cancer,
d’effectuer des analyses séparées chez les hommes d’une part et chez
les femmes d’autre part.

Une telle analyse séparée n’engendre habituellement pas de perte de


puissance mais ne permet pas de comparer l’OR des hommes à celui
des femmes. Cela est cependant préférable à l’introduction dans le
modèle de nombreux termes d’interaction entre le genre et les autres
variables (dont au moins la cible de l’étude) qui compliqueraient
l’interprétation des résultats sans gain de puissance réel.

Dans une étude sue le cancer du sein et l’âge aux premières règles, des
analyses séparées ont été effectuées séparément chez les femmes de
race noire et celles de race blanche. On pourrait aussi effectuer une
analyse unique avec toutes les femmes quelle que soit leur race.

Mais si la race est un facteur d’interaction dans la relation entre l’âge


aux premières règles et le cancer du sein, il convient d’introduire dans
un modèle logistique un terme d’interaction entre la race et l’âge aux
premières règles. Si le coefficient du terme d’interaction est
significatif, cela signifie que l’âge aux premières règles joue un rôle
différent chez les femmes noires et chez les femmes blanches.
L’analyse séparée est ainsi justifiée.

Des exemples tirés et inspirés de l’ouvrage de Bouyer J ( Bouyer J :


Epidémiologie – Exercices corrigés – Editions Estem. 2001) vont
permettre de ne pas entrer dans des considérations très théoriques pour
comprendre les fondements de l’analyse multivariée.

ϯϰϲ

Exemple 1. Une étude a été réalisée sur un échantillon représentatif
des habitants d’une région âgés de 30 à 70 ans pour étudier les
facteurs de risque d’une maladie M. Outre la maladie, les variables
relevées ont été le genre (codé 0 pour les hommes et 1 pour les
femmes), l’âge (variable quantitative) et la consommation de tabac
(codée 0 pour les non fumeurs et 1 pour les fumeurs). Les résultats de
deux modèles logistiques obtenus sur ces données ont été les
suivants :

Modèle 1 LnV = - 101.7


Ⱦ෠ sȾ෠
Sexe 0.60 0.53
Age 0.04 0.21
Tabac 1.85 0.86
Constante -6.63 1.68

Modèle 2 LnV = - 104.0


Ⱦ෠ sȾ෠
Sexe 0.56 0.48
Age 0.04 0.08
Constante -6.62 1.61

L’odds ratio associé au tabac dans le modèle 1 est l’exponentielle du


coefficient ȕ correspondant :
OR = e1.85 = 6.36

Pour avoir son intervalle de confiance, il faut commencer par calculer


celui de ȕ :
1.85 ± 1.96*0.86, soit [0.164 ; 3.54].
D’où l’intervalle de confiance de OR :
[1.18 ; 34.3]

Le modèle 2 est emboîté dans le modèle 1 puisqu’il est obtenu à partir


de ce dernier en retirant une variable. Les deux modèles peuvent donc
être comparés.

ϯϰϳ

Pour comparer les deux modèles, on fait le test du rapport des
vraisemblances :

Ȥ² = -2 (LnV1 – LnV2) = -2*-101.7 (-2*-104.0) – (-2*-101.7) =


4.6 ; dl = 1 ; p < 0.02

Ce résultat correspond au fait que le coefficient de la variable Tabac


qui a été retirée était significativement différent de 1.

Puisqu’il s’agit d’une enquête sur un échantillon représentatif, on peut


déterminer le risque de maladie (Cela n’aurait pas été possible avec
une enquête cas-témoins).

Le risque de maladie est donné par l’équation :


P = 1 / (1 + e-(Logit P)) .
Avec :
Logit P = Į + ȕ1 Sexe + ȕ2 Age + ȕ3 Tabac = -6.63 + 0.60 Sexe + 0.04
Age + 1.85 Tabac
Pour un homme de 40 ans, on a :
Logit P = -6.63 + 0.60*0 + 0.04*40 + 1.85*1 = -3.18

D’où :
P = 1 / (1 + e3.18) = 0.04

Exemple 2. Par définition,


Logit P = ln[P(1 – P)], d’où
P = 1 / (1 + e-LogitP)
Si LogitP = -2.06, P = 1 /(1 + e-(-2.06)) = 0.113 = 11.3%

Exemple 3. Si dans une étude cas-témoins, le statut de malade peut


être codé 0 et le statut de témoin peut être codé 1. Si on inversait le
codage (1 pour cas et 0 pour témoin), le coefficient de la cible
(variable principale d’exposition) garderait la même valeur mais
changerait de signe. Il en serait de même pour toutes les autres
variables du modèle.
ϯϰϴ

Cela conduirait à inverser l’odds ratio correspondant à chacune des
variables. Les coefficients du modèle logistique sont les logarithmes
des odds ratios et ont ainsi leur signe changé.

Exemple 4. Si pour deux modalités d’une variable, on passe du


codage (0 ; 1) au codage (1 ; 0) la valeur de l’OR est inversée. Si on
passe d’un codage (1 ; 2) à un codage (0 ; 1), le coefficient associé à la
variable n’est pas modifié mais la constante du modèle change.

Exemple 5. On peut envisager plusieurs codages pour introduire une


variable quantitative dans un modèle. Un modèle contenant une
variable sous sa forme quantitative ne peut pas être comparé par le test
du rapport des vraisemblances à un modèle contenant cette variable
après avoir été regroupée en classes. Par exemple, dans une étude cas-
témoins sur les blessures à la tête de cyclistes et le port de casque,
trois modèles logistiques correspondant à trois codages différents de
l’âge ont donné les résultats suivants :
Modèle1 Ln V = - Modèle 2 Ln V = Modèle 3 Ln V =
447.9 -447.0 -446.6
ȕ sȕ Ǻ sȕ Age 3 ȕ sȕ
Age 1 0.083 0.011 Age 2 0.93 0.11 A1 0.74 0.245
Constante 2.04 0.17 Constante - 0.094 A2 1.93 0.245
1.22
Constante - 0.095
1.21
Age 1 : variable quantitative continue (années)
Age 2 : âge (années) en trois classes : codées 0 : ” 14 ; 1 : 15-24 ; 2 : • 25
Age 3 : A1 : variable dichotomique codée 1 si âge compris entre 15 et 24 et 0
sinon ; A2 : variable dichotomique codée 1 si âge • 25 et 0 sinon.

Le modèle 1 n’est pas comparable aux deux autres. Seuls les deux
modèles 2 et 3 sont comparables, le modèle 2 est emboîté dans le
modèle 3 (les variables A1 et A2 sont la décomposition classique de la
variable Age 2.

ϯϰϵ

Les modèles 2 et 3 ne sont pas statistiquement différents lorsqu’on
exécute le test du rapport des vraisemblances (Ȥ² = 0.8). Il serait
approprié de choisir le modèle 2 puisqu’il est plus simple.

Notons que le modèle 1 s’écrit : Logit P = 0.083 Age 1 + 2.04 où P est


la probabilité pour un cycliste de subir une blessure à la tête. Cette
probabilité peut aussi s’écrire :
P = 1 / [ 1 + e(-0.083Age1+2.04)]
Le coefficient ȕ = 0.083 est associé à l’augmentation du risque d’être
blessé à la tête par année d’âge.

En termes plus précis, parce que e0.083 = OR = 1.09 (IC à 95% : 1.06 –
1.11) est l’OR d’être blessé à la tête associé à une année d’âge (le
risque d’être blessé à la tête augmente de 9% lorsque l’âge augmente
d’une année). Malgré la valeur faible de l’OR puisqu’il est associé à
une année d’âge, il est significativement différent de 1.

L’OR associé à cinq années d’âge serait : e0.083*5 = 1.51, la valeur de


l’OR a nettement augmenté puisque l’amplitude de l’âge est passée à
5 ans.

Exemple 6. Lorsqu’une variable quantitative est exprimée sous forme


de classes, par exemple quatre classes pour la durée de pratique
sportive, elle peut être transformée en une série de trois variables
dichotomique chacune comme suit :
Durée de pratique Variable X1 Variable X2 Variable X3
sportive
< 1 an 0 0 0
1 – 4 ans 1 0 0
5 – 9 ans 0 1 0
• 10 ans 0 0 1

ϯϱϬ

Exemple 7. Si une variable qualitative est multichomique ordinale,
comme le niveau d’instruction avec trois modalités (primaire,
secondaire, supérieur), elle peut être introduite comme dans un des
deux modèles suivants :
• Modèle 1 : supérieur : oui, non ; secondaire : oui, non
• Modèle 2 : supérieur : oui, non.

Le modèle 2 est emboîté dans le modèle 1, il manque au modèle 2 la


variable « secondaire ». Les deux modèles peuvent ainsi
éventuellement comparés.

Exemple 8. Plusieurs modèles logistiques ont été utilisés pour étudier


chez les toxicomanes l’association entre le délai depuis l’arrêt du
traitement et le décès. Les résultats de 6 d’entre eux figurent au
tableau 2. Le codage des variables a été le suivant :

• La variable « niveau d’études » initialement en trois classes a


été transformée en deux variables dichotomiques :
o Etudes secondaires : 1 pour niveau d’études
secondaires, 0 sinon
o Etudes primaires : 1 pour niveau d’études primaires, 0
sinon
• Marié : 1 si marié, 0 sinon
• Durée : 1 si durée du traitement supérieure ou égale à 1 an, 0
sinon
• Délai : 1 si arrêt du traitement depuis plus d’un mois, 0 sinon
• Type de drogue : 1 pour héroïne, 2 pour héroïne + autre

Le signe * indique l’interaction entre deux variables

ϯϱϭ

Résultats de six modèles logistiques
Modèle 1 LnV = - 448.20 Modèle 2 LnV = -448.39
Ⱦ෠ sȾ෠ Ⱦ෠ sȾ෠
Etudes secondaires 0.16 0.23 Etudes secondaires 0.15 0.25
Etudes primaires 0.55 0.34 Etudes primaires 0.58 0.31
Marié -0.98 0.40 Marié -0.87 0.34
Durée 0.12 0.28 Durée 0.11 0.26
Délai 1.02 0.26 Délai 1.10 0.22
Type de drogue -0.07 0.11 Type de drogue -0.08 0.12
Délai * durée 0.13 0.08 Délai * durée 0.12 0.07
Délai * type -0.07 0.12 Constante -3.89 1.22
Constante -4.06 1.42

Modèle 3 LnV = - 449.53 Modèle 4 LnV = -451.86


Ⱦ෠ sȾ෠ Ⱦ෠ sȾ෠
Etudes secondaires 0.10 0.22 Marié -0.80 0.31
Etudes primaires 0.65 0.30 Durée 0.12 0.26
Marié -0.82 0.33 Délai 1.07 0.25
Durée 0.11 0.26 Type de drogue -0.11 0.14
Délai 1.10 0.23 Constante -3.85 1.17
Type de drogue -0.09 0.15
Délai * type -0.05 0.08
Constante -3.89 1.22

Modèle 5 LnV = - 450.42 Modèle 6 LnV = -452.18


Ⱦ෠ sȾ෠ Ⱦ෠ sȾ෠
Etudes primaires 0.35 0.21 Marié -0.80 0.29
Marié -0.78 0.30 Durée 0.10 0.28
Durée 0.09 0.18 Délai 1.12 0.27
Délai 1.22 0.30 Constante -3.99 1.25
Type de drogue -0.10 0.13
Constante -3.85 1.07

Le modèle 5 n’est pas correct. La variable initiale « Niveau


d’études » a été scindée en deux variables dichotomiques. Ces deux
variables ne doivent pas être séparées, car leur coefficient n’est le
logarithme de l’OR par rapport à la catégorie de référence « niveau
d’études universitaires » que lorsqu’elles sont toutes les deux
présentes dans le modèle.
ϯϱϮ

Un modèle doit les contenir toutes les deux ou n’en contenir aucune,
ce qui n’est pas le cas du modèle 5

Les modèles 2 et 3 ne sont pas emboîtés et ne sont donc pas


comparables par un test statistique. Le modèle 4 est emboîté dans le
modèle 3. Pour comparer ces modèles, on utilise le test du rapport de
vraisemblance 2*(-449.53) - 2*(-451.86) = 4.66. C’est un Ȥ² à 3 dl car
le modèle 4 contient trois variables de moins que le modèle 3. La
différence entre ces deux modèles est donc non significative (p >
0.20).

Dans le modèle 4, l’OR est l’exponentielle du coefficient de la


variable « Marié » : OR = eȕ = e-0.80 = 0.45. L’intervalle de confiance
de ȕ = Ln OR est : -0.80 ± 1.96*0.31 = (-1.408 ; -0.192). On en déduit
l’intervalle de confiance de OR : (e-1.408 ; e-0.192), soit (0.245 ; 0.825).

L’OR est significativement différent de 1 puisque l’intervalle de


confiance ne contient pas la valeur de référence 1. Pour préciser le
degré de signification, il faut faire le test de Wald z :
z = ȕ/sȕ = -0.80/0.31 = -2.58 ; p < 0.01.

Quel que soit le modèle considéré, les variables d’interaction (Délai *


Durée et Délai * Type) ont des coefficients non significativement
différents de 1.

Les variables « Durée » et « Type de drogue » ne sont donc pas des


facteurs d’interaction pour l’association entre le délai depuis l’arrêt du
traitement et le décès :
• Délai * durée : IC de ȕ (-0.02 ; 0.26) d’où IC de OR (0.98 ;
1.30) : contient 1
• Délai * type : IC de ȕ (-0.21 ; 0.11) d’où IC de OR (0.81 ;
1.11) : contient 1

ϯϱϯ

Si le coefficient du terme d’interaction est significatif, alors le rôle de
l’âge aux premières règles est différent entre les femmes selon leur
origine.

Pour savoir si la variable « Type de drogue » est un facteur de


confusion, il faut considérer les modèles 4 et 6 qui diffèrent par cette
variable. Le coefficient de la variable « Délai » n’est que peu modifié
par le retrait de la variable « Type de drogue » : 1.07 pour le modèle 4
et 1.12 pour le modèle 6. Cela montre que le « Type de drogue » n’est
pas un facteur de confusion.

Le risque de décès d’un sujet marié, ayant eu un traitement de plus


d’un an arrêté depuis moins d’un mois ne peut être estimé dans une
étude cas-témoins même si on utilise un modèle logistique.

Exemple 9. Plusieurs modèles logistiques ont été utilisés pour étudier


les facteurs de risque du cancer du colon chez les hommes. Les
résultats de 4 d’entre eux sont donnés ci-dessous. Chacune des
variables était dichotomique (1 = oui ; et 0 = non).
Modèle 1 LnV = -463.27 Modèle 2 LnV = -463.65
Ⱦ෠ sȾ෠ Ⱦ෠ sȾ෠
Tabac 0.50 0.20 Tabac 0.51 0.20
Alcool 0.26 0.39 Alcool 0.25 0.37
Caféine 0.64 0.30 Caféine 0.68 0.33
Age > 60 ans 0.59 0.19 Age > 60 ans 0.62 0.25
Obésité 0.47 0.56 Alcool*tabac 0.24 0.39
Alcool*tabac 0.27 0.45 constante -1.48 0.49
Constante -1.53 0.42

Modèle 3 LnV = -463.90 Modèle 4 LnV = -463.87


Ⱦ෠ sȾ෠ Ⱦ෠ sȾ෠
Tabac 0.60 0.27 Tabac 0.65 0.23
Alcool 0.38 0.36 Caféine 0.69 0.31
Caféine 0.70 0.32 Age > 60 ans 0.63 .23
Age > 60 ans 0.61 0.21 Alcool*tabac 0.39 0.35
Constante -1.52 0.38 constante -1.49 0.41

ϯϱϰ

Les modèles 2 et 4 sont emboîtés car ils diffèrent par la variable alcool
qui figure dans le premier et pas dans le second. Ils ne sont pas
significativement différents puisque le test du rapport de
vraisemblance donne Ȥ² = 0.4 à 1 dl. Il n’y a donc pas d’argument
statistique pour choisir l’un plutôt que l’autre. On retiendra le modèle
2, car il ne faut pas enlever la variable alcool quand un terme
d’interaction alcool*tabac est encore dans le modèle. Cette raison est
d’ailleurs suffisante indépendamment de la comparaison statistique
des modèles.

Les modèles 3 et 4 ne sont pas comparables car ils ne sont pas


emboîtés. La question de savoir s’ils sont significativement différents
ne se pose donc pas.

On peut par contre se poser la question du modèle adéquat à retenir.


Le modèle 4 peut-être exclu d’emblée puisqu’on lui a préféré le
modèle 2.

Le modèle 3 est emboîté dans le modèle 2 qui est lui-même emboîté


dans le modèle 1. Les vraisemblances de ces trois modèles n’étant pas
significativement différentes, on retient le modèle 3. On note que cela
revient à éliminer les variables obésité et alcool*tabac dont les
coefficients ne diffèrent pas de 0.

L’odds ratio associé au tabac dans le modèle 3 est : OR = e0.60 = 1.82.


L’intervalle de confiance de son logarithme est : 0.60 ± 1.96*0.27 =
(0.0708 ; 1.129). D’où l’intervalle de confiance de l’OR (1.07 ; 3.09).

Si on avait voulu faire l’analyse multivariée sur l’ensemble de


l’échantillon (hommes et femmes réunis), Il aurait fallu ajouter un
terme sexe pour tenir compte de l’effet éventuel de confusion lié à
cette variable. Par ailleurs, les résultats bruts poussent à inclure à
priori des termes d’interaction entre le sexe d’une part, le tabac,
l’alcool et la caféine d’une part. Il semble en effet que les OR associés
à ces variables puissent être différents chez les hommes et chez les
femmes.
ϯϱϱ

Il convient plus judicieusement de faire une analyse de tableaux à trois
variables chacun pour ne pas introduire dans le modèle tous ces
termes d’interaction (atelier régression logistique).

Exemple 10. Dans un modèle, l’âge (A) peut être codé en trois
classes : 0 pour 20-29 ; 1 pour 30-39 et 2 pour 40 et plus. L’âge aussi,
à partir de ces trois catégories, peut être codé en deux variables A1 et
A2 de la façon suivante dans un autre modèle :
A1 A2
20-29 0 0
30-39 1 0
40 + 0 1

Si les modèles logistiques correspondants avec leur vraisemblance


sont les suivants :
• Modèle 1 : Logit P = 0.32 – 0.35 A (LnV = -122.4)
• Modèle 2 : Logit P = 0.29 – 0.33 A1 – 0.55 A2 (Ln V = -121.8)

Puisque ces deux modèles sont emboîtés, le modèle 1 étant emboîté


dans le modèle 2, le test du rapport des vraisemblances (Ȥ² = 1.2, NS)
montre qu’ils ne sont pas significativement différents.

Le modèle 1 pourrait être retenu car en apparence plus simple mais


des arguments autres que statistiques pourraient aussi intervenir pour
choisir un modèle plutôt qu’un autre.

Exemple 11. Considérons le niveau d’instruction (NI) dont on


pourrait proposer le codage suivant : 0 pour analphabètes, 1 pour
primaire, 2 pour secondaire et 3 pour supérieur. A partir de ces quatre
modalités, trois variables dichotomiques avec leur codage
correspondant pourraient être proposés : A1 (1 = primaire ; 0 sinon),
A2 (1 = secondaire ; 0 sinon), A3 (1 = supérieur ; 0 sinon) comme dans
le tableau suivant :

ϯϱϲ

A1 A2 A3
Analphabète 0 0 0
Primaire 1 0 0
Secondaire 0 1 0
Supérieur 0 0 1

Si les modèles logistiques correspondants avec leur vraisemblance


sont les suivants :
• Modèle 1 : Logit P = - 0.54 – 0.39 NI (LnV = -127.24)
• Modèle 2 : Logit P = 0.23 + 0.82 A1 + 0.61 A2 + 1.62 A3 (Ln
V = -125.86)

Le test du rapport des vraisemblances montre que ces deux modèles


emboîtés ne sont pas significativement différents (Ȥ² = 2.76, NS).
Cependant, le modèle 2 serait le seul à retenir puisque le niveau
d’instruction est une variable qualitative multichotomique.

Une autre façon de procéder est de considérer les valeurs des OR (sur
l’axe des y) entre la maladie et chacune des variables scindées issues
de la variable initiale. Si cette relation est linéaire, il n’est pas contre-
indiqué d’introduire la variable initiale, sans la casser, dans le modèle.
Par contre, si cette relation est log-linéaire (sous forme de polygone),
les variables scindées issues de la variable initiale devraient être
introduites dans le modèle.

ϯϱϳ

Chapitre 22

Analyse de la survie

1. Situation du problème

L’évolution d’une maladie peut être étudiée en fonction du risque de


mortalité ou des chances de survie.

La survie est un problème très étudié lorsqu’il s’agit de décrire


l’évolution de groupes de sujets malades. Le critère de survie est
aussi souvent utilisé lorsqu’il s’agit de comparer deux groupes de
sujets malades comme cela peut être le cas au cours d’essais
thérapeutiques.

Pour les maladies graves à évolution très rapide, la durée moyenne de


survie peut être mesurée. Celle-ci ne peut être déterminée que lorsque
tous les malades sont décédés. Calculer une durée moyenne de survie
alors que des sujets sont encore vivants introduit un biais (erreur
systématique) grave. On pourrait alors préconiser de déterminer la
médiane, mais c’est une statistique peu intéressante lorsqu’il s’agit
d’aborder les problèmes de survie, la moyenne véhiculant une
information plus fine.

Mais, en règle générale, on ne peut attendre que tous les malades


décèdent pour calculer la moyenne. On se contente de faire « le
point » à un moment donné en tenant compte des informations
disponibles à cette date. Cela est particulièrement vrai pour les essais
thérapeutiques qui exigent une surveillance à long terme des malades.

Les paramètres calculés sont alors des taux de survie observés qui
expriment les probabilités pour les sujets d’être encore vivants à des
délais successifs à partir d’une date choisie comme origine.

359
Nous décrirons les différentes alternatives qui peuvent s’offrir pour
faire le « point » à une date donnée pour analyser les données
disponibles avant d’exposer les techniques qui permettent de comparer
globalement l’évolution de deux groupes de sujets malades.

Les différentes techniques exposées, bien qu’appelées méthodes de


survie, s’appliquent à tout événement survenant au cours du temps
(récidive d’une maladie, apparition de métastases, de complications,
de séquelles, d’infections…), et non pas seulement, comme dans le
cas de la survie, à la survenue d’un décès. Les taux correspondants
estimés sont des taux sans récidive, sans métastase, sans complication
ou sans séquelle aux délais successifs retenus.

Il faut remarquer que le décès et la survie sont les modalités d’une


même variable appelée « survie ». On prend, pour le calcul des taux
de survie, la modalité pour laquelle la probabilité de rester en vie, de
ne pas être infecté, de ne pas développer une métastase, etc. diminue
au cours du temps.

2. Informations nécessaires pour l’établissement des taux de


survie

A la date du « point », un certain nombre d’informations doivent être


disponibles pour chaque sujet inclus dans l’étude pour estimer les taux
de survie :

• L’origine de survie est le point de départ de la surveillance pour


chaque malade. Elle doit être définie avec précision et est
identique pour tous les malades. L’origine de survie est, par
exemple, la randomisation, le début du traitement, le diagnostic.
La date à laquelle a lieu l’origine de survie est le plus souvent
différente pour chaque malade. C’est la date de l’origine de survie
ou date d’origine.

360
• La date des dernières nouvelles est la date à laquelle on a obtenu
pour la dernière fois des nouvelles du sujet. Pour les sujets encore
vivants, c’est la date à laquelle ils ont consulté la dernière fois.
Pour les sujets décédés, c’est la date du décès. A la date des
dernières nouvelles, un malade est donc soit vivant, soit décédé.

A partir des trois dates, celle du point, celle de l’origine de survie et


celle des dernières nouvelles, on calcule pour chaque sujet deux
paramètres : le recul et le temps de participation (figure 22.1).

Figure 22.1 Illustration du recul et du temps de participation


Pour l’estimation des taux de survie

Date d’origine Date des dernières nouvelles Date du point

Temps de participation

Recul

Le recul est le délai écoulé entre la date d’origine et celle du point. En


conséquence, des sujets qui ont le même recul ont forcément la même
date d’origine.

Le temps de participation, lorsque la date des dernières nouvelles est


antérieure à celle du point, est le délai écoulé entre la date d’origine et
celle des dernières nouvelles.

Si le sujet est décédé à la date des dernières nouvelles, le temps de


participation mesure sa survie. Si le sujet est vivant à la date des
dernières nouvelles, on le classe dans l’une des deux catégories
suivantes :

• Celle des sujets exclus vivants (EV) appelés ainsi parce qu’ils
sont encore vivants à la date du point et suivis régulièrement ;
361
• Celle des perdus de vue (PV) qui ont quitté l’étude vivants mais
qui ne sont plus soumis à la surveillance régulière dont ils
devraient faire l’objet. Les sujets perdus de vue peuvent avoir un
recul très important par rapport aux exclus vivants.

Les EV et les PV contribuent de la même manière à l’établissement


des tableaux et des courbes de survie. Ils constituent ce qu’on appelle
des données incomplètes ou données censurées. Les données
concernant les malades toujours en vie à la date du point, parce que
l’événement considéré ne s’est pas encore produit, sont en effet
censurées (comme soumises à une coupe). Mais contrairement aux
exclus vivants qui n’introduisent pas un biais dans l’estimation de la
survie, les perdus de vue peuvent avoir quitté l’étude pour des raisons
liées à la maladie.

C’est pour cette raison qu’il faut s’efforcer de réduire au maximum le


nombre de perdus de vue. Mais lorsque ceux-ci sont nombreux, on
peut envisager deux hypothèses :

• Les perdus de vue ont la même probabilité de survie que les autres
sujets de l’étude, ils sont alors assimilés aux EV.
• Les perdus de vue n’ont pas la même probabilité de survie que les
autres sujets, on peut alors adopter deux attitudes extrêmes : les
PV sont tous vivants ou tous décédés, selon la connaissance que
l’on a du problème.

Lorsque la date des dernières nouvelles est postérieure à celle du


point, le temps de participation s’identifie au recul. Car il faut bien
comprendre que toutes les informations qui sont postérieures à la date
du point ne sont pas prises en compte dans le calcul des taux de survie
puisqu’on a choisi délibérément de faire l’analyse sur la base des
données disponibles à la date précise du point. Le problème de la
durée variable du temps de participation selon les sujets est une
situation très fréquente en pratique. Des exemples pour déterminer les
deux paramètres sont à la figure 22.2.
362
Figure 22.2 Détermination du recul et du temps de participation
par les exemples A à H (anniversaires exprimés en années révolues)

Date du point : 21/04/2004


A
21/04/1996 Décès (21/04/2003)

Recul = 8 ans
Tps de participation = 7 ans
(NB : si la date du point = 20/04/04, recul = 7 ans et tps de participation = 7 ans)

B
21/04/96 PV (21/04/97)

(perdu de vue : recul = 8 ans et tps de participation = 1 an)

C
21/04/02 EV
(recul = 2 ans ; tps de participation = 2 ans ; date des dernières nouvelles
postérieure au point)

D
21/04/00 DDN(01/01/04) EV

(recul = 4 ans ; tps de participation = 3 ans)

E
21/04/99 PV (21/04/03)

(recul = 5 ans ; tps de participation = 4 ans)


F
(21/04/96) EV
(recul = 8 ans ; tps de participation = 8 ans)

G
21/04/01 Décès (20/03/03)

(recul = 3 ans ; tps de participation = 1 an)

H
21/04/01 Décès (10/05/01)
(recul = 3 ans ; tps de participation = 0 an)
Les méthodes dites de survie sont au nombre de trois :
363
• La méthode directe, appelée méthode des pourcentages, ne tient
compte que du recul de chaque sujet ;
• La méthode de Kaplan Meïer ;
• La méthode actuarielle.
La méthode de Kaplan Meïer et la méthode actuarielle, qui sont deux
expressions différentes d’une même méthode dite « actuarielle », ne
tiennent compte que du temps de participation de chaque sujet.

3. Méthode directe

Supposons, par exemple, que l’on veut connaître la probabilité de


survie à 5 ans d’un groupe de malades. Pour déterminer un taux de
survie par la méthode directe, on ne tient compte que des sujets qui
ont un recul égal ou supérieur à 5 ans.

Le groupe de malades est donc départagé en deux catégories :

• La première catégorie comprend les malades dont le recul est


inférieur à 5 ans, on considère que ces malades n’apportent aucune
information et ils sont éliminés ;

• La deuxième catégorie de malades (recul ≥ 5 ans) est elle même


scindée en trois classes : vivants (a), décédés après 5 ans (b) ou
avant 5 ans (c) ;

Malades

Recul ≥ 5ans
Recul < 5 ans Vivants (a)
Eliminés

Décédés avant 5 ans (c)


Décédés après 5 ans
(b)
Perdus de vue (d)
364
On admet généralement que les perdus de vue se comportent comme
les autres malades, ce qui permet de ne pas en tenir compte dans le
calcul.

Le taux de survie à 5 ans est estimé ainsi :

S5 = (a + b) / (a + b + c).

Par exemple, si pour les malades qui ont un recul ≥ 5 ans, on a :

vivants = 50, décédés après 5 ans = 30, décédés avant 5 ans = 20,

le taux de survie est = S5 = (50 + 30) / (50 + 30 + 20) = 0.80.

Ce qui signifie qu’un malade a une probabilité de 0.80 en moyenne


(ou 80 chances sur 100) d’être vivant au bout de 5 ans.

Le taux de survie par la méthode directe est donc calculé par la simple
proportion : nombre de survivants/nombre de sujets. L’intervalle de
confiance qu’on assigne à ce taux est celui d’une proportion :

St ± z√[St(1- St)/(a+b+c)].

Dans notre exemple, les deux bornes de l’intervalle de confiance au


risque 5% sont :

0.80 ± 1.96√[(0.80*0.20)/(50+30+20)], soit 0.72 et 0.88.

On peut remarquer que les conditions d’application de la loi normale


sont satisfaites (100*0.72 ; 100*0.28 ; 100*0.88 et 100*0.22 sont tous
supérieurs à 5).

Si ces conditions ne sont pas satisfaites, on utilise la loi binomiale qui


donne les intervalles exacts et asymétriques (par l’utilisation du
programme OpenEpi du logiciel Epi-info par exemple).

365
Au lieu d’un taux de survie à échéance unique comme celui à 5 ans,
on pourrait calculer des taux de survie à des échéances plus
rapprochées, comme à 1, 2, 3 ans etc. et obtenir ainsi un tableau de
survie et la courbe de survie correspondante.

Cette façon de procéder est cependant déconseillée. Chacun des taux


est calculé uniquement sur les sujets ayant le recul nécessaire, cela
peut engendrer d’apparentes contradictions (taux de survie à 4 ans
meilleur que celui à 3 ans par exemple).

La méthode directe a été souvent employée et reste toujours utilisée


dans les travaux cliniques. Cette méthode est indiquée lorsqu’on a
affaire à des séries importantes de sujets tous suivis sur la totalité de la
période d’observation choisie, avec un nombre minime de sujets
perdus de vue.

Cependant, la méthode directe présente un inconvénient majeur : elle


élimine tous les sujets qui n’ont pas le recul voulu et ne tient donc pas
compte de l’information qu’ils apportent.

4. Méthode de Kaplan Meïer

4.1 Principe du calcul du taux de survie par la méthode actuarielle

La méthode actuarielle qui utilise toute l’information disponible est


plus utilisée que la méthode directe, car la notion de recul est
remplacée par celle du temps de participation. Le calcul des taux de
survie par cette méthode se fait en deux étapes :

• Calcul des probabilités conditionnelles,


• Calcul des probabilités globales.

La probabilité conditionnelle pour un événement A connaissant un


événement B est la probabilité que A se réalise sachant que B s’est
réalisé. La probabilité conditionnelle s’écrit :
366
PB.A = nombre de fois où A et B se réalisent conjointement
nombre de fois où B se réalise

Par exemple, supposons qu’au départ on ait affaire à 200 sujets. On


compte ensuite le nombre de survivants tous les ans. Les résultats sont
les suivants :
• Nombre de survivants à 1 an : 100
• Nombre de survivants à 2 ans : 70
• Nombre de survivants à 3 ans : 56.

Calculons les probabilités conditionnelles de survie, année par année.

• La probabilité de survie à 1 an est : S0.1 = 100/200 = 0.50.


• La probabilité de survie à 2 ans chez les survivants à 1 an est :
S1.2 = 70/100 = 0.70.
• La probabilité de survie à 3 ans chez les survivants à 2 ans est : :
S2.3 = 56/70 = 0.80

Ces probabilités conditionnelles sont donc estimées simplement


comme le rapport du nombre de sujets vivants à la fin de chaque
année sur le nombre de sujets vivants au début de cette même année.

De façon générale, pour chaque intervalle de temps (ti,ti+1), la


probabilité de survie jusqu’à ti+1 pour les sujets vivants à ti est :

Sti,ti+1 = nombre de vivants à ti+1 parmi les vivants à ti


Nombre de vivants à ti

Supposons que le nombre de survivants à 4 ans soit le même que celui


à 3 ans, c’est à dire 56, la probabilité conditionnelle de survie à 4 ans
parmi les survivants à 3 ans est : S3.4 = 56/56 = 1 = 100%.

Dans les intervalles où aucun décès n’est enregistré, la probabilité


conditionnelle est toujours égale à 1.

367
Intéressons nous maintenant à la probabilité globale de rester en vie à
3 ans, celle-ci est : S0.3 = 56/200 = 0.28.

Le résultat obtenu est celui qu’on retrouve en effectuant le produit des


probabilités conditionnelles pour chaque intervalle retenu :

0.50*0.70*0.80 = 0.28.
De même, la probabilité globale d’être vivant à 2 ans est :

S0.2 = 0.50*0.70 = 0.35 (ou aussi 70/200 = 0.35)

D’une manière générale, le taux global de survie est égal au produit


des taux de survie conditionnels. Ce qui traduit le principe classique
de multiplication des probabilités (chapitre 1, section 1.4.2).

Ce principe de calcul employé dans la méthode actuarielle va


permettre une meilleure utilisation de l’information par rapport à la
méthode directe. Toute l’information disponible est exploitée, même
celle relative aux cas récents qui sont les plus nombreux.

Pour le taux de survie à une échéance donnée, les malades n’ayant pas
le recul suffisant interviendront dans le calcul des taux de survie
conditionnels pour des intervalles plus bas situés dans l’échelle du
temps.

4.2 Tableaux de survie

Considérons les données hypothétiques d’un essai thérapeutique où 6


sujets ont reçu un traitement A et 6 sujets un traitement B. Les
résultats sont contenus au tableau 22.1a.

L’origine de survie dans cet exemple est le tirage au sort en vue de


l’administration du traitement A ou du traitement B.

368
Pour la méthode de Kaplan-Meïer, comme d’ailleurs pour la méthode
actuarielle de manière générale, nous n’avons besoin de connaître que
le temps de participation pour chaque sujet outre bien sûr le critère de
jugement, c’est à dire l’état du sujet au moment du point.

Faisons abstraction pour le moment du groupe auquel appartiennent


les sujets et établissons le tableau de survie pour l’ensemble des 12
malades. Classons les sujets selon leur temps de participation par
ordre croissant et mentionnons leur état (tableau 22.1b).

Jusqu’à la 8ème semaine, il ne se passe rien : le nombre de sujets


soumis au risque est celui du groupe de départ, c’est à dire 12. A la
neuvième semaine, un sujet décède. Alors que la probabilité de survie
était jusqu’alors de 100%, elle est de (12-1)/12 = 0.9167 à la
neuvième semaine.

Tableau 22.1a Résultats d’un essai thérapeutique ayant intéressé 12 sujets


Sujet n° Traitement Résultats
Temps de participation (semaines) Etat
1 B 15 Encore vivant
2 A 13 Encore vivant
3 A 12 Décédé
4 B 9 Décédé
5 A 10 Encore vivant
6 B 17 Décédé
7 B 20 Perdu de vue
8 A 24 Décédé
9 A 19 Décédé
10 A 13 Encore vivant
11 B 13 Décédé
12 B 11 Décédé

A la dixième semaine, un sujet quitte l’étude en tant qu’exclu vivant.


La probabilité conditionnelle de survie à la dixième semaine est de
100% puisque aucun décès n’a été enregistré tandis que la probabilité
cumulée est de 0.9167.
369
Tableau 22.1b Classement des sujets selon le temps de participation
(données du tableau 12.1a)
Sujet n° Groupe Temps de participation Etat
4 B 9 Décédé
5 A 10 EV
12 B 11 Décédé
3 A 12 Décédé
2 A 13 EV
10 A 13 EV
11 B 13 Décédé
1 B 15 EV
6 B 17 Décédé
9 A 19 Décédé
7 B 20 PV
8 A 24 Décédé

D’ailleurs, celle-ci va rester la même tant qu’un nouveau décès n’est


pas enregistré. Mais le nombre de sujets soumis au risque ne sera plus
que de 10 à la 11ème semaine, l’EV quitte l’étude à la 10ème semaine.

Le tableau 22.2 contient la description du déroulement des


événements, semaine après semaine, à partir de la 8ème semaine.

Puisque la probabilité cumulée de survie reste identique jusqu’à ce


que survienne un décès, on peut simplifier la présentation en
regroupant les semaines où cette probabilité cumulée reste identique.
On crée ainsi des intervalles de semaines.

Le tableau 22.3 est le tableau simplifié et définitif de survie. On aura


remarqué, pour ce tableau, que la colonne relative aux EV et PV a
disparu puisqu’elle ne véhicule aucune information nécessaire au
calcul des probabilités de survie. Cependant, il convient de marquer
par des astérisques les EV et PV dans les intervalles où ces données
incomplètes sont comptabilisées.

370
Tableau 22.2 Etablissement du tableau de survie
par la méthode de Kaplan-Meïer pour les données du tableau 22.1b
Semaine Nombre de Nombre de Nombre de Probabilité Probabilité
sujets soumis décès EV et PV condition. cumulée de
au risque de survie survie
ni di Pi=1-(di / Si = Si-1* Pi
ni)
8 12 0 0 1 1
9 12 1 0 0.9167 0.9167
10 11 0 1 1 0.9167
11 10 1 0 0.9000 0.8250
12 9 1 0 0.8889 0.7333
13 8 1 2 0.8750 0.6417
14 5 0 0 1 0.6417
15 5 0 1 1 0.6417
16 4 0 0 1 0.6417
17 4 1 0 0.7500 0.4813
18 3 0 0 1 0.4813
19 3 1 0 0.6667 0.3208
20 2 0 1 1 0.3208
21 1 0 0 1 0.3208
22 1 0 0 1 0.3208
23 1 0 0 1 0.3208
24 1 1 0 0 0

La méthode actuarielle est une approximation de la méthode de


kaplan-Meïer. Pour faciliter les calculs, les intervalles de temps sont
regroupés et fixés à priori, et ne sont plus déterminés par la survenue
d’un décès.

Les taux de survie ont été calculés sur un échantillon. Il est évident
qu’un taux de survie à 80% observé sur un échantillon de 10 sujets
n’aurait pas eu la même portée s’il avait été observé sur 100 sujets. Il
est donc indispensable de définir un intervalle de confiance autour de
ce taux.

371
Tableau 22.3 Présentation simplifiée du tableau de survie
par la méthode de Kaplan-Meïer (données du tableau 22.1b)
N° Intervalle Nbre Nbre Proba- Proba- Ecart Intervalle de
Inter Semaines sujets dé- bilité bilité type Confiance
valle soumis cès condit. cumu. de Si de Sia
au de de Borne Borne
risque survie survie Inf. sup.
Pi=1- Si =
ni di (di/ ni) Si-1*
Pi
1 [0-9[ 12 0 1 1 - - -
2 [9-11[* 12 1 0.9167 0.9167 0.0798 0.7603 1.0731
3 [11-12[ 10 1 0.9000 0.8250 0.1129 0.6037 1.0463
4 [12-13[ 9 1 0.8889 0.7333 0.1324 0.4738 0.9928
5 [13-17[*** 8 1 0.8750 0.6417 0.1441 0.3593 0.9241
6 [17-19[ 4 1 0.7500 0.4813 0.1761 0.1989 0.7636
7 [19-24[* 3 1 0.6667 0.3208 0.1758 - 0.6654
0.0238
8 24 1 1 0 0 - - -
a
: selon la technique de Greenwood au risque 5%.
* : un astérisque correspond à un EV ou à un PV

Mais le taux de survie par la méthode de Kaplan-Meïer, ou de façon


générale par la méthode actuarielle, n’est pas calculé par la simple
proportion (nombre de décès/nombre de sujets).

Les formules classiques utilisées pour une proportion ne peuvent donc


être utilisées pour la détermination de l'intervalle de confiance. Le
mieux est de s’en remettre à des logiciels de statistique ou
d’épidémiologie pour la détermination des intervalles de confiance,
selon la technique de Greenwood ou mieux encore selon la technique
de l’intervalle de Rothman.

Une estimation de l’écart type des taux de survie due à Greenwood est
la suivante :
Ecart type de Si = Si√Σ{di /[ni(ni- di)]}.

372
Pour l’intervalle n°2 [9-11[, l’écart type se calcule ainsi : 0.9167√[1/
12(12- 1)] = 0.0798. Pour l’intervalle n°3, [11-12[, l’écart type est :
0.8250√[1/12(12-1) + 1/10(10-1)] = 0.1129, etc. (tableau 12.3). Si on
fait l’hypothèse que Si suit une loi normale, les bornes de l’intervalle
de confiance au risque 5% sont :

Si ± 1.96 * écart type de Si

Pour les taux de survie proches de 0 ou de 1, cet intervalle symétrique


conduit à des bornes dépassant 0 ou 1. Signalons juste que l’intervalle
de Rothman semble constituer une meilleure estimation de l’intervalle
de confiance dont les bornes sont toujours comprises entre 0 et 1.

Notons que la probabilité cumulée de décès est le complément à 1 de


la probabilité cumulée de survie et non pas le produit des probabilités
conditionnelles de décès, tout comme les probabilités conditionnelles
de décès sont le complément à 1 des probabilités conditionnelles de
survie.

Le tableau 22.4 contient les données relatives à 200 femmes


nouvellement mariées pour lesquelles mois après mois on s’intéresse à
la survenue d’une grossesse jusqu’au douzième mois.

Tableau22. 4 Survenue d’une grossesse chez 200 femmes nouvellement mariées


Mois 1 2 3 4 5 6 7 8 9 10 11 12
Mariées- 200 168 146 123 115 94 83 75 73 65 58 51
mois
Nombre 31 20 19 8 13 3 6 0 3 3 4 5
de
grossesses

La probabilité d’avoir une grossesse au cours des 6 premiers mois de


mariage est : 1 – 0.519 = 48.1%. L’intervalle à 95% de cette
probabilité est : (1 – 0.591 = 40.9% ; 1 – 0.447 = 55.3%)

373
Le tableau de survie correspondant est le tableau 22.5

Tableau 22.5 Tableau de survie pour les données du tableau 22.4


N° Intervalle Nbre Nbre Nbre Proba- Proba- Ecart Intervalle de
Interv sujets Gros EV bilité bilité type de Confiance
alle soumis sesse et condit. cumu. Si de Sia
au PV de de Borne Borne
risque survie survie Inf. sup.
Pi=1- Si =
ni di (di/ ni) Si-1* Pi
1 [0 – 1[ 200 0 0 1 1 - - -
2 [1 – 2[ 200 31 1 0.845 0.845 0.026 0.793 0.897
3 [2 – 3[ 168 20 2 0.881 0.744 0.031 0.682 0.806
4 [3 – 4[ 146 19 4 0.869 0.674 0.034 0.579 0.715
5 [4 – 5[ 123 8 0 0.935 0.605 0.035 0.535 0.675
6 [5 – 6[ 115 13 8 0.887 0.536 0.036 0.464 0.608
7 [6 – 7[ 94 3 8 0.968 0.519 0.036 0.447 0.591
8 [7 – 8[ 83 6 2 0.927 0.481 0.036 0.409 0.553
9 [8 – 9[ 75 0 2 1 0.481 0.036 0.409 0.553
10 [9 – 10[ 73 3 5 0.958 0.461 0.037 0.387 0.535
11 [10 – 11[ 65 3 4 0.954 0.439 0.037 0.365 0.513
12 [11 – 12[ 58 4 3 0.931 0.408 0.037 0.334 0.482
13 [12 – 13[ 51 5 46 0.902 0.368 0.038 0.292 0.444
a : selon la technique de Greenwood

4.3 Courbe de survie

La courbe de survie est la représentation graphique des données


contenues dans le tableau de survie correspondant. Au départ, le taux
de survie est de 100%, il garde cette valeur jusqu’à la survenue du
premier décès où il s’abaisse à la valeur trouvée pour le deuxième
intervalle. Cette valeur constitue un nouveau palier jusqu’à la
survenue du décès suivant, etc. La courbe de survie obtenue est un
diagramme en escaliers, chaque marche correspondant à la survenue
d’un ou de plusieurs décès.

374
On peut représenter sur la courbe chacun des EV ou PV par un trait
vertical correspondant à leur temps de participation. Les données du
tableau 22.3 sont représentées par la figure 22.3. Les différents paliers
sont reliés par des traits verticaux pour faciliter la lecture, cette
procédure est indispensable lorsque plusieurs courbes de survie sont
représentées sur le même graphe.

Il est recommandé aussi de faire figurer les intervalles de confiance de


chaque probabilité de survie (sur la figure, on peut voir l’intervalle de
confiance calculé selon la technique de Rothman pour le deuxième
intervalle qui peut être placé n’importe où sur cet intervalle).

La méthode de Kaplan-Meïer permet donc d’utiliser toute


l’information disponible et indique de façon précise l’état des sujets.

Cependant, cette méthode devient lourde si le nombre de sujets est


élevé (au delà d’une trentaine). Les calculs deviennent vite fastidieux
et les tracés surchargés, mais on peut évidemment disposer de moyens
informatiques permettant de réaliser calculs et tracés.

5. Comparaison de taux de survie de deux groupes

5.1 Taux calculés par la méthode directe

La comparaison de deux taux de survie calculés par la méthode directe


n’introduit aucune notion nouvelle et s’effectue au moyen des tests
classiques de comparaison de deux pourcentages. La comparaison de
deux taux de survie SA et SB observés après un recul donné sur deux
groupes A et B d’effectifs respectifs nA et nB peut être ainsi effectuée
par le calcul de l’écart réduit :

z = (SA - SB) / √[S(1-S)/nA + S(1-S)/nB]

où S est l’estimation commune du taux de survie évalué sur les deux


groupes.
375
Figure 22.3 Courbe de survie pour les données d’un essai thérapeutique ayant
intéressé 12 sujets – Méthode de Kaplan Meïer
(données du tableau 22.3)

Supposons, par exemple, que :


SA = 45% ; SB = 30% ; nA = 80 ; nB = 90. Le nombre O de
survivants observés dans chaque groupe est : OA = 80*0.45 = 36 et
OB = 90*0.30 = 27. D’où : S = (36+27)/(80+90) = 37%. On en tire :

z = ( 0.45- 0.30)/√[(0.37*0.63)/80 + (0.37*0.63)/90] = 2.02 ; p<0.05.

La survie dans le groupe A est donc significativement plus élevée que


celle du groupe B.

376
On peut aussi calculer un Ȥ² pour les mêmes données contenues au
tableau de contingence 22.6.

Tableau 22.6 Données hypothétiques pour la comparaison de deux taux


de survie calculés par la méthode directe
Groupe Survivants Décédés Total
Groupe A 36 44 80
Groupe B 27 63 90
Total 63 107 170
Ȥ² = 4.09 ; p < 0.05

On aboutit à la même décision (SA > SB) avec le même risque d’erreur.
D’ailleurs, puisqu’il s’agit de la comparaison de deux pourcentages, le
X² est égal à z².

5.2 Taux calculés par la méthode actuarielle

La comparaison de deux taux de survie calculés par la méthode


actuarielle (méthode de Kaplan-Meïer ou méthode actuarielle
proprement dite) s’effectue en calculant la statistique X² qui suit la loi
de X² à 1 dl :

X² = (SA - SB)² / (Var SA + Var SB).

On peut aussi calculer la statistique z qui est tout simplement la


racine carrée de X² et qui est distribuée selon la loi normale centrée
réduite :

z = (SA - SB) / √(Var SA + Var SB).

Reprenons les données du tableau 12.1. Mais cette fois-ci, tenons


compte du groupe auquel appartiennent les sujets. Construisons par la
méthode de Kaplan-Meïer les deux tableaux de survie correspondant à
chacun des groupes A et B. Commençons par classer les sujets de
chacun des deux groupes selon leur temps de participation par ordre
croissant (tableau 22.7).
377
Tableau 22.7 Classement des sujets de chacun des groupes par ordre
croissant de leur temps de participation (données du tableau 22.1b)
Groupe A Groupe B
N° sujet Temps Etat N° sujet Temps Etat
5 10 EV 4 9 Décédé
3 12 Décédé 12 11 Décédé
2 13 EV 11 13 Décédé
10 13 EV 1 15 EV
9 19 Décédé 6 17 Décédé
8 24 Décédé 7 20 PV

Les tableaux de survie respectifs sont au tableau 22.8.

Comparons maintenant les taux de survie des deux groupes, par


exemple à 15 semaines où on a :

• Pour le groupe A : SA = 80% ;Var SA = 0.1789² = 0.0320.


• Pour le groupe B : SB = 50%. Var SB = 0.2042² = 0.0417.

D’où : X² = (0.80-0.50)² / (0.0320+0.0417) = 1.22 ; NS.


Les deux taux ne diffèrent donc pas de manière significative.

Construisons sur le même graphique les courbes de survie


correspondant à chacun de ces tableaux (figure 22.4).

On pourrait comparer les deux courbes de survie semaine après


semaine. On effectuerait pour cela une série de tests du X².

Cependant, il est déconseillé, pour comparer deux courbes, de faire un


test de comparaison sur chaque point de la courbe parce que :

• Les sujets sont impliqués dans plusieurs tests successifs, les


comparaisons sont ainsi statistiquement non indépendantes et le
risque de résultats erronés est accru.

378
• La différence peut être significative ou non significative selon les
délais si bien qu’il n’est pas possible de donner une réponse
globale à la question de savoir par exemple quel est au total le
meilleur traitement.

Tableau 22.8 Tableaux de survie relatifs aux données d’un essai


thérapeutique ayant intéressé deux groupes de 6 sujets chacun
(méthode de Kaplan-Meïer)
Tableau de survie pour les sujets du groupe A
N° Intervalle Nbre Nbre Proba- Proba- Ecart type
Intervalle Semaines sujets décès bilité bilité de Si
soumis au condit. cumu.
risque de survie de survie
Pi=1-
ni (di/ ni) Si =
di Si-1* Pi
1 0-11* 6 0 1 1 -
2 12-18** 5 1 0.8000 0.8000 0.1789
3 19-23 2 1 0.5000 0.4000 0.2966
4 24 1 1 0 0 -
Tableau de survie pour les sujets du groupe B
1 0-8 6 0 1 1 -
2 9-10 6 1 0.8333 0.8333 0.1522
3 11-12 5 1 0.8000 0.6666 0.1924
4 13-16* 4 1 0.7500 0.5000 0.2042
5 17-19 2 1 0.5000 0.2500 0.2041
* : un astérisque correspond à un EV ou à un PV

6. Comparaison globale de deux courbes de survie

6.1 Situation

Si l’on veut comparer l’ensemble des deux courbes de survie (et non
pas seulement des taux après un délai donné), la seule solution
satisfaisante du point de vue statistique consiste à effectuer cette
comparaison par un test unique.

379
On montre que le test unique de comparaison des deux courbes de
survie revient à réaliser un test global sur l’ensemble des tableaux de
contingence 2*2 déterminés par les différents intervalles (ou unités de
temps) comme si ces tableaux concernaient des sujets différents.

Figure 22.4 Courbe de survie pour les 6 sujets de chaque groupe ayant participé à un
essai thérapeutique (donnés du tableau 22.8)

380
L’interprétation du test global de comparaison n’est simple que si le
sens de la différence est le même dans les strates déterminées par les
différents intervalles de temps. Une façon simple de s’en rendre
compte est de construire sur le même graphique les courbes de survie
des deux groupes. On peut être alors en présence de l’une des trois
situations schématisées par la figure 22.5.

Figure 22.5 Situations rencontrées lorsque deux courbes de survie


sont tracées sur un même graphique

Survie Survie Survie


100%

Temps Temps Temps


Situation A Situation B Situation C

La situation A est très indiquée pour effectuer un test global de


comparaison des deux courbes puisque celles-ci ne se chevauchent pas
et l’une des courbes est constamment meilleure que l’autre. Les
chevauchements dus aux fluctuations d’échantillonnage ne constituent
pas une contre-indication à l’exécution du test.

La situation B montre que les courbes finissent par se rejoindre à


terme, même si elles sont éloignées l’une de l’autre au départ. Si on
est intéressé uniquement par la survie à long terme, c’est la
comparaison de deux taux de survie qui constitue la solution la plus
appropriée. Car un test unique significatif traduira le fait que les
malades meurent plus vite dans un groupe que dans l’autre.
381
La situation C montre un entrecroisement des courbes de survie :
survie meilleure pour un groupe jusqu’à un certain point et
inversement de la situation par la suite. Une réponse globale apportée
par un test unique n’a pas de sens ici. On pourrait alors considérer
deux périodes.

La limite entre les deux périodes ne doit pas être déterminée sur le
graphique qui porte les deux courbes de survie, cela revenant à
formuler des hypothèses à posteriori pour expliquer des phénomènes
qui sont peut être seulement dus au hasard.

Mais on pourrait utiliser la courbe de survie des deux groupes


confondus à partir d’hypothèses à priori.

Le seul test global de comparaison passé en revue dans ce chapitre est


le test du logrank.

6.2 Test du logrank

Le test du Logrank consiste à comparer par un test de X² à 1 dl les


nombres observés d’événements dans les deux groupes aux nombres
calculés :

X² = (OA – EA)²/EA + (OB – EB)²/EB.

Dans cette statistique, O et E sont les évènements observés et attendus


dans chacun des deux groupes à comparer A et B.

Pour déterminer le nombre d’évènements attendus, il n’est utile de


considérer que les semaines où un décès a eu lieu.

A partir des données du tableau 22.7, il devient alors facile, semaine


après semaine où ces décès ont eu lieu, de calculer le nombre de sujets
exposés au risque et en conséquence le nombre de décès attendus.

382
Par exemple, le nombre de sujets exposés pour le groupe B à la 13ème
semaine est de 4, il n’est plus que de 2 à la 17ème semaine puisqu’un
décès a eu lieu à la 13ème semaine et un sujet a été perdu de vue à la
15ème semaine.

Indiquons, à titre d’exemple, la manière dont ont été obtenus le


nombre de décès attendus (EAi et EBi) pour la 12ème semaine. Le
tableau 2*2 pour cette semaine est :

A B Total
Décès 1 0 1
Non décès 4 4 8
Total 5 4 9

EAi = (5*1)/9 = 0.5556 ; EBi = (4*1)/9 = 0.4444

Dans tous les intervalles, les calculs sont effectués de la même façon.

Le tableau 22.9 contient tous les éléments nécessaires au calcul de la


statistique du test du logrank.

Tableau 22.9 Calculs nécessaires à la comparaison des deux courbes de


survie relatives à deux groupes de 6 sujets chacun (données du tableau 22.7)
Sem. Décès Di = Sujets Ni = Décès
avec observés OAi+ exposés NAi + attendus
décès OBi au risque NBi
OAi OBi NAi NBi EAi EBi
9 0 1 1 6 6 12 0.500 0.500
11 0 1 1 5 5 10 0.500 0.500
12 1 0 1 5 4 9 0.556 0.444
13 0 1 1 4 4 8 0.500 0.500
17 0 1 1 2 2 4 0.500 0.500
19 1 0 1 2 1 3 0.667 0.333
24 1 0 1 1 0 1 1.000 0.000
Total OA = OB = 7 EA = EB =
3 4 4.222 2.778

383
On obtient directement à partir de ce tableau :

X² = (3 – 4.222)²/4.222 + (4 – 2.778)²/2.778 = 0.89 ; NS.

L’absence de différence significative entre les deux courbes est ainsi


mise en évidence.

7. Modèle de Cox des risques instantanés proportionnels

Le risque instantané, hazard en anglais, de décéder est la probabilité


de mourir à un instant t pour un sujet qui a survécu jusque-là. A
chaque instant t, le risque instantané de décéder peut varier. Mais
l’idée du Modèle de Cox est que le risque relatif de décès d’un groupe
par rapport à un autre, ou d’un sujet par rapport à un autre, définis par
des covariables xi, reste constant et ne dépend pas du temps.

Par exemple, si l’âge augmente d’une année, l’augmentation du risque


instantané ‘une maladie est identique que l’on passe de 45 à 46 ans ou
de 85 à 86 ans. De même, le risque instantané de maladie chez les
sujets exposés est deux fois plus élevé que celui des sujets non
exposés à chaque instant t.

Le modèle exponentiel de Cox, méthode d’analyse multivariée, est


très utile pour l’étude de la relation entre un événement apparaissant
au cours du temps (comme les décès, les récidives, etc.) et plusieurs
variables simultanément. D’autant plus que ce modèle est
particulièrement adapté à l’analyse des « données tronquées », c’est à
dire lorsque les sujets n’ont pas le même temps de participation.

Le modèle de Cox pour f (x1, x2, x3, …xk) est la fonction exp (ȕ1x1 +
ȕ2x2 +ȕ3x3 + … + ȕkxk)

Lorsqu’on enregistre pour les cas incidents la date de survenue de


l’événement, le modèle d’analyse multivariée qu’il convient d’utiliser
est le modèle de Cox.
384
Si la période de suivi est fixe et en l’absence de données censurées, le
modèle de régression logistique (annexe du chapitre 21) convient
aussi bien que le modèle de Cox.

Le modèle de Cox conduit exactement au test du logrank lorsqu’on


n’envisage qu’une seule variable en relation avec l’événement étudié
(atelier survie).

385
Chapitre 23

Investigation d’une épidémie

1. Définition d’une épidémie

Une épidémie se définit en général comme l’apparition dans une


communauté ou une région de cas de maladie en excès par rapport à la
situation habituelle.

Ainsi, il y a toujours référence à la situation habituelle, à l’expérience


passée compte tenu du lieu, du temps et de la population concernée.
Les niveaux d’endémicité antérieurs de la maladie et les connaissances
locales en la matière doivent toujours être pris en compte.

L’apparition d’un seul cas de poliomyélite antérieure aiguë ou d’un


cas de peste dans une région peut être considérée comme une
épidémie, ou au moins comme une urgence épidémiologique, si ces
maladies ont été éradiquées de cette région pendant une longue
période.

Par contre, l’apparition de plusieurs cas d’hépatite virale dans une


région où cette maladie sévit à l’état endémique pourrait être
considérée comme habituelle à l’occasion d’un pic saisonnier.

En matière d’intoxication alimentaire, une toxi-infection collective est


classiquement envisagée dès qu’au moins deux cas similaires d’une
symptomatologie en général gastro-intestinale surviennent et que la
cause peut être rapportée à une même origine alimentaire.

On peut aussi évoquer une épidémie lorsque de nombreux cas sont


groupés au même endroit et/ou au même moment. Les termes de
bouffée épidémique, d’épisode épidémique ou de flambée épidémique
peuvent être utilisés pour des épidémies limitées dans le temps et de
faible importance. Le terme de foyer épidémique peut aussi être utilisé
lorsque l’épidémie est nettement circonscrite à un ou plusieurs lieux.
387
Si un système de surveillance est bien ancré dans une région donnée,
un seuil épidémique pour une maladie donnée peut être déterminé
statistiquement.

Par exemple, en l’absence de tendance générale croissante ou


décroissante et en l’absence de variations saisonnières, on calcule, en
fonction d’une unité de temps qui est habituellement la semaine, la
moyenne générale m et l’écart type s sur l’ensemble des observations
collectées depuis la mise en place du système de surveillance en
éliminant les périodes correspondant aux grandes épidémies. On
estime généralement que le seuil épidémique est atteint lorsque le
nombre de cas enregistré est égal ou supérieur à m + 2s. Une telle
augmentation, si on émet l’hypothèse que le nombre de cas par unité
de temps suit une loi normale, n’a que 2.5 chances sur 100 de se
produire par hasard.

Une technique très utile pour apprécier l’urgence d’une situation


épidémiologique consiste à comparer deux densités d’incidence d’une
maladie donnée. La première incidence est déterminée pour une
période donnée (généralement un an) à partir des observations du
système de surveillance. L’autre incidence est déterminée pour une
période beaucoup plus courte, période au cours de laquelle on pense
que des cas de la maladie en question surviennent en excès par rapport
à la situation habituelle qui est illustrée par la première période.

Supposons que 20 cas de fièvre typhoïde soient habituellement


recensés en une année (365 jours) dans une région qui compte une
population estimée à 8000 personnes. Pendant deux semaines (15
jours), 10 cas de la même maladie ont été recensés dans une zone de la
même région, zone qui compte 4000 personnes.

La comparaison des deux incidences cumulées (20/8000 = 10/4000 =


2.5 cas de fièvre typhoïde pour 1000 personnes) n’aurait évidemment
mis en évidence aucune différence.

388
Mais il faut tenir compte de la durée d’exposition, exigence satisfaite
avec la détermination de la densité d’incidence. En effet, l’incidence
doit être standardisée non seulement pour la taille de la population
mais aussi pour le temps.

La densité d’incidence de la fièvre typhoïde dans la zone est :

10 / (4000*15) = 0.17 pour 1000 personnes-jours.

Celle-ci est plus de 24 fois plus élevée que la densité d’incidence


habituelle dans la région :

20 / (8000*365) = 0.01 pour 1000 personnes-jours.

La comparaison de ces deux densités d’incidence, en disposant les


données comme au tableau 23.1, met en évidence une différence très
significative. Le seuil d’alarme doit être considéré comme atteint.

Tableau 23.1 Comparaison de deux densités d’incidence


de la fièvre typhoïde
Nombre de cas Nombre de personnes-jours
Zone 10 60000
Région 20 2920000
Total 30 2980000
X² = [10 – (60000*30)/2980000]²/[(30*60000*2920000)/2980000²]
= 149.2, p < 0.001

Cette technique de la comparaison de deux densités d’incidence


gagnerait à être utilisée plus largement pour juger de l’urgence
éventuelle de la situation épidémiologique, elle ne nécessite que des
données de base fournies par un système simple de surveillance
épidémiologique.

Les autres modèles statistiques utilisés sont plus complexes et font


l’objet de développements constants dans la littérature.

389
2. Catégories de maladies à l’origine d’épidémies

Les catégories de maladies les plus fréquentes à l’origine des


épidémies sont brièvement exposées ci-dessous.

2.1 Toxi-infections alimentaires collectives (TIAC)

Le tableau 23.2 résume de façon synoptique ce qu’il convient de


savoir à propos des TIAC occasionnées par les germes les plus
rencontrés.

Tableau 23.2 Les toxi-infections alimentaires collectives :


connaissances de base
Signes cliniques prédominants Agent Incubation Aliments en cause
en heures
(moyenne)
• Aliments
Action toxinique Staphyl. 1–6 réchauffés
Non (vomissements, aureus (3) • Pâtisserie
diarrhée) (toxine • Glace
thermo- • Viande
stable) conservée
• Produits
congelés

Clostrid. 4 – 16 • Plats à base de


perfring. (10) viande
réchauffés
• Sauces
Fièvre
• Viande peu cuite

• Viande travaillée
Action invasive Salm. 12 – 36 • Crème
Oui (diarrhée) mineure (24)

390
Bien évidemment, en matière de TIAC, d’autres agents peuvent être
en cause, avec des durées d’incubation habituellement plus longues
(48 heures en moyenne). Il en est ainsi des shigelles, de souches
d’Escherichi Coli (entérotoxigènes, entéropathogènes séro-
agglutinables, invasifs), de virus (virus norwalk…)

2.2 Maladies transmissibles

Les maladies transmissibles à incubation courte occasionnent les


épidémies les plus importantes. On citera le choléra dont la durée
d’incubation est en moyenne de 3 jours, la peste pulmonaire avec une
durée d’incubation moyenne de 3 jours, le paludisme à plasmodium
falciparum avec une période d’incubation moyenne d’une dizaine de
jours, la fièvre jaune avec une période d’incubation moyenne de 4
jours et la rougeole avec une période d’incubation moyenne d’une
dizaine de jours.

Les éléments de la chaîne de transmission des maladies à déclaration


obligatoire, ces maladies qui exigent une enquête épidémiologique et
l’application de mesures préventives particulières, doivent être
maitrisées. Il est impossible de comprendre les étapes de
l’investigation d’une épidémie due à une maladie donnée si l’on n’a
pas une connaissance suffisante des éléments de transmission de cette
maladie : définition et modalités de diagnostic, agent infectieux,
réservoir, modes de transmission, période d’incubation, période de
contagiosité, réceptivité, modes d’expression et prophylaxie.

Pour les maladies du péril fécal (fièvre typhoïde, choléra, dysenterie,


hépatite virale A...), il est utile de distinguer les deux modes de
transmission : direct et indirecte. Le mode de transmission direct fait
intervenir le mécanisme des mains sales. Les agents infectieux de ces
maladies s’éliminent par les selles et peuvent ainsi contaminer les
mains des sujets atteints de ces maladies.

391
Les sujets sains réceptifs, qui par un échange de poignée de mains ou
des contacts intimes avec les sujets atteints, pourraient ainsi
contaminer leurs mains avant de les porter à la bouche et de s’infecter.

Le mode de transmission indirect fait intervenir toutes sortes de


véhicules : eau, objets divers, aliments...

Le mode de transmission direct est plus important pour la dysenterie


ou la fièvre typhoïde que pour le choléra. Il suffit de quelques germes
ou de quelques dizaines de germes (germes dits virulents) pour
contracter la dysenterie ou la fièvre typhoïde alors qu’un inoculum
plus important (106 à 109 germes) est nécessaire pour contracter le
choléra.

2.3 Substances toxiques

L’intoxication par des substances comme les insecticides ou les


pesticides peut prendre l’allure d’une véritable épidémie avec
habituellement une période d’incubation courte (moins d’une heure).

De tels épisodes d’intoxication sont en tout cas enquêtés comme une


épidémie due à un agent transmissible.

3. Objectifs et étapes de l’investigation d’une épidémie

L’objectif général majeur de l’investigation d’une épidémie est


d’enrayer sa progression et de prévenir la survenue de nouveaux
épisodes. A cette fin, les objectifs intermédiaires suivants devraient
être atteints :

• identifier la maladie responsable de l’épidémie,


• décrire l’épidémie en fonction du temps,
• déterminer la population à risque,
• déterminer la source de l’infection,
• déterminer les modes de transmission,

392
• expliquer l’éclosion de l’épidémie,
• proposer des mesures de lutte et évaluer leur efficacité.

Pour l’atteinte de tous ces objectifs, il est crucial de procéder


méthodiquement en deux phases, une phase descriptive de cinq étapes
et une phase étiologique de trois étapes.

Les deux phases, descriptive et étiologique, sont sanctionnées par la


rédaction d’un rapport scientifique et la mise en place de mesures de
lutte et de prévention. Ainsi peut-on réaliser l’investigation d’une
épidémie en 10 étapes (tableau 23.3).

A l’intérieur d’une phase, les différentes étapes peuvent être réalisées


concomitamment ou dans un ordre différent selon les épisodes
épidémiques et les investigateurs chargés de l’enquête.

Des commentaires à propos de chacune des 10 étapes sont formulés


ci-dessous.

Tableau 23.3 Phases et étapes de l’investigation d’une épidémie


Phase descriptive Phase étiologique
1. Affirmer l’épisode épidémique 6. Vérifier des hypothèses
relatives à des facteurs
suspectés d’être à l’origine de
l’épidémie
2. identifier la maladie et confirmer 7. Vérifier la cohérence biologique
le diagnostic
3. Définir et décompter les cas 8. Réaliser une étude plus
approfondie
4. Construire la courbe d’incidence 9. Rédiger un rapport d’enquête
Epidémique
5. Déterminer les taux d’attaque de 10. Mettre en place des mesures de
la maladie en fonction de lutte et de prévention
caractéristiques de personnes et
de lieu

393
3.1 Affirmation de l’épisode épidémique

On peut utiliser les quelques techniques exposées à la section 1 pour


affirmer l’épisode épidémique.

Dans quelques situations, une augmentation du nombre de cas peut


refléter une modification du système de surveillance comme une
meilleure déclaration des cas.

Dans d’autres cas, il est nécessaire de rechercher activement les cas de


maladie (dépistage actif) pour avoir une vision plus juste de la
situation. On peut ainsi visiter les écoles ou les usines pour s’enquérir
éventuellement de l’absentéisme des élèves ou des travailleurs,
consulter les statistiques des établissements de soins ou les registres de
laboratoires.

Une enquête dans la population générale pourrait même être


nécessaire pour affirmer l’épisode épidémique.

Certains cas peuvent aussi être dépistés par la surveillance de toutes


les personnes ayant été exposées à une source d’infection ou ayant été
en contact avec un malade. Mais une telle entreprise peut être difficile
si la période d’incubation de la maladie en question est longue.

3.2 Identification de la maladie et confirmation du diagnostic

La lutte anti-épidémique n’a toutes les chances d’être efficace que si la


maladie est clairement identifiée. Le diagnostic clinique doit être
impérieusement confirmé à l’aide de techniques de laboratoire comme
l’isolement de l’agent causal, la sérologie ou la recherche de toxiques.

Cependant, pour les besoins de l’investigation épidémique, cette


vérification diagnostique peut être limitée à 10 ou 20% des cas. Les
autres cas peuvent être mis sur le compte de l’épidémie par simple
analogie clinique.

394
3.3 Définition et décompte des cas

La définition d’un cas de maladie est une étape essentielle et


incontournable. Les critères de définition doivent être clairement
établis que ceux-ci soient cliniques, biologiques et/ou temporo-
spatiaux.

Les critères les meilleurs sont ceux qui sont simples et précis ; par
exemple : nombre de selles par jour, température supérieure à 39°C,
image radiologique de pneumopathie, éruption cutanée maculaire, etc.

La définition d’un cas de diarrhée à l’occasion d’une épidémie de


gastro-entérite survenue dans un service d’hôpital pourrait être la
suivante : trois selles liquides ou plus par jour pendant au moins un
jour chez toute personne hospitalisée ou ayant été en contact
(personnel et visiteurs) avec le service durant le mois de mai 2006.

La définition d’un cas de maladie, à l’occasion d’une épidémie


d’empoisonnement paralytique due à l’ingestion de coquillages ou
d’une soupe à base de ceux-ci, a été la suivante : « maladie aiguë le 30
juillet chez un résident du village caractérisée par un mal de tête et au
moins deux des symptômes sensoriels suivants : insensibilité des
lèvres, visage, oreilles, doigts, orteils, jambes, bras et au moins deux
des symptômes moteurs suivants : troubles de la parole, troubles de la
marche, difficulté à se redresser à partir d’une position couchée ou
assise, gêne respiratoire, vertige ».

Lorsque la maladie est connue et possède une définition universelle,


celle-ci devrait être utilisée.

Par exemple, le diagnostic d’un cas d’omphalite du nouveau-né (âge ”


30 jours) utilisé par les CDC (Centres de contrôle des maladies
d’Atlanta) doit satisfaire à l’un des critères suivants :

395
1. érythème et/ou écoulement séreux de l’ombilic et l’un des
signes suivants :

a. germe isolé de culture d’écoulement ou de produit


d’aspiration à l’aiguille ;
b. germe isolé d’hémoculture.

2. érythème et écoulement purulent de l’ombilic.

Si la maladie est inconnue ou de diagnostic difficile, les cas recensés


peuvent être répartis en :

• cas certains,
• cas probables,
• cas possibles ou indéterminés, ceux-ci sont généralement
exclus de l’analyse s’ils ne sont pas confirmés.

A ce propos, l’Organisation Mondiale de la Santé (OMS) propose et


met à jour des définitions ainsi catégorisées pour les maladies
transmissibles les plus prévalentes et qui gagneraient à être utilisées.

Par exemple, l’OMS a établi les critères suivants pour la définition de


la peste (Organisation Mondiale de la Santé : Stratégies recommandées par
l’OMS contre les maladies transmissibles. OMS, Genève, 2002 : 132) :

¾ Définition de cas :
la maladie se caractérise par l’apparition rapide de fièvre, frissons,
céphalées, état de malaise et prostration, et :
• pour la peste bubonique : gonflement très douloureux des
ganglions (bubons) ;
• pour la peste pulmonaire : toux avec expectorations teintées de
sang, douleurs dans la poitrine et respiration difficile.
Note : L’une et l’autre forme peuvent progresser vers la forme
septicémique avec toxémie ; il est rare de rencontrer une forme
septique sans bubons apparents.

396
Critères de laboratoire
• Isolement par culture de Yersinia pestis à partir de bubons,
de sang, de LCR, d’expectorations ou
• Epreuve d’hémagglutination passive mettant en évidence
une multiplication par au moins 4 du titre des anticorps
spécifiques de l’antigène F1 de Y. pestis dans des sérums
appariés (inhibition de l’hémagglutination)
Classification des cas
• Suspect : Cas compatible avec la description clinique. On peut ou
non observer en laboratoire les formes coccobacillaires bipolaires
négatives à la coloration de Gram dans le matériel clinique (ponction
de bubon, expectorations, tissu, sang).
• Probable : Cas suspect avec :
9 Recherche positive d’anticorps à Yersinia pestis
(immunofluorescence) dans des échantillons cliniques ou
9 Test par hémagglutination passive avec un titre d’anticorps d’au
moins 1/10, spécifiques pour les antigènes F1 de Y.pestis tels
qu’ils sont déterminés par inhibition de l’hémagglutination
passive ou
9 Lien épidémiologique avec un cas confirmé.
• Confirmé : Cas suspect ou probable confirmé par le laboratoire.

La définition d’un cas de maladie comporte deux risques :

• celui d’être peu sensible : les individus qui ont la maladie ne


sont pas identifiés en tant que tels dans une proportion
appréciable ;
• celui d’être peu spécifique : les individus qui n’ont pas la
maladie ne sont pas identifiés en tant que tels dans une
proportion appréciable.

Il est évident qu’aucune définition ne peut être pathognomonique,


c'est-à-dire sensible et spécifique à 100% (chapitre 8). Quelle que soit
la définition adoptée, le risque d’un classement inadéquat est toujours
présent mais celui-ci doit être minimisé au maximum.

397
Pour cela, l’information suivante sur la maladie en question devrait
pouvoir être cernée :

• signes pathognomoniques de la maladie,


• rapport habituel des infections cliniquement apparentes et des
formes inapparentes,
• techniques de laboratoire facilement utilisables et fiables pour
établir le diagnostic,
• utilisation de la définition retenue par d’autres investigateurs
(reproductibilité de la mesure).

Les critères de définition d’une maladie peuvent être modifiés à la


lumière des connaissances progressivement acquises au cours de
l’épidémie.

Il ne faut ménager aucun effort pour identifier le maximum de cas de


la maladie à l’origine de l’épidémie. Cependant, il n’est pas nécessaire
d’identifier tous les cas d’un épisode épidémique, l’analyse pouvant
se contenter d’une majorité de cas.

Les renseignements suivants sur les cas devraient être obtenus :


• âge, sexe, lieu de résidence et éventuellement profession,
• date de début de la maladie, signes cliniques,
• déplacements pendant la période d’incubation.

Pour le calcul des taux d’attaque, il est nécessaire de disposer de


dénominateurs de bonne qualité sur la population d’où sont extraits les
cas : répartition par classes d’âge, par sexe au minimum.

3.4 Construction de la courbe d’incidence épidémique

La courbe épidémique ou « courbe d’incidence épidémique » est le


graphique sur lequel sont représentés les cas selon leur ordre
d’apparition, ou plus exactement selon la date de début des
symptômes. L’axe des x représente le temps et on porte sur l’axe des y
le nombre de cas.
398
L’unité de temps choisie sur l’axe des x devrait être petite au départ et
dépend de la maladie en question. Pour une épidémie de fièvre
typhoïde, l’unité de temps retenue au départ peut être égale à un jour.
S’il s’agit d’une intoxication alimentaire aux toxines de
staphylocoque, on peut retenir une unité de temps égale à une demi-
heure. On peut aussi, à la fin de l’épisode, pour construire la courbe
épidémique, retenir une unité de temps à peu près égale au quart de la
durée d’incubation.

Classiquement, dans une courbe épidémique, chaque cas est


représenté par un petit carré. Mais si le nombre de cas est très élevé
au cours d’une unité de temps, il suffit d’élever une barre dont la
hauteur est proportionnelle à l’effectif. Si les classes de la variable
temps sont d’amplitude inégale, ce sont les effectifs par unité
d’amplitude qui sont portés sur l’axe des y (section 4 du chapitre 4).

La courbe épidémique est habituellement représentée par un


histogramme.
En effet, la variable temps dont les données sont représentées
graphiquement par la courbe, est une variable quantitative continue,
qu’elle soit exprimée en heures, jours ou semaines. Ces données
constituent aussi une série chronologique, mais il est assez inhabituel
de représenter la courbe épidémique par un polygone.

La courbe épidémique permet de tirer un certain nombre de


déductions, notamment sur la source et les modes de transmission de
l’épidémie.

Dans une épidémie à source commune momentanée, il y a une


exposition simultanée de plusieurs personnes sensibles à un agent
pathogène. La courbe épidémique correspondante est unimodale (un
seul pic) avec une ascension pouvant être très rapide et une
décroissance légèrement étalée sur la droite. Le nombre de cas
secondaires est nul ou très limité.

399
Le type même d’une épidémie à source commune momentanée est une
toxi-infection alimentaire collective (TIAC). Plusieurs personnes
partagent un même repas, celui-ci ne s’étalant que sur une période de
temps très limitée.

Un accident communautaire à l’origine d’un déversement d’eaux


usées dans une canalisation d’eau potable, immédiatement réparé ou
réparé en quelques jours (un ou deux jours), peut aussi engendrer une
épidémie à source commune momentanée. Une épidémie de fièvre
typhoïde, par exemple, peut éclore si ces eaux usées contiennent
Salmonella typhi et si l’eau potable n’a pas été chlorée au moment de
l’accident.

Si cet accident communautaire a lieu le 10 mai, les premiers cas de


fièvre typhoïde vont survenir aux environs du 17 mai puisque la
période d’incubation minimum de la maladie est de 7 jours. Les
derniers cas de la maladie vont survenir aux environs du 31 mai
puisque la durée d’incubation maximum de la maladie est de 21 jours.
La durée de l’épidémie va donc s’étaler sur une quinzaine de jours,
soit la période d’incubation moyenne de la fièvre typhoïde.

En conséquence, une épidémie de fièvre typhoïde causée par une


source commune momentanée va s’étaler sur une période environ
égale à deux semaines même si l’accident communautaire a été réparé
le jour même où il s’est produit. Cela s’explique aisément par
l’histoire naturelle de la maladie caractérisée par une période
d’incubation minimum et une période d’incubation maximum.

Dans toute épidémie à source commune momentanée, on estime que


l’intervalle de temps entre la date de début des symptômes du premier
cas et celle du dernier cas (étendue ou marge) correspond à la durée
médiane d’incubation.

S’il s’agit d’une toxi-infection alimentaire collective aux toxines de


staphylocoque aureus, l’épisode va durer environ trois heures.

400
Cet épisode est de 24 heures environ si l’agent de la TIAC est une
salmonelle mineure et environ de 11 heures si l’agent de la TIAC est
clostridium perfringens…

Une épidémie d’hépatite virale A causée par une source commune


momentanée dure environ un mois, une épidémie de choléra causée
par une source commune momentanée dure environ trois jours, etc.

Le nombre de cas de maladie lors d’une épidémie à source commune


momentanée va augmenter brutalement si la période d’incubation est
courte et va diminuer de façon aussi spectaculaire. Le maximum de
cas pour une épidémie de choléra causée par une va être atteint au
bout de 1 à 2 jours seulement

S’il s’agit de fièvre typhoïde, le nombre de cas atteint son maximum


(mode) au bout d’une semaine environ (moitié de la durée
d’incubation) pour retomber à zéro à l’issue de la deuxième semaine

Dans une épidémie à source commune persistante, la courbe


épidémique peut aussi se traduire un début brutal avec une ascension
rapide du nombre de cas. Mais un plateau est ensuite observé et les cas
incidents sont répartis sur une période plus longue, celle-ci étant
supérieure à la période médiane d’incubation.

Dans une épidémie à source commune momentanée, si le moment


d’exposition est connu, la durée médiane d’incubation peut être
estimée. En effet, l’intervalle de temps entre le moment de
l’exposition commune et le mode (sommet de la courbe) représente
approximativement cette durée médiane.

Ainsi, si la date d’exposition est connue, la période d’incubation


médiane peut être estimée et peut orienter vers l’agent causal. Cela
s’applique particulièrement aux toxi-infections alimentaires
collectives car le moment de l’exposition (l’heure du repas) est
généralement connu.

401
A l’inverse, lorsque la médiane de la durée d’incubation a été estimée
par l’intervalle de temps entre le premier et le dernier cas, on peut
déterminer le moment probable de l’exposition.

A cette fin, deux méthodes peuvent être utilisées si on formule


l’hypothèse que tous les malades ont été exposés au même moment :

• méthode de l’incubation médiane (ou incubation moyenne) ;


• méthode mini-max.

La méthode de l’incubation médiane déterminée à partir des données


de l’épidémie (ou de l’incubation moyenne donnée par la littérature)
consiste, à partir du mode de la série (ou de sa médiane), à remonter
dans le passé d’une période égale à cette incubation pour trouver le
moment probable de l’exposition

La répartition de 7 cas d’intoxication alimentaire parmi les malades


d’un service de psychiatrie en fonction de l’heure de début des
symptômes a été la suivante : 20h : 2 cas ; 21h-22h : 4 cas ; 23h : 1
cas. Les malades du service prennent le déjeuner vers 12h et le dîner
vers 18h. Il s’agit probablement d’une TIAC aux toxines de
staphylocoque ; l’épisode n’a duré que 4 heures, soit environ la durée
médiane d’incubation de cet agent infectieux.

On pourrait aussi déterminer la durée médiane d’incubation pour cet


épisode par la relation suivante : 23h – 20h = 3 heures.

Le mode approprié pour la série statistique des 7 cas d’intoxication


alimentaire est 21h (les heures 20, 21 et 22 ont enregistré le même
nombre de cas en tenant compte des effectifs par unité d’amplitude,
21h en tant que valeur du milieu peut être considéré comme le mode).
Si on remonte le temps de trois heures à partir du mode, le repas à
incriminer dans la survenue de cette TIAC est celui de 18 heures :

21h – 3 heures = 18h.

402
Le repas à incriminer pourrait avoir été servi plus tôt, vers 17h.
Cependant, le déjeuner ne peut en aucun cas être mis en cause dans la
survenue de cette TIAC.

Soit aussi la série suivante relative à la distribution de cas de


dysenterie en fonction du jour d’un mois donné à l’occasion d’une
épidémie : 10 : 7 cas ; 11 : 11 cas ; 12 : 18 cas ; 13 : 4 cas.

La durée d’incubation médiane à partir des données de cette épidémie


pourrait être déterminée ainsi :

13 – 10 = 3 jours.

Puisque le mode est le 12 du mois, le moment probable de


l’exposition est le 9 du même mois :

12 – 3 jours = 9.

Une exposition à une source commune le 9 du mois pourrait expliquer


la majorité des cas de cette épidémie.

La méthode mini-max , au lieu d’incriminer un moment donné (heure,


jour) comme pour la méthode de la durée d’incubation médiane, va
plutôt incriminer un intervalle de temps plus étendu au cours duquel à
eu lieu l’exposition à une source commune momentanée.

De ce point de vue, la méthode « mini-max » est plus satisfaisante


parce qu’elle permet aux enquêteurs en charge de l’investigation de
l’épisode épidémique d’identifier l’accident communautaire survenu
au cours d’une période donnée, celle-ci étant de toutes façons courte.

Pour déterminer le moment probable de l’exposition, la méthode


« mini-max » prend en compte les durées d’incubation minimale et
maximale données par la littérature ; elle est d’autant plus appropriée
que la somme divisée par deux de ces deux durées s’identifie à la
période d’incubation médiane et que la durée de l’épisode coïncide
avec leur différence.
403
L’utilisation de la méthode « mini-max » pour l’épisode de TIAC à
staphylocoque, sachant que la durée d’incubation minimale est de 1
heure tandis que la période d’incubation maximale est de 6 heures,
aurait aussi incriminé le repas servi à 18 heures.

Les cas de TIAC recensés à 20 heures ont pris le repas à incriminer au


moins une heure avant, c'est-à-dire à 19h ou avant cette heure. Les cas
recensés à 23 heures ont pris leur repas au plus 6 heures avant, c’est à
dire à 17h (23h – 6 heures) ou après cette heure. Le repas à incriminer
est celui qui a été consommé entre 17h et 19h, ce ne peut donc être
que le dîner qui est habituellement servi à 18 heures.

Pour l’épidémie de dysenterie, si on estime que la durée d’incubation


varie de 1 à 7 jours, l’utilisation de la méthode « mini-max » aurait
donné les résultats suivants : les cas apparus le 10 du mois ont été
infectés au moins un jour auparavant, c'est-à-dire le 9 du mois, ou
avant cette date. Les derniers cas de dysenterie apparus le 13 du mois
ont été infectés au plus 7 jours avant, c'est-à-dire le 6 du mois, ou à
une date postérieure à celle-ci.

Ainsi, une exposition à une source commune momentanée entre le 6 et


le 9 du mois pourrait expliquer la survenue de la majorité de ces cas
de dysenterie. La période incriminée est relativement longue ; on aura
remarqué que la somme des durées d’incubation divisée par deux (4
jours) est plus longue que la durée d’incubation moyenne
généralement admise (2 à 3 jours).

Une épidémie d’hépatite virale A a débuté le 2 avril et a pris fin le 30


avril. L’épidémie ayant duré environ un mois (ce qui correspond à la
durée médiane d’incubation de l’hépatite A), l’hypothèse d’une
épidémie à source commune momentanée peut évidemment être
retenue.

Le moment probable de l’exposition par la méthode « mini-max »,


sachant que l’incubation minimum est de 15 jours et que l’incubation
maximum est de 45 jours, pourrait être déterminé comme suit :

404
• 2 avril – 15 jours = 18 mars ;
• 30 avril – 45 jours = 16 mars.

Une exposition commune momentanée entre le 16 et 18 mars pourrait


expliquer la survenue des cas de cette épidémie.

Pour des maladies comme la fièvre typhoïde ou la dysenterie, à


l’occasion d’une épidémie à source commune momentanée, des cas
consécutifs à une transmission directe de personne à personne
(mécanisme des mains sales) peuvent secondairement survenir.
L’épidémie va là aussi s’étaler, comme pour une épidémie à source
commune persistante, sur une période plus longue que la durée
d’incubation moyenne.

Pour retenir l’hypothèse d’une épidémie à source commune initiale


suivie d’une transmission de personne à personne, on estime
généralement qu’au moins 80% des cas doivent survenir pendant une
période initiale qui correspond à la période d’incubation médiane. Si
cette proportion est nettement plus faible, on devrait plutôt retenir
l’hypothèse d’une épidémie à source commune persistante ou une
épidémie à source commune initiale suivie de cas dus à des modes de
transmission intriqués (directe, indirecte).

Dans les épidémies à transmission interhumaine directe, dues à des


maladies comme la grippe ou a rougeole, le tableau de la propagation
représenté par une courbe épidémique n’est pas aussi net que celui
engendré par une source commune momentanée.

De manière caractéristique, on observe des pics d’intensité croissante


dus à l’augmentation croissante de sujets susceptibles de transmettre
la maladie à d’autres individus. L’intervalle de temps entre deux pics
correspondrait à la durée médiane d’incubation (deux à trois jours
pour la grippe). La décroissance est plus lente.

Cependant, il faut compter avec le degré de promiscuité et d’intimité


du contact tandis que la proportion des sujets sensibles influence
aussi l’extension de l’épidémie.
405
Dans les hôpitaux, à l’occasion d’épidémies d’infections
nosocomiales, le mode de transmission indirect d’un malade à un
autre par les mains du personnel ou du matériel contaminé donne des
courbes d’incidence en dents de scie caractéristiques.

Au cours d’une épidémie, les deux modes de transmission (directe et


indirecte) peuvent coexister. La courbe épidémique peut alors être
difficile à interpréter.

Lorsque le nombre de cas est faible, l’interprétation de la courbe peut


aussi être difficile.

Les différents types de courbes épidémiques, parmi les plus


suggestifs, sont à la figure 23.1.

3.5 Caractéristiques de personnes et de lieu

Comme la courbe épidémique, les caractéristiques de personnes et de


lieu peuvent être un indice révélateur sur la source et le mode de
transmission de l’épidémie.

Le calcul de taux d’attaque en fonction de l’âge, du sexe, ou d’autres


caractéristiques de personnes, permet d’identifier les groupes ayant un
risque élevé de contracter la maladie. Cela permet de progresser dans
la formulation d’hypothèses pouvant expliquer l’épidémie.

Par exemple, à l’occasion d’une épidémie d’hépatite virale A, si les


enfants âgés de moins de cinq ans ont un taux d’attaque très bas, il est
difficile d’incriminer le lait comme véhicule de cette épidémie puisque
ces enfants consomment systématiquement du lait.

Par ailleurs, les cas peuvent survenir préférentiellement dans certains


endroits. Les cas peuvent ainsi être concentrés dans certains quartiers
d’une ville ou dans certaines salles d’un service hospitalier…

406
Figure 20.1 Principaux types de courbes épidémiques

1. Epidémie à source commune momentanée

2. Epidémie à source commune persistante

3. Epidémie par transmission interhumaine directe

4. Epidémie à source commune initiale suivie d’une transmission directe de


personne à personne

407
Le calcul des taux d’attaque est susceptible d’identifier les zones à
risque et d’orienter l’enquête vers des éléments (circuits, équipement,
matériel, personnel…) de ces zones.

Le report des cas sur une carte peut donner des indications sur une
source possible d’infection. Le groupement des cas dans une zone et
au même moment, appelé agrégation spatio-temporelle, peut exprimer
une épidémie localisée.

Les étapes de la phase descriptive relative à l’investigation d’une


épidémie a finalement permis de répondre aux questions :

• Quand ?
• Où ?
• Qui ?

A l’issue de cette phase, les investigateurs d’une épidémie sont en


règle générale suffisamment informés sur la source et les modes de
transmission probables de l’épidémie pour que des mesures de lutte
appropriées soient prises immédiatement.

Plusieurs sources peuvent cependant être incriminées dans la survenue


de l’épidémie. Il en est ainsi, par exemple, lors des TIAC lorsque un
repas donné a été mis en cause grâce aux méthodes exposées à la
section 3.4. Mais un repas est constitué de plusieurs aliments et les
investigateurs en charge de l’épisode doivent expressément identifier
l’aliment responsable.

Le passage à la phase étiologique de l’investigation devient alors


nécessaire pour incriminer une source plutôt qu’une autre. Dans tous
les cas, les hypothèses formulées à l’issue de la phase descriptive
mériteraient d’être confirmées par la réalisation des étapes de la phase
étiologique.

408
3.6 Vérification des hypothèses

La vérification d’hypothèses relatives à des facteurs suspectés dans la


survenue d’une épidémie peut être réalisée par l’utilisation de
l’approche cohorte ou de l’approche cas-témoins.

3.6.1 Approche cohorte

L’approche cohorte, quand elle est possible, permet le calcul des taux
d’attaque :

• chez les sujets exposés aux facteurs suspectés d’une part ;


• chez les sujets non exposés aux facteurs suspectés d’autre part.

Le facteur à incriminer dans la survenue de l’épidémie est celui pour


lequel la différence des taux d’attaque, c'est-à-dire la différence de
risque, est la plus élevée. On peut aussi incriminer un facteur sur la
base de la valeur la plus élevée du risque relatif.

Le tableau 23.4 contient les données relatives à une intoxication


alimentaire survenue dans une colonie de vacances comptant 200
enfants. Le repas à l’origine de l’intoxication était composé de viande
hachée, de crème glacée et de lait. Il s’agit d’identifier, parmi ces
aliments, celui qui a été à l’origine de l’intoxication.

Tableau 23.4 Investigation d’une toxi-infection alimentaire collective


Histoire alimentaire des 120 enfants malades et des 80 enfants non malades
Aliment Malades Non malades
Oui Non Inconnu Oui Non Inconnu
Viande 86 30 4 67 10 3
hachée
Crème 48 70 2 40 38 2
glacée
Lait 108 11 1 24 55 1

409
Pour chaque aliment, deux cohortes peuvent être reconstituées :

• la cohorte d’enfants ayant consommé cet aliment,


• la cohorte d’enfants n’ayant pas consommé cet aliment.

Cette reconstitution permet le calcul du taux d’attaque de la TIAC


selon l’aliment pour chaque cohorte. Le tableau 23.5, à partir des
données du tableau 20.4, établit les valeurs du taux d’attaque selon
l’aliment. Les cas d’histoire alimentaire inconnue n’ont pas été pris en
compte dans le calcul des taux d’attaque.

Tableau 23.5 Utilisation de l’approche cohorte pour identifier l’aliment


responsable de l’intoxication alimentaire (données du tableau 23.4)
Aliment Ont consommé N’ont pas consommé
Total Malades Taux Total Malades Taux Différence
d’attaque d’attaque de risque
(%) (%) (%)
Viande 153 86 56.2 40 30 75.0 -18.8
hachée
Crème 88 48 54.6 108 70 64.8 -10.2
glacée
Lait 132 108 81.8 66 11 16.7 +65.1

De façon indéniable, c’est le lait qu’il faut incriminer dans la survenue


de cette TIAC. C’est en effet le lait qui a la différence de risque la plus
élevée. D’ailleurs, les deux autres aliments ont des différences de
risque négatives, ce qui leur confère en quelque sorte un rôle
protecteur.

Une toxi-infection alimentaire collective (TIAC) est survenue en mars


2005 au service de neurologie du CHU de Blida. Parmi les 9
personnes (6 malades hospitalisés et 3 gardes-malades) qui ont partagé
en commun le repas incriminé, 8 (5 malades hospitalisés et 3 gardes-
malades) ont développé des symptômes d’intoxication alimentaire :
douleurs, nausées, diarrhées (au moins un épisode diarrhéique).

410
La fièvre et les vomissements étaient absents du tableau clinique chez
l’ensemble des malades. La maladie a été de courte durée et sans
gravité.

Les premiers cas de la maladie ont été recensés à 23h le 6 mars tandis
que le dernier cas a été recensé le 7 mars à 7h. Le maximum de cas (4)
a été enregistré à 6h.

Le taux d’attaque est donc très élevé, d’ailleurs aussi bien chez les
gardes-malades (3/3 = 100.0%) que parmi les patients hospitalisés (5/6
= 83.3%). La durée de l’épisode de TIAC (8 heures) et les signes
cliniques sont évocateurs d’une TIAC à Clostridium (C.) perfringens.
Le fait de remonter dans le temps d’une durée égale à l’épisode à
partir du mode (6h) ne peut qu’incriminer le dîner servi à 19h.

L’histoire alimentaire des 9 personnes qui ont partagé le repas


incriminé est contenue au tableau 23.6. On remarquera qu’il convient
lors de l’investigation d’une TIAC de distinguer finement les aliments
qui entrent dans la composition du repas.

Tableau 23.6 Toxi-infection alimentaire collective dans un service de CHU


Histoire alimentaire des 9 personnes qui ont partagé le repas incriminé
Aliment consommé Malades Non malades
Oui Non Oui Non
Pain 8 - 1 -
Salade 3 5 0 1
Viande 8 0 0 1
Haricots verts 8 - 1 -
(conserve en boîte)
Sauce rouge 8 - 1 -

L’approche cohorte peut être utilisée pour identifier l’aliment


responsable puisque les cohortes peuvent être reconstituées. Les taux
d’attaque de la TIAC en fonction de la consommation éventuelle de
l’aliment sont contenus au tableau 23.7.

411
Tableau 23.7 Toxi-infection alimentaire collective dans un service de CHU
Taux d’attaque (TA) en fonction de la consommation d’un aliment donné
Aliment Ont consommé N’ont pas consommé Différence
Total Malades TA(%) Total Malades TA(%) de risque
Pain 9 8 88.9 - - -
Salade 3 3 100.0 6 5 83.3 16.7%
Viande 8 8 100.0 1 0 0.0 100.0%
Haricots 9 8 88.9 - - -
Sauce 9 8 88.9 - - -

La salade est hors de cause. La viande est en mesure d’expliquer la


survenue des cas de TIAC. Mais la toxine du C. perfringens a
probablement contaminé non seulement la viande mais aussi les
aliments du plat : haricots, sauce d’accompagnement et même le pain
utilisé pour saucer.

L’approche cohorte, parce qu’elle permet le calcul du risque, est


toujours à préférer. Cependant, elle n’est possible que si on peut
reconstituer les cohortes au moins dans leur majorité. Cela n’est
habituellement possible que pour les collectivités fermées ou stables et
de petite taille.

3.6.2 Approche cas-témoins

C’est l’approche cas-témoins qui est utilisée en règle générale pour


l’investigation d’une épidémie sur le plan étiologique. Cette approche
permet seulement le calcul des pourcentages d’exposition aux facteurs
suspectés :

• chez les sujets malades d’une part,


• chez les témoins d’autre part.

Le facteur à incriminer dans la survenue de l’épidémie est celui pour


lequel la différence des pourcentages d’exposition est la plus grande.
On pourrait aussi incriminer un facteur sur la base de la valeur de
l’odds ratio la plus élevée.
412
Lorsque l’approche cohorte est indiquée et a été réalisée, il est
possible de réaliser l’approche cas-témoins avec les mêmes données.

Reprenons les données du tableau 23.4 et adoptons l’approche cas-


témoins en disposant les données comme au tableau 23.8. Les sujets
avec une histoire alimentaire inconnue ne sont pas pris en compte
dans le calcul des pourcentages d’exposition.

Tableau 23.8 Utilisation de l’approche cas-témoins pour identifier l’aliment


responsable de l’intoxication alimentaire (données du tableau 23.4)
Aliment Malades Non malades
Total Ont % Total Ont % Différence
consommé consommé des %
Viande 116 86 74.1 77 67 87.0 -12.9
hachée
Crème 118 48 40.7 78 40 51.3 -10.6
glacée
Lait 119 108 90.8 79 24 30.4 60.4

L’approche cas-témoins incrimine là aussi le lait comme étant le


véhicule à l’origine de la TIAC. Les deux approches ne peuvent
d’ailleurs aboutir qu’à des conclusions concordantes.

Reprenons maintenant les données du tableau 23.6 pour les disposer


comme au tableau 23.9 par l’utilisation de l’approche cas-témoins.

Tableau 23.9 Utilisation de l’approche cas-témoins pour identifier l’aliment


responsable de l’intoxication alimentaire (données du tableau 23.6)
Aliment Malades Non malades Différence
Total Cons.+ % Total Cons.+ % des %
Pain 8 8 100.0 1 1 100.0 0.0
Salade 8 3 37.5 1 0 0.0 37.5
Viande 8 8 100.0 1 0 0.0 100.0
Haricots 8 8 100.0 1 1 100.0 0.0
Sauce 8 8 100.0 1 1 100.0 0.0

413
La viande est de nouveau incriminée. L’utilisation de l’approche
cohorte était cependant plus judicieuse étant donné les effectifs très
réduits, elle n’innocentait pas en effet les ingrédients qui
accompagnaient la viande et réduisait le rôle de la salade dans la
survenue de la TIAC.

Considérons à présent les données du tableau 23.10 relatives à


l’exposition de 212 sujets atteints de choléra et de 212 sujets témoins à
trois sources d’eau suspectées dans la survenue d’une épidémie. Les
sujets témoins ont été choisis dans le voisinage immédiat des malades.

Tableau 23.10 Investigation d’une épidémie de choléra


Histoire de l’exposition de 212 cas et de 212 témoins à trois sources d’eau
Consommateurs Source A Source B Source C
Malades 200 188 71
Témoins 165 35 200

Le tableau 23.11 contient les pourcentages d’exposition des cas et des


témoins aux trois sources ainsi que la différence des pourcentages.

Tableau 23.11 Pourcentages d’exposition de 212 cas et de 212 témoins


à trois sources d’eau (données du tableau 23.10)
Source A Source B Source C
Malades 94.3% 88.7% 33.5%
(200/212) (188/212) (71/212)
Témoins 77.8% 16.5% 94.3%
(165/212) (35/212) (200/212)
Différence des % 16.5% 72.2% -60.8%

C’est évidemment la source B qu’il convient d’incriminer dans la


survenue de l’épidémie. La source A pour laquelle le pourcentage
d’exposition était le plus élevé chez les malades n’est finalement pas
retenue après la prise en compte du point de comparaison offert par les
témoins.

L’approche cohorte pour l’investigation d’une telle épidémie qui serait


survenue dans une région étendue et peuplée ne serait pas possible.
414
En effet, il serait très difficile, pour ne pas dire impossible, de
reconstituer l’histoire de l’exposition de tous les habitants de la
région, ou même une majorité, aux trois sources suspectées.

3.6.3 Remarques communes aux deux approches

Que l’on adopte l’approche cohorte ou l’approche cas-témoins, il y


aura, en pratique, toujours des individus dont l’histoire est incomplète
ou inconnue. Pour ceux dont l’histoire est connue, un biais
d’information est toujours possible (réponses erronées, mensonges).
Les résultats globaux ne seront pas affectés outre mesure, et
permettront d’incriminer le facteur le plus suspect, à condition de
s’acharner à obtenir les réponses les plus exactes possibles.

Lorsque les résultats incriminent deux ou plusieurs facteurs avec une


intensité proche, la construction de tableaux à trois variables et leur
analyse permettent de déceler des liaisons artéfactuelles et d’éliminer
les facteurs inoffensifs.

C’est ainsi que l’analyse des tableaux 4.4 et 5-4 (chapitre 20, section
4) rapportant les données d’une investigation où la mayonnaise et les
œufs durs pouvaient tous les deux être mis en cause dans la survenue
d’une TIAC, aurait abouti aux résultas respectifs suivants :

• La TIAC n’est plus liée aux œufs durs lorsqu’il est tenu
compte de la mayonnaise : Ȥ² Mantel-Haenszel = 0.04 ; NS.
• La TIAC reste liée à la mayonnaise lorsqu’il est tenu compte
des œufs durs : Ȥ² Mantel-Haenszel = 6.3 ; p < 0.02.
• Ainsi, après ajustement, seule la consommation de
mayonnaise reste liée à la survenue de la TIAC.

On a beaucoup insisté sur le fait que c’est la différence de risque ou le


risque relatif pour l’approche cohorte, la différence des pourcentages
d’exposition ou l’odds ratio pour l’approche cas-témoins qui
permettaient d’incriminer un facteur. Cela n’empêche pas de calculer
les autres mesures d’association statistique ou épidémiologique.
415
Une telle analyse, même si elle n’est pas obligatoire en situation
d’urgence, est toujours recommandée et permettrait d’affiner les
conclusions de l’investigation.

3.7 Vérification de la cohérence biologique

Les conclusions de l’analyse épidémiologique doivent toujours être


confrontées aux données cliniques et biologiques disponibles. La
cohérence avec ces données est bien évidemment souhaitable et même
obligatoire lorsque la maladie est bien connue.

Une absence de cohérence est toujours une indication à vérifier les


données recueillies, à recueillir des informations complémentaires, à
reformuler de nouvelles hypothèses et même à reconsidérer le
diagnostic.

Si l’analyse épidémiologique incrimine des gâteaux secs dans la


survenue d’une épidémie d’hépatite virale A, cela devrait être
reconsidéré sachant que la chaleur du four pour cuire ces gâteaux secs
tue le virus.

Il est aussi peu vraisemblable qu’un café servi chaud soit le véhicule
d’une intoxication alimentaire à shigelles.

Lorsque la maladie est inconnue ou mal connue, la confrontation entre


les différentes données est difficile et problématique.

L’agent infectieux devrait être recherché à l’aide de prélèvements non


seulement chez les cas mais aussi au niveau des véhicules potentiels
incriminés lors de l’investigation.

Les techniques d’analyse génomique sont susceptibles, lorsque le


même profil génomique du germe est retrouvé chez les cas ou la
source incriminée, d’établir définitivement la relation causale.

416
3.8 Réalisation d’une étude plus approfondie

Parce qu’une épidémie constitue une situation d’urgence, les


investigateurs sont souvent tenus de fournir rapidement des
explications et d’édicter des mesures de lutte. Cela peut se faire au
détriment de la qualité et de la complétude des données recueillies.

Ainsi, la réalisation d’une étude plus approfondie peut se révéler


nécessaire surtout si la première étude a porté manifestement sur un
nombre limité de cas ou si les définitions initialement retenues se sont
avérées très insuffisantes.

Une étude complémentaire peut aussi être réalisée pour affiner la


relation entre le facteur et la maladie. Ainsi, la mise en évidence d’une
relation dose-effet est susceptible de renforcer la causalité.

L’incrimination d’un restaurant dans la survenue d’une épidémie de


fièvre typhoïde demandera probablement une enquête complémentaire
au sein de ce local pour s’enquérir du mode de préparation des
aliments et de la présence éventuelle de porteurs sains parmi le
personnel. Cela pour mieux identifier la source de contamination et
préciser le mode de transmission.

3.9 Rédaction d’un rapport d’enquête

Un rapport d’enquête est « un document pour l’action ». Des mesures


de lutte et de prévention ne devraient être prises par les autorités
qu’après la lecture de ce document. Le rapport d’enquête est aussi un
document scientifique. Chaque épisode épidémique a ses particularités
et fait progresser les connaissances sur la maladie.

Le rapport d’enquête est également un outil pour l’enseignement


relatif à l’investigation des épidémies et constitue toujours une
référence pour des investigations sur le même sujet lorsqu’il est
publié.

417
Dans tous les cas, le rapport devrait informer sur :

• l’agent pathogène, la maladie et la définition des cas ;


• la courbe épidémique, les taux d’attaque selon l’âge, le sexe et
le lieu ;
• la source de l’épidémie et ses modes de transmission ;
• les mesures de lutte et de prévention préconisées.

3.10 Mise en place des mesures de lutte et de prévention

Lorsque la maladie est identifiée, la source et le mode de transmission


élucidés, il devient généralement facile de comprendre pourquoi
l’épidémie s’est déclarée. Les mesures de lutte et de prévention, qui
dépendent de la maladie en cause, peuvent alors être mises en place.

Mais il peut arriver que l’épidémie soit déjà terminée lorsqu’elle est
expliquée. Par ailleurs, il n’est pas toujours nécessaire d’attendre la fin
de l’investigation pour proposer des mesures de lutte et de prévention.

L’investigation d’une épidémie est toujours une tâche ardue mais


passionnante. Au terme de l’enquête, l’épidémie n’est toujours
expliquée : la source et les modes de transmission peuvent rester non
élucidées.

Cependant, la description de l’épidémie en fonction des


caractéristiques de temps, de personnes et de lieu en identifiant des
groupes et des lieux à risque va permettre néanmoins d’agir et
d’orienter la lutte.

La stratégie de lutte contre les maladies transmissibles peut être


résumée sous trois rubriques :

• prophylaxie du réservoir,
• prophylaxie de la transmission,
• prophylaxie de la réceptivité.
418
Les principales actions pour chacune de ces rubriques sont résumées
au tableau 23.12. Des informations détaillées en fonction de la
maladie sont disponibles sur le site de l’Organisation mondiale de la
santé ou celui de la Pan American Health Organization..

Tableau 23.12 Stratégie de lutte contre une épidémie


due à une maladie transmissible.
Principales actions en fonction des trois niveaux de la prophylaxie
Prophylaxie
Du réservoir De la transmission De la réceptivité
Traitement des cas Hygiène Vaccination
et des porteurs personnelle Chimioprophylaxie
Isolement des cas Hygiène Protection par moyens
Surveillance du milieu personnels
des suspects Désinfection Amélioration de la nutrition
Lutte contre Stérilisation
le réservoir animal Contrôle vectoriel
Déclaration des cas Limitations
Surveillance des déplacements
continue

419
Chapitre 24

Réalisation d’une étude épidémiologique ou clinique

1. Introduction

Une étude épidémiologique est une recherche qui est essentiellement une
réponse proposée à une question posée. Une étude épidémiologique
comporte trois grandes phases :

• une phase préliminaire,


• une phase de planification,
• une phase de réalisation.

On distingue quelquefois les études épidémiologiques des études cliniques.


Une étude épidémiologique peut être définie simplement comme une étude
intéressant des groupes humains. De ce point de vue, une étude clinique dont
le matériel n’est pas constitué de cas individuels (case reports ou « à propos
d’un cas de… ») est aussi une étude épidémiologique.

Plusieurs étapes peuvent être distinguées à l’intérieur de chacune de ces trois


phases. Ces étapes, au nombre de 13 au total, se succèdent dans un ordre
défini qu’il convient de respecter.

Aucune place ne doit être accordée à l’improvisation pour réaliser une étude
épidémiologique. Sinon, de graves problèmes et déboires risquent de
survenir occasionnant une perte de temps considérable et un anéantissement
des efforts consentis.

2. Phase préliminaire

2.1 Evaluation de l’utilité de l’enquête

La phase préliminaire soulève les questions suivantes :

• Quoi enquêter ?

421
• Pourquoi réalise-t-on cette enquête ?

Il est essentiel à ce stade précoce de connaître clairement les questions qui se


posent et d’évaluer si une étude peut vraiment apporter les réponses
nécessaires. La ou les questions doivent être explicitement formulées au
départ, par exemple : « Quelle est la fréquence des infections nosocomiales
dans ce centre hospitalier ? ».

La formulation de questions équivoques et opaques va entraîner un manque


de clarté dans la définition des objectifs à la phase de planification.

Il est indiqué aussi dès ce stade de s’enquérir des suites qui pourraient être
accordées aux résultats et aux conclusions de l’étude. Outre le fait qu’une
étude sert au moins à améliorer les connaissances, elle a souvent des
retombées pratiques pour la clinique ou la santé publique.

De manière générale, les enquêtes servent à :

• mesurer la fréquence des maladies au sein de groupes ou de


populations,
• décrire les comportements de populations à l’égard de problèmes de
santé.
• élucider l’histoire naturelle de maladies,
• juger de l’intérêt d’un test diagnostique,
• identifier les facteurs de risque des maladies,
• évaluer l’efficacité de traitements ou d’interventions préventives.

2.2 Recherche documentaire

La recherche d’une documentation sur le sujet doit être aussi une priorité
pour celui qui veut réaliser une enquête.

En règle générale, un sujet a déjà fait l’objet d’explorations. Il convient


alors de consulter le réseau Internet et les bases bibliographiques médicales
internationales informatisées à la recherche d’articles indexés. Les ouvrages
traitant du sujet doivent être repérés.

422
Les documents non publiés (littérature grise) sur le sujet sont difficilement
décelables mais ne doivent pas pour autant être négligés : thèses, rapports
ronéotypés…

Les informations apportées par cette documentation sont extrêmement utiles


pour démêler le sujet, en connaître les aspects peu étudiés, affiner les
questions qui se posent et aborder avec plus de confiance les étapes relatives
à la planification de l’étude.

La recherche documentaire est en fait une opération permanente qui va


même au-delà de la rédaction du rapport final lorsque l’enquête a pu être
menée à son terme.

Cette recherche documentaire ne doit pas en tout cas être arrêtée à la phase
préliminaire. De nouveaux travaux peuvent toujours être publiés ou en
attente de publication.

Quant aux bases de données, il en existe plusieurs : la base européenne


Embase, la base française Pascal, la base bibliométrique Scopus de l’éditeur
privé Elsevier, la base Cochrane Library de l’éditeur Wiley spécialisée dans
les méta-analyses et les revues systématiques…

Mais c’est sans doute la base américaine Medline, base de données


bibliographiques produite par la National Library of Medicine, d’accès
gratuit depuis la fin des années 90 (htpp://www.ncbi.nlm.nih.gov/Pubmed),
qui est la plus interrogée pour faire une recherche bibliographique. Une
vingtaine de millions d’articles parus dans 6000 revues médicales et
scientifiques y sont indexés depuis le milieu des années soixante.

Pour classer ces millions d’articles, Medline utilise un dictionnaire


(thesaurus) des mots-clés qui sont organisés en arborescence formant le
MeSh (Medical Subject Heading). Le thesaurus compte plus de 30000 mots-
clés. On peut visualiser l’arborescence complète du MeSh sur la fenêtre
MeSh Database en cliquant sur MeSh et MeSh browser. Des branches
maîtresses (19 spécialités) et des branches secondaires identifiant les
problèmes de santé peuvent ainsi être visualisées.

423
Pour que la recherche bibliographique sur Medline soit efficace et pertinente,
il est nécessaire d’utiliser les mots-clés spécifiques du MeSh. L’interrogation
de Medline doit être effectuée en anglais. L’Institut national de la santé et de
la recherche médicale (INSERM – France) fournit les mots-clés du MeSh en
anglais et en français sur son site
(htpp://ist.inserm.fr/static/mesh/htlm/mesh.htlm).

Le mode de recherche avancée (advanced search) est le plus indiqué pour


effectuer une recherche bibliographique sur Medline plutôt que le mode par
le MeSh Database ou celui par la recherche directe sur la fenêtre de requête.

Pour le mode de recherche avancée qui permet de construire directement son


équation de recherche, une certaine maîtrise du thésaurus du MeSh est
cependant souhaitée. Il suffit d’aller sur le menu déroulant qui se trouve dans
la rubrique Search Builder pour choisir MeSh terms. L’utilisation
d’opérateurs booléens « and », « or » ou « not » contribue à la construction
de l’équation de recherche.

Il est possible, quel que soit le mode de recherche, de limiter sa recherche à


une thématique précise (étiologie, thérapie, pronostic, diagnostic) par
l’utilisation de filtres.

Une liste de qualitatifs (ou de sous-termes) du mot-clé (subheading : SH)


aide à orienter la recherche sur un axe précis. Pour éviter l’explosion des SH
vers des sous-classes, il faut indiquer [SH :noexp] La possibilité de ne retenir
que les articles où un mot-clé est le thème majeur de l’article (MeSh Major
Topic : MAJR) permet aussi de réduire drastiquement le nombre de
références produites. La rubrique Clinical Queries est très utile pour ceux qui
s’intéressent particulièrement à la médecine fondée sur des faits (Evidence-
Based Medicine). La rubrique « Publication type » permet de ne retenir que
certains articles en relation avec la structure d’étude (essai randomisé, guide
de recommandations de pratique clinique...)...

Des exemples détaillés peuvent être téléchargés à l’adresse suivante :


http://www.anasys.org/IMG/pdf/Recherche_bibliographique.pdf pour
consulter le document préparé par G. Borgès Da Silva et intitulé « La
recherche bibliographique et documentaire sur l’internet pour l’action en
santé ».

424
3. Phase de planification

3.1 Importance de la phase de planification

La phase de planification est si importante qu’elle conditionne en grande


partie la réussite de l’enquête projetée.

Cette phase peut demander des efforts considérables et nécessiter plusieurs


mois de travail.

Il faut, au cours de cette phase, accorder une grande attention à tous les
détails. C’est à ce prix seulement que les perspectives de succès peuvent être
réelles.

Il vaut infiniment mieux dépenser du temps à perfectionner cette phase que


de se précipiter vers un recueil irréfléchi des données qui annihilera tout le
travail effectué.

3.2 Formulation des objectifs de l’étude

L’objectif de l’étude doit être formulé clairement et de façon très précise.

L’objectif décrit la question posée par l’investigateur et reflète l’utilité de


l’étude (section 2.1 ci-dessus), la structure de l’étude et la population cible
de l’étude. Un objectif est toujours exprimé par un verbe à l’infinitif.

L’objectif relatif à la question sur la fréquence des infections dans un centre


hospitalier peut être formulé ainsi :

« Déterminer la prévalence des infections nosocomiales actives chez tous les


patients hospitalisés au centre hospitalier depuis au moins 48 heures ».

Il s’agit donc de déterminer, grâce à une étude descriptive, la fréquence des


infections nosocomiales parmi les malades hospitalisés dans une structure de
santé. La nature descriptive de l’étude autorise des comparaisons internes au
sein de la population d’étude.

425
Il est dangereux d’assigner à une étude plusieurs objectifs différents, le
risque de n’en atteindre aucun est alors élevé.

Par contre, un objectif général (ou objectif principal) peut être divisé en
plusieurs objectifs spécifiques (ou objectifs secondaires). En ce qui concerne
l’enquête de prévalence des infections nosocomiales, les objectifs
spécifiques pourraient être :

• Mesurer la prévalence des différentes catégories d’infection ;


• Mesurer la prévalence selon l’âge et le sexe ;
• Mesurer la prévalence selon le service d’hospitalisation ;
• Mesurer la prévalence selon la présence éventuelle d’une pathologie
favorisante ;
• Mesurer la prévalence selon l’exécution éventuelle de gestes
invasifs ;
• Mesurer la prévalence selon la durée d’hospitalisation ;
• Examiner la relation entre la présence éventuelle d’une infection
nosocomiale et la présence éventuelle d’une pathologie favorisante
en tenant compte de la durée d’hospitalisation.

Ce dernier objectif s’inscrit dans le cadre de la mise en évidence d’un


éventuel effet d’artéfact, de confusion ou de modification.

On peut aussi avoir comme objectif spécifique la mise en évidence d’une


relation de type dose effet en vue de renforcer une relation de causalité.

On peut indifféremment utiliser les termes d’ « objectif » ou de « but » d’une


étude même si le but implique en plus de l’objectif le bénéfice ultime
escompté par la réalisation d’une étude.

Ce pourrait être dans l’exemple de l’enquête de prévalence la mise en place


d’un Comité de lutte contre les infections nosocomiales ou la relance de ses
activités.

L’hypothèse est plus assimilée à une prévision ou à une prédiction. En fait,


l’objectif de l’étude est précédée par la justification de l’étude, justification
qui peut être assimilée à l’hypothèse parce qu’elle précise pourquoi la
question (objectif) est posée.

426
Le problème, écart traduisant une souffrance entre une situation de fait et
une situation optimale, donne lieu à une problématique traduisant une
ignorance qui mériterait d’être éclaircie dans le cadre d’un thème de
recherche ou d’un problème de santé. Une problématique peut être définie
comme un problème dont l’importance (fréquence, gravité, coût), les causes
ou les bénéfices escomptés (après proposition de solutions) constituent un
sujet d’ignorance. La problématique peut aussi être assimilée à l’hypothèse
qui précède la question posée.

Certains auteurs estiment cependant que la question de recherche peut être


énoncée soit sous forme de question, d’objectifs ou d’hypothèse de
recherche, en fonction du type d’étude réalisé (Bordage G : la préparation
d’un article pour publication. Article disponible sur le site :
htpp://www.pedagogie-medicale.org).

3.3 Choix de la structure d’étude

La structure d’étude doit être compatible avec les objectifs assignés à


l’étude.

Par exemple, si l’objectif de l’étude est de comparer deux traitements, la


structure de l’étude doit être celle d’un essai randomisé.

Si l’objectif est de mettre en évidence des facteurs de risque pour une


maladie, une enquête étiologique de type cas-témoins, cohorte ou
transversale est la structure appropriée.

Une enquête descriptive, qui par nature vise fondamentalement à évaluer la


fréquence et les caractéristiques d’un problème de santé précis, n’empêche
pas d’effectuer des comparaisons entre des groupes issus de la population
enquêtée.

C’est ainsi que la mesure de la prévalence de l’asthme parmi une population


scolarisée n’empêche pas de comparer les prévalences des deux sexes ou des
différentes classes sociales.

427
3.4 Choix de la population cible

Il est essentiel de délimiter avec précision la collectivité où est réalisée


l’enquête. Cette collectivité s’appelle population cible. Le choix de la
population cible est fonction des objectifs assignés. Une population donnée
doit permettre d’atteindre les objectifs fixés.

Les essais randomisés pour l’évaluation de traitements intéressent les


populations qui se présentent dans des structures de soins. On peut
cependant réaliser des essais dans des écoles (pour l’évaluation de vaccins
par exemple) ou dans des usines (pour évaluer l’efficacité de mesures
préventives de maladies cardio-vasculaires).

La mise en évidence de facteurs de risque pour les maladies peut utiliser des
malades hospitalisés, elle peut aussi utiliser la population générale ou des
groupes professionnels.
La prévalence des handicaps parmi la population générale est mesurée
auprès des familles.

Dans tous les cas, les procédés d’identification de la population cible doivent
être clairs et précis. Si un échantillon est choisi parmi la population cible, il
doit être représentatif de cette population pour permettre la généralisation
des résultats.

Le calcul des tailles nécessaires d’échantillons pour l’atteinte des objectifs


est primordial, il tient compte de risques d’erreur statistique acceptés et de
paramètres escomptés. Outre le chapitre 8 consacré au sondage élémentaire,
les modalités de sélection d’un échantillon et les tailles échantillonnales
nécessaires à prélever ont fait l’objet de développements dans les ateliers
(atelier OpenEpi et BiostaTGV).

3.5 Choix des variables

Une fois les objectifs, la population et la structure d’étude fixés, les


variables, pour lesquelles l’information doit être recueillie, sont
sélectionnées.

428
Le choix des variables doit être conforme aux objectifs de l’étude. Une liste
exhaustive des variables susceptibles d’être en rapport avec les objectifs doit
être établie.

Chacune de ces variables doit être examinée minutieusement avant de


décider en dernier ressort de la retenir ou de l’exclure.

Le nombre de variables à inclure est fonction aussi des objectifs de l’étude.


La liste initiale présente, en règle générale, un nombre trop élevé de
variables.

L’élimination réfléchie de variables de cette liste facilite la collecte et


l’exploitation des données.

Il faut résister à la tentation de retenir des variables potentiellement


intéressantes. Les données recueillies « pour voir » alourdissent inutilement
le travail de collecte et retentissent de façon très négative sur l’exploitation
des données.

En fait, le manque de clarté dans les objectifs est générateur d’une telle
situation.

Une fois les variables identifiées, il est obligatoire de leur donner une
définition opérationnelle. Chaque variable est définie en termes mesurables
objectivement.

Une des variables de l’étude pourrait être, par exemple, l’infection urinaire
nosocomiale ou la gravité des lésions engendrées par les accidents de la
circulation routière.

Il est toujours recommandé d’utiliser, lorsqu’elles existent, les définitions


d’organisations internationales ou les définitions d’organismes faisant
autorité en la matière. Cela pour des raisons évidentes de comparabilité.

Ainsi, les définitions des Centers for Disease Control pourraient être utilisées
pour identifier l’infection urinaire nosocomiale. De même, la gravité des
lésions pourrait être évaluée selon l’échelle de sévérité des lésions mise au
point par l’American Association for Automotive Medicine.

429
3.6 Préparation du plan d’analyse

Le plan d’analyse doit être préparé avant la construction du questionnaire.


En aucun cas, cette étape ne doit être différée après le recueil des données.

L’élaboration du plan d’analyse consiste essentiellement à préparer les


tableaux qui vont permettre d’atteindre les objectifs assignés. On pourrait
dire qu’un tableau donné correspond à un objectif spécifique donné.

Les tableaux à une seule variable sont préparés en premier. L’ensemble de


ces tableaux constitue ce qu’on appelle le tri à plat.

Ce tri à plat est l’occasion de présenter l’échelle de mesure de chaque


variable. Les catégories d’un facteur de risque, les classes d’une variable
quantitative doivent être définies.

On peut, par exemple, assigner à la variable « durée de sondage vésical » les


catégories suivantes :

• non sondés,
• 0 – 2 jours,
• 3 – 5 jours,
• 6 jours et plus.

Mais on pourrait toujours, après le recueil des données, constituer des classes
plus appropriées selon les règles empiriques déjà exposées (section 2.2 du
chapitre 1).

Les tableaux à une seule variable peuvent permettre d’atteindre certains des
objectifs fixés. Mais souvent, on est amené à croiser des variables entre
elles : tableaux à deux variables pour étudier leur liaison, tableaux à trois ou
même quatre variables pour étudier la liaison entre deux variables en
neutralisant l’effet d’une ou de deux variables.

Tous ces tableaux doivent être préparés à ce stade. Cela oblige à avoir
constamment en vue les objectifs spécifiés et de veiller à concevoir le
questionnaire qui permettra effectivement de remplir les cases de ces
tableaux.

430
Par ailleurs, cela évite au moment de l’exploitation de céder à la tentation
des croisements « tous azimuts ». Cette attitude qui consiste à croiser tout
avec tout dénote là aussi un manque de clarté dans les objectifs.

Les techniques d’analyse statistique et épidémiologique, notamment les


mesures d’association, sont également envisagées à cette étape.

Tout ce travail d’anticipation a pour but de révéler des hiatus ou des


insuffisances dans la conception de l’enquête pour y remédier. Ce travail
permet aussi et surtout d’apprécier comment les données recueillies
permettront d’atteindre les objectifs de l’étude.

3.7 Elaboration du questionnaire

Le questionnaire, ou support d’information, ne doit être conçu qu’après


l’élaboration du plan d’analyse. C’est un outil de recueil de données
standardisé : l’information pour chaque variable doit systématiquement être
recueillie de la même façon quels que soient le moment du recueil et la
personne chargée du recueil.

La conception du questionnaire est une des étapes essentielles de l’enquête.

La qualité des données recueillies et la fiabilité des résultats obtenus


dépendent de la qualité du questionnaire.

Un questionnaire est essentiellement composé de deux parties : identification


et corps.

La partie relative à l’identification de la personne interrogée doit faire


correspondre à chaque questionnaire un numéro d’ordre unique.

Le corps du questionnaire est constitué par l’ensemble des questions


relatives aux variables dont on souhaite recueillir les données.

Les questions peuvent être fermées : les réponses sont fermées et


mutuellement exclusives, par exemple :

431
• Présence d’une infection nosocomiale : (1) oui, (2) non.
• Sexe : (1) masculin, (2) féminin.

Les questions peuvent être ouvertes : une réponse libre du sujet est permise,
par exemple :

• Profession : …………………………………………

De telles questions ne sont pas dispensées du codage, celui-ci peut être


difficile en l’absence de classification ou de nomenclature si les possibilités
de réponse sont nombreuses. Les nomenclatures standardisées, à l’image de
la Classification Internationale des Maladies, pour ne pas perdre la
comparabilité, devraient être utilisées systématiquement.

Les questions peuvent être semi-ouvertes, par exemple :

• Présence d’une pathologie favorisante : (1) diabète, (2) cancer, (3)


autre, préciser : ………………………………….

Les questions doivent être compréhensibles, claires, simples, sans effet


suggestif et en accord avec les objectifs. Une même question est formulée de
la même façon par des enquêteurs différents à toute personne interrogée. Les
questions vagues, techniques ou complexes doivent être bannies.

Chaque question ne doit véhiculer qu’une seule idée à la fois. Si un cas de


diarrhée nosocomiale est défini comme suit : « 3 selles liquides ou plus par
jour pendant au moins un jour chez tout sujet hospitalisé ou membre du
personnel ou visiteur du service hospitalier durant le mois de juin 2013 », il
faut plusieurs questions élémentaires ; le nombre de selles par jour, la durée
de l’épisode diarrhéique, la catégorie de personnes du service, le mois de
l’année…

Une fois les questions arrêtées, il faut en déterminer la séquence, c'est-à-dire


l’ordre dans lequel elles figurent sur la fiche d’enquête.

Une fois le projet de questionnaire préparé, il devrait être soumis à la


critique de collègues. En règle générale, plusieurs projets de questionnaires
sont nécessaires pour aboutir enfin au support définitif.

432
Toutes les explications facilitant l’administration et la compréhension sont
fournies soit sur le questionnaire, soit sur un protocole séparé (section 3.10
ci-dessous).

3.8 Pré-enquête

Avant de passer à la phase de réalisation, il est fortement recommandé de


tester par une pré-enquête une partie ou l’ensemble des éléments planifiés.

Une pré-enquête peut se résumer à une simple consultation de dossiers


médicaux pour vérifier, par exemple, si le diagnostic de sortie est bien
mentionné.

Une pré-enquête peut prendre les dimensions d’une « étude pilote »,


véritable répétition générale de l’étude.

Dans tous les cas, des critiques et des suggestions peuvent être exprimées.
Des corrections appropriées peuvent être apportées avant la phase de
réalisation.

3.9 Préparation pratique

Il ne faut jamais perdre de vue qu’une enquête épidémiologique, malgré la


complexité des choix théoriques qu’elle peut susciter, est avant tout une
opération pratique.

Les préparatifs pratiques doivent être réalisés avant la collecte des données :

• reproduction des questionnaires,


• formation des enquêteurs,
• organisation du travail, de la récupération des questionnaires,
obtention des autorisations préalables,
• organisation éventuelle de l’hébergement et de la restauration des
enquêteurs, etc.

En tout cas, plus les préparatifs matériels ont été sérieux, moins les
difficultés seront grandes au moment de la collecte à la phase de réalisation.
433
Les aspects budgétaires ne doivent en aucun cas être occultés, ils peuvent
être déterminants pour le succès de l’entreprise. Le budget d’une étude obéit
généralement à la règle des trois tiers :

• un tiers à la conception et à la préparation de l’étude,


• un tiers au recueil et au contrôle des données,
• un tiers à l’exploitation des données et à la diffusion des résultats.

3.10 Elaboration du protocole

Les principaux aspects théoriques et pratiques de l’étude sont consignés dans


un document qui guide la réalisation de l’enquête. Ce guide est appelé
protocole.

L’élaboration du protocole est conditionnée par la question posée et à


laquelle on veut apporter une réponse, c'est-à-dire par l’objectif de l’étude.
Celle-ci doit être non seulement justifiée, parce qu’une nouvelle question se
pose, mais aussi faisable.

Parce qu’un protocole permet aussi d’obtenir des ressources, il doit être
adapté aux appels d’offre.

Dans tous les cas, le protocole justifie la réalisation de l’étude, énonce son
objectif, présente la méthodologie et apprécie les retombées pratiques
attendues.

Le protocole permet aussi de présenter les ressources nécessaires (qui fait


quoi, avec quoi, quand et pour combien?) et précise le calendrier de l’étude.

Un protocole doit tout simplement refléter les différentes étapes de la phase


de planification, il doit informer sur :

• le contexte de l’étude et sa justification,


• les objectifs généraux et secondaires de l’étude,
• la structure d’étude,
• les procédés d’identification, de sélection de la population d’étude
et les tailles échantillonnales,

434
• la définition des variables de l’étude,
• le plan d’analyse,
• le questionnaire,
• modalités pratiques de collecte, d’exploitation des données et de
diffusion des résultats,
• les institutions et le personnel responsables,
• le budget et les modes de financement,
• les aspects éthiques et l’obtention des autorisations indispensables,
• le calendrier des tâches,
• les références documentaires.

La qualité du protocole d’étude retentit de façon considérable sur les


différentes étapes de la phase de réalisation, depuis la collecte jusqu’à la
rédaction du rapport final.

4. Phase de réalisation

4.1 Collecte et contrôle des données

Les informations sont collectées suivant le plan établi à la phase de


planification et les instructions contenues dans le protocole. Il faut veiller à
ce que la collecte ait lieu conformément à ce qui a été arrêté, cela par une
surveillance régulière et périodique.

Une validation en temps réel doit être effectuée pour les données recueillies.

Les fiches d’enquête doivent être vérifiées une à une à la recherche


d’erreurs, d’omissions ou de défaut de cohérence entre les variables.

Certaines erreurs ou omissions peuvent être corrigées immédiatement ou en


se référant aux enquêteurs qui ont rempli les questionnaires. Dans certains
cas, il est nécessaire de revenir aux sujets enquêtés.

Par ailleurs, il faut s’assurer que l’écriture des questionnaires est bien lisible
sans surcharge pour réduire les erreurs de codage et de saisie. Les
corrections appropriées doivent être effectuées.

435
Si la correction n’est pas possible, on peut décider soit d’exclure la variable
de l’analyse, soit d’éliminer toute la fiche. La décision est fonction de
l’importance des variables concernées.

Mais de telles situations doivent être mentionnées dans les aspects


méthodologiques du rapport (section 4.3 ci-dessous).

Les sujets absents, ceux qui refusent de coopérer doivent faire l’objet d’une
attention particulière. La persévérance et les relances permettent de réduire
ces non-réponses.

Les caractéristiques de ceux qui refusent de coopérer doivent être établies si


possible. Un échantillon prélevé parmi eux peut être persuadé de coopérer.
Mais il peut exister une limite de temps où les bénéfices ajoutés ne sont plus
proportionnels aux efforts consentis. Dans tous les cas, les efforts
nécessaires doivent être déployés pour maintenir la proportion des absences
ou des refus en deçà de 10%.

4.2 Exploitation des données

Les opérations de codage et de saisie constituent les premières opérations de


l’exploitation des données.

Le codage consiste à transformer en données numériques les catégories de la


variable concernée, il peut aussi assigner des lettres à ces catégories. Par
exemple, on pourrait décider d’affecter le code « 1 » au sexe masculin et le
code « 2 » au sexe féminin. On pourrait aussi avantageusement affecter la
lettre « M » au sexe masculin et la lettre « F » au sexe féminin.

Il n’est pas recommandé d’effectuer le codage au moment du recueil des


données par les enquêteurs même si ceux-ci disposent d’une grille
standardisée. Un codage hâtif peut être une source d’erreurs. La qualité du
codage doit dans tous les cas être contrôlée.

La fiche d’enquête est ensuite saisie, les réponses codées sont introduites
dans l’ordinateur.

436
Il est possible à tout utilisateur d’effectuer l’exploitation de ses propres
données à l’aide d’un ordinateur personnel étant donné la disponibilité
d’excellents logiciels.

La saisie est une opération qui doit être centralisée. Une double saisie des
données devrait chaque fois que possible être réalisée. La comparaison des
deux fichiers saisis permet de corriger les erreurs.

La qualité de la saisie doit dans tous les cas comporter des contrôles visant à
réduire les erreurs de saisie. Les logiciels disponibles proposent des
programmes de contrôle à la saisie en permettant, par exemple, d’établir des
fourchettes de variation en dehors desquelles la saisie n’est pas acceptée.

L’analyse des données intervient après leur saisie, elle consiste à éditer les
tableaux et à déterminer les paramètres (mesures d’association, moyenne,
écart-type, proportion…) prévus à la phase de planification.

Les logiciels disponibles (Epi-info, SPSS...) aident énormément à cette tâche


par leurs programmes d’analyse.

L’édition systématique des tableaux du tri à plat est recommandée comme


première séquence de l’analyse.

L’intérêt de cette démarche est au moins double. Cela permet d’examiner les
effectifs correspondant aux modalités de chaque variable pour apprécier la
faisabilité des croisements planifiés entre variables. Cela permet aussi de
déceler des transcriptions erronées lors de la saisie des données ou à
l’occasion du codage. Ces erreurs doivent évidemment être corrigées avant
l’édition d’autres tableaux.

4.3 Rédaction du rapport d’enquête

La rédaction du rapport d’enquête peut être considérée comme l’étape ultime


de l’exploitation des données. Cette étape constitue une tâche importante des
investigateurs en charge de l’étude.

L’écriture est en effet le ferment de l’innovation et garantit la pérennité des


travaux réalisés.
437
Des ouvrages entiers sont consacrés à la communication médicale
scientifique. La consultation de conventions internationales comme les
conventions de Vancouver (www.icmje.org : International Committee of
Medical Journal Editors) est un impératif pour rédiger un rapport
scientifique.

En outre, il faut absolument tenir compte des « recommandations aux


auteurs » d’une revue ciblée en fonction de sa ligne éditoriale (large,
restreinte...), du lectorat-cible, du domaine couvert (revue généraliste, très
spécialisée...) et de sa qualité : facteur d’impact (nombre moyen de citations
d’un article dans les deux années qui suivent sa parution) établi par l’Institut
Thomson-Reuter (Institute of Scientific Information, New York, NY, USA).
Les revues les plus impactées sont des revues en langue anglaise tandis que
les revues en langue française ont souvent un facteur d’impact largement
inférieur à un.

Plusieurs rubriques d’articles peuvent être distinguées : article original,


article original court, revue générale, cas clinique, biologique ou
épidémiologique, éditorial, lettre à l’éditeur, mise au point, article
didactique. En réalité, seuls l’article original et les revues de littérature
(revue systématique, méta-analyse, analyse de décision) sont considérés
comme des articles médicaux scientifiques.

L’article scientifique (mémoire) est un rapport court : une douzaine de pages


dactylographiées en double interligne (2500 à 3000 mots).

Cette section s’inspire largement de l’ouvrage de Salmi (Source : Salmi LR.


Lecture critique et communication médicale scientifique. Comment lire,
présenter, rédiger et publier une étude clinique ou épidémiologique. 3e
édition. Issy-les-Moulineaux (France) : Elsevier Masson ; 2012).

Un écrit scientifique, parce que dénué de finalité esthétique, n’est pas un


écrit littéraire. La précision, outre la clarté et la concision, est la clé de voûte
de tout écrit scientifique.

La rédaction d’un écrit scientifique est sous-tendue par des règles qui
concernent la forme et le fond d’un rapport, règles qui sont autant de
standards de rédaction.

438
Outre le titre, les auteurs, leur affiliation, le résumé, les mots clés et les
références, la structure d’un rapport obéit habituellement au standard
IMRD qui distingue quatre parties:

• I = introduction,
• M = matériel et méthodes,
• R = résultats,
• D = discussion.

D’autres structures, moins recommandées, sont possibles :

• I Histoire M R D,
• I Revue de la littérature MRD (thèse).

Quelle que soit la structure, elle doit obligatoirement informer :

• sur la question posée ;


• sur la façon dont il a été répondu à la question ;
• sur les résultats trouvés ;
• sur le sens à donner aux résultats.

L’utilisation du passé est la règle générale pour rédiger un rapport


scientifique, le présent est utilisé pour les faits établis.

La rédaction d’un rapport d’étude doit toujours commencer par la question


posée. Les outils et les étapes permettant de répondre à la question posée
doivent être ensuite explicités avant de fournir la réponse.

L’introduction annonce la question posée dans le cadre des connaissances


qui ont amené à réaliser l’étude. Avec suffisamment de détails,
l’introduction doit justifier le travail, exposer l’objectif principal en
référence aux travaux publiés (références bibliographiques suffisamment
nombreuses) et aux lacunes susceptibles d’être comblées : absence, rareté,
contradiction, besoin de validation d’études. Le lecteur devrait comprendre
et évaluer le rapport sans qu’il ait à se référer à d’autres publications.

L’introduction peut aussi être la partie privilégiée pour définir les


éventuelles abréviations introduites.

439
Une dernière phrase dans l’introduction peut annoncer comment la question
a été étudiée pour annoncer la partie « matériel et méthodes ».

La partie « matériel et méthodes » ou « patients et méthodes »est la section


la plus importante d’un rapport. L’analyse critique des résultats et du sens à
leur accorder est effectuée sur la base des informations contenues dans cette
partie. En effet, la fonction de cette partie est de mettre à la disposition du
lecteur les techniques et méthodes utilisées pour répondre à la question de
recherche.

Tous les éléments nécessaires à la reproduction de l’étude doivent être


fournis. Il convient de convaincre le lecteur de la validité de l’étude.

Le matériel doit être clairement désigné : critères de sélection des sujets,


critères d’inclusion et d’exclusion, modalités de tirage au sort
éventuellement pour la constitution d’un échantillon, description des groupes
en fonction de caractéristiques de personnes, de temps, de lieu… La taille
des échantillons doit être justifiée en dehors d’une étude exhaustive qui
aurait porté sur une population (personnel ou malades d’un hôpital,
population ou écoliers d’une commune...).

Les méthodes doivent être clairement explicitées : structure d’étude,


définition des variables étudiées et modalités pratiques de mesure, modalités
pratiques de collecte et de contrôle des données, importance relative des
variables, variable prédite et variables indépendantes (section 2.1 du chapitre
11), classifications utilisées, logiciel adopté, mesures d’association
statistique et épidémiologique utilisées…

Le support d’information (questionnaire, grille...), les procédures de collecte


des données (par qui, quand et où) ainsi que leur circuit doivent être décrits.

L’utilisation de sections pour les composantes de cette partie du rapport aide


à éclairer le lecteur.

Les résultats, qui ne doivent pas être rapportés dans la section précédente,
sont ensuite présentés simplement, progressivement dans un ordre logique à
l’aide de sections.

440
Les résultats ne sont pas discutés à ce niveau, des conclusions ne doivent pas
non plus être tirées. Seuls des commentaires succincts sont exprimés.

La partie « résultats » est relativement facile à rédiger, notamment grâce à la


construction de tableaux et de figures qui allège le texte. Les tableaux et
figures, annoncés dans le texte, doivent être informatifs et en aucun cas être
redondants. Le nombre de tableaux et figures réunis ne devrait pas excéder
cinq.

Tous les résultats susceptibles d’être discutés ultérieurement doivent être


exposés. Il convient de ne pas noyer les résultats les plus importants dans un
déluge de résultats inutiles ou moins pertinents par rapport à la question
posée.

La partie « discussion » a une organisation moins formalisée. Cependant, il


est indiqué de débuter la discussion par la réponse à la question posée dans
l’introduction selon l’adage « la première phrase de la discussion répond à la
dernière phrase de l’introduction ». Le degré d’atteinte des objectifs
(principaux, secondaires) doit être spécifié. La critique des objectifs, du
matériel et des méthodes utilisées est aussi une nécessité. Les forces et
faiblesses de l’étude doivent être relevées. Il faut aussi convaincre le lecteur
que la validité de tous les résultats n’est pas remise en cause par les
problèmes rencontrés après avoir mis en exergue certains autres (par
exemple, difficulté d’extrapoler les résultats au-delà des groupes étudiés par
défaut de représentativité...).

Les résultats les plus importants doivent être mis en exergue. Les
différences notables avec les résultats d’autres enquêtes vont aider à situer
l’étude par rapport aux connaissances antérieures.

Une interprétation des résultats doit être proposée pour leur donner un sens
ainsi que les implications envisagées (retombées pour la pratique clinique
ou de santé publique…).

Systématiquement, une discussion peut être organisée en cinq sections dans


les revues anglo-saxonnes :

¾ This study found


¾ Explanation of the study’s findings
441
¾ Comparisons with other studies
¾ Strengths and limitations of the study
¾ Implications for practice

Au terme de la discussion, les questions restées sans réponse peuvent être


formulées. Des orientations pour l’avenir peuvent être succinctement
dégagées.

Il n’est pas indispensable de finir sur une conclusion mais certaines revues
exigent une conclusion indépendante de la discussion et clairement
individualisée. Il ne s’agit pas de répéter le résumé mais d’exprimer la leçon
tirée de l’article en opérant une synthèse des résultats et de la discussion.

Ceux qui défendent la rédaction d’une conclusion estiment que celle-ci peut
être lue avant de lire l’article dans sa totalité. En fait, le résumé joue ce rôle
d’autant que le risque de redite dans une conclusion est omniprésent.

L’individualisation de sections au sein de la discussion est souhaitable aussi


pour aider le lecteur à assimiler le message transmis.

En ce qui concerne les auteurs, trois critères sine qua non ont été proposé
pour établir leur éligibilité :

• avoir contribué à la planification de l’étude ou à l’interprétation des


résultats ;
• avoir participé substantiellement à la rédaction de l’article ou à la
révision de son contenu ;
• être en mesure de défendre en public l’article écrit.

Le titre et le résumé ont pour fonction de reproduire une image miniature de


l’ensemble du rapport.

Le titre, sans aucune abréviation, formule clairement le sujet sans être trop
long, il exprime le maximum d’informations avec le minimum de mots pour
capter l’attention du lecteur.

Le résumé doit être structuré, concis (250 à 300 mots) et informatif, il


présente le rapport sous une forme très condensée.

442
Pour cette raison, un résumé devrait être écrit après la rédaction des autres
parties du rapport.

Un résumé expose l’objectif principal de l’étude, les éléments


méthodologiques importants, les résultats essentiels avec des données
numériques, leur portée en guise de conclusion.

Un résumé ne doit pas comporter de références bibliographiques. Le contenu


du résumé ne doit s’écarter en rien du contenu de l’article, être facilement
compréhensible sans se référer au texte. Un résumé est écrit au passé mais le
présent peut être employé dans l’introduction (pour décrire le contexte qui a
amené à réaliser l’étude) et la conclusion.

Les mots-clés servent à indexer un rapport dans les bases de données


bibliographiques, ils sont empruntés en règle générale à la Classification
NLM américaine (National Library of Medicine) et plus exactement au
dictionnaire des mots clés (thesaurus) qui compte plus de 3000 mots clés.
Les mots clés sont aussi répertoriés dans l’Index Medicus.

Quant aux références, elles sont généralement numérotées selon l’ordre de


leur première apparition dans le texte (appel dans le texte) ou dans les
tableaux par un chiffre arabe entre crochets comme dans le système
numérique séquentiel de Vancouver. En fonction des revues, d’autres
systèmes sont utilisés : système alphabétique numérique de Harvard (l’ordre
alphabétique des auteurs détermine le numéro de la référence) ou système
auteur-année (auteurs cités dans le texte au moment de leur appel) beaucoup
moins utilisé.

Les références les plus acceptables sont celles de publications qui peuvent
être consultées.

Pour les articles de revues, par exemple, la présentation des références obéit
aux règles suivantes :

• nom des auteurs suivi de l’initiale du ou des prénoms ;


• titre du travail ;
• nom de la revue si possible abrégé suivant les conventions
internationales (Index Medicus) ;
• année, tome, numéros de la première et de la dernière page.
443
Si la revue a un support électronique, un seul numéro de page est cité. Les
documents retrouvés sur Internet doivent obligatoirement mentionner
l’adresse URL complète et le jour de la consultation.

Les autres supports, en dehors de l’article original scientifique, pour rendre


compte des résultats d’une étude sont peu valorisants pour des universitaires
et certainement moins gratifiants.

Les résumés ou les actes de congrès, même publiés dans de bonnes revues
mais en dehors de la responsabilité des éditeurs, ne sont habituellement pas
indexés dans les bases de données bibliographiques et ne sont pas considérés
comme des publications originales. En effet, outre les suppléments de revue,
de vrais numéros de revues sont achetés et sont consacrés à des comptes
rendus de congrès, de symposiums ou d’enquêtes initiées par es
Laboratoires. De tels articles ne sont pas systématiquement, loin de là,
soumis à un comité de lecture.

Les lettres à la rédaction ne sont pas habituellement aussi indexées dans les
bases bibliographiques internationales. De toute façon, les lettres fournissent
peu d’information pour analyser la qualité de l’article en raison de leur
caractère concis.

Les communications orales (présentations de 10 minutes reposant sur 10


diapositives) dans un congrès ne constituent pas, loin de là, une production
scientifique lorsqu’elles ne sont pas accompagnées d’articles scientifiques
originaux.

Le livre des résumés d’un congrès est un palliatif dont la crédibilité est plus
que douteuse.

Cela dit, lorsque les motivations sont moins scientifiques, les résultats d’une
étude peuvent utiliser d’autres supports qui tiennent compte des utilisateurs
potentiels :

• document plutôt administratif mais où on devrait retrouver les


préoccupations qui président à la rédaction d’un rapport selon le
standard IMRD ;
• simple retour d’information aux sujets interrogés et aux organismes
intéressés ;
444
• rapport complet et détaillé pour chaque organisme qui a aidé à
réaliser l’étude ;
• note de synthèse (mémorandum) destinée aux décideurs en une à
deux pages qui soulève invariablement des difficultés de rédaction,
bien plus que les résumés bien rédigés.

Il convient d’insister, au terme de ce chapitre, sur la nécessité de rédiger un


rapport d’enquête une fois celle-ci réalisée. La valorisation d’une étude,
lorsqu’elle apporte un éclairage original, devrait conduire à un article
scientifique. Celui-ci doit être diffusé, de préférence publié dans une revue
indexée à comité de lecture et à facteur d’impact élevé, afin que les
connaissances et les expériences soient le plus largement partagées.

L’exercice de la médecine ne peut se fonder que sur des données probantes


et l’étape qui suit la définition précise du problème du malade est justement
la recherche d’informations nécessaires pour résoudre ce problème. La
recherche bibliographique et la sélection de l’information en fonction de son
niveau de preuve doivent précéder l’application des connaissances au
problème du malade (chapitre 25).

445
Chapitre 25

Fondements de la lecture critique d’articles

1. Importance de la lecture critique d’articles

La lecture critique d’articles, c'est-à-dire leur évaluation, est un exercice


essentiel pour éviter d’intégrer des informations non fondées à la pratique de
la médecine ou de la santé publique.

La base américaine de données bibliographiques médicales Medline indexe


plus de 1000 articles par jour. Il ne peut être question d’assimiler
systématiquement leur apport à un acquis scientifique car la qualité de ces
articles est inégale et leur crédibilité peut être douteuse. Par ailleurs,
l’innovation rapportée n’est pas toujours source d’intérêt pour la pratique
usuelle dans le contexte du lecteur.

Le temps accordé à la lecture est forcément limité (on accorde en moyenne à


la lecture une heure par semaine), il devient alors impérieux de décider quels
articles lire et ceux à rejeter.

Bien évidemment, il n’est nullement demandé à un cardiologue de lire


systématiquement des revues d’ophtalmologie ou de santé publique.

Cependant, il peut exister des journaux biomédicaux généralistes prestigieux


qui peuvent intéresser plus d’une spécialité (Lancet, New England Journal of
medicine...). En outre, au sein même d’une spécialité, on ne peut être
concerné que par des sujets particuliers. Il n’est même plus possible de tout
savoir sur un sujet tant les connaissances se renouvellent continuellement.

Seule une lecture ciblée, sélective et méthodique peut constituer une


alternative acceptable.

Les étapes d’une démarche pratique d’une lecture critique ont pu être
proposées. L’organigramme de Salmi LR (Salmi LR : Lecture critique d’un
article médical : à la recherche des innovations réellement utiles. EMC-
Médecine 1 (2004) : 178-186) insiste notamment, pour poursuivre la lecture
d’un article, sur les points suivants :
447
• la revue dont provient l’article soumet tous les articles à une lecture
par des pairs ;
• l’article doit rapporter une étude originale ou une synthèse critique
de la littérature ;
• le titre doit refléter une étude intéressante ou potentiellement utile
pour la pratique du lecteur ;
• le résumé doit fournir des résultats informatifs potentiellement
utiles pour la pratique du lecteur ;
• l’objectif de l’étude doit refléter une question que le lecteur se pose
en pratique ;
• le schéma d’étude doit être adéquat pour fournir une réponse à la
question posée ;
• les modalités d’utilisation de l’innovation sont décrites et
applicables à la pratique du lecteur ;
• les méthodes de l’étude doivent être libres d’erreurs remettant en
cause les résultats ;
• l’innovation, après la lecture de l’article, peut être incorporée dans
la pratique clinique si la signification clinique pousse le lecteur à
changer de pratique.

2. Médecine basée sur les données probantes

Par opposition à la médecine empirique, la médecine basée sur les faits ou


sur les données probantes (Evidence-Based Medicine : EBM) est la seule
actuellement à susciter l’adhésion des acteurs évoluant dans le champ de la
santé. L’EBM, née de l’application des méthodes de l’épidémiologie à la
médecine clinique, a pris une part croissante en médecine au cours des deux
dernières décennies.

En effet, le concept de la « médecine fondée sur les faits et niveaux de


preuve » a fini par supplanter tous les autres concepts. La preuve est devenue
plus précieuse que la conviction.

La médecine fondée sur les faits nécessite cependant des cliniciens et des
épidémiologistes une capacité à lire des articles médicaux scientifiques d’un
niveau élevé qui s’appuient fortement sur le raisonnement épidémiologique
et statistique.

448
Il s’agit, sur base d’une lecture critique d’articles, d’intégrer les résultats à la
pratique clinique ou de santé publique.

L’enjeu est de mettre régulièrement à jour des connaissances, issues


d’articles originaux de journaux biomédicaux à comité de lecture,
susceptibles d’influencer les pratiques face au malade ou à la population.

Les méthodes et techniques épidémiologiques et statistiques utilisées dans


les articles originaux publiées dans des journaux biomédicaux de référence
sont de plus en plus sophistiquées. Cette complexité ne doit aucunement
décourager les étudiants et les enseignants en sciences médicales à acquérir,
à condition de fournir l’effort nécessaire, un bon niveau de connaissance des
notions fondamentales sur lesquelles se fondent ces méthodes et techniques.

La démarche EBM repose d’abord sur la formulation claire d’une question


clinique ou de santé publique, à rechercher des faits dans des articles
pertinents afin de les intégrer dans la pratique avant de les évaluer
ultérieurement.

Selon la structure d’étude, le niveau de preuve scientifique des articles dans


la littérature peut être établi selon les recommandations de l’Agence
Nationale d’Accréditation et d’Evaluation en Santé (ANAES – France)
contenues au tableau 25.1. Le Center for Evidence-Based medecine
d’Oxford pour la classification de la qualité de la preuve scientifique
(www.cebm.net) devrait aussi être consulté.

Cette gradation est adaptée aux manœuvres (traitements, mesures


préventives) qui peuvent faire l’objet d’un essai thérapeutique randomisé
mais n’est pas adaptée pour les études pronostiques et diagnostiques.

Un des meilleurs niveaux de preuve possible est la méta-analyse lorsqu’elle


regroupe les résultats de plusieurs essais randomisés.

La structure d’étude est donc essentielle pour asseoir la crédibilité


scientifique d’un article médical. La clarté de l’article dans toutes ses
composantes (introduction, matériel, résultats, discussion) est la deuxième
grande qualité d’un article.

449
L’intégration des résultats à la pratique du lecteur dans son environnement
habituel, autrement dit leur applicabilité, conditionne enfin l’intérêt de
l’article. Il est en effet préjudiciable que les résultats d’une étude
correctement menée ne soient pas utilisés pour la planification et la lutte
contre les maladies.

Tableau 25.1 Grade des recommandations en fonction de la structure d’étude


Niveau de preuve scientifique Grade des recommandations
Niveau 1
• Essais comparatifs randomisés de forte
puissance Niveau A
• Méta-analyse d’essais comparatifs Preuve scientifique établie
randomisés
• Analyse de décision basée sur des études
bien menées
Niveau 2
• Essais comparatifs randomisés de faible
puissance Niveau B
• Etudes comparatives non randomisées Présomption scientifique
bien menées
• Etudes de cohorte
Niveau 3
• Etudes cas-témoins
Niveau 4
• Etudes comparatives comportant des biais
importants Niveau C
• Etudes rétrospectives Faible niveau de preuve
• Séries de cas scientifique
• Etudes épidémiologiques descriptives
Niveau 5
• Etude de cas

Source : Tavolacci MP, Ladner J : Lecture critique d’article – Préparation aux ECN.
Maloine. Paris, 2010. D’après ANAES : Guide d’analyse de la littérature et gradation des
recommandations, janvier 2000.

450
3. Grilles de lecture

Il existe plusieurs méthodes pour évaluer la qualité d’un article. Une grille de
lecture applicable à tous les types d’articles peut être utilisée. Des critères
généraux pour lire de façon critique des rapports peuvent être proposés sous
forme de grille pour toutes les études épidémiologiques ou cliniques.

Ces grilles de lecture passent en revue :

• les objectifs poursuivis ;


• la structure d’étude ;
• la population étudiée
• les variables étudiées ;
• la conduite de l’étude ;
• l’analyse statistique et épidémiologique ;
• les biais et la confusion ;
• les principaux résultats
• le sens des résultats par rapport aux objectifs énoncés.

L’Université de Montréal a proposé dans ce cadre la grille de lecture de


Bordage (Bordage G : Considerations on Preparing a paper for publication.
Teaching and Learning in Medicine ; 1989, 1(1) : 47-52) qui peut être
facilement téléchargée. Dans cette grille, les composantes de la critique
concernent : le titre, les auteurs, le résumé, l’introduction et la revue de
littérature, le matériel et les méthodes, les résultats, la discussion et la
conclusion, les références et les considérations générales.

Des grilles de lectures utilisant des critères approfondis et spécifiques en


fonction de la structure d’étude ont aussi été proposées : étude diagnostique,
essai randomisé, étude étiologique (cohorte, cas-témoins, transversale), étude
pronostique...

Un article relatif à une étude diagnostique n’est pas lu de la même façon


qu’un article consacré à un essai randomisé.

451
La Faculté de Médecine de Strasbourg a ainsi proposé de telles grilles de
lecture dont la grille CONSORT destinée à évaluer la qualité de la rédaction
d’un essai randomisé (lecture critique d’un article médical original 2011 ;
http://www-ulpmed.u-strasbg.fr).

On a même proposé d’attribuer un score pour juger de la qualité d’un essai


thérapeutique en fonction de critères selon Jadad :

• l’essai doit être décrit comme étant randomisé (sur 2)


• l’essai doit être décrit comme étant en double aveugle (sur 2)
• une description des retraits après randomisation est décrite (sur 1)
• les objectifs de l’essai sont clairement définis (sur 1)
• les méthodes de mesure des résultats sont clairement définies (sur 1)
• les critères d’inclusion et d’exclusion sont clairement définis (sur 1)

Si le score pour l’ensemble des critères est de 4 à 8, l’essai est de grande


qualité. Par contre, l’essai est de faible qualité si le score est de 0 à 3.

Une fiche générale d’évaluation critique, qui reprend les critères communs à
toutes les études et qui est susceptible de répondre aux besoins de la plupart
des lecteurs, ainsi que neuf fiches qui rapportent les critères approfondis
relatifs à différentes études sont reproduites en annexe de ce chapitre.

Les critères de la critique concernent le schéma d’étude, les procédures de


sélection, la conduite de l’étude, l’analyse des résultats et d’autres éléments
en fonction de la structure d’étude.

Ces fiches, non couvertes par un copyright, ont été tirées de l’ouvrage de
Salmi (Salmi LR : Lecture critique et communication médicale scientifique.
Comment lire, présenter, rédiger et publier une étude clinique ou
épidémiologique. Paris : Elsevier ; 2002).

452
Annexe : Fiches d’évaluation critique

(Source : Salmi LR. Lecture critique et communication médicale


scientifique. Comment lire, présenter, rédiger et publier une étude clinique
ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) : Elsevier
Masson ; 2012.

1. Fiche de lecture critique d’une étude clinique ou


épidémiologique (grille générique)
2. Fiche de lecture critique d’une évaluation de la fiabilité d’un
test diagnostique
3. Fiche de lecture critique d’une évaluation de l’exactitude d’un
test diagnostic
4. Fiche de lecture critique d’un essai randomisé
5. Fiche de lecture critique d’une étude de cohorte
6. Fiche de lecture critique d’une étude cas-témoins
7. Fiche de lecture critique d’une étude transversale
8. Fiche de lecture critique d’une série de cas cliniques
9. Fiche de lecture critique d’une étude pronostique
10. Fiche de lecture critique d’une synthèse de la littérature

453
454
1. Fiche de lecture critique d’une étude clinique ou épidémiologique
Référence
Auteurs…………………………………………………………………………………………………..
Titre……………………………………………………………………………………………..............
Revue…………………………………………………………………………………………………….
Année………………………………Volume (n°)…………(…..) Pages………………………………
Résumé
Objectif et justification

Schéma d’étude : groupes comparés

Population étudiée et nombre de sujets

Conduite de l’étude

Principaux résultats

Cocher la case correspondant au respect du critère : O = oui, I = incomplet, N = non, NA = ne


s’applique pas, NSP = ne sait pas. Une réponse cochée N à un critère en italique = étude inacceptable.
Critères O I N NA NSP Commentaires
Schéma d’étude
Formulation claire de l’objectif
Hypothèse faite à priori
Schéma d’étude adapté à l’objectif
Procédures de sélection
Critères d’inclusion décrits et adéquats
Critères d’exclusion décrits et adéquats
Indication du nombre de refus avant l’étude
Procédures identiques dans tous les groupes
Taille d’échantillon adaptée
Règles éthiques respectées
Conduite de l’étude
Retraits indiqués, expliqués et raisonnables
Retraits équilibrés entre les groupes
Mesures principales fiables et valides
Analyse des résultats
Méthodes adaptées à la question et au schéma
Prise en compte des variables importantes
Résultats vérifiables des données brutes
Prise en compte des comparaisons multiples

Conclusion Discussion (forces et faiblesses)


Qualité Cocher
Très bonne
Plutôt bonne
Faible mais acceptable
Inacceptable
Pas qualifié pour juger
Lecteur Date
Source : Salmi LR. Lecture critique et communication médicale scientifique. Comment lire, présenter,
rédiger et publier une étude clinique ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) :
Elsevier Masson ; 2012.

455
2a. Fiche de lecture critique d’une évaluation de la fiabilité d’un test diagnostique

Référence
Auteurs……………………………………………………………………………………………………
Titre……………………………………………………………………………………………......................
..........................................................................................................................................................................
........................................................................................................................................................
Revue………………………………………………………………………………………………………..
Année………………………………Volume (n°)…………(…..) Pages………………………………..

Résumé
Objectif et justification ; maladie et test diagnostique étudiés

Schéma d’étude : sources de variation évaluées

Cocher
Répétition du test
Accord entre observateurs
Accord entre techniques
Autres (préciser)

Population étudiée et nombre de sujets/nombre d’observateurs

Conduite de l’étude

Principaux résultats

Source : Salmi LR. Lecture critique et communication médicale scientifique. Comment lire, présenter,
rédiger et publier une étude clinique ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) :
Elsevier Masson ; 2012.

456
2b. Critères de lecture d’une évaluation de la fiabilité d’un test diagnostique
Cocher la case correspondant au respect du critère : O = oui, I = incomplet, N = non, NA = ne
s’applique pas, NSP = ne sait pas. Une réponse cochée N à un critère en italique = étude inacceptable.
Critères O I N NA NSP Commentaires
Schéma d’étude
Formulation claire de l’objectif
Hypothèse faite à priori
Tirage au sort de l’ordre d’application
Pertinence de toutes les sources considérées
Pas d’oubli de sources pertinentes importantes
Procédures de sélection
Critères d’inclusion décrits et adéquats
Critères d’exclusion décrits et adéquats
Représentativité des conditions d’utilisation
Population hétérogène
Indication du nombre de refus avant l’étude
Procédures identiques dans tous les groupes
Taille d’échantillon adaptée
Règles éthiques respectées
Conduite de l’étude
Description des modalités d’application du test
Délais entre mesures décrits et acceptables
Procédures d’insu (application et
interprétation)
Retraits indiqués, expliqués et raisonnables
Retraits équilibrés entre les groupes
Analyse des résultats
Mesure d’accord corrigée pour l’effet du
hasard
Mesure de la précision relative
Description des discordances et analyse des
sources de désaccord
Résultats vérifiables des données brutes
Prise en compte des comparaisons multiples
Autres éléments
Applicabilité hors du contexte expérimental
Information sur la validité
Apport du test par rapport aux tests existants

Conclusion Discussion (forces et faiblesses)


Qualité Cocher
Très bonne
Plutôt bonne
Faible mais acceptable
Inacceptable
Pas qualifié pour juger

Lecteur Date

457
3a. Fiche de lecture critique d’une évaluation de l’exactitude d’un test diagnostique

Référence
Auteurs……………………………………………………………………………………………………
Titre……………………………………………………………………………………………......................
..........................................................................................................................................................................
........................................................................................................................................................
Revue………………………………………………………………………………………………………..
Année………………………………Volume (n°)…………(…..) Pages………………………………..

Résumé
Objectif et justification ; maladie et test diagnostique étudiés

Estimation de l’exactitude d’un test


Comparaison de l’exactitude de plusieurs tests
Comparaison de l’exactitude d’un test dans différents groupes
Autres (précisez)

Schéma d’étude : test de référence

Population étudiée et nombre de sujets

Conduite de l’étude

Principaux résultats

Source : Salmi LR. Lecture critique et communication médicale scientifique. Comment lire, présenter,
rédiger et publier une étude clinique ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) :
Elsevier Masson ; 2012.

458
3b. Critères de lecture d’une évaluation de l’exactitude d’un test diagnostique
Cocher la case correspondant au respect du critère : O = oui, I = incomplet, N = non, NA = ne
s’applique pas, NSP = ne sait pas. Une réponse cochée N à un critère en italique = étude inacceptable.
Critères O I N NA NSP Commentaires
Schéma d’étude
Formulation claire de l’objectif
Hypothèse faite à priori
Description du test de référence
Description du test évalué
Indépendance des tests comparés
Procédures de sélection
Critères d’inclusion décrits et adéquats
Critères d’exclusion décrits et adéquats
Définition acceptable de la maladie et du
normal
Panorama complet de malades
Panorama complet de non malades
Indication du nombre de refus avant l’étude
Procédures identiques dans tous les groupes
Taille d’échantillon adaptée
Règles éthiques respectées
Conduite de l’étude
Description des modalités d’application des
tests
Délais entre les tests décrits et acceptables
Interprétation en insu du test de référence
Interprétation en insu du test évalué
Retraits indiqués, expliqués et raisonnables
Retraits équilibrés entre les groupes
Analyse des résultats
Calcul de la sensibilité
Calcul de la spécificité
Calcul des valeurs prédictives
description des faux positifs et des faux
négatifs
Description des effets indésirables
Prise en compte des variables importantes
Résultats vérifiables des données brutes
Prise en compte des comparaisons multiples
Autres éléments
Applicabilité hors du contexte expérimental
Information sur la fiabilité
Apport du test par rapport aux tests existants

Conclusion Discussion (forces et faiblesses)


Qualité Cocher
Très bonne
Plutôt bonne
Faible mais acceptable
Inacceptable
Pas qualifié pour juger

459
4a. Fiche de lecture critique d’un essai randomisé
Référence
Auteurs……………………………………………………………………………………………………
Titre……………………………………………………………………………………………......................
Revue………………………………………………………………………………………………………..
Année………………………………Volume (n°)…………(…..) Pages………………………………..

Résumé
Objectif et justification ; interventions comparées

Intervention(s) évaluée(s)

Intervention de comparaison
Placebo
Absence d’intervention
Autre, préciser

Schéma d’étude ; méthode de randomisation

Cocher Cocher
Deux groupes Un seul centre
Plus de deux groupes Plusieurs centres
Efficacité potentielle (étude explicative) Schéma parallèle
Efficacité réelle (étude pragmatique) Schéma séquentiel
Equivalence vraie Schéma croisé
Non-infériorité Schéma en grappe

Population étudiée et nombre de sujets

Conduite de l’étude ; effets observés

Principaux résultats

Source : Salmi LR : Lecture critique et communication médicale scientifique. Comment lire, présenter,
rédiger et publier une étude clinique ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) :
Elsevier Masson ; 2012.

460
4b. Critères de lecture d’un essai randomisé O = oui, I = incomplet, N = non, NA = ne
s’applique pas, NSP = ne sait pas. Réponse N à un critère en italique = étude inacceptable.
Critères O I N NA NSP Commentaires
Schéma d’étude
Formulation claire de l’objectif
Hypothèse faite à priori
Interventions comparées définies, justifiées et acceptables
Principe d’ambivalence respecté
Tirage au sort décrit
Tirage au sort en insu par un centre indépendant
Procédures de sélection
Critères d’inclusion décrits et adéquats
Critères d’exclusion décrits et adéquats
Pertinence de l’indication
Indication du nombre de refus avant l’étude
Procédures identiques dans tous les groupes
Taille d’échantillon adaptée
Règles éthiques respectées
Conduite de l’étude
Description suffisamment détaillée des modalités
d’intervention
Effets (critères de jugement) principaux définis et
pertinents
Mesure fiable et valide des effets attendus
Evaluation en insu des effets observés
Tirage au sort en insu des sujets et des soignants
Retraits expliqués, équilibrés et raisonnables (diagramme
de flux)
Durée de suivi précisée et suffisamment longue
Analyse des résultats
Comparabilité des groupes à l’entrée présentée dans un
tableau
Analyse en intention de traiter
Prise en compte du suivi (analyse de survie)
Tirage au sort en insu du statisticien
Autres interventions surveillées et décrites
Effets secondaires évalués et décrits
Adhésion surveillée et décrite
Prise en compte des variables importantes
Résultats vérifiables des données brutes
Prise en compte des comparaisons multiples
Autres éléments
Applicabilité hors du contexte expérimental
Apport de l’intervention par rapport à l’existant
Conclusion Discussion (forces et faiblesses)
Qualité Cocher
Très bonne
Plutôt bonne
Faible mais acceptable
Inacceptable
Pas qualifié pour juger

461
5a. Fiche de lecture critique d’une étude de cohorte
Référence
Auteurs……………………………………………………………………………………………………
Titre……………………………………………………………………………………………......................
Revue………………………………………………………………………………………………………..
Année………………………………Volume (n°)…………(…..) Pages………………………………..

Résumé
Objectif et justification ; facteurs d’exposition comparés

Schéma d’étude et chronologie du recueil de données

Schéma d’étude Cocher Chronologie Cocher


Cohorte unique (référence interne) Etude historique
Cohorte unique (référence externe) Etude prospective
Deux cohortes ou plus

Population étudiée, définition du début du suivi et nombre de sujets

Conduite de l’étude ; effets observés

Principaux résultats

Source : Salmi LR : Lecture critique et communication médicale scientifique. Comment lire, présenter,
rédiger et publier une étude clinique ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) :
Elsevier Masson ; 2012.

462
5b. Critères de lecture d’une étude de cohorte
Cocher la case correspondant au respect du critère : O = oui, I = incomplet, N = non, NA = ne
s’applique pas, NSP = ne sait pas. Une réponse cochée N à un critère en italique = étude inacceptable.
Critères O I N NA NSP Commentaires
Schéma d’étude
Formulation claire de l’objectif
Hypothèse faite à priori
Description des expositions
Groupes de référence acceptables
Procédures de sélection
Critères d’inclusion décrits et adéquats
Critères d’exclusion décrits et adéquats
Définition acceptable du début de suivi
Sélection indépendante du risque de maladie
Mesure fiable et valide des variables à l’entrée
Indication du nombre de refus avant l’étude
Procédures identiques dans tous les groupes
Taille d’échantillon adaptée
Règles éthiques respectées
Conduite de l’étude
Durée de suivi précisée et suffisamment longue
Même suivi régulier et standardisé de tous les
groupes
Effets observés définis et pertinents
Mesure fiable et valide des effets observés
Evaluation en insu des effets observés
Retraits indiqués, expliqués et raisonnables
Retraits équilibrés entre les groupes
Analyse des résultats
Comparaison des groupes à l’entrée
Prise en compte du suivi (analyse de survie)
Expositions cachées au statisticien
Autres expositions surveillées et décrites
Prise en compte des variables importantes
Résultats vérifiables des données brutes
Prise en compte des comparaisons multiples
Autres éléments
Discussion des violations du protocole
Discussion des critères de causalité

Conclusion Discussion (forces et faiblesses)


Qualité Cocher
Très bonne
Plutôt bonne
Faible mais acceptable
Inacceptable
Pas qualifié pour juger

Lecteur Date

463
6a. Fiche de lecture critique d’une étude cas-témoins
Référence
Auteurs……………………………………………………………………………………………………
Titre……………………………………………………………………………………………......................
Revue………………………………………………………………………………………………………..
Année………………………………Volume (n°)…………(…..) Pages………………………………..

Résumé
Objectif et justification ; maladie étudiée

Schéma d’étude ; sélection des cas et des témoins

Schéma d’étude Cocher Sources des cas et des témoins Cocher


Un seul groupe de témoins Nouveaux cas (cas incidents)
Deux groupes de témoins ou plus Cas existants
Etude assortie/appariée Témoins communautaires
Etude non assortie Témoins hospitaliers

Chronologie du recueil des données et nombre de sujets

Chronologie Cocher
Etude rétrospective
Etude prospective

Conduite de l’étude ; mesure des antécédents d’exposition

Cocher
Questionnaire d’auto-évaluation
Enquêteur
Dossiers

Principaux résultats

Source : Salmi LR : Lecture critique et communication médicale scientifique. Comment lire, présenter,
rédiger et publier une étude clinique ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) :
Elsevier Masson ; 2012.
464
6b. Critères de lecture d’une étude cas-témoins
Cocher la case correspondant au respect du critère : O = oui, I = incomplet, N = non, NA = ne
s’applique pas, NSP = ne sait pas. Une réponse cochée N à un critère en italique = étude inacceptable.
Critères O I N NA NSP Commentaires
Schéma d’étude et procédures de sélection
Formulation claire de l’objectif
Hypothèse faite à priori
Description de la maladie étudiée
Critères d’inclusion décrits et adéquats
Critères d’exclusion décrits et adéquats
Dates et critères diagnostiques clairs et valides
Exclusion de la maladie chez les témoins
Groupes de témoins acceptables
Même population d’origine pour cas et témoins
Echantillonnage indépendant de l’exposition
Indication du nombre de refus avant l’étude
Procédures identiques dans tous les groupes
Taille d’échantillon adaptée
Règles éthiques respectées
Conduite de l’étude
Expositions définies et pertinentes
Période de recherche de l’exposition
acceptable
Mesure fiable et valide des expositions
Mesure de l’exposition en insu
Retraits indiqués, expliqués et raisonnables
Retraits équilibrés entre les groupes
Analyse des résultats
Comparaison des groupes à l’entrée
Mesure d’association adaptée au schéma
d’étude
Autres expositions mesurées et décrites
Prise en compte des variables importantes
Résultats vérifiables des données brutes
Prise en compte des comparaisons multiples
Autres éléments
Discussion des biais de sélection et de mesure
Discussion des critères de causalité

Conclusion Discussion (forces et faiblesses)


Qualité Cocher
Très bonne
Plutôt bonne
Faible mais acceptable
Inacceptable
Pas qualifié pour juger

Lecteur Date

465
7a. Fiche de lecture critique d’une étude transversale
Référence
Auteurs……………………………………………………………………………………………………
Titre……………………………………………………………………………………………......................
Revue………………………………………………………………………………………………………..
Année………………………………Volume (n°)…………(…..) Pages………………………………..

Résumé
Objectif et justification ; maladies étudiées

Schéma d’étude

Cocher
Etude exhaustive
Echantillon représentatif
Echantillon de convenance

Population étudiée et nombre de sujets

Conduite de l’étude ; mesure des facteurs d’exposition

Cocher
Questionnaire d’auto-évaluation
Enquêteur
Dossiers

Principaux résultats

Source : Salmi LR : Lecture critique et communication médicale scientifique. Comment lire, présenter,
rédiger et publier une étude clinique ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) :
Elsevier Masson ; 2012.
466
7b. Critères de lecture d’une étude transversale
Cocher la case correspondant au respect du critère : O = oui, I = incomplet, N = non, NA = ne
s’applique pas, NSP = ne sait pas. Une réponse cochée N à un critère en italique = étude inacceptable.
Critères O I N NA NSP Commentaires
Schéma d’étude
Formulation claire de l’objectif
Hypothèse faite à priori
Description de la maladie étudiée
Description de l’exposition étudiée
Echantillonnage exhaustif ou représentatif
Procédures de sélection
Critères d’inclusion décrits et adéquats
Critères d’exclusion décrits et adéquats
Sélection indépendante de la maladie
Sélection indépendante de l’exposition
Indication du nombre de refus avant l’étude
Procédures identiques dans tous les groupes
Taille d’échantillon adaptée
Règles éthiques respectées
Conduite de l’étude
Mesure fiable et valide de l’exposition
Mesure de l’exposition en insu
Mesure fiable et valide de la maladie
Mesure de la maladie en insu
Retraits indiqués, expliqués et raisonnables
Retraits équilibrés entre les groupes
Analyse des résultats
Comparaison des groupes à l’entrée
Mesure d’association adaptée au schéma
d’étude
Autres expositions mesurées et décrites
Prise en compte des variables importantes
Résultats vérifiables des données brutes
Prise en compte des comparaisons multiples
Autres éléments
Discussion des biais de sélection et de mesure
Discussion de l’effet de la durée de la maladie
Discussion des critères de causalité

Conclusion Discussion (forces et faiblesses)


Qualité Cocher
Très bonne
Plutôt bonne
Faible mais acceptable
Inacceptable
Pas qualifié pour juger

Lecteur Date

467
8a. Fiche de lecture critique d’une série de cas cliniques
Référence
Auteurs……………………………………………………………………………………………………
Titre……………………………………………………………………………………………......................
Revue………………………………………………………………………………………………………..
Année………………………………Volume (n°)…………(…..) Pages………………………………..

Résumé
Objectif et justification ; maladie étudiée

Schéma d’étude

Cocher
Etude exhaustive
Echantillon représentatif
Echantillon de convenance

Population étudiée et nombre de sujets

Conduite de l’étude ; facteurs étudiés

Cocher
Questionnaire d’auto-évaluation
Enquêteur
Dossiers

Principaux résultats

Source : Salmi LR : Lecture critique et communication médicale scientifique. Comment lire, présenter,
rédiger et publier une étude clinique ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) :
Elsevier Masson ; 2012.
468
8b. Critères de lecture d’une série de cas cliniques
Cocher la case correspondant au respect du critère : O = oui, I = incomplet, N = non, NA = ne
s’applique pas, NSP = ne sait pas. Une réponse cochée N à un critère en italique = étude inacceptable.
Critères O I N NA NSP Commentaires
Schéma d’étude
Formulation claire de l’objectif
Description de la maladie étudiée
Echantillonnage représentatif
Procédures de sélection
Critères d’inclusion décrits et adéquats
Critères d’exclusion décrits et adéquats
Description du type de recrutement
Indication du nombre de refus avant l’étude
Procédures identiques dans tous les groupes
Règles éthiques respectées
Conduite de l’étude
Efforts de standardisation
Retraits indiqués, expliqués et raisonnables
Retraits équilibrés entre les groupes
Analyse des résultats
Description clinique détaillée
Tests statistiques seulement si représentatif
Résultats vérifiables des données brutes
Autres éléments
Discussion des biais de sélection et de mesure
Absence de causalité car non comparative
Absence d’extrapolation si non représentatif

Conclusion Discussion (forces et faiblesses)


Qualité Cocher
Très bonne
Plutôt bonne
Faible mais acceptable
Inacceptable
Pas qualifié pour juger

Lecteur Date

469
9a. Fiche de lecture critique d’une étude pronostique
Référence
Auteurs……………………………………………………………………………………………………
Titre……………………………………………………………………………………………......................
Revue………………………………………………………………………………………………………..
Année………………………………Volume (n°)…… (…..) Pages………………………………..

Résumé
Objectif et justification ; marqueurs pronostiques

Hypothèses évaluées Cocher


Etude exploratoire
Evaluation d’un marqueur principal

Schéma d’étude ; chronologie du recueil des données

Cocher Cocher
Cohorte exhaustive Etude historique
Cohorte représentative Etude prospective
Restriction à un sous-groupe de malades
Autre : précisez

Population étudiée, définition du début du suivi et nombre de sujets

Conduite de l’étude ; effets prédits

Principaux résultats

Source : Salmi LR : Lecture critique et communication médicale scientifique. Comment lire, présenter,
rédiger et publier une étude clinique ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) :
Elsevier Masson ; 2012.
470
9b. critères de lecture d’une étude pronostique
Cocher la case correspondant au respect du critère : O = oui, I = incomplet, N = non, NA = ne
s’applique pas, NSP = ne sait pas. Une réponse cochée N à un critère en italique = étude inacceptable.
Critères O I N NA NSP Commentaires
Schéma d’étude
Formulation claire de l’objectif
Hypothèse faite à priori
Description des facteurs étudiés
Cohorte exhaustive ou autre schéma justifié
Procédures de sélection
Critères d’inclusion décrits et adéquats
Critères d’exclusion décrits et adéquats
Définition acceptable du début du suivi
Pertinence des marqueurs évalués et faisabilité
de leur mesure
Mesure fiable et valide des marqueurs
pronostiques
Indication du nombre de refus avant l’étude
Procédures identiques dans tous les groupes
Taille d’échantillon adaptée
Règles éthiques respectées
Conduite de l’étude
Durée de suivi précisée et suffisamment longue
Même suivi régulier et standardisé de tous les
groupes
Effets prédits définis et pertinents
Mesure fiable et valide des effets prédits
Evaluation en insu des effets observés
Analyse des résultats
Comparaison des groupes à l’entrée
Estimation de l’association
Estimation de la performance prédictive
Description des erreurs de prédiction
Prise en compte des comparaisons multiples
Autres éléments
Discussion des violations de protocole
Discussion de l’apport des marqueurs
pronostiques

Conclusion Discussion (forces et faiblesses)


Qualité Cocher
Très bonne
Plutôt bonne
Faible mais acceptable
Inacceptable
Pas qualifié pour juger

Lecteur Date

471
10a. Fiche de lecture critique d’une synthèse de la littérature
Référence
Auteurs……………………………………………………………………………………………………
Titre……………………………………………………………………………………………......................
Revue………………………………………………………………………………………………………..
Année………………………………Volume (n°)…………(…..) Pages………………………………..

Résumé
Objectif et justification ; champ étudié

Technique d’analyse et de synthèse

Cocher
Revue simple
Revue critique
Synthèse des meilleures données disponibles
Méta-analyse
Analyse de décision

Bases de données bibliographiques


Cocher
Medline
Current Contents
EMBASE
Autres : ………………………

Types et nombre d’articles

Conduite de l’étude ; critères d’analyse et méthodes de synthèse

Principaux résultats

Source : Salmi LR : Lecture critique et communication médicale scientifique. Comment lire, présenter,
rédiger et publier une étude clinique ou épidémiologique. 3e édition. Issy-les-Moulineaux (France) :
Elsevier Masson ; 2012.
472
10b. Critères de lecture d’une synthèse de la littérature
Cocher la case correspondant au respect du critère : O = oui, I = incomplet, N = non, NA = ne
s’applique pas, NSP = ne sait pas. Une réponse cochée N à un critère en italique = étude inacceptable.
Critères O I N NA NSP Commentaires
Schéma d’étude
Formulation claire de l’objectif
Hypothèse faite à priori
Description claire et objective du champ étudié
Revue critique, qualitative ou quantitative
Procédures de sélection
Critères d’inclusion décrits et adéquats
Critères d’exclusion décrits et adéquats
Description et pertinence des bases
bibliographiques
Pertinence des critères de sélection des études
Couverture de la littérature non publiée
Indication du nombre d’exclusions avant
l’étude
Règles éthiques respectées
Conduite de l’étude
Méthodes de lecture critique acceptables
Auteurs et journal cachés des lecteurs critiques
Double évaluation de la qualité des études
Méthodes explicites de synthèse des
informations
Analyse des résultats
Description des résultats de la sélection
Description des articles sélectionnés
Prise en compte de la qualité des études
Analyse de la robustesse des conclusions
Analyse du biais de publication

Conclusion Discussion (forces et faiblesses)


Qualité Cocher
Très bonne
Plutôt bonne
Faible mais acceptable
Inacceptable
Pas qualifié pour juger

Lecteur Date

473
Tables statistiques

474
dĂďůĞĚĞů͛ĠĐĂƌƚƌĠĚƵŝƚnj

dĂďůĞĚĞƐĂŝƌĞƐůŝŵŝƚĠĞƐƉĂƌůĂĐŽƵƌďĞE;Ϭ͕ϭͿ

sĂůĞƵƌĚĞnjĂLJĂŶƚůĂƉƌŽďĂďŝůŝƚĠαĚ͛ġƚƌĞĚĠƉĂƐƐĠĞ




αͬϮαͬϮ


ͲnjϬнnj

α Ϭ͘ϬϬ Ϭ͘Ϭϭ Ϭ͘ϬϮ Ϭ͘Ϭϯ Ϭ͘Ϭϰ Ϭ͘Ϭϱ Ϭ͘Ϭϲ Ϭ͘Ϭϳ Ϭ͘Ϭϴ Ϭ͘Ϭϵ
Ϭ͘Ϭ ∞ Ϯ͘ϱϳϲ Ϯ͘ϯϮϲ Ϯ͘ϭϳϬ Ϯ͘Ϭϱϰ ϭ͘ϵϲϬ ϭ͘ϴϴϭ ϭ͘ϴϭϮ ϭ͘ϳϱϭ ϭ͘ϲϵϱ
Ϭ͘ϭ ϭ͘ϲϰϱ ϭ͘ϱϵϴ ϭ͘ϱϱϱ ϭ͘ϱϭϰ ϭ͘ϰϳϲ ϭ͘ϰϰϬ ϭ͘ϰϬϱ ϭ͘ϯϳϮ ϭ͘ϯϰϭ ϭ͘ϯϭϭ
Ϭ͘Ϯ ϭ͘ϮϴϮ ϭ͘Ϯϱϰ ϭ͘ϮϮϳ ϭ͘ϮϬϬ ϭ͘ϭϳϱ ϭ͘ϭϱϬ ϭ͘ϭϮϲ ϭ͘ϭϬϯ ϭ͘ϬϴϬ ϭ͘Ϭϱϴ
Ϭ͘ϯ ϭ͘Ϭϯϲ ϭ͘Ϭϭϱ Ϭ͘ϵϵϰ Ϭ͘ϵϳϰ Ϭ͘ϵϱϰ Ϭ͘ϵϯϱ Ϭ͘ϵϭϱ Ϭ͘ϴϵϲ Ϭ͘ϴϳϴ Ϭ͘ϴϲϬ
Ϭ͘ϰ Ϭ͘ϴϰϮ Ϭ͘ϴϮϰ Ϭ͘ϴϬϲ Ϭ͘ϳϴϵ Ϭ͘ϳϳϮ Ϭ͘ϳϱϱ Ϭ͘ϳϯϵ Ϭ͘ϳϮϮ Ϭ͘ϳϬϲ Ϭ͘ϲϵϬ
Ϭ͘ϱ Ϭ͘ϲϳϰ Ϭ͘ϲϱϵ Ϭ͘ϲϰϯ Ϭ͘ϲϮϴ Ϭ͘ϲϭϯ Ϭ͘ϱϵϴ Ϭ͘ϱϴϯ Ϭ͘ϱϲϴ Ϭ͘ϱϱϯ Ϭ͘ϱϯϵ
Ϭ͘ϲ Ϭ͘ϱϮϰ Ϭ͘ϱϭϬ Ϭ͘ϰϵϲ Ϭ͘ϰϴϮ Ϭ͘ϰϲϴ Ϭ͘ϰϱϰ Ϭ͘ϰϰϬ Ϭ͘ϰϮϲ Ϭ͘ϰϭϮ Ϭ͘ϯϵϵ
Ϭ͘ϳ Ϭ͘ϯϴϱ Ϭ͘ϯϳϮ Ϭ͘ϯϱϴ Ϭ͘ϯϰϱ Ϭ͘ϯϯϮ Ϭ͘ϯϭϵ Ϭ͘ϯϬϲ Ϭ͘ϮϵϮ Ϭ͘Ϯϳϵ Ϭ͘Ϯϲϲ
Ϭ͘ϴ Ϭ͘Ϯϱϯ Ϭ͘ϮϰϬ Ϭ͘ϮϮϴ Ϭ͘Ϯϭϱ Ϭ͘ϮϬϮ Ϭ͘ϭϴϵ Ϭ͘ϭϳϲ Ϭ͘ϭϲϰ Ϭ͘ϭϱϭ Ϭ͘ϭϯϴ
Ϭ͘ϵ Ϭ͘ϭϮϲ Ϭ͘ϭϭϯ Ϭ͘ϭϬϬ Ϭ͘Ϭϴϴ Ϭ͘Ϭϳϱ Ϭ͘Ϭϲϯ Ϭ͘ϬϱϬ Ϭ͘Ϭϯϴ Ϭ͘ϬϮϱ Ϭ͘Ϭϭϯ
džĞŵƉůĞ͗Ɛŝα;njͿсϬ͘Ϯϯ͕njсͲϭ͘ϮϬϬ

dĂďůĞƉŽƵƌůĞƐƉĞƚŝƚĞƐǀĂůĞƵƌƐĚĞα;njͿ
α
Ͳϯ
ϭϬ ϭϬͲϰ ϭϬͲϱ ϭϬͲϲ ϭϬͲϳ ϭϬͲϴ ϭϬͲϵ
nj ϯ͘Ϯϵϭ ϯ͘ϴϵϭ ϰ͘ϰϭϳ ϰ͘ϴϵϮ ϱ͘ϯϮϳ ϱ͘ϳϯϭ ϲ͘ϭϬϵ


475
Table de la loi de Student t

La table donne la probabilité p qu’une valeur donnée de t soit à l’extérieur de


l’intervalle (-t, +t) en fonction du nombre de degrés de liberté (dl).

dl p 0.90 0.50 0.40 0.30 0.20 0.10 0.05 0.01 0.001
1 0.158 1.000 1.376 1.963 3.078 6.314 12.706 63.657 636.62
2 0.142 0.816 1.061 1.386 1.886 2.920 4.303 9.925 31.958
3 0.137 0.765 0.978 1.250 1.638 2.353 3.182 5.841 12.929
4 0.134 0.741 0.941 1.190 1.533 2.132 2.776 4.604 8.610
5 0.132 0.727 0.920 1.156 1.476 2.015 2.571 4.032 6.869
6 0.131 0.718 0.906 1.134 1.440 1.943 2.447 3.707 5.949
7 0.130 0.711 0.896 1.119 1.415 1.895 2.365 3.499 5.408
8 0.130 0.706 0.889 1.108 1.397 1.860 2.306 3.355 5.041
9 0.129 0.703 0.883 1.100 1.383 1.833 2.262 3.250 4.781
10 0.129 0.700 0.879 1.083 1.372 1.812 2.228 3.169 4.587
11 0.129 0.697 0.876 1.088 1.363 1.796 2.201 3.106 4.437
12 0.128 0.695 0.873 1.083 1.356 1.782 2.179 3.055 4.318
13 0.128 0.694 0.870 1.079 1.350 1.771 2.160 3.012 4.221
14 0.128 0.692 0.868 1.076 1.345 1.761 2.145 2.977 4.140
15 0.128 0.691 0.866 1.074 1.341 1.753 2.131 2.947 4.073
16 0.128 0.690 0.865 1.071 1.337 1.746 2.120 2.921 4.015
17 0.128 0.689 0.863 1.069 1.333 1.740 2.110 2.898 3.965
18 0.127 0.688 0.862 1.067 1.330 1.734 2.101 2.878 3.922
19 0.127 0.688 0.861 1.066 1.328 1.729 2.093 2.861 3.883
20 0.127 0.687 0.860 1.064 1.325 1.725 2.086 2.845 3.850
21 0.127 0.686 0.859 1.063 1.323 1.721 2.080 2.831 3.819
22 0.127 0.686 0.858 1.061 1.321 1.717 2.074 2.819 3.792
23 0.127 0.685 0.858 1.060 1.319 1.714 2.069 2.807 3.767
24 0.127 0.685 0.857 1.059 1.318 1.711 2.064 2.797 3.745
25 0.127 0.684 0.856 1.058 1.316 1.708 2.060 2.787 3.725
26 0.127 0.684 0.856 1.058 1.315 1.706 2.056 2.779 3.707
27 0.127 0.684 0.855 1.057 1.314 1.703 2.052 2.771 3.690
28 0.127 0.683 0.855 1.056 1.313 1.701 2.048 2.763 3.674
29 0.127 0.683 0.854 1.055 1.311 1.699 2.045 2.756 3.659
30 0.127 0.683 0.854 1.055 1.310 1.697 2.042 2.750 3.646
’ 0.126 0.674 0.842 1.036 1.282 1.645 1.960 2.576 3.291

476
Table de la loi du X²
Cette table donne la probabilité p d’observer une valeur supérieure à une
valeur de X² en fonction du nombre de degrés de liberté (dl)
dl / p 0.990 0.975 0.950 0.900 0.100 0.050 0.025 0.010 0.001
1 0.000 0.001 0.004 0.016 2.71 3.84 5.02 6.63 10.83
2 0.02 0.05 0.10 0.21 4.61 5.99 7.38 9.21 13.82
3 0.12 0.22 0.35 0.58 6.25 7.81 9.35 11.34 16.27
4 0.30 0.48 0.71 1.06 7.78 9.49 11.14 13.28 18.47
5 0.55 0.83 1.15 1.61 9.24 11.07 12.83 15.09 20.52
6 0.87 1.24 1.64 2.20 10.64 12.59 14.45 16.81 22.46
7 1.24 1.69 2.17 2.83 12.02 14.07 16.01 18.47 24.32
8 1.65 2.18 2.73 3.49 13.36 15.51 17.53 20.09 26.13
9 2.09 2.70 3.33 4.17 14.68 16.92 19.02 21.67 27.88
10 2.56 3.25 3.94 4.87 15.99 18.31 20.48 23.21 29.59
11 3.05 3.82 4.57 5.58 17.27 19.67 21.92 24.72 31.26
12 3.57 4.40 5.23 6.30 18.55 21.03 23.34 26.22 32.91
13 4.11 5.01 5.89 7.04 19.81 22.36 24.74 27.69 34.53
14 4.66 5.63 6.57 7.79 21.06 23.68 26.12 29.14 36.12
15 5.23 6.26 7.26 8.55 22.31 25.00 27.49 30.58 37.70
16 5.81 6.91 7.96 9.31 23.54 26.30 28.84 32.00 39.25
17 6.41 7.56 8.67 10.08 24.77 27.59 30.19 33.41 40.79
18 7.01 8.23 9.39 10.86 25.99 28.87 31.53 34.80 42.31
19 7.63 8.91 10.12 11.65 27.20 30.14 32.85 36.19 43.82
20 8.26 9.59 10.85 12.44 28.41 31.41 34.17 37.57 45.32
21 8.90 10.28 11.59 13.24 29.61 32.67 35.48 38.93 46.80
22 9.54 10.98 12.34 14.04 30.81 33.92 36.78 40.29 48.27
23 10.20 11.69 13.09 14.85 32.01 35.17 38.08 41.64 49.73
24 10.86 12.40 13.85 15.66 33.20 36.41 39.37 42.98 51.18
25 11.52 13.12 14.61 16.47 34.38 37.65 40.65 44.31 52.62
26 12.20 12.84 15.38 17.29 35.56 38.88 41.92 45.64 54.05
27 12.88 13.57 16.15 18.11 36.74 40.11 43.19 46.96 55.48
28 13.57 15.31 16.93 18.94 37.92 41.34 44.46 48.28 56.89
29 14.26 16.05 17.71 19.77 39.09 42.56 45.72 49.59 58.30
30 14.95 16.79 18.49 20.60 40.26 43.77 46.98 50.89 59.70

477
džƚƌĂŝƚĚĞůĂƚĂďůĞĚĞƐŶŽŵďƌĞƐĂƵŚĂƐĂƌĚ

ϮϲϬϵϵ ϲϱϴϬϭ ϲϵϴϳϬ ϴϰϰϰϴ ϱϴϮϰϴ ϮϭϮϲϮ ϱϲϵϯϴ ϱϰϳϮϵ ϲϳϳϱϳ ϲϴϰϭϮ
ϳϭϴϳϰ ϲϭϲϵϮ ϴϬϬϬϭ ϮϭϰϯϬ ϬϮϯϬϱ ϱϵϳϰϭ ϯϰϮϲϮ ϭϱϭϱϳ Ϯϳϱϰϱ ϭϰϱϮϮ
Ϭϴϳϳϰ Ϯϵϲϴϵ ϰϮϮϰϱ ϱϭϵϬϯ ϲϵϭϳϵ ϵϲϲϴϮ ϵϭϴϭϵ ϲϬϴϭϮ ϰϳϲϯϭ ϱϬϴϬϵ
ϯϳϮϵϰ ϵϮϬϮϴ ϱϲϴϱϬ ϴϯϯϴϬ ϬϱϵϭϮ ϮϵϴϯϬ ϯϳϲϭϮ ϭϱϱϵϯ ϳϯϭϵϴ ϵϵϮϴϳ
ϯϯϵϭϮ ϯϳϵϵϲ ϳϴϵϲϳ ϱϳϮϬϭ ϲϲϵϭϲ ϳϯϵϵϴ ϱϰϮϴϵ Ϭϳϭϰϳ ϴϰϯϭϯ ϱϭϵϯϴ
         
ϲϯϲϭϬ ϲϭϰϳϱ ϮϲϵϴϬ ϮϯϴϬϰ ϱϰϵϳϮ ϳϮϬϲϴ ϭϵϰϬϯ ϱϯϳϱϴ ϬϰϮϴϭ ϵϴϬϮϮ
ϬϭϱϳϬ ϰϭϳϬϭ ϯϬϮϴϮ ϱϰϲϰϳ ϬϲϬϳϳ Ϯϵϯϱϰ ϵϱϳϬϰ ϳϱϵϮϴ Ϯϭϴϭϭ ϴϴϮϳϰ
Ϯϰϭϱϵ ϳϳϳϴϳ ϯϴϵϳϯ ϴϮϭϳϴ ϰϲϴϬϮ ϵϬϮϰϱ ϬϭϴϬϱ ϮϯϵϬϲ ϵϲϱϱϵ Ϭϲϳϴϱ
ϵϮϴϯϰ ϱϮϬϰϭ ϴϴϯϬϭ ϮϮϭϮϳ Ϯϯϰϱϵ ϰϬϮϮϵ ϳϰϲϳϴ Ϯϭϴϱϵ ϵϴϲϰϱ ϳϮϯϴϴ
ϭϲϭϳϴ ϲϬϬϲϯ ϱϵϮϴϰ ϭϲϮϳϵ ϰϴϬϬϯ ϰϰϲϯϰ ϬϴϲϮϯ ϯϮϳϱϮ ϰϬϰϳϮ ϬϱϰϳϬ
         
ϴϭϴϬϴ ϯϮϵϴϬ ϴϬϲϲϬ ϵϴϯϵϭ ϲϮϮϰϯ ϭϵϲϳϴ ϯϵϱϱϭ ϭϴϯϵϴ ϯϲϵϭϴ ϰϯϱϰϯ
ϮϴϲϮϴ ϴϮϬϳϮ Ϭϰϴϱϰ ϱϮϴϬϵ ϴϲϲϬϴ ϲϴϬϭϳ ϭϭϭϮϬ Ϯϴϲϯϴ ϳϮϴϱϬ ϬϯϲϱϬ
ϲϮϮϰϵ ϲϱϳϱϳ ϭϮϯϳϯ ϵϭϮϲϭ ϵϲϵϴϯ ϭϱϬϴϮ ϴϯϴϱϭ ϳϳϲϴϮ ϴϭϳϮϴ ϱϮϭϱϳ
ϴϰϱϰϭ ϵϵϴϵϭ Ϭϭϱϴϱ ϵϲϳϬϭ ϮϵϳϭϮ ϬϮϴϳϳ ϳϬϵϱϱ ϱϵϲϵϯ Ϯϲϲϯϴ ϵϲϬϭϭ
ϴϵϬϱϮ ϯϵϬϲϭ ϵϵϴϭϭ ϲϵϴϯϭ ϰϳϮϯϰ ϵϯϮϲϯ ϰϳϯϴϲ ϭϳϰϲϮ ϭϴϴϳϰ ϳϰϮϭϬ
         
ϰϯϲϰϱ ϴϵϮϯϮ ϬϬϯϴϰ ϭϬϴϱϴ Ϯϭϳϴϵ ϭϰϬϵϯ ϬϲϮϲϴ ϰϲϰϲϬ ϵϳϲϲϬ ϮϯϰϵϬ
ϲϭϲϭϴ ϭϵϮϳϱ ϰϬϳϰϰ ϮϮϰϴϮ ϭϮϰϮϰ ϵϴϲϬϭ ϭϵϬϴϵ ϱϯϭϲϲ ϰϭϴϯϲ ϮϴϮϬϱ
ϲϴϭϯϲ Ϭϲϱϰϲ ϬϰϬϮϵ ϰϳϵϰϲ ϭϵϱϮϲ ϮϳϭϮϮ ϰϮϱϭϱ ϱϱϬϰϴ ϮϯϵϭϮ ϴϭϭϬϱ
ϳϰϬϬϱ ϯϰϱϱϴ ϵϯϳϳϵ ϵϲϭϮϬ Ϭϭϲϵϱ ϰϳϳϮϬ ϴϴϲϰϲ ϳϯϱϮϬ ϰϬϬϱϬ ϵϬϱϱϯ
ϱϰϰϯϳ ϴϴϴϮϱ Ϭϳϵϰϯ ϴϭϳϵϱ ϯϭϳϬϵ ϭϯϯϱϴ ϬϰϲϮϲ ϲϰϴϯϴ ϵϮϭϯϯ ϰϰϮϮϭ

478

Vous aimerez peut-être aussi