Document Pedagogique Du Du Methodologie de La Recherche Clinique
Document Pedagogique Du Du Methodologie de La Recherche Clinique
ENSEIGNEMENT DE LA METHODOLOGIE DE LA
RECHERCHE CLINIQUE
Coordonnateurs :
Pr PIERRE DUHAUT, Amiens, France
ANNEE 2019-2020
1
TABLE DES MATIERES
INTRODUCTION..................................................................................................................................................3
ANNEXE 3 : PROGRAMME TYPE D’UN SEMINAIRE INTENSIF . ERREUR ! SIGNET NON DEFINI.
BIBLIOGRAPHIE...............................................................................................................................................32
2
INTRODUCTION
La recherche clinique bien entendu n’est pas née à la fin du vingtième siècle, et personne ne
saurait nier les apports fondamentaux en médecine clinique des grands séméiologistes du
siècle dernier : la nosologie actuelle est encore pour sa plus grande part basée sur la
description qu’ils ont faite des diverses maladies ou syndromes, et c’est toujours dans ce cadre
nosologique que bien souvent s’opère la recherche médicale actuelle, dans ses aspects
cliniques ou plus fondamentaux. Il s’agissait de recherche clinique de haut vol basée sur
l’observation attentive des patients, et la pérennité de ses résultats en dit encore toute la
qualité.
Si l’idée n’est pas nouvelle, la méthodologie, peut-être, l’est-elle ? Les techniques bien sûr ont
bénéficié de l’apport des concepts modernes en épidémiologie et en statistiques. Cependant,
Jean le Rond D’Alembert au dix-huitième siècle déjà exposait de façon presque visionnaire la
méthode d’évaluation la plus adéquate, selon lui, pour apprécier l’impact de la vaccination
anti-variolique à la fois sur la population et sur l’individu en tenant compte de la variation
naturelle du risque de décès, et du risque de contracter la variole en fonction de l’âge 1,2. Ce
type de raisonnement représente la base même du courant de l’évidence based medicine, que
nous ne distinguerons pas du courant d’épidémiologie clinique qui l’a immédiatement précédé
tant les deux concepts sont superposables tant sur le fond que sur les méthodes employées.
Ni la recherche clinique, ni ses outils, ne sont finalement très nouveaux, et l’on s’étonne
presque de la passion actuelle engendrée par leur redécouverte. Ce mouvement relève plutôt,
après des années de progrès importants dans les sciences fondamentales, de
professionnalisation de la recherche et de séparation des métiers, d’un retour aux sources du
siècle dernier, lorsque clinicien et chercheur ne faisaient qu’un, passaient de la salle d’hôpital
au laboratoire, et essayaient, dans l’une ou l’autre fonction, d’observer au mieux et de la façon
la plus précise possible le phénomène pathologique.
Retour à la tradition, donc... très certainement. Tout retour cependant peut être novateur, du
moins dans les sujets abordés, et dans le développement d’outils basés sur des concepts plus
anciens. Le but de ce séminaire de premier niveau est d’apporter les bases de certaines
méthodes en les illustrant de situations cliniques couramment rencontrées par les médecins
praticiens : le contact avec les patients, avec leur maladie, engendre les questions médicales
fondamentales :
3
Comment arriver à en cerner au mieux l’évolution, et, partant, comment la traiter au mieux en
fonction de l’évolution prévisible ?
Nous appellerons recherche clinique dans ce mémoire, la recherche directement appliquée aux
besoins du patients. Nous n’en développerons que les aspects en relation avec les méthodes
d’épidémiologie clinique, sachant que ces méthodes à elles seules souvent ne suffisent pas à
établir un fait et qu’une preuve, souvent, ne s’apporte avec une certitude acceptable que par la
conjonction de plusieurs voies de recherche, biologiques au sens large du terme, cliniques,
épidémiologiques... Nous aborderons après l’exposé des méthodes, les difficultés
d’interprétation et ferons un rapide survol des questions épistémiologiques soulevées par
l’emploi de ces méthodes lors de l’élaboration d’un travail, et lors de l’application clinique
des résultats obtenus : l’apparence de rigueur ne suffit pas à certifier la réalité d’une
observation. Certaines analyses peuvent paraître personnelles, et de fait ne sont pas partagées
par l’ensemble des méthodologistes. Quelques rares voix cependant se font entendre 3. La
méthodologie de recherche clinique est un outil d’appréhension du vivant qui présente,
comme les autres outils, des forces et des faiblesses : l’appréciation de celles-ci n’est plus
affaire de méthode à proprement parler, mais dépend de la distance entre ce que peut offrir la
méthode et ce que l’on veut lui faire faire.
4
IDENTIFICATION DES BESOINS. POPULATION CIBLEE PAR
L’ENSEIGNEMENT. REFERENTIEL
Il est intéressant de constater que les méthodes de recherche clinique n’ont pas été utilisées
pour identifier avec précision les besoins de leurs utilisateurs potentiels : il n’existe pas
d’audit mesurant les besoins des médecins praticiens en termes de connaissances des
méthodes employées par l’épidémiologie clinique ou l’évidence based medicine. Ces besoins,
par contre, ont été soulignés par nombre d’éditoriaux ou de revues générales : le manque
d’études documentées, et l’abondance des articles généraux est un des paradoxes d’un courant
allant à l’encontre de la médecine dite... d’opinion. Le milieu universitaire, notamment, n’a
pas cherché à connaître les besoins précis de ses acteurs et a assumé que vraisemblablement,
tout était à apporter ou à enseigner.
L’attitude des généralistes anglais vis-à-vis de la médecine factuelle a cependant été explorée :
la majorité d’entre eux considère l’évolution vers une médecine basée sur des faits mesurés
comme positive et en comprend les concepts. Seule une minorité (moins de 20% seulement) a
accès à des bases de données bibliographiques lui permettant d’acquérir les connaissances
développées à partir d’études cliniques. La majorité d’entre eux n’a pas le temps de les
utiliser, et pense que l’établissement de recommandations à partir des études effectuées
représenterait le meilleur moyen de promouvoir la médecine factuelle dans leur pratique
clinique 4. Il est possible que l’opinion des généralistes de la région du Wessex reflète celle de
la majorité de leurs collègues européens. La recherche en médecine générale, cependant, ne
pourra être efficacement menée que si les généralistes eux-mêmes peuvent participer à la
construction de protocoles, en identifient les biais, en interprètent les résultats en fonction de
leur propre pratique clinique : il peut donc sembler important qu’un enseignement de
méthodologie en recherche clinique puisse tout au moins être proposé aux généralistes5, et que
les étudiants se destinant à la médecine générale puisse y être exposé durant leur cursus
universitaire.
Les besoins en milieu spécialisé libéral et en milieu hospitalier n’ont pas été mesurés, et l’on
doit se contenter d’une appréciation basée sur l’expérience quotidienne : l’empirisme
remplace l’évaluation. Il semblent cependant que les méthodologistes soient plus souvent
consultés que par le passé, et ceci dès le stade de la construction d’une étude ; que les
enseignements offerts ne souffrent pas de manque de candidatures ; que les internes, au
moment de leur thèse, soient particulièrement conscients des défauts de méthode et
chercheront souvent le conseil leur permettant d’y remédier dans la mesure du possible ;
qu’enfin de plus en plus de cliniciens ressentent le besoin, dans leur pratique quotidienne,
d’être capables de lire, de comprendre et, le cas échéant, de critiquer les comptes-rendus des
grandes études cliniques dont les conclusions sont rapidement rapportées par les médias et
mises à disposition du grand public. Les médecins seniors des hôpitaux universitaires
apprécient le plus les revues médicales axés sur la médecine factuelle, suivis par les internes,
et en dernier lieu seulement par les étudiants 6 alors que c’est chez les étudiants de deuxième
cycle que l’acquisition de notions de médecine factuelle est associée à l’amélioration optimale
du niveau de connaissances médicales en général 7. Les journaux médicaux non biologiques à
facteur d’impact les plus élevés sont aussi ceux qui publient le plus de travaux utilisant les
méthodes de la médecine factuelle, et dont les résultats sont directement utiles au patient 8.
Enfin, plusieurs études ont montré que l’enseignement de la méthodologie de recherche
clinique ou des résultats d’études empruntant ces méthodes modifiait les habitudes de pratique
5
clinique, et ce dans différentes cultures : au Canada 9, aux Etats-Unis 10, en Australie 11, mais
aussi en Italie 12 ou en France 13. Pour toutes ces raisons, l’enseignement des méthodes de
recherche clinique aux médecins praticiens, mais aussi aux étudiants en médecine, semble se
justifier à l’heure actuelle.
Le programme que nous proposons dans ce travail s’adresse en priorité aux médecins
praticiens, porteurs d’une certaine expérience clinique et conscients des incertitudes
quotidiennes relatives à l’établissement d’un diagnostic, dans le choix d’une stratégie
d’examens complémentaires, dans la proposition d’une thérapeutique. Son but n’est pas
forcément de lever l’incertitude, car ça n’est pas toujours (pas souvent ?) possible, mais plutôt
d’apporter au médecin les éléments qui lui permettront de conforter son choix ou sa décision
par les arguments les plus solides possibles.
En l’absence d’enquête précise des besoins, le contenu de ce programme a été élaboré sur
différentes bases : l’expérience des enseignants qui les premiers, ont instauré un enseignement
de méthodologie de recherche clinique dans leur université a été d’un grand apport, et leurs
ouvrages constituent l’ossature du référentiel que nous avons utilisé. Il convient de citer, pour
l’exposé des notions de base, Charles Hennekens, professeur à la faculté de médecine de
Harvard 14, Stephen Hulley et Steven Cummings, professeurs à l’université de Californie à
San Francisco 15, Robert et Suzanne Fletcher, professeurs à l’université de Caroline du Nord à
Chapel Hill, puis à la faculté de médecine de Harvard 16 et David Sackett, professeur à
l’université MacMaster 17. La lecture de Kenneth Rothman (Université du Massachusetts,
Worcester) a été particulièrement utile pour la compréhension et l’enseignement de concepts
plus avancés 18, celle de David Kleinbaum (Université de Caroline du Nord à Chapel Hill) 19,
pour la compréhension des méthodes d’analyse, et celle de James Schlesselman (Université de
Bethesda, Maryland), pour une meilleure approche de concepts plus spécialisés et propres à
certains types d’études 20. L’ouvrage collectif du RECIF (Réseau d’Epidémiologie Clinique
International Francophone) représente la synthèse française des notions d’épidémiologie
clinique, plus particulièrement adaptée aux cursus de nos universités, que nous utilisons dans
nos enseignements 21.
6
l’enseignement, mais il est difficile de les ignorer dans l’enseignement de méthodes tout
entières axées sur l’évaluation, et dont le but hautement proclamé est, justement,
l’amélioration de la santé des individus et des populations. Quelques études réalisées laissent
entrevoir que ce but serait moins facilement atteint que le but premier de l’enseignement, à
savoir l’amélioration des connaissances du praticien et la modification de sa pratique... 23,
24 25
, .
7
PROGRAMME RESUME (REFERENTIEL)
Les outils méthodologiques nécessaires à l’étude des facteurs de risque ou des causes d’une
maladie, à l’établissement de son diagnostic, à l’évaluation de son pronostic, et au choix de
son traitement seront successivement abordés. La notion de nosologie, et les réalités qu’elle
recouvre, doit cependant être explorée au préalable.
I- Nosologie médicale :
Au delà de la notion même de normal et de pathologique, qui varie selon les époques, et au
sein d’une même époque, selon les mentalités et les cultures (l’alcoolisme peut être considéré
comme une maladie, une déviance, voire comme une délinquance selon les circonstances), les
maladies une fois reconnues comme telles sont classées, séparées, en entités que l’on suppose
distinctes. L’acte même de classification, cependant, ne confère pas à toutes les maladies un
statut d’unicité ou d’originalité équivalent, et les critères utilisés pour isoler une entité
pathologique différent selon l’entité considérée. On peut considérer que la classification des
maladies repose essentiellement sur quatre grands axes de raisonnement : les maladies
peuvent se différencier par :
8
potentielles d’une maladie à cause immédiate reconnue se construira donc en tenant compte
des diverses possibilités envisageables, de l’existence de facteurs confondants éventuels, et
l’adéquation au groupe de cas d’un groupe témoin le cas échéant prend ici toute son
importance. En zone de forte endémie virale, la cause virale d’une maladie maligne peut ne
pas être reconnue car les témoins pourront être porteurs du virus, sans exprimer la maladie.
Dans un tel cas de figure, le virus ne sera pas cause suffisante, mais pourra être cause
nécessaire, sur laquelle il sera possible d’agir, de la maladie. L’ignorer du fait de la
constitution d’un groupe témoin dans une étude apparemment bien construite traduira en fait
l’acquisition de fausses connaissances à l’aide d’une méthodologie d’apparence rigoureuse.
On peut imaginer que de telles acquisitions actives de fausses connaissances ne soient pas
rares, et soient la conséquence de la trop grande réussite du modèle pasteurien dans les
maladies infectieuses, et de sa gravure dans nos schémas de pensée : à une maladie, une cause
spécifique. Rien ne prouve en fait que les processus physiopathologiques ayant conduit à une
lésion identique sur le plan histo-pathologiques, soient similaires chez deux patients
différents.
Des particularités épidémiologiques communes ont pu faire classer ensembles des maladies
d’aspect différent : la maladie de Horton et la pseudopolyarthrite rhizomélique sont associées
dans 40% des cas, ce qui est très nettement supérieur au taux d’association attendu, si
l’association n’était liée qu’au hasard. Maladie de Horton et pseudopolyarthrite rhizomélique
font ainsi partie du même cadre nosologique. Rien ne permet de dire, cependant, si
l’association est liée à un facteur étiologique commun, à l’action de divers facteurs
étiologiques sur un terrain, génétique par exemple, commun, à des particularités
géographiques ou environnementales que nous ne savons pas apprécier... Le degré
d’incertitude, ou de non-connaissance, peut sembler encore plus grand dans ce type de
pathologie que dans les maladies définies par une cause immédiate connue, et là encore, les
projets de recherche clinique doivent en tenir compte et envisager des hypothèses
supplémentaires. Il existe cependant quelque évidence pour qu’un lien existe entre les deux
expressions de la pathologie.
Le degré d’incertitude maximale cependant est atteint dans les syndromes : l’association de
symptômes peut, ou peut très bien ne pas, correspondre à une entité pathologique précise.
Certains syndromes ont vu leur réalité confirmée au cours du temps (le syndrome de Brown-
Sequard par exemple, identifié comme tel avant que l’on ne comprenne la nature de la lésion),
et ont rejoint les pathologies du premier, deuxième ou troisième groupe. D’autres syndromes
ont été complètement démantelés, et plus personne à l’heure actuelle ne diagnostique de
chlorose de la jeune fille… un projet de recherche sur un tel sujet n’aurait sans doute pu
aboutir à aucune conclusion solide dans l’état des connaissances du 19ème siècle, et aurait
abouti à la disparition du syndrome plus rapidement sitôt que les notions d’anémie,
d’hypothyroïdie, de dépression, de trouble psycho-somatiques, de carences diverses, auraient
été intégrées aux connaissances médicales et disponibles à l’investigation sur le plan clinique
ou biologique.
Il est fort possible qu’à l’heure actuelle, un certain nombre de syndromes, en pathologie
inflammatoire, dermatologique, psychiatrique, voire néoplasique, entrent dans ce cadre
incertain : là encore, tout projet de recherche doit en tenir compte, et l’hypothèse d’une
hétérogénéité importante du cadre nosologique doit être considérée en premier lieu.
9
II- Etude des facteurs de risque, ou des causes, d’une maladie :
Il s’agit de la partie la plus classique du cours, et sans doute de celle qui a le plus emprunté
aux techniques d’épidémiologie classique. Il s’agit cependant de la partie la plus complexe,
car la plus sujette aux biais potentiels, qui seront étudiés en détail : les connaître est
indispensable à la bonne construction d’un projet de recherche.
Les séries de cas cependant peuvent toujours ne traduire que la vision de leur auteur (le
syndrome de Cogan existe-t-il ?), donner lieu à des développements fallacieux sur les
multiples variantes cliniques du syndrome, à des regroupements par analogie sans réalité
physiopathologique sous-jacente, à de fausses connaissances sur l’existence de tel ou tel
facteur de risque, sur l’efficacité de telle ou telle thérapeutique. L’absence de groupe de
comparaison rend en effet aléatoire toute tentative de définition précise (ou commence et ou
10
s’arrête le syndrome ?), d’explication du phénomène, d’interprétation de son évolution sans
ou sous traitement, et ceci rend sans doute compte de la variabilité extrême de fréquence des
symptômes rencontrée dans les diverses séries de cas d’origine différente. Il est fort probable
que le syndrome, pourtant reconnu, ne recouvre pas toujours la même réalité pathologique.
Sur le plan pédagogique, elle servent à introduire la notion difficile d’élément confondant. Il
est plus facile de comprendre à partir d’une étude écologique, que le facteur de risque
véritable de la maladie, non mesuré, peut faire apparaître comme significative une association
effectivement mesurée si le facteur de risque supposé, mesuré, est lié statistiquement au
véritable facteur de risque : on montre ainsi facilement que l’incidence du cancer du sein dans
divers pays est proportionnelle au nombre de poteaux téléphoniques, ou au nombre de stylos à
bille vendus… il serait hasardeux d’en conclure l’influence des champs électro-magnétiques
faibles ou de la composition de l’encre sur le processus de cancérisation, et il est plus probable
que les facteurs mesurés soient les marqueurs de certaines conditions de vie dont d’autres
facteurs, co-présents, favoriseront l’apparition du cancer. Cette notion d’élément confondant,
relativement évidente dans le cadre des études écologiques, sera ensuite étendue aux études
analytiques basées sur l’individu.
A la frontière de l’analytique et du descriptif, elles sont elles aussi plus souvent utilisées pour
des objectifs de santé publique qu’en recherche clinique proprement dite. Mais là encore, il est
difficile d’introduire les structures d’études suivantes sans exposer les études de prévalence,
l’utilisation qui peut en être faite, et d’expliciter les abus d’utilisation souvent rencontrés dans
la littérature. La structure d’une étude de prévalence lui permet de répondre à la question
simple de : “ Combien y a-t-il de patients atteints de la maladie X, dans telle population, à tel
instant ? ”. Souvent, l’étude de prévalence posera une double question, et à la première
définie ci-haut viendra s’adjoindre une ou plusieurs questions sur l’association possible entre
la maladie (présente ou absente) et un facteur de risque (présent ou absent). De fait, l’étude de
11
prévalence fournit son propre groupe témoin, constitué des sujets interrogés ne présentant pas
la maladie. Elle permet donc, au-delà de son caractère purement descriptif, une étude
analytique. L’avantage, par rapport à une étude écologique, réside dans le fait que les
questions seront posées directement à un individu et que, si l’association existe, elle sera la
résultante d’une ‘somme’ d’associations individuelles effectivement vérifiées : il ne s’agit
plus d’une simple juxtaposition de taux. La possibilité d’un élément confondant existe
toujours, car plusieurs facteurs peuvent être liés chez un même individu, et mesurer la
prévalence de l’un peut être équivalent à mesurer la prévalence de l’autre, et du vrai facteur de
risque en particulier : une association biologique, clinique, physiologique, ou une simple co-
existence de plusieurs facteurs peut donc faire apparaître, dans des études basées sur
l’individu, une association statistiquement significative, mais biologiquement ou physio-
pathologiquement inopérante, entre un facteur donné et la maladie étudiée au même titre que
dans les études écologiques.
De plus, une étude de prévalence mesurant les facteurs de risque en même temps que la
maladie déjà apparue, ne peut pas par essence établir une relation temporelle entre l’action du
facteur de risque et l’apparition de la maladie. Un facteur de risque particulièrement
dangereux peut avoir engendré une maladie d’évolution rapidement fatale, et les patients les
plus gravement atteints peuvent avoir disparu avant la réalisation de l’étude de prévalence. Il
existe cependant un certain nombre de conditions, rarement rencontrées en pratique clinique,
qui permettent à une étude de prévalence d’évaluer un risque relatif de façon fiable : le cours
mettra l’accent sur ces conditions et sur la nécessité d’en tenir compte lors de l’élaboration
d’une étude, ou lors de la lecture d’un travail publié.
Le cours mettra donc l’accent sur toutes les précautions à observer dans la construction ou
l’interprétation d’une étude cas-témoins : délicates sur le plan méthodologique, elles sont
12
cependant les seules réalisables pour des pathologies dont l’incidence rendrait toute étude de
cohorte illusoire. La majorité des maladies rencontrées en pratique quotidienne sont
suffisamment rares dans la population générale, ou ont une période de latence suffisamment
longue, pour d’une étude de cohorte ne puisse pas arriver à inclure un nombre suffisamment
important de cas. L’étude cas-témoins, malgré la fragilité de son mécanisme, reste alors le seul
recours possible.
Le cours permettra d’expliquer la notion d’odds ratio, d’établir sa relation avec le risque
relatif, d’introduire la notion d’intervalle de confiance, et d’étudier à l’aide d’exemples
pratiques la notion de biais de sélection, de biais de détection, de biais de mesure, de souvenir,
de revenir sur la notion d’élément confondant et d’introduire alors le concept de modificateur
d’effet en le différenciant de l’élément confondant. L’expression des résultats en table 2X2
permettra également de montrer qu’à apparence égale, une table 2X2 dans une étude cas-
témoins procède d’une signification différente de celle construite dans une étude de cohorte.
Nous détaillerons dans le cours les diverses formes d’expression du risque, aborderons les
grands principes d’analyse d’une étude de cohorte sans entrer dans le détail des méthodes
statistiques, sophistiquées dès que la cohorte devient une cohorte dynamique.
II.7- Synthèse :
Nous insisterons sur le fait que les études épidémiologiques seules ne permettent pas le plus
souvent d’affirmer le rôle d’un facteur étiologique, et que la preuve de la causalité relève
habituellement de la concordance de leur résultat avec des données issues d’autres voies
d’investigation, biologiques notamment. Les critères de Bradford et Hill restent d’actualité
pour la plupart d’entre eux, et la plausibilité de l’effet d’un agent causal, son action lors
13
d’expérimentation en laboratoire, la compréhension du mécanisme physio-pathologique seront
autant d’arguments supplémentaires s’ils convergent avec les résultats des études
épidémiologiques.
La question posée est celle de la validité d’un test diagnostique, compris au sens large du
terme : le test peut tout aussi bien être représenté par un élément d’interrogatoire ou d’examen
clinique, un test biologique, une image radiologique caractérisée, une lecture anatomo-
pathologique... ou une combinaison de plusieurs de ces éléments.
Le calcul du coefficient de reproductibilité Kappa, tenant compte des résultats identiques liés
au hasard seul, sera expliqué ici.
- La valeur prédictive positive : lorsque le test revient positif chez un patient, quelle est la
probabilité pour que ce dernier soit effectivement atteint par la maladie ?
- La valeur prédictive négative : lorsque le test revient négatif chez un patient, quelle est la
probabilité pour que ce dernier soit effectivement indemne ?
Les valeurs prédictives positive et négative sont celles qui intéressent le plus le clinicien, car
ce sont celles qu’il va utiliser en pratique : un test est demandé devant une situation clinique
évocatrice de telle pathologie. Que signifie la réponse obtenue ? Ces deux valeurs
instinctivement évaluées par tout médecin présentent des caractéristiques particulières, dont la
plus déroutante à première vue est que, contrairement à la sensibilité ou à la spécificité, elles
dépendent de la prévalence de la maladie dans le groupe, ou la population, sous considération.
La valeur prédictive positive de micro-calcifications sur une mammographie sera très
différente, et beaucoup plus élevée, dans un centre de sénologie ou consultent les patientes à
risque que dans un dépistage dans la population générale. Ce fait souvent méconnu entraîne
des erreurs d’appréciation des résultats d’un test, et nous insisterons tout particulièrement sur
la démonstration de son importance à partir d’exemples cliniques précis.
14
n’existe pas pour beaucoup de pathologies, et nous aborderons brièvement les conditions du
diagnostic en son absence : consensus, critères décidés arbitrairement (les paliers de chiffres
tensionnels définissant la pression normale, l’hypertension artérielle modérée, sévère et
maligne relèvent à la fois de l’arbitraire et d’un consensus). Nous aborderons aussi le
problème des nouvelles techniques, peut-être plus sensibles, peut-être plus spécifiques, que
l’on compare à l’ancienne technique de référence : quel est alors l’étalon-or ? l’ancienne
technique, connue et éprouvée, ou la nouvelle ? Comment le déterminer ? Ces questions sont
cruciales pour toute nouvelle technique radiologique, tout nouveau test sérologique, qui
risquent d’être mal évalués face à la technique de référence notamment en cas de sensibilité
augmentée. En pratique, cette évaluation d’apparence simple se fait souvent par touches
successives, peu quantifiables, dépendant dès lors qu’une vérification chirurgicale ou
anatomo-pathologique n’est pas possible, de la conviction croissante ou décroissante de
l’observateur que telle technique doit remplacer ou non l’ancienne technique de référence
dans le rôle de gold standard, et cette conviction dépendra de l’expérience progressivement
accumulée des deux techniques... et l’expérience, quoique incontournable, échappe aux
méthodes d’évaluation mises en oeuvre en épidémiologie clinique.
Nous envisagerons ensuite l’intérêt des tests réalisés en série (augmentation de la spécificité et
de la valeur prédictive négative) et des test réalisés en parallèle (augmentation de la sensibilité
et de la valeur prédictive positive). Les utilisations de ces différentes stratégies diagnostiques
seront détaillées, tout particulièrement dans les indications de dépistage.
De nombreuses thérapeutiques ont été lancées dans l’histoire de la médecine, sans étude
d’évaluation rigoureuse. Cependant, il n’a pas été nécessaire de réaliser de telles études pour
comprendre très vite l’intérêt de la pénicilline, ou des tuberculo-statiques. Les études
d’épidémiologie clinique ne s’adressent, en thérapeutique, qu’aux traitements dont l’efficacité
ne s’observe pas à ‘l’oeil nu’, et elles servent donc à mettre en évidence l’action de
traitements… moins efficaces qu’on ne le souhaiterait.
L’essai thérapeutique comparatif peut être non randomisé (par comparaison historique, par
comparaison avec les résultats obtenus dans d’autres services, etc), et les multiples biais de
ces comparaisons seront explicités.
L’essai peut ensuite être randomisé sans aveugle (traitement chirurgical versus traitement
médical par exemple), en simple aveugle (le patient ne sait pas s’il prend le traitement de
référence ou le traitement en cours d’évaluation), en double aveugle (le patient et le médecin
prescripteur ne savent pas), ou en triple aveugle (le patient, le médecin et le statisticien chargé
de l’analyse des données ne savent pas).
15
L’essai randomisé est une forme particulière d’étude de cohorte, ou l’expérimentateur contrôle
les conditions d’exposition. La randomisation est censée éliminer tout biais de sélection entre
les deux groupes comparés, en répartissant de façon aléatoire entre les deux groupes toutes les
caractéristiques des patients ou de la sensibilité au traitement qui pourraient influer sur
l’efficacité ou la survenue d’effets secondaires. Nous insisterons sur le fait que cet avantage
théorique certain de l’essai randomisé n’est cependant pas automatiquement obtenu en
pratique : les éléments confondants peuvent être présents dans un essai randomisé de façon
rigoureuse, et il importe de les identifier avant le lancement de l’essai et de collecter toutes les
données en rapport. Il importe ensuite, au moment de l’analyse, de s’assurer de la
comparabilité des deux groupes au regard de ces éléments confondants potentiels. Il importe
enfin, lorsque les groupes s’avèrent être comparable, d’estimer quand même le poids de ces
éléments confondants dans les résultats de l’essai thérapeutique : que deux groupes ne soient
pas significativement différents dans leurs caractéristiques ne veut pas dire que ces
caractéristiques n’influent pas légèrement le résultat de l’essai. Lorsque le risque d’erreur
d’affirmer une différence lorsqu’elle n’existe pas (erreur alpha, exprimée par le ‘p’), avoisine
le seuil arbitraire de 5%, une petite influence de la répartition des caractéristiques initiales
entre les deux groupes sur le résultat obtenu peut faire passer la valeur de p au-dessus, ou en-
dessous, du seuil de 5%. Beaucoup d’essais randomisés, en cardiologie notamment, sont
construits de telle sorte à atteindre la valeur de p limite, et l’obtiennent en effet de façon
limite. On sait qu’une telle valeur est fragile et très dépendante des conditions de l’essai.
Le cours sur les essais randomisés permettra d’introduire la notion de puissance d’étude et
d’erreur beta (le risque de ne pas arriver à mettre en évidence une différence qui pourtant
existe dans la réalité). Cette notion s’applique tout aussi bien aux études cas-témoins et aux
études de cohorte, mais est plus immédiatement ‘palpable’ par les étudiants dans le cadre des
essais randomisés.
Nous insisterons enfin sur l’interprétation d’un essai randomisé : il ne faut pas oublier qu’il a
été conçu pour mettre en évidence des différences d’efficacité non visible ‘à l’œil nu’, et qu’il
convient ensuite de regarder les chiffres avec précaution. S’il semble spectaculaire d’annoncer
que la thrombolyse réduit la mortalité de l’infarctus du myocarde de 20%, il l’est moins déjà
de dire que cette réduction fait passer la mortalité globale de 11% à 8% environ ([11- 8]/11 =
27%), et que, si l’on se base sur les résultats de l’étude GISSI, il faut traiter 1000 patients pour
globalement éviter 23 décès, mais que l’on provoquera 9 accidents vasculaires. Des exemples
semblables peuvent être donnés pour le bénéfice du traitement de l’hypertension artérielle
modérée, et nous différencierons dans le cours le bénéfice global, perceptible au niveau d’une
population, du bénéfice individuel, beaucoup plus difficile à mesurer.
- Leur réalisation fait appel à des compétences statistiques qui ne seront pas à la disposition de
beaucoup de cliniciens, et la méta-analyse reste le domaine de structures spécialisées.
- La méta-analyse, en poolant les résultats d’essais préalablement effectués, cherche d’une part
à augmenter la puissance de l’essai en augmentant la taille d’échantillon, et d’autre part à
minimiser les biais de sélection d’entrée dans l’étude en incluant des patients d’origines
16
diverses. Ces effets ‘positifs’ n’ont cependant pas toujours été confirmés lorsque des essais
randomisés de taille comparable à celle de la méta-analyse correspondante ont été réalisés. Il
convient - mais il s’agit là d’une opinion personnelle- de mieux analyser les effets pervers
potentiels de la méta-analyse, résultant vraisemblablement de l’addition des biais des diverses
études les constituant. Une méta-analyse est rendue nécessaire pour mettre en évidence une
efficacité de faible amplitude, potentiellement intéressante au niveau d’une population, mais
dont le bénéfice individuel pour le patient reste là encore, à estimer de façon plus précise.
Enfin, l’évaluation des méta-analyses par comparaison avec des essais randomisés de grande
puissance reste encore à faire dans de nombreux domaines, et reste difficile, car la méta-
analyse a été effectuée justement pour remplacer ces essais, difficiles à mettre en œuvre…
Nous pensons que la réflexion épistémiologique doit maintenant suivre la mise au point et
l’utilisation d’une méthodologie de recherche séduisante, mais pour laquelle nous ne
disposons que de peu de recul.
Il existe en pratique clinique, beaucoup de situations pour lesquelles il ne sera pas trouvé de
réponse thérapeutique satisfaisante dans un essai randomisé. Faut-il effectuer un pontage
coronarien chez une patiente lupique âgée de 73 ans, présentant un angor mal contrôlé sur une
interventriculaire antérieure multisténosée, porteuse d’une anti-prothrombinase avec
antécédents de thrombose veineuse, d’une insuffisance rénale modérée liée à son lupus
anciennement traité par immunosuppresseurs, alors qu’il est difficile depuis 4 mois de passer
sous le seuil de 15 mg de corticoïdes par jour ?
Les arbres de décision ont pour vocation de répondre au mieux à la question, en combinant
chacun des risques estimés sur des études séparées : risque lié à l’intervention sur une
interventriculaire antérieure chez des patients de plus de 70 ans, risque opératoire chez les
patients présentant une anti-prothrombinase, chez les patients sous corticoïdes, chez les
patients présentant une néphropathie…
Le principe des arbres de décision sera exposé en cours. En pratique, il s’avère que les arbres
de décision ne sont pas facilement réalisables, et que le temps nécessaire à leur constitution
est souvent incompatible avec les charges du médecin clinicien. La réponse qu’ils apportent
est là aussi difficile à évaluer : la combinaison des risques implique un effet multiplicatif du
poids des biais de chaque étude, effet que ne peut que difficilement pallier l’analyse de
sensibilité telle qu’on la conçoit actuellement. L’analyse de sensibilité ne répond pas au
problème des biais, mais ne reporte sur l’arbre de décision que l’incertitude statistique
observée sur les résultats de chacune des études utilisées. Arriver à une probabilité d’effet
bénéfique de l’intervention de 60%, et d’effet délétère de 40%, reste dans ces conditions
d’interprétation difficile pour le patient en question et peut parfois servir à rassurer faussement
le médecin sur la justesse de sa décision. Un chiffre paraît propre et définitif : il ne fait que
réduire une réalité beaucoup plus complexe, et donc plus difficile à appréhender. Le
méthodologiste peut alors se poser la question hérétique en épidémiologie clinique : ‘Quid de
‘l’impression clinique’, aux fondements difficilement discernables, par rapport aux chiffres
aux contours faussement précis ?’.
17
V- Evaluer le pronostic d’une maladie :
Il s’agit là d’une question particulière car le médecin, pas plus que quiconque, ne connaît
l’avenir. Chacun dans sa pratique clinique a été surpris par une évolution inhabituellement
rapide, une stabilisation inattendue, une amélioration imprévue. L’évaluation du pronostic
d’une maladie repose donc, comme toujours en recherche clinique, sur l’observation de
patients présentant déjà la maladie pour en tirer des enseignements concernant les futurs
patients. On est confronté là encore, au problème de l’application de données recueillies sur
une population, à un individu soucieux de connaître son pronostic personnel.
Il existe dans les études de pronostic, une difficulté supplémentaire : on compare le devenir de
deux groupes de sujets, patients et sujets sains constituant la norme, patients présentant
certaines caractéristiques et patients présentant d’autres caractéristiques, et l’on mesure dans
chaque groupe le nombre d’événements survenus au cours d’une période donnée dépendant de
la durée de suivi de chaque patient. Un pronostic se mesure et se compare sur une durée de
suivi permettant d’établir une différence à l’échelle de la durée de vie humaine moyenne. A
terme, il n’y a pas de différence de pronostic entre sujets malades et sujets sains… On
comparera donc le nombre d’événements déjà survenus dans chaque groupe (données
certaines), sachant qu’un certain nombre d’événements ne sont pas survenus, soit parce qu’ils
ne surviendront pas, soit parce qu’ils ne sont pas encore survenus (données dites censurées).
Les courbes dites de survie, que l’on emploie dans les études de pronostic, ne se contentent
donc pas de reporter la survenue d’événements au cours du temps : elles reportent, en fait, la
probabilité de survie en fonction du temps écoulé depuis le diagnostic et en fonction des décès
précédemment survenus : à chaque décès (à chaque marche de la courbe), la taille de la
population change, et la probabilité de survie est recalculée en fonction de la nouvelle taille
d’échantillon. En pratique, cela veut dire qu’au fur et à mesure de la diminution de la taille
d’échantillon, chaque décès représentera une proportion plus importante, et la ‘marche’ sur la
courbe paraîtra plus importante. Cela veut dire aussi que la précision de la probabilité diminue
avec la taille d’échantillon, et que l’on est souvent loin en fin de courbe de la précision
atteinte au début : lorsqu’il ne reste plus que deux patients, un décès signifie une probabilité
de survie sur cette période de 50%, dont l’intervalle de confiance avoisine les extrêmes de 0 et
100%…
18
Le pronostic cependant ne dépend habituellement pas d’un seul facteur, mais plusieurs co-
facteurs peuvent intervenir : l’âge, le stade de la maladie, le performans status… pour prendre
ces facteurs en considération et ne pas attribuer à tord une différence observée entre deux
courbes à un seul facteur tel le traitement, une analyse pluri-factorielle des courbes de survie
est nécessaire. Nous aborderons donc, sur le plan qualitatif seulement en en exposant les
principes généraux et les indications, mais sans davantage entrer dans la théorie statistique, le
modèle de Cox et son parallélisme avec la régression logistique.
Ce cours ne permettra pas à lui seul d’effectuer une analyse de survie, mais devrait permettre
de comprendre les articles portant sur le sujet et de démythifier les notions de courbe et
d’analyse de survie, auxquelles sont fréquemment confrontés les cliniciens.
19
MOYENS PEDAGOGIQUES ET ENSEIGNANTS
I- Enseignants :
Les enseignants sont les membres du RECIF (Réseau d’Epidémiologie Clinique International
Francophone), structure créée en 1988 par l’Université Claude Bernard, les Hospices Civils de
Lyon et la Fondation Mérieux.
Nous nous plaçons d’emblée dans les conditions d’enseignement les meilleures (les plus
faciles aussi…), car il s’agit d’un enseignement optionnel, choisi par des internes, assistants
ou praticiens hospitaliers désireux de construire un projet de recherche, et dispensé en groupe
ne dépassant pas une vingtaine de participants. Le séminaire intensif permet aussi de dégager
participants et enseignants de toute autre obligation pendant une semaine, augmentant ainsi la
disponibilité de chacun. Il est demandé à chaque participant de venir avec son sujet de
recherche, et le séminaire est axé sur la construction du projet : ceci facilite l’interaction car
les questions découlent souvent des interrogations de chacun relatives à son propre projet. La
multidisciplinarité des participants permet l’exposé de projets divers, posant des problèmes
variés sur le plan méthodologique. Les réponses ne sont pas forcément univoques et cela
entretient le débat parmi les participants. Des temps ‘libres’ sont réservés au travail individuel
ou en petits groupes chaque jour, ce qui permet une meilleure assimilation des notions
apportées dans la journée.
Les matinées sont consacrées aux cours, et le support principal utilisé est l’ordinateur avec
projection. Le paper-board ou le tableau noir permet le cas échéant d’expliciter de façon
qualitative les formules mathématiques en amenant progressivement chacun de leurs termes,
de telle sorte à faire percevoir, en jouant plus sur la compréhension intuitive que sur un pré-
requis mathématique qui n’existe plus toujours, leur signification et le rôle qu’ils jouent dans
l’expression mathématique. L’explication ne se base donc pas sur une véritable démonstration
lorsqu’elle celle-ci n’est pas accessible aux non-mathématiciens participant au cours. Les
cours sont illustrés par des exemples tirés de la littérature ou des recherches effectuées par les
membres du RECIF. L’expérience de l’enseignement dans des pays moins favorisés nous a
appris à utiliser, pour ces pays, des exemples plus adaptés aux pathologies rencontrées et aux
moyens médicaux réellement disponibles pour ces médecins. Cet ajustement pédagogique a
grandement bénéficié du premier séminaire tenu en Algérie et en Roumanie, et des contacts
que nous avons pu avoir pendant ces semaines avec les participants au cours.
20
Les après-midi sont réservés aux travaux pratiques : la moitié d’entre eux portent sur les
connaissances acquises le matin, et sont axés sur des travaux publiés. Les articles sont choisis
en fonction de plusieurs critères :
- Certains peuvent présenter des biais reconnaissables à ce stade d’acquisition des
connaissances, et le travail consistera à les dépister et à chercher les solutions qu’il eut été
possible de mettre en oeuvre.
- Certains sont représentatifs d’études très bien conduites, et montrent ainsi les ‘astuces’ que
peuvent avoir employées leurs auteurs pour pallier les biais potentiels.
- Certains présentent des biais évidents, dont la correction cependant demeure difficile après
réflexion : ils illustrent les difficultés pratiques, éthiques, liées aux limitations actuelles de nos
connaissances, à répondre à certaines questions pourtant fondées et couramment rencontrées
en pratique clinique. Une étude parfois, quoique imparfaite, apporte un ‘mieux’ par rapport
aux études précédemment publiées, et nos connaissances progressent souvent à petits pas,
parfois douteux, mais finissent par progresser...
L’autre moitié des travaux dirigés, en seconde partie d’après-midi, est consacrée à l’exposé
des sujets de recherche de chacun des participants. Le groupe discute alors de l’adéquation du
sujet aux techniques de recherche clinique (certains sujets parfois seront mieux servis par
d’autres techniques d’investigation), de la meilleure structure d’étude, de la faisabilité du
projet en terme d’effectifs, de mesures, de temps nécessaire, de moyens, puis des premières
étapes de la construction. Sont abordées lors de ces cessions pratiques, les problèmes de
calendrier d’étude, de rédaction d’un protocole, d’évaluation du budget nécessaire, de
demande de subvention.
Les temps ‘libres’, en fin d’après-midi et début de soirée, permettent selon les demandes des
participants un ‘affinage’ plus individuel des projets.
Le contenu de l’enseignement est résumé dans l’ouvrage collectif dont un nouveau tirage
est en cours :
21
EVALUATION
Les modalités en seront différentes, selon que l’enseignement est réalisé à Lyon ou à
l’étranger.
I- L’enseignement à Amiens:
Il constitue un diplôme universitaire d’un total de 104 heures (mémoire non compris),
réparties en deux semaines entières (Janvier et Mai), et trois journées réparties entre les deux
séminaires. L’évaluation est basée sur :
22
DES CHIFFRES ET DES LETTRES... OU REFLEXIONS GENERALES
SUR LE CONTENU DE L’ENSEIGNEMENT
La lecture d’une étude épidémiologique laisse toujours un arrière-goût étrange. Raconter une
histoire ne procède pas d’une démarche scientifique, et il est nécessaire, pour contourner les
multiples incertitudes ou approximations de l’imagination ou de la vision immédiate d’un
phénomène, d’établir une méthode d’observation et d’analyse la plus rigoureuse possible.
D’arriver à mesurer, à quantifier un phénomène peut sembler la quintessence de l’observation,
car peut-on trouver plus précis qu’un chiffre ou qu’un nombre ?
Ce mode de pensée n’a pénétré le domaine des sciences du vivant que très récemment. Les
modèles et les techniques mathématiques utilisées sont plus simples qu’en physique. Pourtant,
la réalité décrite est plus complexe, plus polymorphe, et il s’est vite avéré difficile de décrire
des phénomènes d’une grande variabilité au moyen de lois fixes. Les statistiques ont alors eu
pour ambition de quantifier non plus seulement le phénomène observé, mais également
l’incertitude qui y était obligatoirement associée. Le premier paradoxe de la méthode a donc
été d’essayer d’entourer l’inconnu d’une barrière visible, précise, exprimée en chiffres aux
contours définis. Les petits p, les intervalles de confiance, qui cherchent à définir au plus près
la zone d’incertitude, ont apporté une rigueur que l’observation des chiffres simples
n’autorisait pas et ils permettent ainsi d’éviter de transformer en affirmation une constatation
23
dont la réalité est questionnable. A contrario, en visant à délimiter ce qui par essence échappe
à la quantification directe, ils sont par essence trompeurs : quantifier l’incertitude ne lève pas
l’incertitude, et la netteté du chiffre fournit un masque quelque peu fallacieux à l’inconnu. Le
chiffre rassure, et ramène ce que nous somme incapables de percevoir à une illusion de
perception en lui fournissant une apparence connue : celles de limites que nous avons
dessinées autour d’un trou noir.
24
appliquer en priorité à ce patient ? Le traitement efficace sur la majorité est-il celui qu’il faut
prescrire à ce patient, qui peut-être fait partie de la minorité ?
A l’incertitude statistique du chiffre, mal encadrée par les tentatives de quantification de
l’inconnu, vient donc s’ajouter l’incertitude épidémiologique, revers incontournable de la
justification même de telles études et de l’incapacité à percevoir la réalité au niveau de
l’individu. Il existe là encore, un espace que nous ne savons pas explorer, et les nombres avec
lesquels nous avons essayé de décrire la connaissance ne nous permettent pas de franchir la
distance entre la population et l’individu. L’étude épidémiologique pourrait se comparer à
l’observation d’une ville par satellite, qui nous donnerait les grandes tendances de la
circulation dans l’agglomération, mais ne permettrait pas de savoir comment et vers où tel
individu se dirige. On pourrait objecter que la recherche des mécanismes exacts ressort non
pas de la recherche épidémiologique, mais de la recherche biologique. La recherche
biologique, cependant, pourrait se comparer à l’investigation qui consisterait à isoler un
individu dans le flot de la circulation, à l’en extraire pour l’interroger, dans un endroit à l’abri
des tumultes du trafic, sur les raisons et le comment de son déplacement, puis à quantifier les
réponses ou à les traduire de la façon la plus précise possible.
Dans les deux cas, l’appréhension précise de l’individu dans le flot, de la réalité des
phénomènes pathologiques in vivo échappe à nos moyens d’analyse, et nous ne savons pas
plus quantifier la distance de la population à l’individu, que celle du phénomène in vitro à la
réalité in vivo.
Les chiffres, les nombres n’apparaissent précis que parce qu’ils ont considérablement réduit la
réalité qu’ils sont censés décrire. Qu’une différence entre cas et témoins soit significative, et
que le risque d’erreur puisse être estimé à 5 chances sur 100 000, n’indique pas comment un
agent causal peut éventuellement être responsable d’une maladie, comment un traitement peut
se montrer efficace ou délétère, ou si le patient que nous avons en face de nous fera partie de
ceux qui bénéficieront du traitement, ou de ceux qui en présenteront des effets toxiques. Nous
traduisons la réalité en chiffres, parce que les chiffres sont plus faciles à manier et qu’ils
donnent l’impression d’une solidité que les mots ne permettent pas d’atteindre. Le prix de leur
précision est, très ironiquement, leur incapacité à raconter l’histoire exacte du bacille ou de la
souche bacillaire capable de passer la barrière trachéale et bronchique, de profiter des
altérations immunitaires induites par une dénutrition éventuelle, d’induire une réaction
inflammatoire salvatrice ou au contraire toxique, de détailler les facteurs intervenant dans le
déterminisme de cette réaction et la façon dont eux-mêmes ont été influencés par le milieu
extérieur, d’expliquer l’adhésion du bacille à la paroi cellulaire et sa pénétration, d’exposer la
pénétration du médicament, son interaction avec le métabolisme cellulaire, et les mécanismes
de défense du bacille aboutissant à la résistance...
Raconter l’histoire d’une pathologie à la manière d’un roman serait sans doute, la seule façon
tout à fait scientifique de procéder. Comme dans un roman, les mots seuls pourraient décrire
avec précision le cheminement de la cause à l’effet, et l’action individuelle des multiples
intervenants qui permettent en définitive, à la maladie de se développer ou à l’hôte de résister.
On ne peut pas plus raconter l’histoire d’une maladie avec des chiffres, qu’affirmer que deux
romans de cape et d’épée sont semblables car, tous comptes faits, il n’y a pas entre les deux
ouvrages de différence significative entre le nombre de tournois, de chevaliers en guerre ou de
belles dames au sommet des donjons...
La réalité scientifique est-elle distordue, faussée par les chiffres, pourtant utilisés pour la
servir au mieux ? Certainement. Devrait-elle, idéalement, être exprimée avant tout par les
25
mots, peut-être assortis de chiffres ? Sans doute, si l’on s’en réfère aux sciences du vivant.
Mais en pratique, nous imaginons l’histoire de telle sorte à ce quelle apparaisse cohérente
avec les observations chiffrées de l’épidémiologie, parcellaires de la biologie, et le problème
devient alors, de tester la vérité exprimée par les mots... Aux trois espaces inexplorés
actuellement, l’inconnu statistique, l’inconnu épidémiologique et la distance entre l’in vitro et
l’in vivo en biologie, inconnus que nous croyons percevoir car nous avons essayé de les
circonscrire, parfois par des chiffres !, viendrait s’ajouter l’espace inexplorable que la logique
a essayé de fuir tant il paraissait inaccessible, celui de la narration, seule capable de la
précision optimale, seule capable de raconter l’histoire telle qu’elle se déroule réellement,
irréductible à la simplification restrictive des chiffres, incontournable dès lors que l’on
cherche à comprendre ou à expliquer un phénomène, mais en définitive réfractaire à toute
vérification car s’éteignant dès la mise en contact avec les chiffres, seuls outils de vérification
que nous sachions manier avec une incertitude quantifiée.
Ces espaces vides traduisent sans doute un certain handicap, une certaine infirmité, de notre
mode de pensée scientifique actuelle. Nous ne savons trop comment, par quels moyens, les
aborder afin de les réduire. Nous estimons simplement que, lorsque les données apportées par
chaque espace de connaissance convergent, il est probable que l’incertitude liée aux espaces
inexplorables s’affaiblisse. Cette estimation, purement intuitive, n’a rien de quantitatif ni de
“ scientifique ”. Preuves en sont les multiples vérités, ou vérités perçues, que le temps a
déjugées.
26
ANNEXE 1 : OBJECTIFS
1- Savoir définir les grands types d’études cliniques, les positionner les unes par rapport aux
autres.
12- Connaître la structure d’une étude cas-témoins. Faire la différence entre étude prospective
et étude rétrospective
13- Connaître les techniques d’échantillonnage des cas et des témoins
14- Connaître les conditions de sélection des témoins en fonction des cas
15- Connaître les avantages et les inconvénients de témoins hospitalisés, de témoins issus des
proches des patients, des témoins issus de la population générale
16- Savoir exposer les avantages ou les inconvénients de témoins multiples pour un cas
17- Savoir exposer les avantages ou les inconvénients de groupes de témoins multiples pour
un groupe de cas
18- Comprendre les avantages et les inconvénients de l’appariement dans une étude cas-
témoins, et savoir énoncer les différences entre appariement dans une étude cas-témoins et
dans une étude de cohorte.
19- Savoir construire une table 2X2 dans une étude cas-témoins, et savoir expliquer la
différence d’avec une table 2X2 dans une étude de cohorte
20- Comprendre et savoir calculer un odds ratio
21- Comprendre la relation qu’il existe entre un odds ratio et un risque relatif, et connaître les
conditions d’utilisation de l’odds ratio en fonction de la prévalence de la pathologie étudiée
22- Savoir positionner une étude cas-témoins par rapport à une étude de cohorte
23- Connaître les atouts et les faiblesses des études cas-témoins, tout particulièrement les biais
inhérents à ce type d’étude
24- Savoir différencier la notion d’élément confondant et de modificateur d’effet. Savoir
comment les différencier à partir d’une analyse stratifiée
27
26- Savoir définir l’incidence-densité et l’incidence cumulée
27- Connaître les conditions de réalisation d’une étude de cohorte rétrospective
28- Connaître les biais possibles d’une étude de cohorte, et tout particulièrement le biais de
perte de suivi
29- Connaître les conditions de réalisation et les avantages d’une étude cas-témoins nichée
dans une étude de cohorte
30- Connaître les conditions de réalisation, les avantages et les inconvénients d’une étude de
double cohorte
31- Savoir définir la notion de risque relatif, de risque attribuable, de risque en excès, de
proportion attribuable
32- Connaître les atouts et les inconvénients d’une étude de cohorte
28
11- Connaître les biais potentiels des essais randomisés, les stratégies mises en œuvre pour les
éviter
12- Connaître la structure d’essai en plan factoriel
13- Connaître la structure d’un essai avec permutation
14- Connaître les procédures françaises médico-légales de validation d’un projet d’essai
randomisé, le rôle des comités d’éthique, la loi Huriet
Etude du pronostic :
1- Savoir différencier la notion d’erreur liée au hasard, de biais, et de validité externe d’une
étude
2- Comprendre la notion de précision d’une étude : l’erreur bêta, l’erreur alpha, la notion de
puissance d’étude
3- Comprendre la notion de hasard d’échantillonnage, la différencier de la notion de biais de
sélection
4- Connaître le moyen de remédier aux erreurs liées au hasard par le biais de la taille
d’échantillon
5- Savoir différencier les grandes catégories de biais : biais de sélection et/ou de détection,
biais de mesure, éléments confondants
6- Connaître les origines possibles des biais de sélection (inclusion/exclusion, non-réponse,
détection, survie sélective…)
7- Connaître les origines possibles des biais de mesure (tests diagnostiques, biais de
souvenir, manipulation des données…)
8- Différencier les effets d’un biais de mesure bi-directionnel et uni-directionnel sur les
résultats d’une étude
9- Savoir corriger un biais de confusion par l’analyse stratifiée. Connaître l’intérêt de la
régression logistique dans cette correction
10- Connaître la possibilité statistique de test significatifs par hasard. Connaître le risque
inhérent aux comparaisons multiples
11- Connaître l’existence de biais inapparents : biais liés aux études non publiées, aux études
négatives
29
12- Savoir intégrer les résultats d’une étude épidémiologique dans le champ plus vaste des
connaissances bio-médicales. Les critères de Bradford et Hill
Les objectifs de ce dernier paragraphe reprennent à dessein des objectifs déjà cités ailleurs. Ce
cours est une synthèse des biais les plus couramment rencontrés en méthodes de recherche
clinique, biais déjà signalés, souvent, dans les cours antérieurs. Il a pour but de rendre les
participants au cours conscients que la construction d’une étude se fait plus sur l’analyse des
biais potentiels et la meilleure façon d’y remédier, que sur la connaissance simple de la
structure d’étude et des méthodes d’analyse.
30
ANNEXE 2 : LES ENSEIGNANTS
31
BIBLIOGRAPHIE
1
- Bégaud B. Modern epidemiology : forward to the 18th century ! Lancet 1999 ; 354 : 432.
2
- Le Rond D’Alembert J. Réflexions sur l’inoculation. Paris : Académie Royale des Sciences de Paris, 1790.
3
- Tonelli MR. The philosophical limits of evidence-based medicine. Acad Med 1998 ; 73 : 1234-1240.
4
- Mc Coll A, Smith H, White P, Field J. General practitioner’s perceptions of the route to evidence based
medicine : a questionnaire survey. BMJ 1998 ; 316 : 361-5.
5
- Gallois P. Comment baser la formation médicale continue sur les concepts d’évidence et de décision.
Thérapie 1996 ; 51 : 302-307.
6
- Elnicki DM, Halperin AK, Shockcor WT, Aronoff SC. Multidisciplinary evidence-based medicine journal
clubs : curriculum desing and participants’ reactions. Am J Med Sci 1999 ;317 : 243-6.
7
- Norman GR, Shannon SI. Effectivenes of instructin in critical appraisal (evidence-based medicine) skills : a
critical appraisal. Can Med As J 1998 ; 158 : 177-181.
8
- Ebell MH, Barry HC, Slawson DC, Shaughnessy AF. Finding POEMs in the medical literature. J Fam Pract
1999 ; 48 : 350-355.
9
- Paes BA, Modi A, Dunmore R. Changing physicians’ behavio using combined strategies and an eveidence-
based protocol. Arch Pediatr Adolesc Med 1994 ; 148 : 1277-1280.
10
- Green ML, Ellis PJ. Impact of an evidence-based medicine curriculum based on adult learning theory. J Ben
Intern Med 1997 ; 12 : 742-50.
11
- Jordens CF, Hawe P, Irwig LM, Henderson-Smart DJ, Ryan M, Donoghue DA, Gabb RG, Fraser IS. Use of
systematic reviews of randomised trials by Australian neonatologists and obstetricians. Med J Aust 1998 ; 168 :
267-270.
12
- Cartabellotta A. Evidence-based medicine. 1. The transfer of research results to clinical pratice. The Italian
Group for Evidence-Based Medicine-GIMBE. Recenti Prog Med 1998 ; 89 : 140-150.
13
- Cialdella P, Figon G, Haugh MC, Boissel JP. Prescription intentions in relation to therapeutic information : a
study of 117 French general practitioners. Soc Sci Med 1991 ; 33 : 1263-1274.
14
- Hennekens CH, Buring JE, Mayrent SL. Epidemiology in Medicine. Editions Little, Brown and Co
Boston/Toronto, 1987.
15
- Huller SB, Cummings SR. Designing Clinical Research. Editions Williams&Wilkins, 1988.
16
Fletcher RH, Fletcher SW, Wagner EH. Clinical epidemiology, the essentials. Second edition. Editions
Williams&Wilkins, 1988.
17
Sackett DL, Haynes RB, Tugwell P. Clinical epidemiology. A basic science for clinical medicine. Editions
Little, Brown and Co Boston/Toronto, 1985.
18
- Rothman KJ. Modern epidemiology. Editions Little, Brown and Co Boston/Toronto, 1986.
19
- Kleinbaum DG, Kupper LL, Morgenstern H. Epidemiologic research : Principles and quantitative methods.
Editions Van Nostrand Reinhold, 1982.
32
20
- Schlesselman JJ. Case-control studies. Design, Conduct, Analysis. Editions Oxford University Press, 1982.
21
- La recherche clinique : de l’idée à la publication. Ouvrage collectif du RECIF, sous la direction de G.
Landrivon et F Delahaye. Editions Masson,1995.
22
- Onion CW, Bartzokas CA. Changing attitudes to infectin management in primary care : a controlled trail of
active versus passive guidelin implementation strategies. Fam Pract 1998 ; 15 : 99-104.
23
- Cummings SR, Richard RJ, Duncan CL,Hansen B, Vander MartinR, Gerbert B, Coates RJ. Training
physicians about smoking cessation : a controlled trial in private practice. J Ben Intern Med 1989 ; 482-489.
24
- Rubenstein LV, Calkins DR, Young RT, Cleary PD, Fink A, Kosecoff J, Jette AM, Davies AR, Delbanco TL,
Brook RH. Improving patient function : a randomized trial of functinal disability screening. Ann Intern Med
1989 ; 111 : 836-842.
25
- Pill R, Stott NC, Rollnick SR, Rees M. A randomized controlled trial of an intervention designed to improve
the care given in general practice to Type II diabetic patients : patient outcomes and professional ability to
change behaviour. Fam Pract 1998 ; 15 : 229-235.
33