0% ont trouvé ce document utile (0 vote)
40 vues47 pages

Algorithme de Détection Et Suivi

Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
40 vues47 pages

Algorithme de Détection Et Suivi

Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 47

N° d’ordre :

N° de série :

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Superieur et de la Recherche


Scientifique

UNIVERSITÉ ECHAHID HAMMA LAKHDAR D’EL OUED


FACULTÉ DES SCIENCES EXACTES
Département d’informatique

Mémoire de fin d’étude


MASTER ACADEMIQUE
Domaine: Mathématiques et Informatique
Filière: Informatique
Spécialité: Systèmes Distribués et Intelligence Artificiel (SDIA)

Thème

Algorithme de Détection et suivi


d’objets mobiles. Application dans un
environnement de foule

Présenté par: Sadoun abdelbaki & Ouellabi yacine

Soutenu devant le jury composé de

M.Berdjouh Chafik MAA Rapporteur Univ. d’El Oued

Année universitaire 2015/2016


Remerciements

Avant tout, nous remercions notre Dieu qui nous a donné le


courage et la volonté de réaliser ce modeste travail.
Nous adressons nos vifs remerciements à notre encadreur Mr.
BERDJOUH Chafik pour son effort et ses conseils.
Nous tenons également à remercier « TOUS » les Messieurs et
dames, nos professeurs qui nous ont enseigné durant deux ans
de formation master en Informatique, pour leurs précieux
conseils et ses orientations.
Nos remerciements vont également aux membres du jury
d’avoir accepté d’évaluer nos travail. Sans oublier de remercier
notre amis et notre collègues, tous d’une manière différente.
Enfin, merci à nos parents pour le soutien et l’encouragement
qu’ils nous ont apporté tout au long de nos travail.

I
Dédicace

Je dédie ce modeste travail :

A ma mère pour sa tendresse et mon père

pour sa patience et encouragement,

A mes très chers frères, sœurs et leurs

enfants, Et à mes amies et tous ceux que

j’aime.

Abdelbaki

II
Dédicace

En témoignage d'amour et d'affection, je dédie


ce travail avec une grande fierté
À mes parents qui ont été d'un dévouement
exemplaire et d'un réconfort inestimable.
À mes frères, mes sœurs et toute ma famille en
reconnaissance de leurs encouragements.
A tous mes amis pour leur sympathie, leur
amitié et leur solidarité envers moi.
J'espère que vous acceptez mes hautes
salutations et considérations.
Que Dieu puisse vous protéger.
Yacine

III
Résumé

Ce mémoire est lié au sujet général de la détection automatique de mouvement et


d'analyse la séquence d'images dans la vidéo-surveillance. Dans la surveillance en temps
réel, la détection et le suivi de plusieurs objets et le suivi de leurs activités dans les deux
environnements extérieur et intérieur sont des tâches difficiles pour le système de vidéo -
surveillance. Dans la présence d'un bon nombre de problèmes en temps réel limite la
portée de ce travail depuis le début. Les problèmes sont notamment, les changements
d'éclairage et de détection d'ombre. La méthode améliorée de soustraction de fond a été
suivie par une segmentation de premier plan, l’évaluation des données, la détection de
l'ombre sur la scène et enfin la méthode de détection de mouvement. L'algorithme est
appliqué à un certain nombre de problèmes pratiques à observer si elle nous conduit à la
solution attendue.

Mots clés: Vidéo-surveillance, analyse de la vidéo, Opencv, détection, suivi d’objets


mobiles.

IV
Abstract
This memory is related to general topic of the automatic motion detection and analysis
of the image sequence in surveillance video. In the real-time monitoring, detection and
tracking of multiple objects and track their activities in both outdoor and indoor
environments are difficult tasks for the video surveillance system. In the presence of lots
of problems in real time limits the scope of the work from the beginning. The problems
include the changes in illumination and shadow detection. The improved method of
background subtraction was followed by a foreground segmentation, data evaluation,
detection of the shadow on the scene and finally the motion detection method. The
algorithm is applied to a number of practical problems to see if it leads us to the expected
solution.

Keywords: Video surveillance, Video Analytics, Opencv, detection, tracking of


moving objects.

V
Table des matières
RESUME ......................................................................................................... IV
TABLE DES MATIERES.................................................................................. VI
LISTE DES FIGURES ................................................................................... VIII
LISTE DES ALGORITHMES .......................................................................... IX
INTRODUCTION ........................................................................................ 1
MOTIVATION ................................................................................................1
PROBLEMATIQUES ET OBJECTIFS .....................................................................1
ORGANISATION DU MEMOIRE .........................................................................2

I CHAP ITRE 1......................................................................................... 3


I.1 INTRODUCTION................................................................................4
I.2 LE SYSTEME DE LA VIDEO-SURVEILLANCE .........................................4
I.3 TYPES DU SYSTEME DE LA VIDEO-SURVEILLANCE ...............................4
I.4 STRUCTURE DU SYSTEME DE LA VIDEO-SURVEILLANCE .......................5
I.5 DOMAINES D' UTILISATION DE SYSTEME VIDEO-SURVEILLANCE ...........6
I.6 AVANTAGES DU SYSTEME DE LA VIDEO-SURVEILLANCE ......................6
I.7 CONCLUSION...................................................................................7

II CHAP ITRE 2......................................................................................... 8


II.1 INTRODUCTION................................................................................9
II.2 DETECTION D'OBJETS EN MOUVEMENT...............................................9
II.2.1 REPRESENTATION D' UNE VIDEO.........................................................9
II.2.2 LA DIFFERENCE TEMPORELLE ......................................................... 10
II.2.3 FLUX OPTIQUE............................................................................... 11
II.2.4 SOUSTRACTION DE L’ ARRIERE-PLAN................................................ 12
II.2.5 ELIMINATION DES OMBRES ............................................................. 14
II.3 LE SUIVI DES OBJETS ...................................................................... 15
II.3.1 SUIVI DE SILHOUETTE..................................................................... 15

VI
II.3.2 SUIVI DE NOYAUX.......................................................................... 16
II.3.3 SUIVI DE POINTS ............................................................................ 16
II.4 CONCLUSION................................................................................. 16

III CHAP ITRE 3....................................................................................... 18


III.1 INTRODUCTION.............................................................................. 19
III.2 MODELE DE DETECTION PROPOSE ................................................... 19
III.2.1 MODELISATION DE L’ ARRIERE-PLAN ............................................... 20
III.2.2 SOUSTRACTION DE L' ARRIERE-PLAN ................................................ 20
III.2.3 SEGMENTATION DE MOUVEMENT UTILISANT FLUX OPTIQUE............... 22
III.2.4 SUPPRESSION DE L'OMBRE EN UTILISANT L’ ESPACE COULEUR HSV .... 22
III.3 MODELE PROPOSE POUR SUIVI D’ OBJET ........................................... 25
III.3.1 SELECTION DES OBJETS A SUIVRE .................................................... 25
III.3.2 SUIVI DE L’ OBJET SELECTIONNE ...................................................... 26
III.3.3 ESTIMATION DE TRAJECTOIRE ........................................................ 27
III.3.3.1 FILTRE DE KALMAN ....................................................................... 28
III.4 CONCLUSION................................................................................. 28

IV CHAP ITRE 4....................................................................................... 29


IV.1 INTRODUCTION.............................................................................. 30
IV.2 ENVIRONNEMENT DE TRAVAIL ........................................................ 30
IV.2.1 LE LANGAGE DE PROGRAMMATION JAVA ......................................... 30
IV.2.2 NETBEANS IDE 8.0 ....................................................................... 30
IV.2.3 OPENCV 3.1.0................................................................................ 31
IV.3 INTERFACES ET RESULTATS ............................................................ 31
IV.4 CONCLUSION................................................................................. 34

V CONCLUSION GENERALE ET PERSPECTIVES .................. 35


BIBLIOGRAPHIE........................................................................................... 37

VII
Liste des figures

Figure ‎II.1 Système de vidéo-surveillance [JBM, 2011] ....................................... 5

Figure ‎II.1 Représentation compacte d'une vidéo, T représente l'axe temporel. ..... 9

Figure ‎II.2 Exemple de détection du mouvement avec la méthode de soustraction

d’images consécutives ...................................................................................... 11

Figure ‎II.3 Le flux optique, (a et b) Région de la bouche sur deux images

consécutives, (c) Champ de vecteur de vitesses. ................................................. 12

Figure ‎II.4 présentation de La méthode de soustraction de fond. ..................... 13

Figure ‎III.1 Modèle proposé pour la détection d'Objet ...................................... 21

Figure ‎III.2 Modèle proposé pour suivi l'objet .................................................. 25

Figure ‎III.3 L’ensemble des centres de gravité mesurés..................................... 27

Figure ‎III.4 Trajectoire mesurée/estimée de l’objet mobile ................................ 27

Figure ‎IV.1 Interface principale de l'application............................................... 31

Figure ‎IV.2 Le résultat de la soustraction de fond ............................................. 32

Figure ‎IV.3 Le résultat de l'illimitation des ombres ........................................... 32

Figure ‎IV.4 Le résultat de détection de mouvement ........................................... 33

Figure ‎IV.5 Le résultat de nomination du centre de gravité ............................... 33

Figure ‎IV.6 Le résultat de suivi des objets mouvant........................................... 34

VIII
Liste des algorithmes

Algorithme ‎III.1 Soustraction de l’arrière-plan .................................................. 22

Algorithme ‎III.2 Utilisation de flux optique ........................................................ 23

Algorithme ‎III.3 Suppression des Ombres .......................................................... 23

Algorithme ‎III.4 étiquetage par un parcours en profondeur ................................. 26

IX
Introduction général

Introduction
Motivation
Dans de nombreux lieux publics tels que l'aéroport, les parcs de stationnement, les
gares, et les banques, il est nécessaire de la surveillance pour prévenir l'accident ou de
l'incident dommageable de faite que les caméras de surveillance soient installées dans de
tels endroits. Pour profiter de la vidéo en temps réel, l’humain doit surveiller le système
en continu afin d'alerter les agents de sécurité en cas d'urgence. Le besoin pour les
systèmes de surveillance vidéo intelligente qui peut surveiller et répondre à la situation en
temps réel a augmenté en raison du coût élevé et une faible efficacité du système de
surveillance existant.

Le suivi d'objets ayant pour but d'obtenir un enregistrement de l’objet en mouvement


une ou plusieurs cibles dans le temps et l'espace. Par la localisation et le suivi d'objets en
mouvement dans une séquence vidéo en temps réel, nous pouvons développer un système
d'alerte en temps réel pour améliorer en cours système de surveillance.

Problématiques et objectifs
Ce modèle générique fonctionne dans des conditions idéales, mais échoue
lamentablement dans la vie réelle. Les principaux défis à relever par ce modèle sont les
suivants:

 Occultation
 Le changement graduel de l'éclairage.
 Le changement soudain de l'éclairage.
 Ombres faussement détectés comme des objets.
 Objet qui reste fixe pendant un certain temps est traité comme arrière-plan.

1
Introduction général

 Si des objets stationnaires sont déplacés d'un endroit à un autre, Amiens lieux
dans lesquels les objets ont été existés sont faussement détecté comme des
objets.

Dans ce projet, nous nous intéressons à des problématiques de la vidéo-surveillance, à


savoir la segmentation d'objets, la détection du mouvement dans un contexte contrôlé.

L'objectif du projet est de réaliser un algorithme de détection et de suivi d’objets


mobiles dans une scène complexe.

Organisation du mémoire
Ce mémoire est divisé en quatre chapitres, qui sont organisés comme suit :

Chapitre 1 : Il est consacré à l'étude le système de vidéo-surveillance et son

architecture pour mieux comprendre les concepts de base de la vidéo-

surveillance.

Chapitre 2 : Nous commençons ce chapitre par un état de l'art sur les méthodes

les plus utilisées et les plus efficaces de détection de mouvement puis nous

citerons les méthodes de suivi.

Chapitre 3 : Dans ce chapitre, nous allons présenter notre contribution pour le

système de détection et de suivi des objets en scène complexe.

Chapitre4 : Dans ce dernier chapitre, nous allons détailler les différentes

configurations nécessaires à la création du projet (Outil de développement,

langage de programmation) et présenter quelques résultats.

Enfin, nous conclurons ce mémoire par une synthèse du travail accompli et nous
présenterons quelques perspectives d'évolution.

2
I Chapitre 1
Contexte : la vidéo-surveillance

SOMMAIRE

I CHAP ITRE 1......................................................................................... 3


I.1 INTRODUCTION................................................................................4
I.2 LE SYSTEME DE LA VIDEO-SURVEILLANCE .........................................4
I.3 TYPES DU SYSTEME DE LA VIDEO-SURVEILLANCE ...............................4
I.4 STRUCTURE DU SYSTEME DE LA VIDEO-SURVEILLANCE .......................5
I.5 DOMAINES D' UTILISATION DE SYSTEME VIDEO-SURVEILLANCE ...........6
I.6 AVANTAGES DU SYSTEME DE LA VIDEO-SURVEILLANCE ......................6
I.7 CONCLUSION...................................................................................7

3
Chapitre 1 La vidéo-surveillance

I.1 Introduction
La vidéo-surveillance connaît de nos jours une forte expansion tant sur le plan
technologique qu’économique. Elle est devenue l’un des maillons essentiels des
politiques de sécurité des gouvernements. Cette évolution répond au besoin de tout
citoyen à la sécurité face à l’augmentation de la délinquance et de la criminalité.
Dans ce chapitre, on va donner une définition concernant le système vidéo-surveillance
et nous explique quelques concepts utilisés dans ce système, puis nous présenterons les
avantages de ce système dans notre vie.

I.2 Le système de la vidéo-surveillance


La vidéo-surveillance est un système de caméras disposées dans un espace à
surveiller. Ces caméras sont reliées à un système informatique qui permet le traitement et
l’analyse des données reçues. Le premier système de vidéo-surveillance a été conçu en
Allemagne en 1942, par Siemens AG pour des fins d’observations de fusées. Depuis, les
systèmes de vidéo-surveillance ont considérablement évolué. L’analyse et l’intégration
des données sont de plus en plus automatisées et suscitent moins d’intervention humaine
[DM, 2012].

I.3 Types du système de la vidéo-surveillance


Il existe trois types de vidéo-surveillance :

1) La vidéo-surveillance d’observation : elle vise à surveiller des mouvements dans


un endroit donné, sans enregistrement et traitement de données personnelles. C’est
notamment le cas des caméras contrôlant la circulation et qui permettent une
analyse précise du trafic à des endroits où elles peuvent places. [CIS, 2010]
2) La vidéo-surveillance dissuasive : elle a pour but de prévenir la mise en danger et
les perturbations de la paix juridique par des actes imputables à l'homme. Elle se
fait normalement de manière permanente et est repérable. Elle consiste
habituellement à utiliser des dispositifs qui enregistrent les signaux visuels et

4
Chapitre 1 La vidéo-surveillance

rendent possible l'identification des différentes personnes dont l'image a été


enregistrée. [PPTD, 2015]
3) La vidéo-surveillance invasive : qui tend à surveiller une personne en particulier,
à son insu, dans le cadre d’une enquête de police. Elle ne peut être ordonnée que
par une procédure judiciaire. Les règles applicables à ce type de situation relèvent
de la procédure pénale en général et ne sont pas traitées dans le Règlement [CIS,
2010].

I.4 Structure du système de la vidéo-surveillance

Flux vidéo

Détection

Reconnaissance

Suivi
Figure ‎I-1 Système de vidéo-surveillance [JM, 2011]

Un système de vidéo-surveillance est en général composé de trois modules (figure I.1)

 Le module de détection : L’objectif de la détection est de localiser les individus


au premier plan dans la scène pour des analyses ultérieures. L’opération de
détection peut s’effectuer sur chaque image de la séquence ou en début de
séquence pour initialiser le mécanisme de suivi.

5
Chapitre 1 La vidéo-surveillance

 Le module de reconnaissance : un processus consiste à reconnaitre une cible


parmi un ensemble des objets dans une scène.
 Le module de suivi : L’objectif du suivi est de déterminer la position d’une cible
de manière continue et fiable tout au long du flux vidéo.

I.5 Domaines d'utilisation de système vidéo-surveillance


La vidéo-surveillance, est un champ de plusieurs d’applications [PPTD, 2015] :
 L’industrie : Salle de contrôle, Zones de stockage.
 Le transport privé ou collectif.
 Le commerce et la distribution.
 Les administrations et les services publics : les banques.
 Les lieux publics : Cabinets médicaux et cliniques.
 L’enseignement : Les écoles et les établissements d'enseignement.
 Les loisirs : parc d'attraction, cinéma, les clubs.

I.6 Avantages du système de la vidéo-surveillance

 Il agit comme un effet dissuasif sur la criminalité. Voyant un appareil photo ou un


avertissement d'affichage des caméras, peut être déroutant à un soi-criminel.
 Un autre avantage d'avoir un système de vidéo-surveillance est la capacité à
appréhender un suspect quand un crime se produit.
 L’amélioration de la productivité en milieu de travail.
 Lot de cas de harcèlement au travail ne sont pas signalés. Installation du système
de surveillance vidéo aide à tout suivi par les deux enregistrements vidéo et
audio.[DM, 2012]

6
Chapitre 1 La vidéo-surveillance

I.7 Conclusion
Dans ce chapitre nous avons défini le système de la vidéo-surveillance et présenté sa
structure générale, ses différents types, les différents domaines d’utilisations et enfin ses
avantages.
Dans le prochain chapitre nous allons représenter l’état de l’art des méthodes les plus
utilisées pour la détection et le suivi des objets en mouvement.

7
Chapitre 2 Etat de l'art

II Chapitre 2
Contexte : Etat de l’art

SOMMAIRE
______________________________________________________________________
II.1 INTRODUCTION................................................................................9
II.2 DETECTION D'OBJETS EN MOUVEMENT...............................................9
II.2.1 REPRESENTATION D' UNE VIDEO.........................................................9
II.2.2 LA DIFFERENCE TEMPORELLE ......................................................... 10
II.2.3 FLUX OPTIQUE............................................................................... 11
II.2.4 SOUSTRACTION DE L’ ARRIERE-PLAN................................................ 12
II.2.5 ELIMINATION DES OMBRES ............................................................. 14
II.3 LE SUIVI DES OBJETS ...................................................................... 15
II.3.1 SUIVI DE SILHOUETTE..................................................................... 15
II.3.2 SUIVI DE NOYAUX.......................................................................... 16
II.3.3 SUIVI DE POINTS ............................................................................ 16
II.4 CONCLUSION................................................................................. 16
______________________________________________________________________

8
Chapitre 2 Etat de l'art

II.1 Introduction
Dans ce chapitre, nous allons citer les différentes méthodes existes pour détecter un
objet en mouvement, puis nous présenterons les méthodes de suivi des objets.

II.2 Détection d'objets en mouvement


La détection du mouvement constitue la première étape d’un système de vidéo-
surveillance, elle permet de détecter les objets mobiles sur la scène. C’est une étape
critique et difficile car, elle doit être robuste aux variations de la luminosité de la scène et
la présence des ombres. Il existe différentes méthodes de détection du mouvement que
l’on peut donner certaines d'entre elles par la suite.

II.2.1 Représentation d'une vidéo

Une vidéo peut être considérée comme une séquence d'images dont chacune contient
une vue statique des scènes qui s'y déroulent. Ces images, ou trames, sont prises dans des
intervalles réguliers et très courts (30 images par seconde). Les trames sont des images à
deux dimensions X = (x, y) et l'axe temporel t constitue la troisième dimension. [KH,
2012]
La figure II.1 est une illustration de la représentation compacte d'une vidéo avec une
superposition des trames qui la composent.

Figure ‎II-1 Représentation compacte d'une vidéo, T représente l'axe temporel [KH, 2012].

9
Chapitre 2 Etat de l'art

Chaque trame de cette vidéo peut donc être utilisée dans les opérations de
prétraitement. Ces opérations de prétraitement ont pour but de détecter les objets en
mouvement dans la vidéo.
La détection d'objets en mouvement dans la vidéo utilise des méthodes de
segmentation du mouvement dans le but de marquer les régions des trames correspondant
aux objets en mouvement. Nous présentons dans la section suivante les méthodes de
segmentation du mouvement que nous pouvons les utiliser dans notre travail.

II.2.2 La différence temporelle

La différence entre deux images consécutives représente une solution très intéressante.
Comme son nom l'indique, elle consiste à soustraire une image acquise au temps Tn d'une
autre au temps Tn+k, où k est habituellement égal à 1. Ainsi, l'image résultante sera vide
si aucun mouvement ne s'est produit pendant l'intervalle du temps observé car l'intensité
et la couleur des pixels seront presque identiques. Par contre, si du mouvement a lieu dans
le champ de vision, la différence d'images correspondant aux pixels frontières des objets
en déplacement devraient changer drastiquement de valeurs, révélant alors la présence
d'activité dans la scène. Cette technique nécessite très peu de ressources, car aucun
modèle n'est nécessaire. [MP, 2003]
Cela implique qu'il n'y a pas de phase d'initialisation obligatoire avec une scène
statique, ce qui procure une très grande flexibilité d'utilisation. De plus, une opération de
soustraction d'images requiert très peu de puissance de calcul, lui conférant un avantage
supplémentaire. Par ailleurs, les résultats obtenus avec cette méthode ne sont pas aussi
éloquents que ceux générés en utilisant un modèle statistique de l'arrière-plan. En effet,
certains traitements supplémentaires sont nécessaires afin de déterminer la zone en
mouvement, car l'information disponible ne concerne que les contours des régions en
déplacement (ce qui inclut également les zones intérieures d'un objet). [MP, 2003]

10
Chapitre 2 Etat de l'art

Figure ‎II-2 Exemple de détection du mouvement avec la méthode de soustraction d’images


consécutives [DM, 2012]

Avantages

- Adapte le changement de la scène.


- Détecte la région de mouvement. [MN, 2015]

Inconvénients

- Ne permet pas de détecter le mouvement dans les zones uniformes intérieures à


l’objet.
- Ne fonctionne pas dans plusieurs cas, pour différentes raisons, telles que : la
présence de bruit du capteur et les changements de luminosité de la scène qui
modifient les intensités des pixels. [MN, 2015]

II.2.3 Flux optique

Le flux optique est un champ de vecteur des vitesses apparentes des objets de la scène
sur le plan image (Figure II.3). Il permet de déterminer le mouvement de chaque pixel
appartenant à une image de la séquence d’images.

11
Chapitre 2 Etat de l'art

Figure ‎II-3 Le flux optique, (a et b) Région de la bouche sur deux images consécutives, (c)
Champ de vecteur de vitesses.

L’estimation du flux optique est basée sur l’hypothèse de l'intensité constante c.-à-d.
que l'intensité observée d'un objet ne change pas lorsque celui-ci est en mouvement. Cette
hypothèse est valable pour les objets à modèle de réflectance lambertienne avec un faible
mouvement. Cette méthode suppose donc, que le mouvement est instantané et faible
d’une image à l’autre et que les changements observés entre deux images sont
uniquement causés par le mouvement. [NV, 2007]
Avantages

- Leurs résultats ne sont pas affectés par les changements soudains de l'éclairage.

Inconvénients

- Somme importante de calculs à réaliser pour détecter du mouvement

II.2.4 Soustraction de l’arrière-plan

L’image de l’arrière-plan d’une scène contient les éléments statiques de cette scène,
c’est la représentation de l’environnement dans lequel les objets évoluent. Cette image est

12
Chapitre 2 Etat de l'art

considérée comme une image de référence qui se soustrait de chaque image de la


séquence afin d’extraire les objets en mouvement.
Cette méthode dans sa version simple, consiste à faire la différence des intensités des
pixels I(x, y, t) d’une image I prise à l’instant t, par rapport aux intensités des pixels
B(x, y) d’une image de référence d'arrière-plan B, où il n'y a pas de mouvement
(figure ‎II-4). [DM, 2012]
Elle permet de détecter les pixels (x, y) ayant subi un changement d’intensité
significatif. Ces pixels forment les objets en mouvement. Cela est modélisé par :
Si | I (x, y, t) - B(x, y) | > τ
Alors le pixel (x, y) de I à l’instant t est en mouvement
Sinon le pixel (x, y) appartient à l’arrière-plan
Avec τ un seuil fixé manuellement.

Figure ‎II-5 présentation de La méthode de soustraction de fond.

13
Chapitre 2 Etat de l'art

Avantages

- Cette méthode détecte les objets si elles sont arrêtées.


- Détecte l’objet complètement.

Inconvénients

- Le seuillage rend cette méthode peu robuste et les problèmes liés au bruit et aux
changements de la luminosité demeurent présents dans cette méthode.
- La difficulté de choisir le meilleur seuil pour obtenir un bon résultat.

II.2.5 Elimination des ombres

Durant l'opération de segmentation des objets, les ombres générés par le


déplacement d'objets peuvent créer d'importants problèmes, car le système est
incapable de différentier un objet réel de son ombre. Ce changement d'intensité,
provoque une mauvaise segmentation des objets en mouvement. Des chercheurs ont
proposé des approches d'élimination d'ombres basées sur l'information couleur.
Parmi les méthodes d’élimination des ombres la méthode ACE, dans ce dernier
l'auteur a utilisé les 3 composantes RGB (Red-Green-Blue) normalisées afin de
supprimer les zones ombrées. L'application de ce principe sur le masque transforme est
comme suit : Lorsqu'un ombre est observé, la valeur d'intensité diminue de manière
indicative, alors que la valeur de la couleur normalisée ne subit pas de changement.

Les pixels de l'avant-plan, ayant des valeurs d'intensité différentes de ceux du


fond, et des valeurs de couleurs normalisées plus proches des valeurs de fond, sont
considères faisant partie d'une zone ombrée (voire l’équation suivante). [AZ, 2010]

Is (x, y) = α I(x, y) α< 1

14
Chapitre 2 Etat de l'art

Où I(x, y) est la valeur de l'intensité au point (x, y) et l'indice s indique la valeur


après détection d'ombre.

II.3 Le suivi des objets


Le suivi d'objet en mouvement peut être défini comme étant la localisation spatio -
temporelle d’un objet en mouvement au cours d’une séquence vidéo, où un objet est une
zone de l’image qui peut être modélisée par des contours, silhouettes, primitives
géométriques(rectangle englobant l’objet d’intérêt) ou encore par le point central.
Dans ce qui suit, nous présentons l’état de l’art des méthodes de suivi d’objets en
mouvement. Nous ne détaillons pas ici les différents algorithmes mais nous donnons les
avantages, les inconvénients et les domaines d’application des différentes familles de
méthodes.

II.3.1 Suivi de silhouette

La représentation d’un tel objet par une silhouette permet de tenir compte précisément
de la forme de l’objet. Le but des méthodes de suivi fondées sur l’utilisation de silhouettes
est d’estimer la silhouette des objets d’intérêt pour chaque image de la vidéo. Cette
approche est également connue sous le nom de segmentation d’images.
La segmentation d’images est une opération de traitement d’images qui a pour but de
rassembler des pixels entre eux suivant des critères prédéfinis. Les pixels sont ainsi
regroupés en régions qui constituent une partition de l’image. Il s’agit en général de
séparer les objets du fond. Si le nombre de classes est égal à deux, elle est appelée aussi
binarisation. Si l’homme sait naturellement séparer des objets dans une image, c’est grâce
à des connaissances de haut niveau fondées sur la compréhension des objets et de la
scène, compréhension liée à l’apprentissage.
Mettre au point des algorithmes de segmentation utilisant une information sémantique
pour chaque région de l’image est encore un des thèmes de recherche les plus courants en
traitement d’images. [GV, 2008]

15
Chapitre 2 Etat de l'art

II.3.2 Suivi de noyaux

Les méthodes de suivi de noyaux représentent l’objet à suivre par un rectangle, ellipse.
L’objet à suivre est représenté par un histogramme pondère calcule sur une région
elliptique contenant l’objet. La localisation de l’objet se fait à l’aide du procède 'Mean-
Shift' qui tente à maximiser itérativement la similarité d’apparence en comparant les
histogrammes de l’objet et une fenêtre candidate.

Le principal avantage de cette méthode est qu’elle permet d’estimer la position de


l’objet en un nombre restreint d’itérations. Toutefois, dans le cas d’une scène contenant
des objets ayant les mêmes distributions de couleurs et occupant des régions très proches,
l’estimation sera ambigüe. Afin de contourner une telle ambigüité, pour cela on a utilisé
une famille d’histogrammes élabores a différentes échelles d’une image. [KH, 2012]

II.3.3 Suivi de points

L’objet est représenté par un point qui est son centroïde ou par un ensemble de points.
Généralement, cette représentation par points convient pour suivre des objets qui
occupent de petites régions dans une image. Dans le cas où, à chaque instant, toutes les
cibles visibles peuvent être détectées de façon fiable et rapide, le problème de suivi peut
être défini comme un problème d’appariement de détections entre images successives.
Dans cette catégorie, les approches peuvent être déterministes ou probabilistes. [GV, 2008]

II.4 Conclusion
Dans ce chapitre, nous avons présenté les différentes méthodes de détection du
mouvement et les avantages et les inconvénients de chacun. Ensuite, nous avons cité les
différentes méthodes de suivi.

16
Chapitre 2 Etat de l'art

Dans le prochain chapitre, nous aurons donné notre contribution qui représente la
solution proposée pour la détection et le suivi d’un objet en mouvement dans une
séquence d’images.

17
Chapitre 3 Contribution

III Chapitre 3
Contexte : Contribution

SOMMAIRE
__________________________________________________________

III.1 INTRODUCTION.............................................................................. 19
III.2 MODELE DE DETECTION PROPOSE ................................................... 19
III.2.1 MODELISATION DE L’ ARRIERE-PLAN ............................................... 20
III.2.2 SOUSTRACTION DE L' ARRIERE-PLAN ................................................ 20
III.2.3 SEGMENTATION DE MOUVEMENT UTILISANT FLUX OPTIQUE............... 22
III.2.4 SUPPRESSION DE L'OMBRE EN UTILISANT HSV ESPACE COULEUR ....... 22
III.3 MODELE DE SUIVI PROPOSE........................................................... 25
III.3.1 SELECTION DES OBJETS A SUIVRE .................................................... 25
III.3.2 SUIVI DE L’ OBJET SELECTIONNE ...................................................... 26
III.3.3 ESTIMATION DE TRAJECTOIRE ........................................................ 27
III.3.3.1 FILTRE DE KALMAN ....................................................................... 28
III.4 CONCLUSION................................................................................. 28
___________________________________________________________________

18
Chapitre 3 Contribution

III.1 Introduction
Il y en a deux contributions faites dans ce travail. Tout d'abord des scénarios de
changement d'illumination soudaine étaient traités par extraction du premier plan à l'aide
de l'analyse de flou optique. Deuxièmement, le module de suppression d'ombre a été inclu
pour rendre l'algorithme plus robuste aux ombres qui étaient faussement classés comme
des objets.

Les algorithmes classiques de soustraction de fond ont échoué à fonctionner dans les
scénarios de distorsions photométriques graves. Dans l'hypothèse où l'objet est en
mouvement pendant le changement d'illumination soudaine qui a le plus grand
mouvement dans la scène, l'analyse du flux optique est utilisée pour extraire l'avant-plan.
Le seuillage de l'amplitude du vecteur de mouvement est fait pour l'extraction de l'objet.

Les Méthodes de soustraction de fond typiques sont en proie au problème des ombres.
Les ombres sont généralement mal classés comme des objets. Cela conduit à des
distorsions des caractéristiques de l'objet comme zone, barycentre, la forme et d'autres
caractéristiques. Dans notre travail, le module de suppression d'ombre est incorporé dans
l'algorithme. Le Modèle d'espace couleur HSV est utilisé pour cette technique.

III.2 Modèle de détection Proposé


Le modèle de détection d'objet proposé prend quelques images initiales pour modéliser
l’arrière-plan. Les objets de l'avant-plan peuvent être détectés dans toutes les trames par
comparaison avec le modèle développé. Le modèle proposé est assez capable de filtre r les
ombres associées à l'objet qui peuvent être faussement classés comme avant-plan. Les
objets détectés peuvent être utilisés pour effectuer des tâches cognitives supérieures
comme le suivi ou l'analyse de l'objet.

19
Chapitre 3 Contribution

III.2.1 Modélisation de l’arrière-plan

Dans cette phase, quelques cadres départ sont utilisés pour la construction du modèle
d'arrière-plan. Pour chaque pixel, une fenêtre est considérée qui stocke les valeurs de
pixels dans certains nombre d'images. Classification des pixels stationnaires ou non
stationnaires se fait sur la base de leur écart par rapport à la moyenne des valeurs de
pixels rassemblées à travers la fenêtre. Ensuite, tous les pixels stationnaires sont utilisés
pour le développement du modèle d'arrière-plan. Enfin, un ensemble des valeurs est défini
pour chaque pixel d'arrière-plan.

III.2.2 Soustraction de l'arrière-plan

Cette méthode est utilisée pour extraire les objets de l’avant-plan, elle est basée sur un
seuillage local. Chaque pixel d'arrière-plan a un ensemble des valeurs défini dans la phase
de modélisation. Notamment, Cet ensemble des valeurs maximales et valeurs minimales
sont sélectionnés pour former les seuils pour chaque pixel. Les seuils minimums et
maximums sont définis pour chaque pixel d'arrière-plan. Ces limites atténuent le
problème d'ombres et de la surexposition. Le seuil minimal prend soin des ombres légères
faussement détecté comme des objets. Le seuil maximal supprime l'éblouissement de
sorte qu'il ne soit pas mal classé comme objet. Cela prend également en charge du
mouvement périodique des éléments d'arrière-plan.

20
Chapitre 3 Contribution

Vidéo

Modélisation de
l'arrière-plan

Soustraction du
fond
M-A-J de l’arrière-
plan

Changement Segmentation du
d’illumination Oui mouvement utilisant
soudaine flux optique

Non
Suppression des ombres
utilisant HSV modèle

Objet détecté

Figure ‎III-1 Modèle proposé pour la détection d'Objet

21
Chapitre 3 Contribution

III.2.3 Segmentation de mouvement utilisant flux optique

Le schéma précédent n'a pas donné une performance efficace pendant les
distorsions photométriques. Dans ce cas, il est très difficile de développer un modèle
d’arrière-plan précis qui permet d'extraire les objets de manière efficace. Dans notre
travail, le flux optique est utilisé pour extraire les régions en mouvement de la scène au
cours de ces changements d’illumination soudaine. Bien que le flux optique fonctionne
lorsque la contrainte luminosité de constance est satisfait, en utilisant cette méthode
dans telles circonstances donne un meilleur résultat que le seuillage local basé sur la
soustraction de fond. L’opération du flux optique est tout à fait de calcul intensif.
L’opération du flux optique se fait uniquement pendant les distorsions photométriques
soudaines, où la majorité des pixels sont faussement détectés en tant que avant-plan.

III.2.4 Suppression de l'ombre en utilisant l’espace couleur HSV

Bien que la méthode soustraction du fond basée sur un seuillage local supprime
les ombres faibles dans l’arrière-plan de la scène, il ne parvient pas à le faire en cas de
fortes ombres. Dans de tels scénarios, l'espace colorimétrique HSV est utilisé car, il est
plus élastique à la variation d'illumination par rapport à l'espace de couleur RVB.

Les détails de l'algorithme sont décrits ci-dessous.


Algorithme ‎III.1 Soustraction de l’arrière-plan
1 Début
2 Pour i = 1 à hauteur de la trame faire
3 Pour j 1 à largeur de la trame faire
4 Seuil T (i, j) = [M (i, j) + N (i, j)] ÷ C
5 TL (i, j) = M (i, j) − T (i, j)
6 TU (i, j) = M (i, j) + T (i, j)
7 Si TL (i, j) <= f (i, j) <= TU (i, j) Alors
8 Sf (i, j) = 0 // pixel de Arrière-plan
9 Sinon
10 S f (i, j) = 1 //pixel de premier plan
11 Fin

22
Chapitre 3 Contribution

Algorithme ‎III.2 Utilisation de flux optique

1 Début
2 pour i = 1 à hauteur du trame faire
3 pour j 1 à largeur du trame faire
4 Si Sf (i, j) = 1 Alors // pixel de premier plan
5 count = count + 1 //Compter le nombre total des pixels d'objet
6 POD = count ÷ [(Hauteur)*(frame)]
// POD Pourcentage d'Objet Détecté
7 SI POD>= Tdp Alors
8 // si la plupart des pixels sont détectés comme objet
9 Sf = Seuildefluxoptique (S f, Sf−1 )
10 Fin

Algorithme ‎III.3 Suppression des Ombres


1 Début
2 Pour i = 1 à hauteur de la trame faire
3 Pour j 1 à largeur de la trame faire
4 Si Sf (i, j) = 1 Alors
5 //Si pixel de premier plan
6 ratio SVf (i, j) ÷ BVf (i, j)
7 diffS = SSf (i, j) − BSf (i, j)
8 diffH =|SHf (i, j) ÷ BHf (i, j) |
9 Si (ɵ> ratio >β) et (diffS < TS) et (diffH < TH ) Alors
10 // Ombre détectée avec succès
11 Sf (i, j) = 0
12 // Fusionner pixel d'ombre avec un fond
13 Fin

Initialement pour le développement du modèle de base, nous avons besoin de


trouver les pixels fixes dans le démarrage de quelques images. Pour chaque pixel, une
fenêtre des trames est prise en considération. La distribution des pixels est stockée
dans un vecteur V. Si la moitié des pixels dans ce vecteur dévie de sa moyenne à
l'intérieur d'un seuil défini par la moitié de la taille de la fenêtre fois l'écart type, alors
le pixel central est classé comme stationnaire.

23
Chapitre 3 Contribution

Dans mode similaire, tous les pixels fixes sont accumulés. Par la suite, pour
chaque pixel fixe, sa portée maximale et minimale d'intensité est évaluée. Ces valeurs
sont utilisées pour définir des seuils locaux pour chaque pixel. Le seuil inférieur prend
soin des ombres légères et de faible intensité du bruit de fond. Alors que le seuil
supérieur prend en charge les conditions d’exposition.

En général, lors d'un changement d'illumination soudaine, ce modèle ne parvient


pas à détecter des objets avec précision. La plupart des pixels sont faussement détecté s
comme avant-plan. Cette condition est détectée en évaluant le pourcentage de l'avant-
plan extrait par rapport à un seuil Tdp ce qui se reflète dans l'algorithme 2. Pour la
détection, l'analyse de flux optique est utilisée pour le seuil des trames pour en extraire
les régions qui se déplacent entre eux. Ces informations de seuil sont à nouveau
stockées vers les trames Sf. suppression de l'ombre se fait en utilisant le fait que
l'espace de couleur HSV est plus résistant aux distorsions photométriques par rapport
au modèle RGB standard. Pixels d'ombre ont une luminosité plus faible mais
chromaticité en comparaison avec les pixels du fond. Pour tous les pixels de avant-
plan est détecté, la détection d'ombre méthode est appliquée. SV (i, j) représente la
composante de valeur du pixel HSV à la position (x, y) de la trame f de la séquence
vidéo S. De la même teinte et les saturations composantes de la trame d'entrée et la
trame d'arrière-plan sont représentés. La valeur médiane des quelques premières
trames est utilisée comme une estimation correcte le modèle de l'arrière-plan. Seuils
comme α, β, TS, TH sont calculés de manière empirique.

24
Chapitre 3 Contribution

III.3 Modèle Proposé pour suivi d’objet


Notre modèle proposé pour le suivi d'objet dans séquence d'images se compose en
trois étapes principales Comme il est indiqué dans la figure ci-dessous :

Objets détectés

Sélection des objets à suivre

Suivi les objets sélectionnés

Estimation de trajectoire

Figure ‎III-2 Modèle proposé pour suivi d'objet

III.3.1 Sélection des objets à suivre

La sélection des objets à suivre repose sur une approche utilisant une segmentation
binaire et l’étiquetage des composantes connexes. Pour la détermination des
composantes connexes, plusieurs algorithmes peuvent être utilisés à savoir
l’étiquetage séquentiel itératif, l’étiquetage séquentiel avec correspondance entre
points, l’étiquetage par un parcours en profondeur, etc.
Dans nos expérimentations nous avons utilisé l’algorithme d’étiquetage par un
parcours en profondeur (algorithme IV.4).

25
Chapitre 3 Contribution

Algorithme ‎III.4 étiquetage par un parcours en profondeur

1 Début
2 Pour chaque x dans V faire // V est l'ensemble des pixels de l'image
3 Etat [x] = non_attend
4 L=1
5 A-traiter = Vide
6 pour chaque x dans V faire
7 Si Etat[x] = non_attend Alors
8 A-traiter = A-traiter + {x}
9 Etat[x] = Attend
10 Tant que A-traiter est non Vide Faire
11 Y = un élément dans A-traiter
12 A-traiter = A-traiter - {Y}
13 pour Chaque Z de Vs(y) Faire
14 Si z est un point objet et Etat[z] = non_attend Alors
15 A-traiter = A-traiter + {z}
16 Etat[z] = attend
17 Label[y] = Label
18 Etat[y] = Examiner
19 L = L + 1
20 Fin

III.3.2 Suivi de l’objet sélectionné

Dans ce travail, nous aborderons la représentation de la forme points dans le suivi


des objets en mouvement, où chaque objet est représenté par un point qui est son
centre de gravité. La trajectoire d’objet en mouvement dans ce cas est l’interpolation
entre les centres de gravité de l’objet détecté dans chaque trame.

L’ensemble des centres de gravité mesurés permet de tracer la trajectoire de l’objet


mobile (voir figure III.3).

26
Chapitre 3 Contribution

Figure ‎III-3 L’ensemble des centres de gravité mesurés [DM, 2012]

III.3.3 Estimation de trajectoire

Lorsqu’on segmente un objet dans l’image, ou lorsqu’on mesure sa position il y a


toujours lieu aux erreurs. L’objectif est alors de calculer la trajectoire de l’objet en
diminuant ces erreurs. Il s’agit alors de l’estimation et de la correction de la trajectoire
de l’objet en mouvement.

Figure ‎III-4 Trajectoire mesurée/estimée de l’objet mobile [KH, 2012]

27
Chapitre 3 Contribution

Les filtres stochastiques proposent des solutions pour estimer l’état d’un système
conditionnellement à l’ensemble des mesures passées (voir la figure ‎III-5). Parmi ces
filtres, on propose d’utiliser le filtre de Kalman.

III.3.3.1 Filtre de Kalman

Le Filtre de Kalman est une approche statistique, d'assimilation de données, dont le


principe est de corriger la trajectoire du modèle en combinant les observations avec
l'information fournie par le modèle de façon à minimiser l'erreur entre l'état vrai et
l'état filtré.

Le filtre de Kalman regarde un objet quand il se déplace, c’est-à-dire il prend les


informations sur l’état de l’objet à ce moment-là. Puis, il utilise ces informations pour
prédire où se trouve l’objet dans la prochaine trame. La position de l’objet est corrigée
ensuite en considérant la prédiction et aussi l’observation. [KH, 2012]

III.4 Conclusion
Ce chapitre contient notre contribution pour le système de détection et suivi des
objets en scène complexe capturé par une caméra fixe dont il possède un arrière-plan
statique.

Dans le prochain chapitre, nous allons présenter les résultats expérimentaux de


notre contribution pour la détection et le suivi d’un objet en mouvement dans une
séquence d’images.

28
IV Chapitre 4
Contexte: Résultats expérimentaux

SOMMAIRE

IV.1 INTRODUCTION.............................................................................. 30
IV.2 ENVIRONNEMENT DE TRAVAIL........................................................ 30
IV.2.1 LE LANGAGE DE PROGRAMMATION JAVA ......................................... 30
IV.2.2 NETBEANS IDE 8.0 : ..................................................................... 30
IV.2.3 OPENCV 3.1.0 .............................................................................. 31
IV.3 INTERFACES ET RESULTATS ............................................................ 31
IV.4 CONCLUSION................................................................................. 34

29
Chapitre 4 Résultats expérimentales

IV.1 Introduction
Dans le chapitre précédent, nous avons présenté notre contribution proposée pour le
système de détection et suivi d'objet en mouvement. Dans ce chapitre, nous allons
présenter la mise en œuvre de notre application, tel que le langage de programmation
et les outils du développement. Ensuite, nous présenterons quelques résultats
concernant la détection et le suivi.

IV.2 Environnement de travail


IV.2.1 Le langage de programmation java
Java est un langage de programmation informatique orienté objet et un
environnement d'exécution informatique portable créé par James Gosling et Patrick
Naughton employés de Sun Microsystems avec le soutien de Bill Joy (cofondateur de
Sun Microsystems en 1982), présenté officiellement le 23 mai 1995 au SunWorld
[KA, 2014].
Java est à la fois un langage de programmation et un environnement d'exécution. Le
langage Java a la particularité principale que les logiciels écrits avec ce dernier sont
très facilement portables sur plusieurs systèmes d'exploitation tels que : Unix,
Microsoft Windows, Mac OS ou Linux avec peu ou pas de modifications... C'est la
plate-forme qui garantit la portabilité des applications développées en Java.

IV.2.2 NetBeans IDE 8.0


NetBeans est à l'origine un EDI Java qui fut développé par une équipe d'étudiants à
Prague racheté ensuite par Sun Microsystems. En 2002 Sun a décidé de rendre
NetBeans open-source. NetBeans n'est pas uniquement un EDI Java, c'est également
une plateforme qui permet d'écrire des applications Swing ou C++, Python ou autres
langages en lui incluant les plugins adéquats. Sa conception est complètement
modulaire ce qui fait de lui une boite à outils facilement améliorable ou modifiable.
La License de NetBeans permet de l'utiliser gratuitement à des fins commerciales
ou non. Elle permet de développer tous types d'applications basées sur la plateforme
NetBeans.

30
Chapitre 4 Résultats expérimentales

IV.2.3 Opencv 3.1.0

Pour ce qui concerne la partie de traitement d’images nous avons utilisé une
bibliothèque appelée OPENCV (Open Source Computer Vision), comme son nom le
suggère, OPENCV est une bibliothèque dédié totalement à la vision par ordinateur ce
qui signifie traitements des images, matrices, vidéos,&, Données visuelles.
Opencv est très fortement influencée par les avancées de la recherche dans ce
domaine, car il s’agit de la bibliothèque d’INTEL c’est-à-dire : une bibliothèque créée
« par des chercheurs, pour les chercheurs » en fin d’année 2010, elle a dépassé 3
millions de téléchargements. Le choix de cette bibliothèque c’est qu’elle est
«gratuite», « libre » et « multiplateformes » et elle est utilisée en Java, C++ et Python,
ce qui va nous permettre de l’utiliser aussi bien sous Windows, sous GNU/Linux OS.

IV.3 Interfaces et résultats


Dans cette partie, nous allons présenter l'interface de notre application et quelques
résultats de l’étape de la détection et du suivi.
Tout d'abord, l'utilisateur de notre application doit sélectionner la source de vidéo,
soit à partir d’un fichier vidéo dans l'ordinateur ou via une vidéo filmée par la webcam
de l'ordinateur. La figure suivante représente l'interface de notre application.

Figure ‎IV-1 Interface principale de l'application

31
Chapitre 4 Résultats expérimentales

La première étape de notre système est de soustraire le fond de l'image puis


éliminer des ombres pour extraire les régions mouvants.
Les figures (IV.2) et (IV.3) représentent le résultat de notre application pour
l'opération de soustraction de fond avant et après l'opération de l'élimination des
ombres.

Figure ‎IV-2 Le résultat de la soustraction de fond

Figure ‎IV-3 Le résultat de l'illimitation des ombres

32
Chapitre 4 Résultats expérimentales

La prochaine étape est la détection de mouvement, c’est la plus importante


de notre système. Le résultat de notre application pour cette dernière étape est
représenté dans la figure (IV.4).

Figure ‎IV-4 Le résultat de détection de mouvement

L’étape suivante est la nomination du centre de gravité de chaque objet qui a été
découvert dans l'image. Dans notre système, les centres de gravité sont représentés par
un point rouge. (Voir la figure IV.5)

Figure ‎IV-5 Le résultat de nomination du centre de gravité

33
Chapitre 4 Résultats expérimentales

Et enfin, la dernière étape dans le nôtre système est le suivi des objets détectés à
partir de la coordination temporelle de leurs centres de gravité à chaque instance.

Le résultat de cette dernière étape est représenté dans la figure (IV.6).

Figure ‎IV-6 Le résultat de suivi des objets mouvant

IV.4 Conclusion
Dans ce chapitre, on a cité les outils qui nous avons utilisé pour développer notre
application ensuite, nous avons présenté leurs interfaces et quelques résultats
expérimentaux concernant les techniques de la détection et le suivi du objet en
mouvement.

34
Conclusion et perspectives

V Conclusion générale
et perspectives
Ce travail traite du suivi d'objets en mouvement dans une séquence d'images.
L'objectif est de définir un ensemble d'opérations qui peuvent être utilisées quel que
soit l’environnement d'application du système de suivi. L'étude de plusieurs exemples
nous a permis d'identifier deux étapes fondamentales : la détection de mouvement et la
modélisation des déplacements.
En présence d'un grand nombre de problèmes qui dérangent la détection comme
le changement soudain de l'éclairage, les ombres des objets, les bruits de capteur...etc.
C'est pourquoi, nous avons également passé en revue les différentes méthodes de
détection et de suivi qui ont déjà été utilisées pour l'analyse d'images.

Nous avons proposé un modèle pour la détection d'objet en mouvement. Ce


modèle est basé sur la technique classique de soustraction en utilisant un seuil local
pour extraire des objets à partir de la séquence vidéo. Pendant les changements
soudains d'illumination, l'analyse de flux optique est utilisée pour la segmentation de
mouvement. Par la suite, l'espace de couleur HSV est utilisé pour la suppression des
ombres. La détection et la suppression des ombres sont faites pour amélior er les
résultats.

Ensuite, Nous avons proposé un modèle pour suivre des d'objet. Ce modèle est
basé sur le résultat du modèle précédent. La première phase de ce dernier est
l'étiquette des objets à détecter puis, trouver les centres de gravité de chacun. Les
coordonnées du centre de gravité dans les séquences d'image représentent la trajectoire
de l'objet. Dans ce modèle, nous proposons le filtre stochastique de Kalman pour
l'estimation des trajectoires.

35
Conclusion et perspectives

Dans le futur, il sera intéressant de terminer le projet, de reprendre le travail


effectué et de le compléter afin de pouvoir reconnais les personnes à capturé. Élargir
les types de vidéo, travailler avec une caméra qui n'est pas fixe pourrait être
intéressant. Cet objectif ne faisait pas parti des objectifs principaux mais il permettrait
de travailler avec d'autres vidéos, nous ne serions pas limité. Le problème est que
certains algorithmes étudies seraient inutilisables dans ces cas, en particulier celles qui
utilisent un " background ". Pour cela, il serait envisageable d'étudier de nouveaux
algorithmes qui pourraient améliorer les résultats d'un type de vidéo ou d'objet.

36
Bibliographie
[AZ, 2010] Ahmed ZIANI, Université du Littoral Cote d’Opale, " Interprétation
en temps réel de séquence vidéo par exploitation des modèles
graphiques probabilistes ", 2010
[DM, 2012] Djamila Mokhtari, Université de Montréal Département
d’Informatique et de Recherche Opérationnelle Faculté des Arts et
des Sciences, " Détection des chutes par calcul Homographique ",
Août 2012.
[GV, 2008] Garcia Vincent, Université de Nice, Sciences et Technologies de
l’Information et de la Communication," Suivi d'objets d'intérêt dans
une séquence images es points saillants aux mesures statistiques",
Décembre 2008
[JM, 2011] Jean-Baptiste Milési, Université de Strasbourg Faculté de Droit,
"Evolution du régime juridique et mutation de la technique de vidéo-
surveillance", 2011
[KH, 2012] Khalid HOUSNI, UNIVERSITE IBN ZOHR FACULTE DES
SCIENCES," Analyse d'événements dans une vidéo par les coupes de
graphes ", 2012
[MP, 2003] Marc Parizeau, UNIVERSIT´E LAVAL, " Système D’identification
De Personnes Par vision Numérique», Décembre 2003
[NV, 2007] NICOLAS VERBEKE, Université PARIS DESCARTES," Suivi
d'objets en mouvement dans une séquence vidéo", décembre 2007
[PPTD, 2015] PPTD, "Aide-mémoire pour l'installation d'une vidéo-
surveillance ", 2015

[PUSB, 2012] Protect US Security's Blog , "important benefits of


video surveillance ", Janvier 2012

[MN, 2015] Brougui Manel et Boumaraf Nesrine, "Détection et suivi d’un


objet suspect dans le contexte de vidéosurveillance", 2015

37

Vous aimerez peut-être aussi