Thèse de Doctorat - NGNASSI DJAMI (Réparé)
Thèse de Doctorat - NGNASSI DJAMI (Réparé)
Année 2021
0
DEDICACE
i
REMERCIEMENTS
Cette étude a été menée au sein l’Unité de Formation Doctorale de Physique Appliquée
et Ingénierie (UFD-PAI) de l’Ecole Nationale Supérieure des Sciences Agro-Industrielles
(ENSAI) de l’Université de Ngaoundéré, Cameroun.
Je rends grâce au Seigneur DIEU pour m’avoir accordé la santé, la force et l’intelligence
nécessaires pour l’accomplissement de ce travail. Que son nom soit loué !
Mes remerciements s’adressent également à plusieurs personnes qui ont rendu ce travail
de recherche possible. Je pense :
À Monsieur DOKA YAMIGNO Serge, Professeur Titulaire à l’Université de
Ngaoundéré et Monsieur NZIE Wolfgang, Maitre de Conférences à l’Université de
Ngaoundéré, tous deux directeurs de cette thèse. J’ai profité tout au long de mes années de thèse
de leur vivacité intellectuelle, de leur très grande rigueur scientifique ;
Au Professeur BEDA Tibi, Responsable du laboratoire de Mécanique, Matériaux et
Photonique (La2MP), où mes travaux de recherche ont été réalisés ;
Au Professeur KUITCHE Alexis, Responsable de l’unité de formation doctorale PAI-
ENSAI, pour m’avoir accueilli au sein de son école doctorale ;
Aux différents membres du jury, pour l’attention qu’ils ont portée à ce travail. Je vous
en suis très reconnaissant et vous prie de recevoir ici l’expression de ma profonde déférence.
Il me serait difficile d’oublier de remercier :
Le Professeur NSO Emmanuel Jong, Directeur de l’ENSAI qui a permis que cette thèse
soit soutenue dans son établissement ;
Le Docteur SAMON Jean Bosco, pour ses encouragements, son aide et ses précieux
conseils dans cette recherche.
Seront également remerciés :
Mes collègues du Laboratoire La2MP pour tout le soutien et les moments agréables passés
ensemble ;
Quelques étudiants de l’IUT et de l’ENSAI, pour avoir également contribué au rendu de ce
travail.
Je profite de cette occasion pour remercier particulièrement mon papa, Monsieur
NGNASSI Jean Claude et ma maman, Madame NKWETCHEU Odette pour tous les sacrifices
déployés jusqu’à ce jour pour que je puisse réaliser ce travail.
ii
TABLE DES MATIERES
DEDICACE................................................................................................................................ i
REMERCIEMENTS ................................................................................................................ ii
I.1.2.1 Définition.................................................................................................................... 5
I.1.3.1 Définition.................................................................................................................. 10
I.1.4.1 Définition.................................................................................................................. 12
iii
I.1.4.3.2 Critères intrinsèques ............................................................................................ 15
I.2.1 Définition..................................................................................................................... 23
iv
I.3.3.3 Les fonctions performances .................................................................................... 53
I.3.4.4 Etude comparative des méthodes établissant le front de Pareto et des méthodes
recherchant un compromis entre les objectifs ................................................................. 73
v
II.2.1.2 Paramètres représentant le désassemblage non destructif ................................ 82
vi
III.2.3 Deuxième étape de l’algorithme de clustering existant ..................................... 109
vii
IV.2.4 Troisième étape de l’algorithme de clustering existant ..................................... 153
viii
LISTE DES FIGURES
Figure 1: Mise en place d'une boucle d'amélioration et d’un retour d'expérience (Cotaina et
al., 2000) ..................................................................................................................................... 7
Figure 2: Méthodes de planification de démontage (Shana et Hung, 2015) ........................... 18
Figure 3 : Visualisation de la modularité ................................................................................ 24
Figure 4 : Allocation des fonctions aux constituants (Meinadier, 2002) ................................ 32
Figure 5 : Heuristiques pour l'architecture des fonctions ........................................................ 37
Figure 6 : Matrice Indication Module ..................................................................................... 40
Figure 7: Classification des DSM ........................................................................................... 41
Figure 8 : Exemple de DSM temporelle .................................................................................. 43
Figure 9 : Deux résultats de partitionnement d’une DSM ....................................................... 44
Figure 10 : Exemple de numérisation des DSM temporelles (Eppinger et al., 1994) ............. 47
Figure 11 : Exemple de DSM Produit (Pimmler et al., 1994) ................................................. 49
Figure 12 : Fonctions perte « double échelons » et « quadratique » ....................................... 52
Figure 13 : Système bielle-manivelle ...................................................................................... 55
Figure 14: Schéma de la "méthodologie de propagation d’incertitudes" (de Rocquigny et al.,
2008)......................................................................................................................................... 58
Figure 15 : Propagation des incertitudes par simulations de Monte-Carlo sur le code de
calculs ....................................................................................................................................... 59
Figure 16 : Propagation des incertitudes par simulations de Monte-Carlo sur un modèle ajusté
localement ................................................................................................................................ 61
Figure 17 : Propagation des incertitudes par la méthode FOSM ............................................ 62
Figure 18 : Illustration de la méthode d’intersection de limites normales .............................. 67
Figure 19 : Illustration de la méthode à objectifs pondérés .................................................... 68
Figure 20 : Illustration de la méthode génétique de tri basée sur la non-dominance .............. 70
Figure 21 : Illustration du Clustering en dimension 2. ............................................................ 71
Figure 22 : Synthèse des méthodes de conception robuste pour la résolution d’un problème
d’optimisation........................................................................................................................... 72
Figure 23 : Description de la méthodologie ............................................................................ 78
Figure 24:Structure d’un diagramme Pieuvre ......................................................................... 88
Figure 25:Structure d’un diagramme FAST ............................................................................ 89
Figure 26:Graphe des liaisons hybride (Li et al., 2002). ......................................................... 90
Figure 27:Diagramme pieuvre du torréfacteur de soja en phase d’utilisation ........................ 95
ix
Figure 28:Le FAST relative à la fonction torréfier. ................................................................ 96
Figure 29:Vue éclatée de la solution. ...................................................................................... 97
Figure 30:Graphe des liaisons de du torréfacteur de soja........................................................ 99
Figure 31:Exemple de matrice de précédence (Saïd, 2018) .................................................. 107
Figure 32: Matrice de précédence modifiée des composants (Saïd, 2018) ........................... 108
Figure 33:Organigramme du nouvel algorithme de clustering ............................................. 118
Figure 34:Regroupement en quatre modules du torréfacteur de soja .................................... 130
Figure 35:Regroupement en trois modules du torréfacteur de soja ....................................... 131
Figure 36:Regroupement en deux modules du torréfacteur de soja ...................................... 132
Figure 37:Matrice de précédence des composants du torréfacteur de soja à quatre modules.
................................................................................................................................................ 133
Figure 38:Matrice de précédence des composants du torréfacteur de soja à trois modules. . 134
Figure 39:Matrice de précédence des composants du torréfacteur de soja à deux modules. 135
Figure 40:Matrice de précédence modifiée du torréfacteur de soja à quatre modules. ......... 136
Figure 41:Matrice de précédence modifiée du torréfacteur de soja à trois modules. ............ 137
Figure 42:Matrice de précédence modifiée du torréfacteur de soja à deux modules. ........... 138
Figure 43:Matrice de précédence des quatre modules du torréfacteur .................................. 139
Figure 44:Matrice de précédence des trois modules du torréfacteur ..................................... 139
Figure 45:Matrice de précédence des deux modules du torréfacteur .................................... 139
Figure 46:Gamme de désassemblage complète du torréfacteur de soja à quatre modules. .. 140
Figure 47:Gamme de désassemblage complète du torréfacteur de soja à trois modules. ..... 141
Figure 48:Gamme de désassemblage complète du torréfacteur de soja à deux modules...... 142
Figure 49:Topologie des modules du torréfacteur de soja (pour quatre, trois et deux modules)
................................................................................................................................................ 143
Figure 50:DSM du torréfacteur de soja à quatre modules ..................................................... 144
Figure 51:DSM du torréfacteur de soja à trois modules ....................................................... 146
Figure 52:DSM du torréfacteur de soja à deux modules ....................................................... 147
Figure 53:Evolution du MSI des quatre modules avec l’algorithme existant ....................... 151
Figure 54:Evolution du MSI des trois modules avec l’algorithme existant .......................... 152
Figure 55:Evolution du MSI des deux modules avec l’algorithme existant ......................... 153
Figure 56:Evolution du coût des quatre modules avec l’algorithme existant ....................... 156
Figure 57:Evolution du coût des trois modules avec l’algorithme existant .......................... 157
Figure 58:Evolution du coût des deux modules avec l’algorithme existant .......................... 158
Figure 59:DSM numérique du torréfacteur de soja à quatre modules................................... 159
x
Figure 60:DSM numérique du torréfacteur de soja à trois modules ..................................... 160
Figure 61:DSM numérique du torréfacteur de soja à deux modules ..................................... 161
Figure 62:Etude comparative du MSI corrigé du torréfacteur à quatre modules et de celui
obtenu avec l’algorithme existant .......................................................................................... 163
Figure 63:Etude comparative du MSI corrigé du torréfacteur à trois modules et de celui
obtenu avec l’algorithme existant .......................................................................................... 165
Figure 64:Evolution du coût de couplage corrigé en fonction de la taille des quatre modules
................................................................................................................................................ 169
Figure 65:Architecture du torréfacteur de soja avec les éléments intégrateurs ..................... 172
Figure 66:Correction du MSI avec et sans les éléments intégrateurs .................................... 173
xi
LISTE DES TABLEAUX
xii
Tableau 33:Première transformation de la matrice de relations ............................................ 128
Tableau 34:Deuxième transformation de la matrice de relations .......................................... 128
Tableau 35:Troisième transformation de la matrice de relations .......................................... 129
Tableau 36:Codification des composants du torréfacteur à quatre modules ......................... 145
Tableau 37:Nouvelle Codification des composants du torréfacteur à trois ou à deux modules
................................................................................................................................................ 148
Tableau 38:Degré de modularité des quatre modules du torréfacteur avec l’algorithme
existant ................................................................................................................................... 150
Tableau 39:Degré de modularité des trois modules du torréfacteur avec l’algorithme existant
................................................................................................................................................ 151
Tableau 40:Degré de modularité des deux modules du torréfacteur avec l’algorithme existant
................................................................................................................................................ 152
Tableau 41:Coût de couplage des quatre modules du torréfacteur avec l’algorithme existant
................................................................................................................................................ 155
Tableau 42:Coût de couplage des trois modules du torréfacteur avec l’algorithme existant 157
Tableau 43:Coût de couplage des deux modules du torréfacteur avec l’algorithme existant157
Tableau 44:Coefficients correcteurs du coût de couplage du torréfacteur à quatre modules 163
Tableau 45:Coefficients correcteurs du coût de couplage du torréfacteur à trois modules .. 164
Tableau 46:Coefficients correcteurs du coût de couplage du torréfacteur à deux modules .. 165
Tableau 47:Synthèse des coûts générés par l’algorithme existant et le nouvel algorithme sur
les quatre modules du torréfacteur ......................................................................................... 168
Tableau 48:Synthèse des coûts générés par l’algorithme existant et le nouvel algorithme sur
les trois modules du torréfacteur ............................................................................................ 170
Tableau 49:Synthèse des coûts générés par l’algorithme existant et le nouvel algorithme sur
les deux modules du torréfacteur ........................................................................................... 170
Tableau 50:Coefficients correcteur du torréfacteur de soja avec prise en compte des éléments
intégrateurs ............................................................................................................................. 172
Tableau 51:Coûts de couplage corrigé du torréfacteur de soja avec prise en compte des
éléments intégrateurs .............................................................................................................. 174
Tableau 52:Synthèse des coûts générés par l’algorithme de clustering proposé avec et sans
éléments intégrateurs .............................................................................................................. 174
Tableau 53:Comparaison des configurations obtenues avant et après implémentation de
l’algorithme de clustering amélioré ........................................................................................ 175
Tableau 54:Variation du coût de couplage du torréfacteur avec le nombre de modules ...... 176
xiii
LISTE DES ABREVIATIONS
AdD: Arbre de Défaillance
AFNOR : Association Française de Normalisation
AMDE : Analyse des Modes de Défaillance et leurs Effets
AMDEC : Analyse des Modes de Défaillance, de leurs Effets et de leur Criticité
BD : Bloc Diagramm
CA : Component Accessibility
CAO : Conception Assistée par Ordinateur
DSM : Design Structure Matrix
FAST: Function Analysis System Technique
FOSM: First Order Second Moment
IC: Indice de Couplage
IEC: International Electrotechnique Commission
IEEE: Institute of Electrical and Electronics Engineers
Iff : Indice de Fixations Faciles
MFD: Modular Function Deployment
MIM : Module Indication Matrix
MMT : Temps Moyen des Actions Préventives ou Correctives
MSI: Module Strength Indicator
MTBF: Mean Time Between Failure
MTBM : Mean Time Between Maintenance
MTI : Moyenne des Temps d’Indisponibilité
MTL : Moyenne des Temps Logistique
MTTR : Moyenne des Temps Techniques de Réparation
NASA : National Aeronautics and Space Administration
NF : Norme Française
OMF : Optimisation de la Maintenance par la Fiabilité
QFD: Quality Function Deployment
RCM: Reliability Centered Maintenance
RT : « Ready Time » ou Temps Moyens d’Attente
SMI: Singular Value Modularity Index
TPM: Total Productive Maintenance
URQ : Univariate Reduced Quadrature
xiv
LISTE DES SYMBOLES ET LEURS UNITÉS DE MESURE
Ai : facteur d’accessibilité du composant Ci,
Aji : facteur d’accessibilité du connecteur de type j fixant le composant Ci,
di : distance de déplacement du composant Ci pour le démonter de l’ensemble,
DC : coût de démontage,
Fi : facteur de force du composant Ci,
f(t) : densité de probabilité de temps avant défaillance ,
g(t) : densité de réparation en fonction du temps (t),
K0 : facteur constant tenant compte de l’espace, l’outillage, etc.,
Ks : facteur constant tenant compte de la sécurité du composant,
Kt : temps standard pour déplacer un composant de poids (masse) inférieure à Kw à une distance
di,
Kw : poids (masse) standard limite que peut soulever un opérateur source (lifting source),
LR : coût horaire,
M(t) : maintenabilité instantané,
𝑵𝒊,𝒋 : nombre de connecteurs de type j fixant le composant Ci,
Oi : facteur d’orientation du composant Ci,
Oji : facteur d’orientation du connecteur de type j fixant le composant Ci,
R(t) : fiabilité instantané,
Tj : temps standard de démontage d’un connecteur de type j fixant Ci,
Wi : poids (masse) du composant Ci,
λ(t) : taux de défaillance(pannes /heure),
𝝁(𝒕) : taux de réparation (réparations /heure).
xv
RESUME
Pour un équipement donné, la connaissance de son architecture modulaire présente
l’avantage de faciliter sa maintenance. En effet, lors d’un problème relevant de la maintenance,
on n’agit pas sur tout l’équipement, sauf sur le module défaillant et on gagne aussi en temps
pour détecter le défaut observé. Cependant, la définition d’une bonne architecture est
conditionnée par un choix judicieux des paramètres de conceptions, plus spécifiquement des
paramètres de désassemblage du fait que lors la phase initiale de conception, on intègre de plus
en plus les contraintes de désassemblage pour garantir une bonne désassembilité des
équipements pour des fins de maintenance. Suite aux difficultés majeures de maintenance des
systèmes de topologies complexes, la conception modulaire est donc un atout pour les
entreprises. D’autre part, la conception modulaire bien qu’elle présente des avantages de
standardisation et de reconfigurabilité est énormément onéreuse, ce qui nécessite plus de
ressources, plus de temps et plus de travail des concepteurs. Cela engendre des conséquences
sur la maintenance des équipements, car plus les modules de l’équipement sont complexes ou
plus denses, plus la maintenance est couteuse. Il est donc question dans cette thèse d’améliorer
la maintenance par la conception de la modularité. L’atteinte de cet objectif passe par une
méthodologie qui consiste d’abord à évaluer la meilleure solution de conception pour apprécier
la pertinence des contraintes de conceptions choisies, ensuite développer un outil qui s’appuie
sur l’algorithme de clustering existant , en ayant au préalable présenté les limites de
l’algorithme de clustering existant et enfin valider l’outil proposé en observant une réduction
en coûts de couplage des modules pour garantir une bonne maintenance et déduire une
reconfiguration de l’équipement.
xvi
ABSTRACT
For a given piece of equipment, knowing its modular architecture has the advantage of
facilitating its maintenance. Indeed, during a maintenance problem, we do not act on all the
equipment, except on the faulty module and we also gain time to detect the observed fault.
However, the definition of a good architecture is conditioned by a judicious choice of the design
parameters, more specifically of the disassembly parameters because during the initial design
phase, the constraints of disassembly are increasingly integrated to guarantee a good
disassembly of equipment for maintenance purposes. Following the major difficulties in
maintaining complex topology systems, the modular design is therefore an asset for companies.
On the other hand, the modular design although it has advantages of standardization and
reconfigurability is enormously expensive, which requires more resources, more time and more
work of the designers. This has consequences for the maintenance of the equipment, because
the more complex or denser the modules of the equipment, the more expensive the maintenance
is. This thesis therefore aims to improve maintenance by designing modularity. Achieving this
objective requires a methodology which consists first of evaluating the best design solution to
assess the relevance of the design constraints chosen, then developing a tool which is based on
the existing clustering algorithm, by having first presented the limits of the existing clustering
algorithm and finally validate the proposed tool by observing a reduction in module coupling
costs to guarantee good maintenance and deduce reconfiguration of the equipment.
xvii
INTRODUCTION GENERALE
La préoccupation majeure des industries manufacturières, il y a quelques années encore,
résidait essentiellement dans l’optimisation du triptyque coût/qualité/délai. Aujourd’hui, pour
rester compétitives, les entreprises doivent s’adapter aux changements qui s’opèrent dans le
marché où elles évoluent. Ce marché est caractérisé par une demande de produits (systèmes) de
plus en plus personnalisés, de qualité sans cesse croissante, disponibles en un minimum de
temps, aux moindres coûts et respectueux de l’environnement. On comprend, dès cet instant,
que toute cause d’arrêt du système de production due par exemple à un problème de
maintenance est mal perçue et peut être à l’origine de tensions entre acteurs de production et
chefs d’entreprises. C’est dans ce contexte que s’est développée ces dernières années une
approche par la modularité pour certaines structures industrielles. Grâce aux stratégies de la
conception modulaire, les entreprises proposent des produits issus de l’assemblage d’éléments
standards et spécifiques, permettant ainsi d’obtenir des produits personnalisés. Ces stratégies
constituent un bon compromis entre la pratique de la fabrication sur mesure et la standardisation
de produits et processus (Jose et Tollenaere, 2005). La fabrication sur mesure vise à la
satisfaction stricte de chaque besoin, mais conduit à une augmentation des coûts de production.
Quant à la standardisation, qui vise à proposer un produit unique permettant de satisfaire un
ensemble de besoins. Elle permet de diminuer le nombre de références à gérer et d’augmenter
les quantités de chaque composant avec les conséquences de réduction de la complexité dans
le système de fabrication. Elle présente l’inconvénient de proposer des produits
surdimensionnés. En effet, aux composants communs utilisés dans la fabrication des produits
divers, sont ajoutés des fonctions pas toujours utiles.
La démarche à suivre pour atteindre les objectifs est donnée comme suit :
2
Identifier et évaluer les paramètres de désassemblage qui conduisent à une
solution de conception satisfaisante ;
Présenter les fonctionnalités de la méthode de conception robuste sur laquelle
on s’appui, et en dégager les limites.
Sommairement, le présent mémoire retraçant nos recherches est composé de quatre chapitres
articulées comme suit :
Une démarche d’évaluation de la meilleure solution de conception d’un produit, au moyen d’un
indice-multi paramètres qui tient compte des paramètres de désassemblages et une application.
Une validation de l’outil proposé, en ajustant le degré de modularité et le coût de couplage des
modules et en générant une architecture et reconfiguration optimale du produit.
3
CHAPITRE I : ETAT DE L’ART ET PROBLEMATIQUE
I.1.2 La fiabilité
I.1.2.1 Définition
La fiabilité est ≪l’aptitude d’une entité à accomplir une fonction requise ou à satisfaire
les besoins des utilisateurs, dans des conditions données, pendant une durée donnée (AFNOR,
1988)≫. Le terme est un néologisme introduit dans les années 60 pour traduire le terme anglo-
saxon « reliability » et si on accepte de la considérer comme une science, la fiabilité est la
science des défaillances (Pagès et Gondran, 1980).
5
être indisponible ou sa performance peut tomber en dessous d’un seuil défini : il est alors
incapable d’assurer les fonctions requises, ce qui est évalué au regard de critères simples, d’une
part de défaillance potentielle dont le seuil associé est choisi de telle manière que si la
dégradation ne l’atteint pas, le risque de défaillance avant une autre visite est acceptable et qu’il
n’est pas nécessaire d’intervenir ; et d’autre part de dégradation qui se définit comme un état
du produit ou du système présentant une perte de performance de l’une des fonctions assurées
par le produit (AFNOR, 1988). Si les performances sont en dessous du seuil d’arrêt défini dans
les spécifications fonctionnelles, il n’y a plus dégradation mais défaillance (Nzié, 2006).
On évalue également la MTBF comme le rapport entre la durée cumulée de bon fonctionnement
et le nombre de défaillances observées.
La durée de vie utile
Gittard (2009) présente quelques méthodes permettant d’estimer la fiabilité d’un système.
Parmi ces méthodes, nous avons les arbres de défaillance (AdD), le bloc-diagramme de fiabilité
6
(BD), l’Analyse des Modes de Défaillance et leurs Effets (AMDE) et l’Analyse des Modes de
Défaillance, de leurs Effets et de leur Criticité (AMDEC).
Plusieurs secteurs d’activités, par exemple les secteurs pétrolier et nucléaire, et de nombreuses
entreprises comme EDF (Électricité de France) disposent des bases de données de fiabilités des
équipements qu’ils utilisent (Military Handbook – 217F, 1991 ; Smith, 2005).
Figure 1: Mise en place d'une boucle d'amélioration et d’un retour d'expérience (Cotaina et
al., 2000)
Yousfi (2014) définit l’OMF comme une méthode d’aide à la décision pour élaborer le
programme de maintenance préventive d’une installation, en respectant des contraintes et en
optimisant des critères. Les critères sont généralement : la disponibilité, la qualité du produit ou
7
du service rendu et les coûts d’exploitation. Parmi les contraintes, on trouve notamment la
sécurité des personnes et la préservation de l’environnement…
L’OMF permet de déterminer : où des actions préventives sont nécessaires (sur quels
matériels) ; quelles sont les actions à effectuer ; quand (avec quelle fréquence) doit-on les
réaliser. Pour cela, elle propose trois grandes phases (Yousfi, 2014) :
Une phase d’analyse du retour d’expérience, qui consiste à rechercher ce qui s’est
passé sur les matériels (en termes de fiabilité, de disponibilité et de coûts), et ce qui a
été fait comme actes de maintenance ou comme modifications.
Une phase d’évaluation des risques, qui consiste à envisager les événements graves
qui pourraient se passer (le possible), et qui met en œuvre les techniques d’analyse du
fonctionnement et du dysfonctionnement. Ce travail, qui se rapproche de celui du
concepteur, est ensuite complété par une prise en compte de l’historique de maintenance
plus proche de la vision de l’exploitant. Le possible et l’observé permettent d’envisager
le probable. C’est pour prévenir les défaillances qui présentent une gravité et qui ont des
chances de se produire qu’il faudra envisager d’effectuer des tâches de maintenance
préventive.
Une phase d’optimisation de la maintenance, qui détermine les tâches à effectuer et
leur fréquence en envisageant éventuellement des améliorations ou des modifications.
Ou bien
S
i (5)
N
8
Où 𝑅𝑆∗ et 𝑅𝑖∗ (ou 𝜆𝑆∗ et 𝜆∗𝑖 ) sont respectivement l’exigence de fiabilité (ou de taux de panne) du
système et l’exigence alloué au composant i.
Techniques des efforts égaux
L’idée ici est d’évaluer l’exigence de fiabilité allouée au système, connaissant la fiabilité
de chaque composant i du système en effectuant un produit des fiabilités des N composants.
N
RS Ri (6)
i 1
Ri RS
wi
(9)
𝜆𝑖 : taux de panne initial du composant i. 𝜆𝑖 peut être obtenu par exemple à partir des bases de
données.
Chaque composant se voit allouer une exigence de taux de panne proportionnel à son taux
de panne initial.
Méthode de faisabilité technique
Pour un système de N sous-systèmes i donné et en considérant chaque sous-système, l’idée
ici est de pouvoir évaluer son facteur de poids (𝑤𝑖 ), son facteur de complexité (𝐶𝑖 ) et son taux
de défaillance alloué (𝜆𝑖 ). L’évaluation de ces paramètres nécessite la connaissance de quatre
paramètres variant de 0 à 10 qui sont :
- de complexité, noté (𝑊1 ) ;
- d’état de l’art (𝑊2 ) ;
- de temps d’utilisation (𝑊3 ) ;
- de sévérité d’environnement (𝑊4 ) .
9
Le facteur de poids du sous-système est donné par :
wi W1i W2i W3i W4i (10)
Le facteur de complexité du sous-système est donné par :
wi
Ci N
(11)
w
i 1
i
i S .Ci (12)
10
La disponibilité moyenne peut être généralisée sur un intervalle de temps [𝑡1 , 𝑡2 ] ,
représentant par exemple une mission. On parle alors de disponibilité de mission, 𝐴𝑡2 −𝑡1 .
t2
1
At2 t1
T A(t )dt
t1
(15)
Dans la littérature, il existe trois types de disponibilité en régime qui dépendent de ce qu’on
inclut dans les définitions du temps de bon fonctionnement et du temps d’arrêt (Ireson, 1995 ;
Ebeling, 1997 ; Dhillon, 2002). Ces disponibilités sont présentées ci-dessous.
Disponibilité stationnaire ou asymptotique 𝑨∞
Elle représente la disponibilité du système dans un environnement idéal où les ressources
requises (compétences humaines, outillage, pièces de rechange, documentation, etc.) sont
disponibles . Le calcul de 𝐴∞ découle de la relation (13), lorsque t→∞. Cette expression prend
en compte uniquement les temps d’arrêt dus à la maintenance corrective. Les arrêts dus à la
maintenance préventive, les temps logistiques et les temps administratifs ne sont pas considérés.
On a alors :
MTBF
A (17)
MTBF MTTR
Disponibilité inhérente 𝑨𝒊𝒏𝒉
La disponibilité inhérente prend en compte les temps d’arrêt dus à l’exécution des tâches de
maintenance corrective et préventive. Elle est calculée selon l’expression (18). Les temps
administratifs et logistiques ne sont pas pris en compte.
MTBM
Ainh (18)
MTBM M
̅ représentent respectivement la moyenne des temps de fonctionnement entre les
MTBM et 𝑀
actions de maintenance préventive et corrective et la moyenne combinée des temps actifs de
maintenance corrective et préventive.
Disponibilité opérationnelle 𝑨𝒐𝒑
La disponibilité opérationnelle propre est donnée par l’expression :
MTBF MTBF RT MTBM
Aop (19)
MTBF MTI MTBF MTTR MTL MTBM MMT
11
Avec :
MTBF : Moyenne des Temps de Bon MTTR : Moyenne des Temps Techniques de
Fonctionnement réparation
MTI : Moyenne des Temps d’Indisponibilité MTBM : Temps Moyen Entre Actions de
RT : « Ready Time » ou Temps Moyens Maintenance Préventive ou Corrective
d’Attente, le système étant prêt à fonctionner MMT : Temps Moyen des Actions Préventives
MTL : Moyenne des Temps Logistique ou Correctives
Elle est aussi donnée par la relation :
To TA TM c . N
Aop (20)
To TM c . N TA
Avec :
To : Temps d’ouverture de la ligne ou temps TMc.N : Temps moyen de cycle x Nombre de
requis pièces produites
𝑻𝑨 : temps cumulés des arrêts propres
I.1.4 La maintenabilité
I.1.4.1 Définition
Plusieurs auteurs dans la littérature définissent la maintenabilité. C’est le cas de (IEC
60050-191, 1990 ; Military HandBook – 470A ,1997 ; ARMP-7, 2003).
Pour une entité donnée, utilisée dans des conditions données d'utilisation, la maintenabilité est
la probabilité pour qu'une opération donnée de maintenance active puisse être effectuée pendant
un intervalle de temps donné, lorsque la maintenance est assurée dans des conditions données
et avec l'utilisation de procédures et de moyens prescrits (IEC 60050-191, 1990 ; ARMP-7,
2003).
Une autre définition complémentaire fournie par le Military HandBook – 470A (1997)
est la suivante : la maintenabilité est la relative facilité et économie de temps et de ressources
avec laquelle un système peut être maintenu ou remis dans un état de fonctionnement
spécifique, lorsque la maintenance est exécutée par un personnel ayant les compétences
requises et utilisant les procédures et les ressources matérielles prescrites, à chaque niveau de
maintenance spécifié.
12
destinées à maintenir ou à rétablir un système dans un état spécifié ou dans des conditions
données de sûreté de fonctionnement, pour accomplir une fonction requise (Ait-Kadi et al.,
2004).
Comme la durée de vie pour la fiabilité, la durée de réparation lors de la maintenance
d’un système est une variable aléatoire dont la distribution cumulative est donnée par
l’expression (21).
Où g(t) est la fonction densité de probabilité du temps de réparation et µ (t) le taux instantané
de réparation.
Moyenne des temps techniques de réparation
La moyenne des temps techniques de réparation MTTR, qui est l’une des principales
mesures de la maintenabilité, est calculée à partir de l’expression (22)
MTTR t.g (t )dt
0
1 M (t ) dt
0
(22)
(t ) P(entité réparée surt, t t /elle n' était pas réparée sur 0, t ) (23)
Le taux de réparation peut s’assimiler à la proportion d’entités réparées sur [t, t + dt]
rapportées aux entités non réparées à l’instant t. En prenant un raisonnement similaire à celui
utilisé pour le calcul de l’intensité de défaillance λ(t) et à l’aide du théorème des probabilités
conditionnelles, on déduit après des calculs simples que :
g (t )
(t )dt (24)
1 M (t )
Densité de probabilité du temps de réparation
En combinant les relations (21) et (24), on en déduit que :
0t ( t ) dt
g (t ) (t ).e (25)
13
I.1.4.3 Critères de maintenabilité
Lors de la conception d’un système, plusieurs critères doivent être pris en compte pour
que sa maintenance soit facile, rapide et économique en ressources. Ces critères sont
généralement classés en deux groupes : les critères contextuels qui sont relatifs au contexte
d’utilisation et les critères intrinsèques qui sont inhérent au système (Menye, 2009).
Compétences
Equipe de maintenance
Disponibilités
Coût (salaire, embauche, licenciement ,…)
Quantité
Ressources matérielles
14
Température
Humidité
Environnement physique Précipitation (pluie, neige, etc.)
Composition de l’air
Radiation
Conditions Champs électromagnétique
environnementales
Vibrations
Chocs
Situation géographique
Saison
Luminosité
Etc.
Accessibilité
Elle se caractérise par la facilité avec laquelle un élément peut être atteint lorsque les
opérations de maintenance sont nécessaires. L’objectif visé, en la mettant en œuvre pendant la
conception, est de réduire les durées d’intervention directe sur l’équipement. La spécification
de l’accessibilité porte sur le temps d’accès à un composant, le nombre maximum d’unités à
déposer autour d’un composant donné pour atteindre celui-ci, la masse totale des unités à
déposer autour d’un constituant donné par rapport à la masse du composant lui- même, la
référence aux normes sur l’ergonomie et la sécurité. Sa mise en œuvre doit prévoir des
passerelles d’accès à hauteur adaptée, des dispositifs de déverrouillage lorsque pour des raisons
de sécurité, le système physique est protégé par un code ou un verrou. Suh (1990), a développé
une méthode quantitative de mesure de l’accessibilité d’un composant ou « Component
Accessibility (CA) » en phase de conception. Il définit la CA comme l’inverse de l’information
15
nécessaire à un agent d’assemblage idéal à manipuler le composant suivant une direction en
ligne droite sans collision vers une destination en présence d’autres composants assemblés. Son
aide permet au concepteur de choisir un arrangement optimal des composants pour les
opérations d’assemblage / démontage. L’information requise de la définition de la CA est
relative à la probabilité P de succès. Le contenu de l’information est défini par :
I = 𝑙𝑜𝑔2 (1/P) = 𝑙𝑜𝑔2 (1/ (espace accessible actuelle/espace accessible idéale)) (26)
CA = 1/I (27)
1
CA (29)
2
log 2 3
2
U j 1U k21 FV jk
n
3
n est le nombre d’obstacles et FVjk est le volume interdit induit par le 𝑘 𝑖è𝑚𝑒 triangle sphérique
de l’espace obstacle j. Pour j =1 :
1/ 2
4 S S ak S k bk S k ck
FVk tan 1 tan k tan k tan tan (30)
3 2 2 2 2
(Formule de trigonométrie sphérique)
obstacle.
Cette dernière méthode est intéressante, car elle permet de faire en conception des
allocations de l’accessibilité d’un composant. Nous notons aussi que la formule est appliquée
ici pour les obstacles de formes parallélépipédiques, donc n’est pas générale pour toutes les
formes qu’on pourra rencontrer dans l’environnement de la maintenance.
16
Démontabilité
17
Figure 2: Méthodes de planification de démontage (Shana et Hung, 2015)
La méthodologie de démontage sélective ou « selective disassembly methodology » de
Srinivasan permet d’analyser la démontabilité d’un modèle CAO. Elle se passe en trois étapes
qui sont : l’identification des composants à démonter, la détermination d’une séquence de
démontage optimale, la prise des décisions de conception du démontage à base de la séquence
évaluée (Srinivasan et al., 1999). Elle est implémentée dans un logiciel, A3D (Assembly and
Disassembly in 3 dimensions) et permet de faire en conception des évaluations et allocations
importantes de maintenance suivantes : Le temps pour démonter les connecteurs fixant les
composants de la séquence S, pour Ci composant de S,
DTF N i , j T j A ji O ji (31) pour Ci composant de S,
i j
Le temps pour démonter les composants de S (les connecteurs étant déjà démontés),
W F
DTC Ai Oi K t d i i i (32) pour Ci composant de S,
i Kw
Le coût de démontage :
Cependant, cette méthode suppose que les mouvements relatifs des composants sont
déterminés sans considération des outils, que les ensembles sont sans frottement et définis par
une géométrie nominale (généralement en maintenance, les composants ont été soumis à
l’usure, la corrosion, etc.), que les composants se démontent de l’ensemble suivant un simple
mouvement rectiligne et qu’un composant n’est démontable qu’après le démontage d’un
composant adjacent, que le démontage est séquentiel, monotonique (un composant est
totalement démonté pendant son démontage). Or la simultanéité de démontage est courante en
maintenance.
Connectique
C’est un véritable critère de maintenabilité, en ce sens qu’elle permet le démontage rapide
des éléments défaillants ainsi que leur rechange et aussi certains aspects de la testabilité. En la
construisant bien, l’objectif pour l’acteur de maintenance est de faciliter le remplacement des
éléments défaillants, de permettre certain test fonctionnel et de diagnostic, afin de réduire les
temps de dépose – pose et les temps de diagnostic et de validation. Globalement le travail du
dépanneur devient facile et le temps d’immobilisation et donc d’indisponibilité du système
réduit. La connectique se spécifie par le nombre maximal de connexions / déconnexions des
éléments associés, la force à développer pour exécuter la connexion / déconnexion, la qualité
des liaisons.
19
d’assemblage. Si un événement dans une étape i est Ai, il y a A1, A2, …. An événements associés
dans le processus global.
1 1
PA (34)
I produit 1
log 2
P A1 A2 ... An
On note dans cette étude qu’un événement est associé à un seul composant à la fois. Or,
n’a-t-on pas toujours vu que des écrous d’une bride sont montés à la fois ?
Il est clair que les résultats de l’étude sont incontestablement d’un apport bénéfique pour la
reconception des produits. En effet, elle fournit une possibilité de comparaisons des alternatives
en fonction des CA. Cependant, elle ne généralise pas la forme des composants (par exemple
la forme concave des faces), la direction d’assemblage est toujours une ligne droite, ce qui n’est
pas toujours le cas dans un environnement complexe de maintenance. Concevoir un composant
est une chose. Une autre chose est la conception d’un système de plusieurs composants où
l’intégrité structurelle et fonctionnelle est un amalgame complexe des composants. Quand on
est en présence d’un tel système, quatre tâches de conception, dont l’acteur de maintenance est
partie prenante, s’imposent pour la mise en œuvre de la connectique :
o Identifier par le moyen d’une décomposition structurelle les éléments qui composent le
système ;
o Définir la nature des liaisons structurelles entre éléments constitutifs ;
o Si nécessaire, établir chaque fois les exigences fonctionnelles de ces liaisons ;
o Concevoir les liaisons.
Comme c’est le cas pour les composants technologiques structurels, pour le quatrième point
(Concevoir les liaisons pour configurer la connectique), il incombe au concepteur mainteneur
de participer au choix de (s) : matériaux, configuration, géométrie, exigences de process (tels
que les détails de fabrication, assemblage, charge). Cependant, nous ne devons pas oublier
qu’un excès de connectique peut nuire à la fiabilité. En effet, elle est souvent un point de
fragilité des systèmes par sa nature mécanique et technologique et par l’usure engendrée par la
fréquence des démontages des éléments. Le choix d’une bonne connectique doit donc être
motivé par des considérations de fiabilité.
Détectabilité
20
de réduction des temps d'investigation. La réalisation d'une AMDEC amène le concepteur à
évaluer le critère « détectabilité » et à proposer des solutions si nécessaires.
Elle concerne les modules qui nécessitent un échange standard en préventif ou en cas de
défaillance. Elle concerne les liaisons à supprimer pour isoler le module de son ensemble.
Prenons l'exemple d'un groupe moteur électrique / pompe centrifuge : la dépose se rapporte à
l’électricité (consignation, accès au bornier, connectique), à l'hydraulique (vannes d'isolement,
vidange, boulonnerie des brides), à la mécanique (boulonnerie de la fixation). Des solutions
plus ou moins rapides existent pour faciliter chacune de ces opérations de maintenance.
Quelques problèmes à optimiser pour améliorer l'aptitude à la pose / dépose :
Réduction du nombre de liaisons ;
Réduction du nombre d'outils à utiliser (standardisation des liaisons) ;
Assurer un pré positionnement à la pose : repères, tétons de centrage, rails de guidage ;
Absence de réglages, préférable à des réglages longs et délicats ;
Facilité d'accès.
Notons que l'interchangeabilité d'un module se fait souvent en « temps réel »
d'indisponibilité de l'équipement, contrairement à sa remise en état réalisée en temps différé.
Son aptitude à la dépose est donc un facteur de disponibilité de l’équipement.
Standardisation
Elle vise à la simplification par réduction aussi bien en matière de fabrication que de
logistique et de maintenance. En maintenance, elle s'exerce à tous les niveaux techniques et
commerciaux, en permettant la réduction des stocks aussi bien que la rapidité et la simplicité
des interventions. Prenons quelques exemples :
Les équipements : il est plus facile de maintenir 10 machines de même type que de types
différents.
Les technologies : il est plus facile de se tenir à un modèle d'automate et de former les
techniciens à sa programmation que de multiplier les formations.
Les modules : utiliser 20 moteurs électriques ou 20 pompes centrifuges identiques offre
plus de facilité d'organisation de la maintenance que s'ils étaient tous différents.
Les outillages : démonter tout un module avec une clé de 13 est plus simple que d'avoir
à inventorier toute sa caisse à outils.
21
Les composants élémentaires : quincaillerie, visserie, graisseurs, robinets, trappes de
visites, interrupteurs sont autant d'éléments qu'il est facile de standardiser.
Les lubrifiants et leur fournisseur : ne pas suivre les préconisations par références de
marque, qui conduiraient à une profusion de fûts. Il existe des tableaux d'équivalence et
il suffit de 5 types d'huile et de 2 types de graisse pour assurer la lubrification d'un site
industriel.
Les procédures : standardiser leur présentation facilite l’exploitation.
Les fournisseurs : un équilibre est à trouver entre le monopole accordé à un fournisseur
privilégié et la multiplication des sources.
Notons que la normalisation est un outil de standardisation, qui elle-même facilite
interchangeabilité.
Modularité
Pour la simplification de la fabrication d’un équipement et pour l’amélioration de sa
maintenance, c’est ce critère de maintenabilité que nous allons prendre en compte dans le cadre
de nos travaux.
D’après Nzie (2006), un module est une association de composants reliés physiquement,
groupés dans le but de constituer un sous-ensemble aisément démontable et remplaçable.
Souvent considéré comme un critère de conception, la modularité l’est d’avantage pour la
maintenabilité, car il permet de concevoir des sous-ensembles fonctionnels démontables et
interchangeables, utilisables indifféremment dans des fonctions distinctes ou même sur des
matériels différents. La modularité du produit se spécifie par rapport : à la masse et
l’encombrement maximal de ses modules, en fonction de l’aptitude à la manutention, à son
analyse fonctionnelle, aux normes spécifiques (par exemple la taille des tiroirs), au nombre
maximum de références utilisées.
22
d'un atelier de fabrication.
Dans le cas d'un composant, il doit être fabriqué dans le respect des spécifications et des
tolérances normalisées (joint d'étanchéité, coussinet de palier, etc).
Cela offre une gamme large de solutions pour organiser une intervention.
L'interchangeabilité suppose le respect des normes (ajustements, filetages, produits, lubrifiants,
raccords, connexions, etc).
A la section suivante, nous allons faire une recension des travaux portant sur la modularité,
afin de positionner le problème lié à la modularité.
La modularité est une façon de concevoir une structure dans le but d’en réduire sa
complexité. La nature des interdépendances entre les composants et la façon dont ils
s'interfacent ont des implications profondes sur la complexité structurelle. Manipuler cette
complexité peut être fait par la réduction du nombre d'unités et en groupant ces unités dans des
sous-systèmes. La réduction de la complexité passe par la réduction des interdépendances entre
les composants à travers des sous-systèmes (Langlois, 2002). Les composants sont appelés des
modules.
23
Figure 3 : Visualisation de la modularité
En gestion industrielle, la modularité est étudiée depuis les années 1960. Une première
contribution est faite par Starr (1965) qui propose que la production modulaire soit un moyen
d'augmenter la variété d'offres de produits pour satisfaire aux exigences du marché sans sacrifier
l'efficacité dans la production. Starr (1965) indique que la conception des parties du produit est
essentielle pour la production modulaire parce que « c'est l'essence du concept modulaire pour
concevoir, développer et produire ces parties qui peuvent être combinées d’un grand nombre
de façons ». Le concept de modularité est fondé sur trois principes de construction d’un système
complexe : la quasi-décomposabilité des modules, l’attache lâche entre les modules et
l’interfaçage par standardisation.
Selon Simon (1969), la construction du produit est imaginée pour potentiellement être
considérée comme quasi-décomposable. La décomposition en modules est essentiellement une
façon de gérer la complexité.
La quasi-décomposabilité signifie qu’il peut y avoir des niveaux différents d'analyse et par
conséquent, des niveaux différents de modularité. De plus, le même module peut faire partir de
systèmes différents. Enfin, il existe des unités minimales qui sont les plus petits composants,
non décomposables. Donc, le degré de modularité dépend du type de système dans l'analyse,
peut varier avec l'unité d'analyse, doit être mesuré le long d'un continuum d'une structure
intégrale à un module élémentaire et peut changer au fil du temps, puisque la modularité est
aussi un principe de reconfiguration. Chaque système est modulaire dans une certaine mesure :
très peu de systèmes sont composés de parties qui interagissent et s'affectent si fermement qu'il
24
n'y a aucune occasion de reconfigurer les sous-systèmes. En outre, Alexander (1971) indique
explicitement l'importance de cette notion pour l'adaptabilité de systèmes : « Aucun système
adaptatif complexe ne réussira son adaptation dans un temps raisonnable à moins que
l'adaptation ne puisse passer par le sous-système, chaque sous-système étant relativement
indépendant des autres ».
Weick (1976) a proposé la notion d’attache lâche (loose coupling) comme une façon de
capturer la nature de la coordination des modules qui ne sont pas identifiés par « des mots
comme la connexion, le lien, ou l'interdépendance ». L’attache lâche des modules véhicule des
connotations éphémères, dissolubles dans le temps et de la colle « qui maintient des
organisations ensemble ». Comme la notion de Simon (1969) de quasi-décomposabilité des
systèmes, le concept d’attache lâche embrasse l'idée que la plupart des systèmes ne sont ni
entièrement détachés, ni accrochés entièrement, mais plutôt presque décomposables avec des
liens lâches. Cela permet ainsi la compréhension d'organisations comme les systèmes qui sont
ouverts et fermés en même temps. L’attache lâche signifie que les modes de coordinations
présentés en infra (contractualisation, ajustement mutuel, standardisation des flux ou la
planification des tâches) doivent exister mais que chaque module doit aussi avoir un degré
d’autonomie afin de pouvoir être séparé et recollé ailleurs, ou modifié, ou reconçu et donc
permettre au manager de faire de la reconfiguration continuelle.
L’interfaçage
Baldwin et Clark (1997) soutiennent que dans un système modulaire, chaque module
communique et interagit avec les autres via les interfaces qui permettent le découplage des
modules. La coordination passe par la définition de lois de structuration et de paramétrage. La
standardisation est selon eux le mode de coordination le plus adapté à la construction modulaire.
Les lois visibles de structuration (appelées aussi informations visibles) sont des processus de
construction et d’assemblage des modules permettant de spécifier que chaque module est une
partie d’un système entier et quelles seront les fonctions de chaque module ; le rôle des
interfaces et la façon dont les modules interagissent entre eux ; les standards de collectes
d’informations et de mesures de performance. Les lois invisibles de paramétrage (appelées aussi
informations cachées) sont des lois internes à chaque module, n’affectant pas la modularité
générale.
25
Ces principes de structuration d’un système permettent alors plus facilement de sous-traiter
un module ou de récupérer une technologie via l’intégration d’un nouveau module.
Une synthèse de ces principes avec leurs définitions est présentée ci-après.
26
conception. Ensuite nous présentons un état de l'art des travaux sur les DSM (Design Structure
Matrix), afin de présenter les représentations équivalentes d’un système.
En France, De Rosnay (1975), Le Moigne (1977), Morin (1977, 1992) et Simon (1997)
ont contribué à développer une théorie, voire "une science des systèmes”, qui se veut d'abord
interdisciplinaire et qui vise à rendre compte de phénomènes complexes, en perpétuelle
évolution, irréductibles à un modèle analytique de type causal et déterministe. Le macroscope
De Rosnay (1975) est un des principaux ouvrages français d'initiation à l'approche système. Il
présente les concepts de causalité circulaire (et non plus seulement linéaire) et l'importance du
rôle de la rétroaction (feed-back).
Le paragraphe suivant précise une autre définition d'un système et présente les principes
utiles pour la modélisation de son architecture.
27
Le concept d'architecture sera utilisé par la suite dans un sens proche de celui que Morin
(1977) donne au concept d'organisation. Une architecture sera alors une représentation de
l'agencement des relations.
Un système artificiel ou artefact (Simon, 1997 ; Micaelli et Forest, 2003) est conçu et
agencé intentionnellement, pour répondre à des besoins (fonctions de service ou missions du
système). L’artefact existe non de lui-même, au contraire d’une chose naturelle, mais parce
qu’il a été conçu de sorte à assurer sa fonction (Searle ,1998).
Le système peut être lui-même intégré dans différents sur-systèmes, selon les points de
vue considérés. Il peut adapter ses frontières et son organisation, afin de prendre en compte
l'évolution de son environnement ou pour améliorer son fonctionnement (régulation,
apprentissage et pilotage) (Probst et Ulrich, 1989).
L'approche système consiste à considérer un système comme une entité dynamique qui
entretient avec son environnement des interactions finalisées (approche téléologique, externe,
par la pertinence). La modélisation du système s'effectue ensuite à partir des interactions
mutuelles entre ses constituants (approche interne, par la cohérence), qui lui confèrent un
comportement global cohérent (intégration, émergence).
En vue externe, le système est représenté comme une boîte noire échangeant des flux
avec son environnement, ainsi que par des scénarios d’échange (flux d'intrants et d'extrants)
permettant de fournir des prestations de service à des entités de son environnement, avec
lesquels il va interagir au cours de son cycle de vie. Le cycle de vie se décompose en différentes
phases de vie, et chaque phase, en modes de fonctionnement. Les prestations attendues par les
destinataires correspondent aux missions ou fonctions de service du système. Celles-ci sont
28
quantifiées selon les performances attendues et spécifiées par leurs critères d’appréciation. La
méthode traditionnellement utilisée pour élaborer la vue externe est l'Analyse Fonctionnelle.
29
Le système peut être considéré comme un ensemble de processus de fonctionnement qui
décrivent l’enchaînement des activités des constituants du système, afin de restituer les
fonctions de service et leurs performances.
Même si la modélisation dynamique d'un système est primordiale pour certaines activités
de conception comme la détermination des lois de commande ou l'analyse des modes de
fonctionnement / dysfonctionnement, nous ne présenterons pas les travaux de recherche
concernant les langages et outils de modélisation dynamique, car ils sont en dehors de notre
champ de recherche. Une comparaison de langage et d'outils pourra être trouvée dans (Baron,
2005).
e. Complication et complexité
Nous n'entrerons pas dans un débat philosophique sur le sens de ces termes, mais il est
intéressant de préciser leur différence.
La complexité est une propriété à la fois structurelle et dynamique. Pour Micaëlli et Forest
(2003), un système est complexe s’il doit être appréhendé à l’aide de différentes vues (ou
modèles), appariées par des relations non triviales (aspect structurel), et si cette modélisation
ne permet pas de rendre compte de l'ensemble des états possibles du système du fait de sa
dynamique (aspect dynamique).
30
Il s’agit d’abord d’identifier et d’apparier plusieurs vues (ou modèles), une seule, isolée, ne
pouvant suffire (Suh, 1990 ; Simon, 1997). Par exemple pour un artefact, vue fonctionnelle et
vue organique ou pour un acteur, vue cognitive et vue collective.
La première considère que l'architecture d'un produit réside essentiellement dans les choix de
passage de l'espace fonctionnel à l'espace organique, chacun de ces espaces ayant aussi une
architecture propre. La seconde considère que l'architecture est une vue interne à un ensemble
d'éléments inter-reliés.
Les travaux de deux auteurs, Ulrich et Eppinger, sont fréquemment cités par les chercheurs
travaillant sur l'architecture de produit. Ulrich et Tung (1991) et Ulrich (1995) définissent
l’architecture du produit comme :
En France, le point de vue de Meinadier (2002) sur l’architecture du produit rejoint celui
d’Ulrich. On parle alors d’architecture fonctionnelle et d’architecture organique. Au cours des
décompositions conduisant à ces architectures, les exigences sont allouées (réparties) sur les
éléments de la décomposition et les interfaces sont définies. La Figure 4 présente une allocation
des fonctions aux constituants.
31
Figure 4 : Allocation des fonctions aux constituants (Meinadier, 2002)
D'autres définitions du concept d’architecture se rejoignent sur le fait que l'architecture d'un
système est la description des éléments qui le composent et des interactions qui les lient
(Pimmler et Eppinger ,1994 ; Van Wie et al., 2001 ; Crawley et al., 2004 ; Chen et Liu, 2005 ;
Holtta-Otto, 2005). Dans le cadre de la conception concourante, cette définition est enrichie par
la prise en compte de l'ensemble du cycle de vie du produit : "l’architecture du produit est la
structure des composants, leurs interactions et les principes qui gouvernent leur conception et
évolution tout au long du cycle de vie" (Dahmus et al., 2001).
- Une architecture modulaire, dans laquelle l’espace des fonctions peut être décomposé
en sous-ensembles de telle manière que chaque sous-ensemble impacte distinctement
un ou un ensemble de composants. Cela rejoint le concept de conception découplée,
défini par (Suh, 1990).
- Une architecture intégrale, dans laquelle toutes les fonctions et tous les composants sont
fortement liés. Cette définition rejoint le concept de conception couplée, défini par Suh.
32
Sosa et al. (2003) proposent d'introduire un autre type d'architecture, qui est plus proche
des cas réels : une architecture hybride composée à la fois de modules (groupements
d’éléments) et d’éléments intégrateurs, un élément pouvant être une fonction, un constituant...
Nous appuyant sur les travaux précédents ainsi que sur ceux de Baldwin et Clark (2000), nous
définissons ainsi les concepts de module et d'élément intégrateur :
- un module est une entité constituée d'un ensemble d’éléments fortement liés entre eux et
faiblement liés à d’autres éléments externes au module.
- un élément intégrateur est un élément appartenant à un module qui interagit fortement en
nombre ou en intensité avec des éléments appartenant à d’autres modules.
L'intérêt de cette définition est sa cohérence avec une représentation matricielle des
interactions entre les éléments d'un domaine et l’utilisation d’un algorithme pour identifier une
architecture « optimale" de ce domaine.
Dans cette partie, nous présentons d’abord la modularité et les familles de produits.
Ensuite nous présentons les avantages et les inconvénients de la conception modulaire. Nous
réalisons ensuite une synthèse bibliographique sur les méthodes de modularisation d'un produit.
Enfin, nous présentons succinctement les outils matriciels de représentation d'une architecture
(DSM et matrices d'incidence) et positionnons le problème lié à la modularité.
33
La conception modulaire consiste à assembler un produit à partir de modules fonctionnels.
Un module est constitué d’un ensemble d’éléments fortement liés entre eux et faiblement à
d’autres éléments externes au module (Baldwin et Clark, 2000).
Une famille de produits est un ensemble de produits ayant une ou plusieurs similarités dans
leurs caractéristiques (fonctions, composants, processus d’assemblage, technologie) qui
satisfont les exigences particulières des clients. Chaque produit individuel de la famille de
produits est appelé variante du produit.
Dans sa thèse, Mtopi (2006) utilise une autre typologie plus adaptée aux familles de
produits.
34
I.2.3.2.2 Avantages et inconvénients de la conception modulaire
Dans les mémoires de thèse de Mtopi et de Harmel, nous avons dressé un inventaire des
avantages et inconvénients de la conception modulaire (Huang, 2000 ; Baldwin et Clark, 2000 ;
Oosterman, 2001 ; Holtta et Salonen, 2003). Retenons ici les quatre points essentiels :
- Aider à maîtriser la complexité en séparant le système en modules inter-reliés, avec une
définition appropriée des interfaces entre modules. Cette approche permet d'envisager
des opérations de maintenance ou des évolutions technologiques de modules au cours
du cycle de vie du système, sans affecter l'ensemble du système (Newcomb et al., 1998 ;
Dahmus et. al., 2001).
- Permettre des économies d’échelle : lorsqu’on augmente les quantités de production,
on réduit les coûts par un meilleur amortissement des coûts fixes. Or, la conception
modulaire permet la réutilisation de certains modules ou composants (standardisation)
et donc l’augmentation des quantités (Sanchez, 1999). Cela permet aussi de générer de
l'économie de variété.
- Réduire les délais de développement ("Time to market") par une optimisation des
processus de conception (Browning (1998, 1999)). Si les interfaces entre les composants
sont bien définies, il est possible de paralléliser les activités de conception, et donc de
réduire les délais de développement.
- Faciliter la mise en place d’équipes de conception, adaptées à l’architecture du produit.
Les échanges entre équipes et leur coordination sont prévus dans le cadre du
management. Ils sont réduits par une définition appropriée des interfaces (Baldwin et
Clark, 1997 ; Ulrich et Eppinger, 2000 ; Blackenfelt, 2001 ; Sosa et al., 2003). Se
spécialisant sur la conception d'un module, l'équipe développe une compétence
collective qui peut devenir stratégique si elle est source d'innovation et d'avantage
compétitif (Sanchez et al., 1996). Elle favorise aussi l'externalisation du développement
de modules.
35
- Plusieurs auteurs affirment qu’une architecture modulaire est un frein pour la
conception de produits performants à cause du compromis que réalise une architecture
modulaire parmi tous les produits.
- La conception modulaire peut engendrer des surcoûts, si par soucis de conserver les
mêmes interfaces, on remplace un composant par un autre plus cher.
Cette synthèse montre que les entreprises s’engageant dans une stratégie de conception
modulaire de ses produits peuvent en tirer des bénéfices importants, mais doivent être
conscientes des limites et des risques de la modularisation.
Développé par Stone (1998) et Stone et al. (2000), elle est basée sur trois heuristiques
qui permettent d’identifier les modules fonctionnels d’un produit. Un ensemble de fonctions de
ce produit interagit par des flux d’informations (flux dominants, flux ramifiés, flux convertis)
pour former des modules physiques (Figure 5). Les principaux critères de modularisation sont
fonctionnels et indépendants de l’architecture physique du produit. Les trois heuristiques sont :
Heuristique des flux dominants : elle examine les flux à travers une arborescence
fonctionnelle et suit les flux jusqu’à ce qu’ils sortent du système ou subissent une
transformation. Elle conclut que s’il existe un ensemble de fonctions à travers lesquelles
un flux passe jusqu’à la sortie ou la transformation, alors ces fonctions forment un
module.
36
Heuristique des flux ramifiés : elle examine les flux divergents ou convergents issus
de chaînes de fonctions parallèles. Chacune de ces chaînes peut devenir un module dont
l’interface correspond au point de branchement de la chaîne.
Zamirowski et Otto (1999) proposent trois heuristiques additionnelles pour identifier les
fonctions partagées dans un produit unique ou dans une famille de produit et les fonctions
uniques propres à un produit donné. Ainsi, les fonctions qui partagent des flux similaires ou qui
apparaissent plusieurs fois peuvent être regroupées pour former un unique module. Les
fonctions uniques sont celles spécifiques à un seul produit, elles peuvent être regroupées pour
former un module.
Cette méthode est présentée comme étant idéale pour la conception de famille de produits
d’après Holtta et Salonen (2003), mais elle présente le défaut d’être dépendante de
l’interprétation et de la décision humaine. Elle ne peut pas être automatisée et de ce fait ne peut
pas être appliquée sur des produits complexes (Otto et Wood, 2001). Pour des présentations
plus approfondies de cette méthode et surtout de la démarche de mise en œuvre, nous
conseillons la lecture des travaux de (Dahmus et al. 2000 ; Otto et Wood, 2001 ; Holtta et
Salonen, 2003).
37
b) Méthode MFD (Modular Function Deployement)
C’est une méthode de modularisation plus orientée management qu’ingénierie. Elle a été
développée par (Erixon, 1996 ; Ericsson et Erixon, 1999) et est dédiée à la modularisation d’un
seul produit. Dans cette méthode, des critères de modularité autres que la fonctionnalité sont
considérés. Il y a douze critères de modularité dans la méthode MFD (Tableau 3).
Un ou quelques critères de modularité sont choisis en fonction de la stratégie de développement
de produit modulaire de l’entreprise. L’entreprise applique ensuite la démarche de MFD qui
comprend cinq étapes :
1. Clarifier la spécification du produit en utilisant une matrice QFD avec les pilotes de
modularité qui remplacent les besoins des clients.
2. Analyser les fonctions et sélectionner les solutions techniques.
3. Identifier les modules possibles en utilisant la matrice MIM (Module Indication Matrix).
Celle-ci sert à examiner les corrélations entre les critères de sélection de modules (normalement,
ce sont les critères en relation avec les activités du cycle de vie du produit, par exemple facilité
de conception, recyclage, etc.) et les composants sélectionnés dans l’étape antérieure. Un
questionnaire est fourni pour soutenir cette activité. Les composants (verticalement) sont
évalués par rapport aux critères (horizontaux) selon le questionnaire fourni (Figure 6). Les
composants avec une meilleure note sont appelés « porteurs ». Le reste des composants qui ont
une bonne note dans les mêmes critères que les composants porteurs sont assemblés avec ces
derniers pour former des modules.
4. Évaluer les concepts en testant les interfaces entre les modules.
5. Améliorer chaque module.
L’identification des modules selon la méthode MFD se fait en classant les fonctions selon un
score croissant. Les fonctions participant à un même critère de modularité sont candidates pour
former un module.
38
les interfaces de sorte que la
nouvelle technologie puisse
être introduite sans remettre
en cause l’ensemble du
produit.
Modifications planifiées L’entreprise a l’intention de
développer et de changer
certaines parties du produit.
Variabilité Spécifications variables Pour prendre en compte la
personnalisation des produits
efficacement, un concepteur
devrait tâcher d’assigner
toutes les variations à un
petit nombre de composants.
Style Les modules de style
contiennent les composants
qui peuvent être altérées
pour créer des variations du
produit.
Production Unité en commun Les composants et fonctions
en commun entre plusieurs
produits permettent le
partage d’une unité de
production.
Processus et/ou organisation Des pièces exigeant le même
processus de production sont
groupées ensemble.
Qualité Essais séparés La possibilité de tester
séparément chaque module
avant la livraison à
l’assemblage final peut
contribuer à l’amélioration.
Achats Disponibilité des Modules standard d’achat
fournisseurs disponibles chez les
fournisseurs externes.
Après-vente Service et maintenance Les composants nécessitant
une maintenance peuvent
être groupés ensemble pour
former un module qui
facilite les opérations de
remplacement et de
réparation.
Amélioration Il faut donner aux clients la
possibilité de faire évoluer
leur produit.
Recyclage Le nombre de matériaux
dans chaque module devrait
être limité. Les matériaux
facilement recyclables
39
peuvent former un module
séparé.
Ces limites font que, nous opterons pour une autre méthode de modularisation, à savoir la
méthode de clustering des matrices DSM. Celle-ci permet à la fois de modéliser les
40
architectures par les DSM et de générer des architectures modulaires « satisfaisantes », à travers
l’utilisation d’un algorithme de clustering.
DSM est l’acronyme de « Design Structure Matrix » ce qui est traduit par matrice
structurelle de conception. Dans la suite de ces travaux, nous allons utiliser le terme DSM
pour faire référence à une matrice structurelle.
Une DSM est un outil de modélisation, utilisé dans les projets de conception et dérivé
des matrices binaires avec l’introduction de nouvelles capacités et possibilités. Nous présentons
dans ce qui suit les fondements de cet outil matriciel et ses apports dans la modélisation des
domaines d’un projet.
41
a) Les DSM temporelles
Les deux sous-classes les plus connues des DSM temporelles sont les DSM processus et les
DSM paramètres.
Les DSM Processus. Elles permettent de modéliser l’enchaînement des tâches de tous les
processus de l’entreprise. Dans l’entreprise, les tâches déterminent principalement l’allocation
des ressources et servent de base pour estimer la durée et le coût du projet. C’est pourquoi les
deux grands domaines d’application des DSM temporelles sont :
L’optimisation des processus du point de vue coût et délais : nous citerons les travaux
de Yassine et al. (2001) sur les probabilités de reconception, ceux de Carrascosa et al.
(1998) sur l’estimation des délais de conception et ceux de Browning et d’Eppinger
(2002) sur le lien entre le séquencement des tâches et les coûts de développement.
L’optimisation des processus pour la conception des équipes de conception : nous
citerons les travaux de (Eppinger et al., 1994 ; Browning ,1999 ; Braha, 2002 ; Chen et
Lin, 2003).
Les DSM Paramètres. Elles ont été initialement utilisées pour modéliser les relations de
précédence et les contraintes entre les paramètres et variables en conception. Elles s’appliquent
plus généralement à tous les systèmes dont les éléments ne sont pas homogènes. Elles
permettent d’optimiser les boucles de conception entre groupes de paramètres (Browning,
2001).
L’objectif général lorsqu’on analyse des DSM temporelles est de réorganiser les éléments
en ligne et en colonne de manière à réduire les retours en arrière lorsqu’il s’agit de tâches, ou
d’identifier une hiérarchie entre les éléments. Sur la figure 8, si on considère que les activités
s’enchaînent de A vers K, alors on remarque qu’il y a trois retours en arrières (les croix au-
dessus de la diagonale).
42
Figure 8 : Exemple de DSM temporelle
Le partitionnement est le processus de réorganisation des lignes et des colonnes d’une
DSM temporelle de sorte qu’on réduise les interactions représentant les retours en arrière. Cela
revient à rendre la DSM le plus possible triangulaire. Cependant cette action n’est pas toujours
synonyme de réduction de la durée globale du processus modélisé. En effet, l’exemple en figure
9 montre un processus composé de 7 tâches dont les relations de précédence sont modélisées
par une DSM. La figure 9 (a) montre le résultat du partitionnement qui a pour but de réduire
les boucles en arrière, on remarque qu’on a uniquement deux sauts en arrière de E vers A et de
F vers C. On suppose que le processus en question est fini lorsqu’on passe au moins une fois
par toutes les tâches et que toutes les tâches ont des durées équivalentes, alors on obtient
l’enchaînement suivant (A, E, C, F, B, A, C, A, D, B, E, D, F, E, G, F) avec 16 tâches. On
remarque alors, que plus les interactions sont éloignées de la diagonale, plus la boucle est
grande.
Pour remédier à ces problèmes d’allongement des processus, une alternative est de
réarranger les lignes et les colonnes des DSM temporelles de manière à ce que les interactions
soient les plus proches de la diagonale. Ainsi, on augmente le nombre des boucles arrière, mais
ces boucles seront plus courtes. La figure 9 (b) montre qu’avec la deuxième technique de
séquencement, on obtient 4 boucles mais un processus plus court (A, E, E, D, D, B, C, F, E, A,
F, C, G, F) avec 14 tâches.
43
(a) (b)
Figure 9 : Deux résultats de partitionnement d’une DSM
Les DSM statiques par opposition aux DSM temporelles permettent de modéliser d’une
manière non hiérarchique les interactions entre les constituants d’un système, ce système
pouvant être un produit ou une organisation.
Historiquement, les DSM statiques binaires ont été choisies d’après Kusiak et al. (1993)
pour modéliser l’architecture des produits et modéliser les interactions qui lient leurs
composants. Ces DSM sont binaires et permettent d’identifier l’existence ou non d’un type
d’interaction étudiée. Les DSM statiques binaires sont encore utilisées malgré l’apparition des
DSM numériques (Bohm et al., 2004).
Une DSM Produit modélise les interactions entre les constituants d’un produit. Pimmler et
Eppinger (1994) proposent une taxonomie (tableau 4) permettant de différencier les différents
types d’interactions. Cette taxonomie permet ainsi de construire des DSM produits où les
cellules, autres que les diagonales, contiennent des vecteurs de dimension 4 contenant des
valeurs binaires.
44
Information Lié au flux d’information
Matériel Lié au flux de matière
Meinadier (2002) justifie l’utilisation des matrices DSM auxquelles il donne le nom de
matrices de couplage et d’intégration, car elles permettent en effet de représenter et visualiser
facilement les interactions (de différentes natures) entre les constituants. Elles sont utiles
d’abord lors de la définition de l’architecture organique (regroupement de modules,
optimisation des couplages) et ensuite lors de l’intégration pour vérifier que les zones de
couplages et les interfaces entre constituants sont bien réalisées et vérifiées.
Avec une DSM « Organisation », on modélise les interactions entre les acteurs dans une
équipe de conception. Parmi les travaux les plus récents utilisant les DSM Organisation
binaires, on citera ceux de (Sosa et al., 2004). Dans ses travaux, on propose la taxonomie des
interactions présentée dans le tableau 5.
45
Relations Structuration des processus,
Activités Input/Output entre planification des projets partitionnement
activités
Paramètres Précédences et Conception et architectures des partitionnement
hiérarchies entre systèmes à composants non
paramètres homogènes
Avant la numérisation proprement dite des DSM, on assistait à une forme intermédiaire
entre les DSM binaires et celles numériques. Il s’agit des DSM utilisant une métrique discrète,
la plupart du temps basée sur une sémantique linguistique du genre Faible, Moyen et Fort. Ainsi,
dans les travaux de Sosa (2005), on retrouve une métrique utilisant les classes Fort, Faible et
Nul.
Concernant les DSM temporelles, nous pouvons retenir les travaux d’Eppinger et al. (1994)
qui proposent de rendre numérique une DSM processus (Figure 10) en portant sur la diagonale
la durée de chaque tâche et en transformant la représentation binaire des interactions en
évaluation numérique du degré de dépendance entre les tâches (valeur comprise entre 0 et 1).
Le traitement proposé par les auteurs est de simuler le partitionnement qui réduit la durée
totale du processus modélisé.
46
Figure 10 : Exemple de numérisation des DSM temporelles (Eppinger et al., 1994)
La question qu’on peut se poser lorsqu’on veut faire évoluer le caractère informatif des
DSM binaires est : quels attributs rendre numériques ?
Dans la littérature, on trouve plusieurs méthodes de numérisation des DSM temporels. Dans
ce qui suit, nous allons passer en revue les plus connues :
Steward (1981), qui suggère d’utiliser des valeurs numériques pour caractériser l’ordre
dans lequel les tâches de retour en arrière sont traitées. La marque avec la plus haute
valeur est celle qui doit être analysée en premier.
Yassine et al. (2001), qui proposent de quantifier le degré d’importance des interactions.
Une échelle linguistique est utilisée pour caractériser les interactions : 1 = importante,
2 = moyenne, 3 = faible dépendance. Dans ce cas, on obtient trois classes de dépendance
ordonnées selon leur degré d’importance.
On peut caractériser la force du lien de dépendance entre les tâches. Deux mesures sont
usuellement utilisées, soit entre 0 et 1 (Eppinger et al., 1994), soit entre 1 et 10 (Yassine
et al., 2000). L’algorithme de partitionnement utilisé a pour but alors de minimiser une
somme globale des dépendances dans la DSM.
On peut caractériser le volume des flux d’information. L’algorithme de partitionnement
a les mêmes objectifs que celui du cas précédent (Guivarch, 2003).
On peut caractériser la variabilité de l’information échangée. Cette mesure de variabilité
reflète l’incertitude sur les échanges d’information entre tâches. Cette mesure peut être
47
construite statistiquement ou évaluée subjectivement par les acteurs du projet (Yassine,
2004).
On peut caractériser la probabilité de répétition, ainsi une valeur numérique renseigne
sur la probabilité de causer des répétitions (Smith et al., 1997 ; Browning, 1998 ; Cho
et Eppinger, 2001).
Carrascosa et al. (1998) proposent de construire et de caractériser les couplages entre
tâches par des probabilités, puis de provoquer des changements, ce qui représente une
vision plus large que le modèle présenté dans le point précédent.
Avant de définir les DSM statiques numériques, il est important d’ajouter que dans
certains travaux, nous trouvons une modélisation du domaine des activités et des tâches par
des DSM statiques numériques (Chen et Lin, 2003). L’objectif est alors d’identifier les
regroupements entre tâches pour les affecter par la suite à des acteurs collectifs (des
équipes).
Les travaux d’enrichissement de l’outil DSM se sont intéressés tout d’abord aux DSM
temporelles, ce qui a ouvert la porte à la numérisation des DSM statiques et plus spécifiquement
à la numérisation des DSM Organisation. En effet, les premiers travaux sur la numérisation des
DSM statiques ont été réalisés par McCord et Eppinger (1993) et ont porté sur la construction
d’une DSM acteurs en partant des tâches que les acteurs réalisent. Ils proposent alors de
quantifier les couplages entre les acteurs en utilisant une DSM temporelle numérique qui évalue
l’intensité des dépendances entre les tâches.
Quant aux DSM produit, certains travaux pionniers dans la numérisation proposent une
métrique discrète qui s’applique à tous les types d’interactions identifiées (Pimmler et Eppinger,
1994). Cette métrique représentée dans le tableau 7 classe les interactions en 5 types.
48
La DSM représentée dans la figure 11 montre l’une des premières applications des DSM
Produit numériques. Le produit en question est un moteur thermique.
49
I.2.3.2.5 Positionnement du problème de la modularité
Par la modularité, il peut être possible de développer un certain nombre d'avantages de
conception (Sanchez et Mahoney, 1996 ; Baldwin et Clark, 1997 ; Ethiraj et Levinthal, 2004).
La construction modulaire permet de procéder à des changements rapides par la division et la
substitution de modules (Baldwin et Clark, 1997). De plus, réutiliser le même module dans
plusieurs structures permet des économies d'échelle et des économies de substitution (Garud et
Kumaraswamy, 1995).
Cependant, la modularité n'est pas un choix simple car son principal problème est
qu’elle engendre des surcoûts dans l’assemblage ou le désassemblage des modules. On note
également le problème de surcoût pour réaliser une conception modulaire par rapport à une
conception intégrée (Langlois, 2002). Il serait donc opportun de mesurer le degré de modularité
pour faciliter l’assemblage et le désassemblage des composants de chaque module constitutif
de notre système et de proposer un moyen d’améliorer la fonction coût de couplage des modules
pour éviter la formation de modules de trop grandes tailles.
Dans la section suivante, nous ferons un état de l’art sur les méthodes de conception
robuste afin de choisir une méthode que nous allons améliorer pour résoudre le problème posé.
Selon Taguchi (1993), « au lieu d’éliminer ou de réduire les causes de la variabilité des
performances d’un produit, il est préférable d’ajuster sa conception afin de le rendre insensible
50
aux causes des variations ». La conception robuste vise ainsi à optimiser les paramètres de
conception d’un produit et de son procédé de fabrication afin de réduire la sensibilité de ses
performances aux bruits internes et externes.
Les entreprises ont parallèlement investi lourdement dans l’approche « Six- Sigma » à
la fin des années quatre- vingt et au début des années quatre-vingt – dix (Thornton, 2001).
Cette approche permet de réduire les coûts en détectant les problèmes rencontrés durant les
phases de conception et de fabrication et en s’affranchissant des causes de défaillance
immédiatement. Ces efforts ont cependant eu un impact important sur le coût des produits et
ainsi sur les revenus des entreprises. En effet, l’approche « Six- Sigma » a été utilisée au
maximum de son potentiel et a montré ses limites. De nouvelles méthodes, telles que les
méthodes de conception robustes, se sont donc avérées nécessaires pour améliorer la
productivité des entreprises.
51
la fonction perte comme une mesure de la perte de la qualité subie par un client, due à une
mauvaise conception du produit acheté. Le respect des tolérances ne garantit pas
nécessairement une bonne qualité du produit. Phadke (1989) présente ainsi une fonction perte
quadratique à la place de la fonction perte double échelons. En effet, la qualité d’un produit
diminue progressivement avec la déviation des variables par rapport à leur valeur nominale.
Les allures de ces fonctions sont représentées par la figure 12 où y est la cible de la variable de
conception, m ± ∆0 est la plage de variations de y tolérée et A0 est la perte due à la défaillance
d’un produit. Ainsi, l’expression de la fonction perte est la suivante :
L k y m
2
(35)
52
facile d’ajuster la moyenne sur la cible que de minimiser la variance. En conséquence, il est
plus judicieux pour le concepteur de minimiser la variance des performances d’une conception
dans un premier temps et d’ajuster ensuite la moyenne des variables de conception. Le problème
d’optimisation peut ainsi se décomposer en deux étapes :
1. Maximiser le ratio signal/bruit η défini par :
10log( 2 / 2 ) (37)
2. Ajuster la moyenne sur la cible en utilisant une ou deux variable(s) de conception
n’ayant pas (ou ayant peu) d’influence(s) sur la variance des spécifications.
x x1 x2 ... x T (38)
p p1 p2 ... pm
T
(39)
53
Les fonctions performances (FP) d’un système mécanique peuvent être multiples. Les
n fonctions performances d’un système mécanique sont regroupées dans le vecteur f de
dimension n et la i ème fonction performance est notée fi :
f f1 f 2 ... f n
T
(40)
Afin de rendre le système robuste, le concepteur doit ainsi calculer les valeurs nominales
des variables de conception afin de minimiser la variation de la température de la salle (la
fonction performance) et de la maintenir au voisinage de la température fixée par le réglage du
thermostat.
54
Figure 13 : Système bielle-manivelle
L’inégalité 𝒍𝑟 ≥ 𝒍𝑐 + e est une condition nécessaire au fonctionnement du mécanisme.
𝑓𝑝 et 𝜇 sont respectivement la force exercée sur le piston et le coefficient de frottement entre le
piston et le cylindre. Ils sont supposés incontrôlables par le concepteur. 𝑁𝑚𝑜𝑦 est la moyenne
de la force radiale exercée par le cylindre sur le piston. Rendre la conception du mécanisme
robuste consiste ici à calculer les valeurs nominales de 𝒍𝑟 , 𝒍𝑐 , et e afin de minimiser 𝑁𝑚𝑜𝑦 et
sa sensibilité aux variations des variables et paramètres de conception. En définitive, x =
𝑇
[𝒍𝑐 𝒍𝑟 𝐞]𝑇 , p = [𝒇𝑝 𝜇 ] et f = [𝑁𝑚𝑜𝑦 ].
Nous disposons d’une boîte blanche dont les entrées X = (X1,...,Xn) regroupent les
entrées du système U et les paramètres environnementaux V . Les sorties sont représentées par
Y = (Y1,...,Yk) et les contraintes par T = (T1,...,Tm). Le code de calcul f tel que Y = f(X) est la
fonction objectif. Les fonctions 𝑔𝑖 telles que 𝑇𝑖 = 𝑔𝑖 (X), i = 1,...,m sont les fonctions
contraintes. Ces fonctions contraintes permettent de définir l’espace de conception par les
relations Ti ≥ 0, i = 1,...,m.
55
- incertitudes objectives ou aléatoires : incertitudes irréductibles dues à des phénomènes
physiques non contrôlables comme la température, la pression mais aussi les conditions
de fabrication de pièces ou les propriétés des matériaux ;
- incertitudes de modèle ou épistémiques : incertitudes dues à un manque de connaissance
du concepteur vis-à-vis du comportement de son système. Ces incertitudes peuvent être
en général réduites par un effort de modélisation, d’investissement dans la connaissance.
56
I.3.4.1.2 Modélisation des incertitudes
La méthode déterministe est simple mais limitée, tandis que la méthode possibiliste est plus
générale mais aussi plus complexe.
A chaque variable incertaine 𝑋𝑖 ,i = 1,...,d , est associée une densité de probabilité 𝑓̃𝑖 (𝑥𝑖 ).
Les variables du système n’étant pas entachées d’incertitudes, sont fixées à leur valeur
nominale. Elles seront donc considérées comme des paramètres et non plus comme des
variables.
Les incertitudes sur les fonctions du système et les incertitudes de faisabilité sont beaucoup
plus difficiles à modéliser. On les retrouve souvent dans les codes numériques censés reproduire
le comportement physique d’un système. Il existe donc un biais entre les simulations et la
réalité. Cependant, l’accès aux résultats dans la réalité n’est pas toujours possible, ce qui rend
l’évaluation de ce biais inaccessible en pratique. Avec l’amélioration des systèmes
informatiques et des capacités de calculs, nous considérons que les modèles utilisés conduisent
à des erreurs suffisamment faibles pour que leurs incertitudes soient négligées.
La modélisation des incertitudes de types I et II par des lois de probabilité conduit à une
variabilité des sorties qui présentent donc également des lois de probabilité. L’obtention
d’informations sur ces lois en sortie se fait par la propagation d’incertitudes.
57
nombre d’évaluations de la quantité d’intérêt, afin de hiérarchiser les incertitudes. Cela revient
à calculer les sensibilités, au sens probabiliste, c’est-à-dire l’influence des paramètres d’entrée
sur la variabilité de la réponse.
Les quantités d’intérêt obtenues en sortie peuvent être obtenues de différentes façons :
Monte-Carlo sur le code de calculs, Monte-Carlo sur des modèles locaux, la méthode FOSM
(First Order Second Moment) et la méthode URQ (Univariate Reduced Quadrature). Ces quatre
méthodes font l’objet des sections suivantes.
58
d’intérêt choisie(s), est donc calculée en chaque point évalué. Les quantités d’intérêt, moments
de loi de la sortie Y, sont estimées localement par les moments empiriques de Y sur les N tirages
de Monte-Carlo. La moyenne empirique est donnée par la relation (42) et l’écart-type empirique
par la relation (43).
1 N
my yi
N i 1
(42)
1 N
y ( yi my )2
N 1 i 1
(43)
Figure 15 : Propagation des incertitudes par simulations de Monte-Carlo sur le code de calculs
Chaque simulation selon la loi des entrées fournira une valeur de la sortie. Toutes ces
valeurs permettent d’estimer localement les moments de la loi de cette sortie.
Il est clair que plus le nombre de tirages est important, plus l’estimation de la quantité
d’intérêt est précise. Cette méthode peut donc rapidement devenir coûteuse, surtout si le code
de calculs lui-même est coûteux.
59
I.3.4.2.2 Méthode de Monte-Carlo sur un modèle local
Cette méthode permet d’estimer les quantités d’intérêt de manière moins coûteuse que
les simulations de Monte-Carlo sur le code de calcul. En effet, les simulations de Monte-Carlo
effectuées autour du point en cours ne sont plus évaluées via le code de calculs, mais par une
approximation locale de la fonction étudiée. Une méthode bien connue consiste à considérer
une approximation locale linéaire.
d
f
f ( x) f (a) Df (a)( x a) f (a) (a)( xi ai ) (44)
i 1 xi
où Df(a) est la différentielle de f en a, qui peut être vu comme le coefficient directeur de
l’approximation linéaire. Ceci revient à confondre localement f avec sa tangente. Comme on ne
connaît pas forcément l’expression de f, on va se servir de la dérivation numérique pour estimer
Df(a).
On choisit h ∈ ℝ𝑑 et (u,v) ∈ (ℝ𝑑 )2 tels que pour tout i ∈ [1, d], |𝑢𝑖 −𝑣𝑖 | = ℎ𝑖 et |𝑢𝑖 −𝑎𝑖 | =
ℎ𝑖
|𝑣𝑖 −𝑎𝑖 |= . Sur chaque dimension, ℎ𝑖 doit être faible de telle sorte que u et v soient proches.
2
f f ai ,..., ai1 , ui , ai1 ,..., ad f ai ,..., ai1 , vi , ai1 ,..., ad
(a) (45)
xi hi
Sur chaque dimension, ceci revient à remplacer la tangente par la corde. L’estimation
de Df(a) nécessite donc d’évaluer 2d points.
Les moments de Y sont calculés comme précédemment sauf que les 𝑦𝑖 ne sont pas des
évaluations du code mais des valeurs approchées par le modèle linéaire. Le schéma de la Figure
15 devient donc celui de la Figure 16.
60
Figure 16 : Propagation des incertitudes par simulations de Monte-Carlo sur un modèle ajusté
localement
my f ( ) (46)
d d
f ( ) f ( )
y
i 1 j 1 xi x j
Cov( X i , X j ) (47)
61
Notons que si les variables 𝑋𝑖 sont indépendantes, c’est-à-dire Cov (𝑋𝑖 , 𝑋𝑗 ) = 0, i ≠ j,
alors :
2
d
f ( ) 2
y xi (48)
i 1 xi
f ( )
Dans le cas d’une seule variable d’entrée (d = 1), on a alors y x .
xi
La propagation des incertitudes ressemble à celle de la méthode de Monte-Carlo sur
modèle local, puisqu’il faut ici aussi estimer les dérivées partielles de f, sauf que nous n’avons
plus besoin de simulations de la loi de X pour estimer les moments de la loi de Y (cf. Figure
17).
Soit X = (𝑋1 ,..., 𝑋𝑑 ) le vecteur des variables aléatoires du système. On note 𝜇𝑋 la moyenne
de X et σ𝑋 = (σ𝑋1 ,..., σ𝑋𝑑 ) son écart-type. Les 2d + 1 points x = (𝑥 0 , 𝑥 + , 𝑥 − ) qui seront évalués
sont définis de la manière suivante :
𝑥 0 = 𝜇𝑋
où e𝑖 est le 𝑖 è𝑚𝑒 vecteur de la matrice identité de taille d, ℎ𝑖+ et ℎ𝑖− sont des paramètres d’échelle
dépendant des moments centrés réduits d’ordres 3 et 4 (respectivement le coefficient
d’asymétrie et le kurtosis notés γ𝑋 et Γ𝑋 de la loi de X. Ces 2d + 1 points permettent, par la
quadrature de Gauss, d’estimer l’espérance et la variance de la sortie Y = f(X) en utilisant les
formules suivantes :
d f xi f xi
Y 0 f X i
hi hi (50)
i 1
i
f x f 2 f xi f X
f xi f X f xi f X (51)
2
d
wi
2 X
w w
Y
i 1
hi i
hi i
hi hi
Xi 3 X2 i
h
i Xi (52)
2 4
Les différents poids présents dans les relations (50) et (51) sont alors :
63
d
1
w0 1 ,
i 1 h h
i i
1
wi ,
h hi
i
w
h h h 1 ,
i
2
i i
(53)
h h
i
2
i i
w
h h h 1 ,
i
2
i i
h h
i
2
i i
2
wi .
hi hi
2
Nous avons défini plusieurs méthodes de propagation des incertitudes à travers un code
de calculs. Définissons maintenant le problème de conception robuste, afin de déterminer
ensuite les méthodes de résolution que nous devrons utiliser pour résoudre un tel problème.
64
I.3.4.3.1 Méthodes trouvant un compromis entre les objectifs
Parmi les méthodes effectuant un compromis entre les objectifs de l’optimisation, nous
exposerons rapidement quatre méthodes :
- la méthode hiérarchique,
- la méthode par compromis,
- la fonction de distance,
- la méthode du critère global.
Ces méthodes sont étudiées par exemple dans (de Oliveira and Saramago, 2010).
Méthode hiérarchique
La méthode hiérarchique consiste à organiser les objectifs par ordre d’importance. Chaque
fonction objectif est minimisée individuellement, sous une contrainte qui empêche le minimum
de la nouvelle fonction d’être supérieur à une fraction choisie du minimum de la fonction
objectif précédente.
Dans le cas d’une optimisation bi-objectifs, 1 est le rang de l’objectif le plus important, 2
celui du moins important. Deux optimisations simples à un objectif sont effectuées
successivement.
(1) (1) (1)
La première permet de trouver le point 𝑥 (1) ) = (𝑥1 ,..., 𝑥𝑑 ) tel que 𝑓1 (𝑥1 )=𝑚𝑖𝑛𝑥 𝑓1 (𝑥).
(2) (2)
La seconde optimisation consiste à trouver 𝑥 (2) ) = (𝑥1 ,..., 𝑥𝑑 ) tel que :
f 2 x (2) min f 2 ( x ),
x
sous la contrainte f 2 x (2) 1
100
f1 x ,
(1)
où 𝜀 est un réel positif inférieur à 100. Le choix de 𝜀 se fait par l’utilisateur. Plus sa valeur est
petite, plus la condition est difficile à satisfaire. Le lecteur intéressé par cette méthode pourra
se référer à (Osyczka, 1981).
65
sous la contrainte f 2 x min f 2 ( x ) (55)
x
La quantité w > 1 est un poids permettant d’assouplir la contrainte qui serait trop forte
avec w = 1. Le minimum 𝑚𝑖𝑛𝑥 𝑓2 (𝑥) est le résultat de l’optimisation simple de 𝑓2 . Les fonctions
objectives sont interchangeables, le choix se fait par l’utilisateur, tout comme pour la valeur de
w. Le lecteur intéressé par cette méthode pourra se référer à (Nakayama and Sawaragi, 1984).
Fonction de distance
Cette méthode est utilisée lorsque les optimisations consistent à atteindre des valeurs cibles
𝑎1 et 𝑎2 . La méthode consiste à minimiser l’écart entre les observations de chaque fonction et
leurs cibles respectives. Pour cela, on utilise une fonction de distance :
(56)
p p 1/ p
f ( x) a f ( x) a , 1 p
2
E
p 1 1 2
Cette méthode consiste à trouver la combinaison des entrées assurant le minimum d’un
critère global. Ce critère consiste à établir la proximité de chaque fonction objectif 𝑓𝑖 , à un
minimum 𝑎𝑖∗ , selon un écart relatif. Le but est de trouver :
a f ( x ) 2 a f ( x ) 2
min 1 1 (57)
2 2
x
a1 a 2
Les minima 𝑎𝑖∗ sont les valeurs optimales de chaque fonction objectif 𝑓𝑖 du problème
d’optimisation simple à un objectif. Le lecteur intéressé par cette méthode pourra se référer à
(Rao, 2009).
Ces quatre méthodes permettent d’obtenir une unique solution au problème d’optimisation
multi-objectifs. Les méthodes suivantes consistent à obtenir plusieurs points solutions afin
d’établir un front de Pareto.
67
Cette optimisation simple est effectuée pour plusieurs choix de poids, le nombre est choisi par
l’utilisateur. A chaque jeu de poids correspond une solution de Pareto, comme le montre la
Figure 19. Ici, cinq jeux de poids ont été considérés, ce qui nous donne cinq points du front de
Pareto. Le lecteur intéressé par cette méthode pourra se référer aux travaux de (Kim and Weck,
2005 ; Marler and Arora, 2010).
x
min max w1 f1 ( x) f1 , w2 f 2 ( x) f 2 ; w w 1
1 2 (59)
Les poids prennent différentes valeurs, afin de trouver différents points sur le front de Pareto.
Cette méthode a été étudiée dans les travaux de (Steuer and Choo, 1983 ; Miettinen, 2001).
fournissent différents points sur le front de Pareto. Le lecteur intéressé pourra se référer à
(Zhang and Gao, 2006).
68
Méthode génétique de tri basée sur la non-dominance
Cette méthode, appelée non-dominated sorting genetic method, s’appuie sur les
méthodes génétiques. Dans un premier temps, définissons la dominance dans le cas de deux
minimisations :
Définition (Dominance). Une solution A domine une solution B si et seulement si :
∀ i ∈ {1, 2},𝑓𝑖 (𝐴) ≤ 𝑓𝑖 (𝐵) et ∃ j ∈ {1, 2}, 𝑓𝑗 (𝐴) ≤ 𝑓𝑖 (𝐵) .
Si la solution A domine la solution B, on dit que B est dominée par A ou bien A est non dominée
par B ou entre les deux solutions, A est la solution non dominée.
Si la solution A domine la solution B, on dit que B est dominée par A ou bien A est non dominée
par B ou entre les deux solutions, A est la solution non dominée.
L’algorithme associé à la méthode étudiée ici, noté NSGA-II et proposé par Deb et al.
(2002), a les caractéristiques suivantes :
- il utilise une approche élitiste pour sauvegarder les meilleures solutions trouvées lors
des itérations précédentes,
- il utilise une procédure rapide de tri basée sur la non-dominance,
- il utilise un opérateur de comparaison basé sur une distance de surpeuplement,
- il n’a aucun paramètre à régler.
Notons que la distance de surpeuplement est une mesure de proximité d’un point avec
ses voisins. Une grande distance moyenne de surpeuplement sur un échantillon signifie qu’il y
a une grande diversité dans la population étudiée. A chaque étape de l’algorithme, on dispose
d’une population (𝑅𝑡 ) de 2N individus. Elle est séparée en une population de parents (𝑃𝑡 ) de
taille N et une population d’enfants (𝑄𝑡 ) de taille N. La population de taille 2N est ensuite triée
selon un critère de non-dominance pour identifier différents fronts 𝐹1 , 𝐹2 ,... Le premier front
est l’ensemble des individus non-dominés, le deuxième comprend les individus dominés
uniquement par ceux du premier front, et ainsi de suite. Les meilleurs individus vont donc se
retrouver dans le ou les premiers fronts. Une nouvelle population parente (𝑃𝑡+1) est formée en
considérant les meilleurs individus appartenant aux premiers fronts. Tous les individus de
chaque front successif sont sélectionnés tant que le nombre d’individus ne dépasse pas N. Si le
nombre d’individus présents dans (𝑃𝑡+1) est inférieur à N, on va sélectionner les individus du
front suivant, qui n’a pas été inclus dans (𝑃𝑡+1 ), et appliquer une procédure de surpeuplement
pour atteindre les N individus. Une fois que les individus appartenant à la population (𝑃𝑡+1)
69
sont identifiés, une nouvelle population enfant (𝑄𝑡+1 ) est créée par sélection, croisement et
mutation.
La sélection est basée sur un opérateur de comparaison. Cet opérateur permet d’ordonner
deux solutions selon leur rang et la valeur de la distance de surpeuplement. Entre deux solutions
de rangs différents, on préfère la solution avec le plus petit rang (ou le plus petit front). Pour
deux solutions qui appartiennent au même front, on préfère la solution qui est localisée dans la
région où la densité de solutions est moindre, soit l’individu possédant la plus grande valeur de
distance de surpeuplement.
Algorithme de clustering
70
déterminer des partitions d'une collection relativement hétérogène d'éléments. La technique de
clustering utilisée par SPEA (Strength Pareto Evolutionary Algorithm) est assez intuitive. Au
début de la procédure, chaque individu constitue son propre groupe, puis on fusionne deux à
deux les groupes les plus proches en terme de distance. Cette étape est itérée jusqu'à l'obtention
du nombre désiré de groupes. Une fois les groupes identifiés, il ne reste plus qu’à choisir un
représentant par groupe. Ce représentant peut être détermine de plusieurs façons, par exemple
en prenant le barycentre du groupe. C'est ce représentant qui sera gardé, les autres éléments
étant tout simplement supprimés. Les étapes de la méthode de clustering sont illustrées à la
figure 21.
71
Méthodes de conception robuste
Méthode
génétique de tri Algorithme
basée sur la de clustering
non-dominance
Figure 22 : Synthèse des méthodes de conception robuste pour la résolution d’un problème d’optimisation
72
I.3.4.4 Etude comparative des méthodes établissant le front de Pareto et des méthodes
recherchant un compromis entre les objectifs
Les méthodes recherchant un compromis entre les objectifs sont les méthodes
d’optimisation multi-objectif. Les problèmes multi-objectifs ont la particularité d’être beaucoup
plus difficiles à traiter que leur équivalent mono-objectif. La difficulté réside dans l’absence
d’une relation d’ordre total entre les solutions. Une solution peut être meilleure qu’une autre
sur certains objectifs et moins bonne sur les autres. Donc il n’existe généralement pas une
solution unique qui procure simultanément la solution optimale pour l’ensemble des objectifs.
Voilà pourquoi le concept de solution optimale devient moins pertinent en optimisation multi-
objectif. Les méthodes recherchant un compromis entre les objectifs, présentent donc une
limite. Dans ce cas, la solution optimale n’est plus une solution unique mais, un ensemble de
solutions compromis entre les différents objectifs à optimiser. Il est vital pour identifier ces
meilleurs compromis, de définir une relation d’ordre entre ces éléments. La plus célèbre et la
plus utilisée, est la relation de dominance au sens de Pareto. L’ensemble des meilleurs
compromis est appelé le front de Pareto, la surface de compromis ou l’ensemble des solutions
efficaces. Cet ensemble de solutions constitue un équilibre, dans le sens qu’aucune amélioration
ne peut être faite sur un objectif sans dégradation d’au moins un autre objectif. La solution de
Pareto consiste à obtenir le front de Pareto.
Parmi les méthodes établissant le front de Pareto, les méthodes méta-heuristiques sont
les plus rependues dans la résolution des problèmes de partitionnement (qui nous intéresse dans
le cadre de notre thèse). Il se trouve que la taille des données influe dans la recherche de la
solution optimale, lorsqu’on fait recours aux algorithmes génétiques. Cette méthode devient
donc moins fiable. Nous optons alors pour la méthode des algorithmes de clusterng (k-means
ou k-clusters ou k-modules) pour la résolution des problèmes de partitionnement. En effet, avec
cette méthode, il est plus facile d’identifier des groupes de données inconnues à partir d’un
ensemble de données complexes. Les résultats sont présentés de manière rapide.
73
I.4 PROBLEMATIQUE DE LA THESE
Dans ce qui suit, nous donnons un aperçu sur le nombre et l’importance des travaux par
sous thèmes de recherche :
- La propagation d’une évolution dans une architecture : (Clarkson et al., 2004 ; Keller
et al., 2005). Ces travaux traitent de la propagation de modifications à travers une
architecture ou aux conséquences d’une évolution technologique sur l’architecture
globale du produit.
74
Comment minimiser les coûts de couplage des modules pour une maintenance plus aisée
par la proposition d’une méthode de conception robuste ?
I.5 METHODOLOGIE
La méthodologie suivie dans le cadre de cette thèse pour obtenir des réponses à la
problématique se subdivise en trois étapes, l’application est faite sur un torréfacteur de soja :
75
CHAPITRE II : CHOIX DE LA MEILLEURE SOLUTION DE
CONCEPTION D’UN SYSTEME AU MOYEN D’UN INDICE-
MULTI PARAMETRES
II.1 INTRODUCTION
Afin de répondre à ses questions, la section II.2 présente une méthodologie d’évaluation
de la complexité de désassemblage, suivie d’une application sur le torréfacteur de soja.
Motivations de l’étude
Le torréfacteur de soja est un équipement qui permet de soumettre à l’action du feu le soja,
donc de le faire griller. En agro-alimentaire, la torréfaction est très importante ; en ceci qu’elle
permet de réduire ainsi le taux de mycotoxines, d’augmenter le taux de protéines non
dégradables et d’accroitre le taux d'indigestion maximal. Il est donc important de choisir un
torréfacteur fiable afin d’améliorer le rendement de torréfaction.
Plusieurs travaux de la littérature ont porté sur l’étude des torréfacteurs, à l’instar de ceux
de (Zeki, 1993 ; Ahouansou et Singbo, 2010 ; Alves De Macedo, 2017 ; Carré, 2020).
76
Ahouansou et Singbo (2010) ont évalué les performances techniques de deux
torréfacteurs d’amande de karité : le torréfacteur traditionnel à la marmite et le torréfacteur
manuel. Il se trouve que le torréfacteur traditionnel soumet les transformatrices à la chaleur et
aux courbatures. La capacité horaire de production étant d’environ 9kg/h pour un temps de
travail de 2,65 h. Le torréfacteur manuel se trouve donc être meilleur que le torréfacteur
traditionnel, avec une capacité horaire d’environ 24 kg/h et un temps de travail d’environ 1h.
Cependant il reste limité à l’utilisation d’une seule source de chaleur qui est le feu à bois, plutôt
polluant et nuisible à l’environnement.
Pour une conception plus aisée des systèmes en général pour des fins de rendements
(des torréfacteurs en particulier), il serait judicieux d’intégrer les contraintes de désassemblage
dès la phase initiale de conception. D’où la problématique de conception du torréfacteur.
77
1.Recencer les
paramètres de
désassemblage
Diagramme
Pieuvre 2.Identifier les
composants du
système
FAST et vue
Elatée 3.Modéliser le
système (Graphes
de liaisons)
4.Possibilités de
Evaluation
solutions
des liaisons
entre les
composants
5.Choix de la
meilleure solution
de conception
Indicateur
de fixation
facile
78
les pièces qui présentent le plus d’intérêt. Différentes techniques de désassemblage sont
également possibles. Dans le meilleur des cas, le produit peut être désassemblé sans
endommager les pièces en retirant les attachements. Mais bien souvent cela est trop fastidieux
pour être mis en place. Il est alors possible de se tourner vers des techniques de désassemblage
dites semi-destructives. Cela correspond au fait de détériorer une ou plusieurs pièces d’un
assemblage afin de récupérer les pièces ou les matériaux les plus intéressants. Le gain de temps
est très important sans pour autant engendrer une perte importante de valeur. Nous ne
considérerons pas les techniques consistant à broyer le produit pour ensuite trier les différents
matériaux car les attachements ont bien moins d’impact dans cette situation. En effet, le
problème réside essentiellement dans le fait de parvenir à trier les différents matériaux et non à
séparer les différentes pièces. Grâce aux travaux de Jeandin (2015) nous allons dresser une liste
des paramètres permettant de représenter au mieux toutes les facettes du désassemblage. La
liste est la suivante :
- Temps de désassemblage : Un des paramètres les plus importants car il est directement
relié au coût de désassemblage et donc bien évidemment à la rentabilité des opérations
de désassemblage. Un assemblage trop long à désassembler sera nettement moins
intéressant et le désassemblage pourrait ne pas être effectué si ce-dernier est vraiment
trop important.
- Outils : Suivant l’attachement choisi pour réaliser un assemblage, l’outil pour opérer le
désassemblage sera spécifique et plus ou moins perfectionné. Le choix d’un
désassemblage non-destructif ou semi-destructif influence également l’outil utilisé.
Certains attachements nécessitent des outils spéciaux qui ont un coût nettement plus
élevé qu’un simple tournevis et peuvent demander des formations pour être utilisé.
D’autres problèmes rencontrés lors du désassemblage concernent la diversité des
attachements et le possible endommagement de ceux-ci. Pour solutionner ces
problèmes, des études sont faites sur des outils flexibles (Duflou et al., 2008) facilitant
le désassemblage de tous types d’attachements ou encore des outils spécifiques
permettant de briser la tête des vis afin de libérer facilement les pièces même si
l’attachement est endommagé (Pak et Sodhi, 2002).
- Couple : Plus la force nécessaire pour défaire un attachement est importante et plus les
risques pour l’opérateur seront importants ou plus le système devra être robuste dans le
cas d’un désassemblage automatisé.
79
- Direction d’accès : Un attachement peut être facilement démontable mais s’il n’est pas
ou difficilement accessible, le temps de désassemblage va fortement être augmenté.
Contrairement à l’assemblage durant lequel les pièces sont assemblées les unes après
les autres, lors du désassemblage il n’est pas rare de s’intéresser à une pièce spécifique
et les attachements servant à sa fixation ne sont pas nécessairement accessibles et il sera
alors difficile de positionner l’outil pour opérer le désassemblage.
- Facilité de revente des pièces : Ce paramètre regroupe tous les problèmes qui peuvent
être rencontrés suite au démontage d’une pièce ou d’un sous-assemblage. Dans certains
cas comme l’aéronautique, les pièces doivent être rectifiées avant de pouvoir être
réutilisées dans un nouveau produit. Des réparations ou des opérations d’usinage
peuvent être nécessaires. Les attachements assurant un désassemblage sans dommages
sur les pièces seront généralement plus intéressants à utiliser.
- Risque de dégradation : Lors du désassemblage il est possible que les pièces soient
endommagées. Si ces pièces doivent être réutilisées il sera préférable d’opter pour des
attachements assurant un démontage avec le moins de risques d’endommagement
possibles.
80
- Qualification des ouvriers : La qualification des ouvriers comprend non seulement les
éventuelles formations nécessaires pour utiliser un outil ou une machine mais également
le temps nécessaire pour prendre connaissance des informations relatives au produit qui
va être désassemblé.
- Type de fixation des pièces : Pour effectuer les opérations de désassemblage il est
parfois nécessaire de fixer les pièces. Ce paramètre est utilisé pour représenter les
différentes situations possibles.
- Identification des attachements : Un des points qui pose le plus de problème lors du
désassemblage est la capacité à identifier l’attachement utilisé pour réaliser une liaison.
En effet, si nous prenons pour exemple les attachements solidaires, ils sont généralement
masqués et difficiles à repérer, le temps de désassemblage va forcément en pâtir et les
pièces risquent d’être endommagées à cause d’une mauvaise identification et donc d’un
démontage inadéquat. Certains produits possèdent des marquages afin de préciser la
position des attachements et ainsi faciliter le travail des opérateurs lors du
désassemblage.
Paramètres Sources
Rose, Ishii et Masui, 1998 ; Kroll et Carver, 1999 ; Das,
81
Kroll et Carver, 1999 ; Das, Yedlarajiah et Narendra, 2000;
Force requise
Sonnenberge, 2001
Kroll et Carver, 1999; Rose, Ishii et Masui, 1998 ; Das,
Direction d'accès Yedlarajiah et Narendra, 2000
Complexité du mouvement de
Sonnenberge, 2001;Güngör, 2006
désassemblage
Chen, Navin-Chandra et Prinz, 1993 ; Güngör, 2006 ;
Facilité de revente des pièces
Ghazilla, Taha, Yusoff, Rashid et Sakundarini, 2014;
Ghazilla, Taha, Yusoff, Rashid et Sakundarini, 2014;
Possibilité d'automatiser le
Güngör, 2006
désassemblage
Possibilité de réaliser un désassemblage
Sonnenberge, 2001;Güngör, 2006
non-destructif
Sonnenberge, 2001 ; Güngör, 2006 ; Ghazilla, Taha,
Risque de dégradation
Yusoff, Rashid et Sakundarini, 2014
Qualification des ouvriers Das, Yedlarajiah et Narendra, 2000;
Equipement requis Das, Yedlarajiah et Narendra, 2000;
Type de fixation des pièces Das, Yedlarajiah et Narendra, 2000;
Identification des attachements Chen, Navin-Chandra et Prinz, 1993;
Résistance des matériaux Chen, Navin-Chandra et Prinz, 1993; Sonnenberge, 2001
Nous allons dresser une liste plus réduite des paramètres permettant de représenter au mieux
toutes les facettes du désassemblage non destructif d’un produit et pouvant être utilisés dans sa
phase de conception préliminaire. La liste est la suivante :
82
équipements requis ;
Une échelle de valeurs a été créée pour chacun des paramètres permettant de calculer
la complexité de désassemblage. Les différentes valeurs permettent de représenter les
principales possibilités et de les classer de la plus intéressante à la plus contraignante. Nous
allons voir en détail ces échelles et décrire chacune des valeurs. Pour choisir ces échelles de
valeurs, nous nous sommes principalement appuyés sur trois articles (Kroll et Hanft, 1998 ;
Kroll et Carver, 1999 ; Das et al., 2000).
II.2.1.2.1 Types de contacts
Les contacts représentent la relation physique entre deux composants. Deux
composants 𝐶1 , 𝐶2 sont en contact si : ∃ S 𝑀1𝑖 ∈𝐶1 , S 𝑀2𝑖 ∈𝐶2 , telle que S 𝑀2𝑖 coïncide avec S
𝑀1𝑖 . Cette relation est créée par le contact d’une surface associée au composant 𝐶1 sur une
surface associée au composant 𝐶2 dites surfaces fonctionnelles. Ces surfaces sont de nature
différente (plane, cylindrique, sphérique, conique,..). Par conséquent, la zone de contact dépend
des surfaces en contact. La zone de contact peut être : surfacique, linéique, ponctuelle ou toute
combinaison entre ces éléments selon la position relative de ces surfaces et leurs
caractéristiques. La forme des pièces en contact varie. Pour reconnaître la liaison, il vaut mieux
se fier à la nature de la zone de contact. Le tableau 9 présente les zones de contacts, les liaisons
associées et les efforts transmissibles.
83
Surface plane Liaison appui plan
L’existence d’au moins un contact entre les surfaces de deux composants, entraine un contact
entre les deux composants en question. Le Tableau 10 représente l’échelle de valeur créée pour
les types de contacts.
Tableau 10:Types de contacts.
84
Multi point contact 5
Multi surface contact 6
Une valeur importante de type d’outil correspondante à une solidarisation signifie qu’il est
coûteux ou plus compliqué de désassembler deux composants reliés par cette solidarisation.
L’idéal étant de pouvoir désassembler sans outil. Desai et Mital (2003) proposent deux échelles
pour les outils servant à exercer une force ou un moment. Le Tableau 12 représente l’échelle
de valeur créée pour les outils de désassemblage.
85
Spécifique 5
Improvisé 6
86
II.2.1.2.6 Équipements requis
Suivant le produit désassemblé, les outils utilisés… différents équipements peuvent
être requis. Dans la majeure partie des cas, des gants suffisent, cependant si le produit contient
des matières toxiques ou si des opérations de sciage sont effectuées d’autres protections sont
nécessaires pour garantir la sécurité des opérateurs. Le Tableau 15 représente l’échelle de valeur
créée pour les équipements requis.
La pondération la plus importante a été donnée aux nombres de directions et aux outils
de désassemblage, car ils jouent un rôle important dans la complexité de désassemblage car des
outils complexes et certaines directions de désassemblage peuvent être très contraignants et
limiter l’intérêt d’un désassemblage. La qualification des opérateurs et les équipements requis
ont reçu des pondérations moins importantes, car ces deux paramètres ont moins des
conséquences sur la difficulté de désassemblage et les coûts associés en comparaison des autres
paramètres.
87
Tableau 16:Pondérations des paramètres de désassemblage.
Paramètres Pondération
Nombre de directions de désassemblage 30
Outils de désassemblage 25
Types des contacts 20
Types des combinaisons 15
Qualifications des opérateurs 5
Équipements requis 5
Environnement
Matière
d’utilisation
d’œuvre Autres
FC
FC
5
FP FC
Usager 6
Produit
FC
Culture
FP FC
FC d’entreprise
3
1
Energie Normes et
lois
Le FAST (Function Analysis System Technique) sera donc élaboré, qui à partir d’une
fonction de service permettra d'aboutir aux fonctions techniques et aux solutions constructives
associées. Il détaille en plusieurs niveaux la réalisation d’une ou plusieurs fonctions de service.
La structure du diagramme FAST est donnée par la figure 25.
88
Fonction de Fonction Fonction
Solution constructive A
service 1 technique 1 technique 11
Fonction
Solution constructive B
technique 12
Fonction
Solution constructive C
technique 13
Fonction Fonction
Solution constructive D
technique 2 technique 21
Fonction
Solution constructive E
technique 22
89
Figure 26:Graphe des liaisons hybride (Li et al., 2002).
De ces indicateurs, l’indicateur de fixations faciles est le plus pertinent car c’est le seul qui
tient compte de la complexité du mouvement de désassemblage. En effet, le geste à effectuer
90
pour défaire un attachement influence sur la facilité du désassemblage, ce qui n’est donc pas
pris en compte par les autres indicateurs. Les paramètres de désassemblage peuvent donc être
qualifiés selon une échelle prédéterminée. Afin de qualifier les paramètres de désassemblage,
une pondération est proposée qui augmente avec la difficulté à rompre la fixation considérée au
moyen des coefficients qui définissent le niveau de sophistication de ces paramètres (Dowie
and Simon, 1994 ; Dowie, 1995 ; Said, 2013).
Cependant, l’indicateur de fixations faciles proposé par les auteurs tient uniquement
compte de trois paramètres de désassemblage : le type d’outils, le nombre de directions de
désassemblage ou d’accès et le type de combinaisons ou de fixations. Bien souvent, le
désassemblage du produit est trop fastidieux pour être mis en place. En effet, très souvent celui
qui effectue l’opération de désassemblage ou d’assemblage n’a pas d’équipements de protection
individuelle (par exemple les gants) pour être habileté à retirer les attachements du produit ,ce
qui en un moment donné peut conduire à mettre plus de temps que prévu .D’autre part, l’absence
de qualification de l’opérateur à intervenir sur le produit, peut conduire à un désassemblage
destructif (dans la mesure où la pièce est endommagée pendant le désassemblage),ce qui
pourrait conduire au recyclage (engendrant ainsi des coûts supplémentaires) en vue d’une
récupération future de la pièce endommagée. La contrainte de temps est donc un paramètre très
important car elle est directement reliée au coût de désassemblage et donc bien évidemment à
la rentabilité des opérations de désassemblage. Un assemblage trop long à désassembler sera
nettement moins intéressant et le désassemblage pourrait ne pas être effectué si ce-dernier est
vraiment trop important (Jeandin, 2015). On comprend dès cet instant que pour un
désassemblage efficace, il est plus pertinent de considérer plus de trois paramètres, donc dans
le meilleur des cas les six paramètres de désassemblage non destructifs. Le nouvel indicateur
que nous proposons qui tient compte des six paramètres de désassemblage cités plus haut est
donné par la formule suivante :
NDD
If f i 1
(61)
n
Avec :
Ci ai Ii pi (62)
Avec :
𝑎𝑖 : coefficient du paramètre représentant le désassemblage considéré,
𝐼𝑖 : valeur assignée au paramètre de désassemblage considéré (Tableaux 9 à 14),
𝑝𝑖 : pondération du paramètre de désassemblage considéré (Tableau 15).
Il est à noter que la pondération de chaque paramètre de désassemblage est déjà connue, et la
valeur assignée à chaque paramètre de désassemblage sera extraite du tableau des liaisons entre
les composants du système ou produit d’étude. S’agissant du coefficient du paramètre
représentant le désassemblage, les tableaux qui suivent illustrerons le calcul.
Les termes 𝐴𝑁𝐷𝐷 ,𝐴𝑂𝐷 ,𝐴𝑇𝐶 ,𝐴𝑇𝐶𝑂 ,𝐴𝑄𝑂 et 𝐴𝐸𝑅 sont respectivement les poids des différents
facteurs de l’indicateur 𝐼𝑓𝑓 .Ces derniers sont calculés comme suit :
2 m 1 k
Ak (63)
m(m 1)
avec :
m : nombre de paramètres de désassemblages considérés (soit six pour notre formule),
k : nombre correspondant à l’ordre de priorité des facteurs.
D’après ce qui précède, la pondération la plus importante est donnée aux nombres des
directions et aux outils de désassemblage, et la moins importantes est donnée à la qualification
des opérateurs et aux équipements requis. En tenant compte de cet ordre de priorité, les valeurs
attribuées de k sont données ainsi qu’il suit :
92
Les poids des différents facteurs sont donc les suivants :
En suivant la démarche proposée dans (Dowie and Simon, 1994 ; Dowie, 1995), les coefficients
associés à chaque paramètre de désassemblage sont donnés par les tableaux suivants (la
pondération proposée augmente avec la difficulté de rompre la fixation considérée) :
93
Multi point contact 1/2
Multi surface contact 1
94
II.3 RESULTATS
Cette partie illustre la mise en application de la démarche d’évaluation de la complexité de
désassemblage intégrant les contraintes de désassemblage, proposée dans la partie précédente,
sur un produit : le torréfacteur de soja. Le cas d’application actuel fera également l’objet des
chapitres suivants.
Soja Utilisateur
FP
Torréfacteur de
FC1 soja
Prix FC3
FC2 Environnement
Sécurité
95
Faire Mettre en Faire roter
torréfier Moteur électrique
mouvement les + poulie-courroies
le soja les céréales racleurs
Alimenter
par une Réchaud à gaz
source de
chaleur
Refroidir Cuvette de
les refroidissement
céréales
(Soja)
Entrer,
Contenir
sortir
les Couvercle,
céréales trémie, bâti
Conserver
Mettre,
Alimenter,
Refroidir,
Contenir.
96
Figure 29:Vue éclatée de la solution.
5 Axe principal
6 Roulement axe principal 1
7 Roulement axe principal 2
8 Support roulement côté moteur
9 Disque moteur
10 Capot
11 support roulement côté cuvette
97
12 Cuvette
13 Axe secondaire
14 Roulement axe secondaire
15 support roulement axe secondaire
16 Trémie de sortie
17 Cylindre principal
18 Racleur
19 Trémie d’entrée
98
1
1 15
𝐿1 𝐿16 𝐿18
2 𝐿17
16 𝐿12 𝐿2
14
1
𝐿15 12
9 1 𝐿19
4
𝐿14 17 𝐿3 𝐿4 1
19 13
𝐿5
3
𝐿11
𝐿20
𝐿13 5
𝐿6 1
8 𝐿7 𝐿8 18
10 1 6
1 1
7
𝐿10 1
𝐿9
11
99
II.3.3 Evaluation de la complexité de désassemblage
Comme mentionnée dans la méthodologie, un indice 𝐼𝑓𝑓 (équation 61) est choisi comme
indicateur en conception afin d’évaluer la complexité de désassemblage d’une solution générée
par le concepteur.
L’ensemble supérieure se subdivise en trois parties. La première partie est composée des
pièces1, 17, 19, 10, 16, 11 et 8. La deuxième partie est composée des pièces 2, 3 et 9. La
troisième partie est composée des pièces 4, 5, 6 et 7. L’assemblage entre ces trois parties est
assuré par système vis-écrou.
L’ensemble inférieure se subdivise en deux parties. La première partie est composée des
pièces 1,14 et15. La deuxième partie est composée des pièces 12, 13 et 18. L’assemblage entre
ces deux parties est assuré par système vis-écrou.
Solution 2 : cette solution est similaire à la précédente, la seule différence est que les
pièces 17 et 16 sont soudées.
Le tableau 26 fait une évaluation des liaisons entre les composants du produit et le tableau
27 ressort les valeurs des indices de fixations faciles pour chacune des solutions proposées,
lorsqu’on applique le modèle développé dans ce travail qui considère les six paramètres de
désassemblage non destructifs pour évaluer la solution de conception.
Tableau 26:Evaluation des liaisons entre les composants avec le nouveau modèle.
100
11--10 4 3 5 4 3 2 21
17--10 6 3 5 2 2 2 20
17--8 4 3 5 4 3 2 21
17--1 6 3 5 4 3 2 23
17--16 6 3 5 4 3 2 23
1--12 6 3 5 4 3 2 23
15--14 4 3 4 2 2 2 17
12--15 4 3 5 4 3 2 21
14--13 4 3 5 4 3 2 21
18--13 4 3 5 4 3 2 21
19--17 4 3 5 4 3 2 21
D’après le tableau 27 les indices de fixations faciles obtenus pour les deux solutions
proposées sont de l’ordre de 37 % pour la solution 1 et de 39 % pour la solution 2. Les deux
solutions appartiennent à l’intervalle [25%, 50%] qui traduisent une solution satisfaisante. Mais
la solution 2 présente l’indice de fixations faciles le plus proche de 50%, elle est alors jugée
comme la solution de conception la plus respectueuse des contraintes de désassemblage en fin
de vie que la solution 2.
En appliquant le modèle développé par Dowie and Simon (1994) et Dowie and D. a
(1995) qui tient compte de trois paramètres désassemblages pour évaluer la solution de
conception, le tableau 28 fait une évaluation des liaisons entre les composants du produit et le
tableau 29 ressort les valeurs des indices de fixations faciles pour chacune des solutions
proposées.
Tableau 28:Evaluation des liaisons entre les composants avec l’ancien modèle.
101
5--7 3 5 2 10
6--8 1 5 2 18
7--11 1 5 2 18
11--10 3 5 4 21
17--10 3 5 2 20
17--8 3 5 4 21
17--1 3 5 4 23
17--16 3 5 4 23
1--12 3 5 4 23
15--14 3 4 2 17
12--15 3 5 4 21
14--13 3 5 4 21
18--13 3 5 4 21
19--17 3 5 4 21
D’après le tableau 29, les indices de fixations faciles obtenus pour les deux solutions
proposées sont de l’ordre de 24,05 % pour la solution 1 et de 24,73 % pour la solution 2. Les
deux solutions appartiennent à l’intervalle [0%, 25%] qui traduisent une solution pas
satisfaisante. Donc le modèle développé dans ce travail est meilleur que celui proposé par
Dowie and Simon (1994) et Dowie and D. a (1995) car il a pu générer deux solutions de
conception satisfaisantes.
II.4 CONCLUSION
Ce chapitre a été consacré au choix de la meilleure solution de conception au moyen d’un
critère concernant l’intégration du désassemblage en fin de vie durant la phase de conception
préliminaire. Une évaluation des solutions de conception d’un torréfacteur de soja a été
présentée à l’issue de laquelle le choix de la solution de conception la plus respectueuse des
contraintes de désassemblage a été fait grâce au modèle développé dans ce travail. Ces
paramètres de conception issus de ce modèle seront fort utiles pour déployer l’algorithme de
clustering au torréfacteur de soja.
102
CHAPITRE III : PROPOSITION D’UN OUTIL QUI S’APPUIE
SUR L’ALGORITHME DE CLUSTERING
III.1 INTRODUCTION
Dans ce chapitre, nous proposons un outil qui s’appuie sur l’algorithme de clustering
existant. Il s’agit d’un nouvel algorithme de clustering qui utilise le formalisme de
représentation matricielle pour mettre en œuvre l’identification des architectures des domaines
du produit (système ou équipement). Le principe retenu est d’utiliser les DSM (Design Structure
Matrix) en entrée pour proposer des architectures optimales des produits. Notre contribution
concerne l’amélioration d’un algorithme de clustering existant qui a servi de référence à
plusieurs travaux antérieurs tels que ceux de (Idicula ,1995 ; Fernandez ,1998 ; Thebeau, 2001).
Nous présentons d’abord les limites de l’algorithme existant, ensuite nous proposons plusieurs
améliorations de cet algorithme, à partir de notre analyse bibliographique sur la conception
modulaire et les indices de modularité.
Soit R= (𝑅1 , 𝑅2 , 𝑅3 ,…, 𝑅𝑚 ) l’ensemble de toutes les relations entre les composants du produit
de cardinalité m.
Pour chaque couple de composants du graphe, nous lui attribuons une valeur qui est la
somme des paramètres représentant le désassemblage. Ainsi le résultat sera présenté sous la
forme d’une matrice de relation. On définit la matrice de relation par un élément 𝑐𝑖,𝑗 tel que :
avec :
La valeur dans une cellule de la matrice est non nulle si les composants respectifs sont
connectés et égale à zéro si ce n'est pas le cas. Pour des raisons de symétrie de la matrice, on a :
𝑐𝑖,𝑗 = 𝑐𝑗,𝑖 . D’après Lambert et al. (2005), le nombre maximal de connexions K dans un produit
avec N composants est donné par l'expression suivante :
K N N 1 (65)
Si toutes les connexions dans un produit sont établies, c'est-à-dire que tous les éléments
significatifs sont différents de 0, la matrice représente un produit fortement connecté, c'est-à-
dire un produit dans lequel tous les composants sont mutuellement connectés.
Cette étape permet de réorganiser consécutivement les lignes et les colonnes de la matrice
modélisant les relations entre les composants d’un produit, selon un indice de similarité jusqu’à
l’obtention des blocs diagonaux. Ainsi tous les composants qui sont en interaction minimal sont
regroupés ensemble pour former des modules.
Pour trouver le nombre des modules, nous utilisons la formule proposée par (Ericsson et Erixon,
1999) :
avec :
104
NCP : Nombre de Composants du Produit ;
NM : Nombre de Modules du Produit.
3.Choisir des composants avec les plus fortes intensités de liaisons et assigner les à un
module.
4.Choisir une colonne parmi celles qui correspondent aux composants de l’étape précédente
et tracer une ligne verticale.
5. Pour chaque entrée (valeur) différente de 0 coupées par la ligne verticale, tracer une ligne
horizontale.
8. Répéter les étapes 6 à 7 jusqu’à ce que chaque composant soit assigné à un module.
105
Dewhurst, 1991 ; Lee et Kumana, 1992 ; Srinivasan et Gadh , 1998 ; Jabbour et Mascle, 1998 ;
Kuo et al., 2000 ; Srinivasan et Gadh, 2000 ; Gungor et Gupta, 2001 ; Moore et al., 2001 ;
Kongar et Gupta, 2001 ; Failli et Dini, 2001 ; Srinivasan et Gadh, 2002 ; Torres et al., 2003 ;
Wang et al ., 2003 ; Lambert et Gupta, 2005 ; Kongar et Gupta, 2006 ; Giudice et Fargione,
2007 ; Tseng et al., 2009 ; Tripathi et al., 2009 ; Zhang et Zhang, 2010 ; Xue et al., 2010 ; Saïd,
2018).
La matrice de précédence entre les composants est définie à partir du graphe des liaisons et
de l’architecture modulaire du produit. Un élément 𝑝𝑖𝑗 de la matrice est tel que :
Pour illuter au mieux les trois données d’entrées nécessaires dont nous aurons besoins,
nous allons nous appuyer principalement sur les travaux de Saïd (2018).
106
Figure 31:Exemple de matrice de précédence (Saïd, 2018)
Du fait que des composants appartiennent au même module, la valeur 0 est attribuée aux
entrées de chaque module de valeur égal à 1. On change ainsi la direction de désassemblage
des modules et la nouvelle matrice de précédence intégrant ce changement de direction est
donnée à la figure 32.
107
Figure 32: Matrice de précédence modifiée des composants (Saïd, 2018)
En considérant les modules et les relations existant entre eux, le tableau 30 donne une
illustration d’une matrice de précédence des modules. Dans les modules et relations existant
entre eux, s’il existe au moins un composant i désassemblé avant le composant j, la valeur
assignée est 1. Dans le cas contraire, on assigne la valeur 0 (même s’il s’agit d’un
désassemblage où aucune contrainte de précédence existe).
À partir de cette matrice de précédence des modules, nous pouvons déduire, dans sa
dernière ligne et colonne, les niveaux d’accessibilité suivant les deux sens de la direction de
108
désassemblage. Ces niveaux d’accessibilité sont caractérisés par le nombre de composants qui
précèdent les composants à désassembler.
Les mesures que nous présentons dans ce paragraphe sont classées selon une complexité
croissante.
Blackenfelt (2000) utilise deux métriques pour mesurer la modularité d’un produit : le
MI (Module Independence) (Newcomb et al., 1998) et l’ARP (Average Ratio of Potential) dont
les expressions sont :
n
inm
MI (68)
m 1 tot
n
1 inm
ARP (69)
m 1 n in pot
Avec :
n : le nombre de modules ;
m : l’indice d’un module ;
𝒊𝒏𝒎 : la somme des interactions à l’intérieur du module m ;
𝒊𝒏𝒑𝒐𝒕 : la somme des interactions à l’intérieur d’un module pondéré par un facteur à
fixer.
109
La différence principale entre ces deux métriques est que l’ARP est maximal pour une
architecture composée de plusieurs petits modules.
Les métriques utilisées par Blackenfelt ne prennent pas en compte les interactions externes
aux modules, de ce fait la pertinence des métriques est très limitée.
Une autre mesure de la modularité est le SMI (Holtta et al., 2005) pour « Singular Value
Modularity Index », la mise en place de cet indicateur nécessite une étape intermédiaire qui est
la diagonalisation de la DSM du produit. On a alors :
DSM U VT (70)
DSM
Avec :
1 0 0
DSM 0 0 (71)
0 N
0
1 N 1
SMI 1 i i i1 (72)
DSM N 1 i 1
La valeur de SMI est encadrée par 0 et 1, un SMI proche de 1 indique un fort degré de
modularité, un SMI proche de 0 définit une architecture intégrale.
Se basant sur les valeurs propres de la DSM, cette métrique ne permet pas de faire le
lien entre la taille des DSM, la taille des modules, leurs densités et la densité des interactions
externes. L’interprétation de cette métrique nécessite de se référer à la DSM initiale.
Guo et Gershenson (2004) ont étudié huit métriques de modularisation et proposent une
mesure de la modularité basée sur les intensités des interactions entre éléments dans un système.
Cette mesure (métrique) se compose de deux parties : une partie positive qui donne un poids
110
aux interactions internes aux modules et une partie négative qui pénalise les interactions
externes aux modules (Expression 73).
mk mk nk 1
mk Nc
Mm Rij Mm
i nk j 1
Rij Rij
2
i nk j nk j mk 1
k 1 mk nk 1 k 1 mk nk 1 N c mk nk 1
(73)
Mm
Avec :
Cette mesure peut être utilisée avec toutes les DSM composants, elle présente l’avantage de
prendre en compte les interactions extérieures aux modules. Cependant, Wietfield et al. (2002)
utilisent une métrique proche de celle de Guo avec des pondérations plus pertinentes (le nombre
d’interactions disponibles). Cette mesure de la modularité est l’indicateur MSI pour Module
Strength Indicator. Le MSI s’applique à un module et se compose de deux parties (Equations
74 et 75).
n2 n2
DSM i, j
i n1 j n1
MSI i (74)
n2 n1 1 n2 n1 1
2
n1 1 n2 N n2
Avec :
111
𝑀𝑆𝐼𝑖 et 𝑀𝑆𝐼𝑒 représentent respectivement la densité des interactions à l’intérieur et à
l’extérieur d’un module.
L’algorithme proposé par Idicula (1995) pour cette étape est un algorithme de clustering
hiérarchique du type Bottom-Up qui groupe « les tâches de conception dans des modules qui
sont faiblement couplés entre eux, alors que chaque module est composé de tâches fortement
couplées » (Ghassen, 2007).
112
size
Bid clusterk , elementi
DSM (i, j) DSM ( j, i) pow _ dep
CL _ MAT (k , j ) (77)
cl _ size k
pow _ bid
j 1
Avec :
Lorsqu’une interaction lie deux éléments appartenant à deux modules différents alors le
coût de spécification/définition de cette interaction dépend de la taille des deux modules
qu’elle rapproche. Cette remarque est à l’origine de l’évolution du coût de couplage
proposé par la suite par (Ghassen, 2007 ; Eric, 2008) (voir équation 80).
Pour obtenir l’expression finale du coût total de couplage : à l’image de la proposition
d’Idicula (1995), Ghassen (2007) et par Eric (2008) ont construit deux fonctions
complémentaires du coût de couplage : l’une pour caractériser les interactions internes
à un module et l’autre pour caractériser les interactions externes à ce module.
Pour chaque interaction dans la matrice DSM, l’algorithme d’Idicula calcule un coût de
couplage. Ensuite, la somme de tous les coûts de couplage donne le coût total de couplage.
113
Coût Couplage i, j = DSM i, j DSM j, i taille M k
2
(78)
Sinon, si aucun module ne contient les éléments i et j, alors il existe deux modules Mi’
et Mj’ qui contiennent respectivement les éléments i et j. Le coût de l’interaction entre les
éléments i et j s’écrit alors :
Coût Couplage i, j = DSM i, j DSM j, i taille M i ' taille M j '
2
(79)
Les trois formulations précédentes des coûts de couplage peuvent être réécrites en
adoptant comme référence les modules. On peut formuler alors une fonction de coût de
couplage, soit interne, soit externe à un module k, Mk (Equations 81 et 82 ).
(82)
Alors le Coût Total de Couplage peut s’écrire sous la forme présenté dans l’équation 83.
Modules
Coût Total Couplage = Coût Couplage Interne M Coût Couplage Externe M
Mk
k k
(83)
114
La dénomination de cet algorithme est inspirée de la métallurgie, où on répète
cycliquement la chauffe et le refroidissement d’un métal pour augmenter la taille de ses cristaux
et réduire ses défauts.
Le principe de l’algorithme est le suivant : l’algorithme est initialisé avec une solution
prise au hasard. À chaque itération, il modifie légèrement la solution pour essayer d’améliorer
la « fonction objectif ». Des sauts aléatoires sont introduits pour permettre de sortir d’optima
locaux, et donc accepter des solutions même si elles n’améliorent pas la « fonction objectif ».
Des conditions d’arrêt de l’algorithme sont définies pour limiter la durée d’exploration
de l’espace de solutions.
Cette erreur se situe dans la boucle qui permet d’accepter un coût de couplage supérieur,
l’algorithme de référence enregistre alors la meilleure architecture référencée en cours obtenue
jusqu’au meilleur coût actuel et qui peut être obtenue dans la boucle de stabilité en cours, mais
cette architecture n’est pas sauvegardée dans une variable qui contient la meilleure architecture
obtenue. Il s’ensuit à la sortie de cette boucle que l’algorithme peut accepter un coût qui
améliore la variable sans vérifier si le meilleur coût actuel améliore le précédent. Par
conséquent, l’algorithme peut ne pas prendre en compte la meilleure architecture parmi celles
qu’il teste.
A l’issue de cette analyse de l’algorithme d’Idicula, nous optons pour une dénomination
plus générique de la « fonction objectif » à savoir : « coût total de couplage ». En effet, cette
fonction objective est indépendante du domaine étudié.
115
conception axiomatique vont dans ce sens et tendent à privilégier la création de sous-systèmes
qui soient le plus possible découplés. Il s'agit de limiter la diversité technique en standardisant
les composants et faire des économies d'échelle en production. Il s'agit de s'assurer que le
système sera facilement maintenable. En résumé, toutes les parties prenantes du cycle de vie du
système vont spécifier des exigences sur son architecture.
Éric (2008) caractérise les qualités attendues d'un algorithme de la façon suivante :
Les algorithmes proposés par Yu et al. (2003 ; 2007) ont l'avantage d'une meilleure
convergence vers l'optimum que l'algorithme de Thebaud mais un temps de calcul qui peut être
plus long (les auteurs ne fournissent pas ces données comparatives). Les programmes sources
ne sont pas disponibles et difficilement compréhensibles par un bon ingénieur de conception.
Globalement l’algorithme de clustering existant ne satisfait pas les spécifications S2, S3, S5 et
ne prend pas en compte la notion d’éléments intégrateurs afin de réduire la complexité des
modules.
116
Nous allons proposer des modifications pour améliorer cet algorithme sur ces critères.
L’algorithme utilisé se base sur l’évaluation des couplages entre éléments d’un même
domaine pour générer d’une manière systématique des groupements en modules de ces mêmes
éléments en optimisant une « fonction objectif ». Il ne gère que les valeurs positives des
couplages.
La DSM ;
Le MSI ;
La « Fonction objectif » ;
L’identification des éléments intégrateurs.
117
Début
Non
Réduction dans le
Coût ?
Oui
Non
Réduction dans le
Coût ?
Oui
Non
Le Coût obtenu est-il optimal ? (situé dans la
plage déduite de l’implémentation de
l’algorithme existant)
Oui
Fin
118
III.4.1 Matrice structurelle de conception modifiée
La première modification de l’algorithme existant concerne la matrice structurelle de
conception. En se servant des modifications apportées par Ghassen (2007) et Eric (2008), les
transformations des éléments de la DSM de base que nous proposons sont données dans le
tableau 31.
DSM(i, j) Valeur de couplage entre les éléments 𝑪𝒊 et 𝑪𝒋 . Notons que pour i = j, DSM(i , j) = 0.
𝜹(𝒊, 𝒋) Prend la valeur 1 quand DSM(i, j) ≠ 0 et la valeur 0 quand DSM(i, j) = 0.
Pour le calcul de ces coefficients, on met l’accent sur deux caractéristiques d’une
architecture modulaire :
119
Les éléments appartenant à un module interagissent faiblement avec les éléments
appartenant à d’autres modules.
La partie MSIi’ (pour densité des interactions à l'intérieur) prend en compte les
interactions internes à un module et donne de ce fait une mesure de la cohésion et de la
robustesse (Strength) interne du module.
La partie MSIe’ (pour densité des interactions à l'extérieur) prend en compte les
interactions externes qui lient les éléments appartenant au module aux autres éléments externes
au module, ainsi MSIe’ mesure la force des interactions externe au module.
Il apparaît à travers les deux définitions que MSIi’ et MSIe’ sont deux indicateurs antagonistes.
Dans notre travail, nous n’allons pas utiliser directement l’indicateur MSI’, mais une
forme dérivée des deux indicateurs MSIi’ et MSIe’. Alors que ces deux indicateurs originaux
tiennent compte de l’intensité des interactions, les indicateurs que nous proposons tiennent
compte uniquement de l’existence ou non des interactions. On obtient alors les indicateurs
MSIi’ et MSIe’ présentés en équations 84 et 85.
n2 n2
i, j
MSI M k
' i n1 j n1 , j i
(84)
n2 n 1 n2 n1 1
i 2
1
n1 1 n2 taille ( DSM ) n2
i , j j , i i , j j , i
MSI M k i 1 j n1 i n2 1 j n1
'
(85)
2 n 1 n n 1 2 taille( DSM ) n n n 1
e
1 2 1 2 2 1
Avec :
Taille (DSM) : fonction qui renvoie la taille d'un module ou de la DSM, i.e. nombre
d'éléments dans une sous-matrice de la DSM ;
𝑛1 : index du premier élément du module 𝑀𝑘 ;
𝑛2 : index du dernier élément du module 𝑀𝑘 (𝑛2 ≥ 𝑛1 ). Si 𝑛2 = 𝑛1 , le module ne
contient en fait qu’un seul élément.
120
Notons que le dénominateur du MSIi’ correspond au nombre total d’interactions
possibles du module considéré, en dehors de la diagonale et que nous considérons uniquement
des DSM symétriques.
L’indicateur MSI a été développé pour des DSM temporelles et plus précisément pour
des DSM paramètres tel que celles développées dans l’algorithme de clustering de base qui
s’inspirent des paramètres de conception. Nous proposons alors un indicateur MSI’ développé
pour des DSM numériques qui prennent leurs valeurs entre 0 et 1. On obtient alors des
indicateurs MSIi’ et MSIe’ ayant leurs valeurs entre 0 et 1. Du fait que les indicateurs MSIi’ et
MSIe’ prennent en compte des interactions valant 1 ou 0, MSIi’ et MSIe’ ont une valeur bornée
par 0 et 1.
Avant d’expliquer l’utilisation de ces indicateurs dans la fonction de coût, nous allons
étudier le comportement de ces deux indicateurs.
L’indicateur MSIi’ est maximal et vaut 1, lorsque le module est totalement dense, c’est-
à-dire tous les éléments qui le composent interagissent. L’indicateur est nul, lorsque les
éléments qui composent le module n’interagissent pas du tout entre eux (ce qui remet en
question l’utilisation du terme module pour qualifier ce groupement d’éléments).
L’indicateur MSIe’ est nul lorsque le module concerné n’interagit avec aucun élément
externe (il est complètement découplé). Il est maximal lorsque chacun des éléments qui le
composent interagit avec tous les éléments externes à ce module. Cette dernière configuration
est également contraire à l’application du terme module à un groupement d’éléments.
Ainsi, un groupement d’éléments tend à devenir un module parfait quand son MSIi’
tend vers 1 et son MSIe’ tend vers 0.
Si nous reprenons la « fonction objectif » choisie plus haut (équation 83), nous
remarquons que nous pénalisons plus fortement les interactions externes que les interactions
internes. Cette configuration peut aboutir à la création de modules relativement grands, même
si la taille du module est pénalisée. Ainsi, pour ajuster et corriger la « fonction objectif » nous
allons nous inspirer des travaux de (Ghassen, 2007 ; Eric ,2008). Ces travaux ne donnent pas
121
des contraintes sur les coefficients correcteurs et n’intègrent pas ces contraintes dans la
formulation de la fonction objectif. Nous formulons donc une fonction objectif définie par
l’équation 86, qui tient compte des contraintes sur les coefficients correcteurs du coût de
couplage des modules.
Les corrections que nous apportons avec cette nouvelle fonction objectif concernent le
coût de couplage interne et le coût de couplage externe, pour un module considéré.
Ainsi, les corrections apportées sont données par les équations 87 et 88.
Coût Couplage Interne Corrigé M k = Coût Couplage Interne M k / MSI i' M k (87)
Coût Couplage Externe Corrigé M k = Coût Couplage Externe M k MSI e' M k (88)
en divisant le coût de couplage interne par MSIi’, nous favorisons la création de modules
plutôt denses que grands ;
en multipliant le coût de couplage externe par MSIe’, nous favorisons la minimisation
des interactions externes aux modules.
plus MSIi' augmente, plus le module est dense, plus le coût baisse ;
plus MSIe' augmente, plus il y a d'interactions externes au module, plus le coût
augmente.
Modules
Coût Total Couplage Corrigé = Coût Couplage Interne Corrigé M k Coût Couplage Externe Corrigé M k
Mk
(89)
Afin de montrer la pertinence de cette dernière « fonction objectif », nous allons comparer
dans la partie résultats de ce chapitre notre algorithme et l’algorithme référence.
122
III.4.4 Identification des éléments intégrateurs
Une dernière modification concerne le traitement spécifique que nous réservons aux
éléments intégrateurs. Ghassen (2007) définit un élément intégrateur comme un élément qui
nappartient à aucun module et qui interagit avec des éléments appartenant à plusieurs modules.
Cette définition pose cependant un problème dans la mesure où l’architecture de base ne
comporte pas d’éléments n’appartenant à aucun module. En effet, tout module contient au
moins un composant, donc un composant unique pourrait définir son propre module. Dans
l’optique de construire des modules de petites tailles, on peut considérer un élément appartenant
déjà à un module comme un élément intégrateur dans la mesure où il interagit fortement avec
un autre module. Nous définissons donc un élément intégrateur comme un élément appartenant
à un module et qui interagit avec des éléments appartenant à un ou à plusieurs modules.
Les algorithmes de clustering ont pour objectif de créer des modules et donc tentent
d'insérer tout élément à l'intérieur d'un module. Les fonctions de coût (celle de Thebaud (2001)
ou celle que nous proposons) ne peuvent pas garantir que les éléments intégrateurs seront placés
à l'extérieur des autres modules, ce qui au final, n'est pas conforme à la vision de l’architecte et
perturbe la convergence de l'algorithme.
C’est pourquoi nous proposons de calculer un indice de couplage (IC) pour identifier
"automatiquement" les éléments intégrateurs, définis comme ceux qui interagissent fortement
en nombre avec les éléments appartenant à d’autres modules (Equation 90). Nous offrons aussi
la possibilité à l’utilisateur de classer manuellement un élément qu’il considère comme étant
intégrateur.
taille DSM
i, j
IC élément j i 1,i j
(90)
taille DSM 1
L’IC mesure le taux de couplage entre un élément et le reste du système. Pour tenir compte
du jugement des architectes, Ghassen (2007) fixe l’IC à 60%. Au-delà de ce seuil, les éléments
sont considérés comme étant intégrateurs. Eric (2008) par contre, offre la latitude à l’utilisateur
de définir le seuil de l’IC.
III.5 CONCLUSION
Cette partie a été consacrée à la proposition d’une méthode d’algorithme de clustering
pour une bonne modularisation des systèmes. Il se trouve que l’algorithme de clustering déployé
dans la littérature présente beaucoup de limites, dans la mesure où il ne considère que les DSM
123
paramètres (dont on aurait six paramètres à varier, rendant plus lourd l’implémentation de
l’algorithme), il génère des modules complexes (de grandes tailles et engendrant des coûts de
couplages élevés) et ne prend pas en compte les éléments intégrateurs, permettant la création
des modules plus denses. Il est donc important de réduire ces coûts de couplage pour une
conception et une maintenance plus aisées. Des corrections de l’algorithme existant ont été
apportées en proposant un nouvel algorithme de clustering. Nous validerons cet algorithme par
une application sur le torréfacteur de soja au Chapitre 4.
124
CHAPITRE IV : VALIDATION DE L’ALGORITHME
PROPOSE
IV.1 INTRODUCTION
Dans ce chapitre, nous implémentons d’abord l’algorithme de clustering existant,
ensuite nous implémentons le nouvel algorithme proposé et comparons les résultats avec ceux
générés par le précédent algorithme.
125
Tableau 32:Matrice de relations du torréfacteur de soja
Composants 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
1 0 23 23 23
2 23 0 14
3 0 14 18
4 14 0 21
5 21 0 19 19
6 19 0 18
7 19 0 18
8 18 0 21
9 14 18 0
10 0 21 20
11 18 21 0
12 23 0 21
13 0 21 21
14 21 0 17
15 21 17 0
16 0 23
17 23 21 20 23 0 21
18 21 0
19 21 0
TOTAL 69 37 32 35 59 37 37 39 32 41 39 44 42 38 38 23 108 21 21
En observant cette matrice, on constate que le nombre de connexions est 343 ,qui est bien en accord avec la formule établie par
126
Lambert et al. (2005) qui stipule que le nombre de connections maximales pour notre cas
est :19 (19 − 1)= 343 connections possibles. On est donc à la limite du nombre de connexions
des composants de notre système.
0,5 19 NM 19 (91)
127
Tableau 33:Première transformation de la matrice de relations
Composants 1 3 5 6 7 8 9 10 11 12 13 14 15 17 18 19
1 0 23 23
3 0 18
5 0 19 19
6 19 0 18
7 19 0 18
8 18 0 21
9 18 0
10 0 21 20
11 18 21 0
12 23 0 21
13 0 21 21
14 21 0 17
15 21 17 0
17 23 21 20 0 21
18 21 0
19 21 0
Composants 1 3 5 8 9 10 11 12 13 14 15 17 18 19
1 0 23 23
3 0 18
5 0
8 0 21
9 18 0
10 0 21 20
11 21 0
12 23 0 21
13 0 21 21
14 21 0 17
15 21 17 0
17 23 21 20 0 21
18 21 0
19 21 0
128
A l’issue de cette deuxième transformation de la matrice de relations, on constate que les
composants 8 et 19 sont assignés au cluster contenant initialement le composant 17. En
transformant la matrice du tableau 34, on obtient la matrice du tableau 35.
Composants 1 3 5 9 10 11 12 13 14 15 17 18
1 0 23 23
3 0 18
5 0
9 18 0
10 0 21 20
11 21 0
12 23 0 21
13 0 21 21
14 21 0 17
15 21 17 0
17 23 20 0
18 21 0
129
Figure 34:Regroupement en quatre modules du torréfacteur de soja
130
Figure 35:Regroupement en trois modules du torréfacteur de soja
131
Figure 36:Regroupement en deux modules du torréfacteur de soja
132
Figure 37:Matrice de précédence des composants du torréfacteur de soja à quatre modules.
133
Figure 38:Matrice de précédence des composants du torréfacteur de soja à trois modules.
134
Figure 39:Matrice de précédence des composants du torréfacteur de soja à deux modules.
IV.2.2.2.2 Changement de direction de désassemblage des modules
On exploite la matrice de précédence des composants pour en tirer les niveaux de
désassemblage du torréfacteur à quatre modules, à trois modules et à deux modules
(respectivement aux figures 40, 41 et 42) afin de construire l’arbre de désassemblage. Du fait que
des composants appartiennent au même module, on affecte la valeur 0 au lieu de 1. Par exemple
pour le module 4 (dans le cas du torréfacteur à quatre modules), on obtient :
135
Figure 40:Matrice de précédence modifiée du torréfacteur de soja à quatre modules.
136
Figure 41:Matrice de précédence modifiée du torréfacteur de soja à trois modules.
137
Figure 42:Matrice de précédence modifiée du torréfacteur de soja à deux modules.
138
Figure 43:Matrice de précédence des quatre modules du torréfacteur
139
Figure 46:Gamme de désassemblage complète du torréfacteur de soja à quatre modules.
140
Figure 47:Gamme de désassemblage complète du torréfacteur de soja à trois modules.
141
Figure 48:Gamme de désassemblage complète du torréfacteur de soja à deux modules.
142
L’arbre du torréfacteur à quatre modules présente les étapes à suivre pour le
désassemblage du produit. La décomposition du produit en modules permet de procéder au
désassemblage des composants ou bien des modules en parallèle, comme montré pour le niveau
1 les composants 8, 10, 19, 17, 16 et le module 4 sont récupérés en parallèle. Au niveau 2, les
composants 9, 2 et 1 et les modules 2 et 3 sont récupérés en parallèle. Par contre, lorsque le
torréfacteur se subdivise en trois ou en deux modules, on constate un seul niveau de
désassemblage, ce qui suppose que lors du désassemblage, on démonte à la fois tous les modules.
Figure 49:Topologie des modules du torréfacteur de soja (pour quatre, trois et deux modules)
143
IV.2.3 Deuxième étape de l’algorithme de clustering existant
Nous allons quantifier la modularité de notre torréfacteur de soja au moyen du MSI
(Module Strength Indicator).
Cet indicateur de modularité étant fonction de la DSM (Design Structure Matrix), nous
allons d’abord dresser la matrice structurelle de conception qui découle directement de la matrice
de relations et de la décomposition modulaire des composants du torréfacteur de soja.
Cette codification proposée des composants du torréfacteur de soja à quatre modules par
les 𝐶𝑖 (1 ≤ 𝑖 ≤ 19), c’est pour mieux appliquer la formule de mesure de la modularité.
144
Nom Désignation
𝐶1
Support roulement côté moteur
𝐶2
Capot
𝐶3
Trémie de sortie
Cylindre principal 𝐶4
𝐶5
Trémie d’entrée
𝐶6
Cuvette
𝐶8
Axe secondaire
𝐶9
145
𝐶10
Racleur
La codification des composants est donnée dans le tableau 36.
Courroie
Disque 2
Axe principal
Bâti
Moteur
Disque moteur
𝐶11 𝐶12 𝐶13 𝐶14 𝐶15 𝐶16 𝐶17 𝐶18 𝐶19
Figure 51:DSM du torréfacteur de soja à trois modules
146
Figure 52:DSM du torréfacteur de soja à deux modules
Nous avons défini une nouvelle codification des composants du torréfacteur de soja à trois
ou à deux modules par les 𝐸𝑖 (1 ≤ 𝑖 ≤ 19), afin de mieux appliquer la formule de mesure de la
modularité.
147
Tableau 37:Nouvelle Codification des composants du torréfacteur à trois ou à deux modules
Désignation
𝐸1 𝐸2 𝐸3 𝐸4 𝐸5 𝐸6 𝐸7 𝐸8 𝐸9 𝐸10 𝐸11 𝐸12 𝐸13 𝐸14 𝐸15 𝐸16 𝐸17 𝐸18 𝐸19
Axe secondaire
Disque moteur
Axe principal
Disque 2
Courroie
Cuvette
Racleur
Moteur
Capot
Nom
Bâti
IV.2.3.2 Quantification de la modularité
Notre produit pouvant être formé de quatre modules, de trois modules ou de deux modules,
nous allons dans les différentes configurations pour chaque module, mesurer le degré de
modularité en comparant les interactions à l’intérieur et à l’extérieur du module.
Rappelons tout de même que les mesures des interactions à l’intérieur et à l’extérieur du
module sont données par les relations 74 et 75.
Pour des raisons de symétrie de notre DSM, la relation (75) devient donc :
n1 1 n2 N n2
2 DSM i, j
i 1 j n1
2DSM i, j
i n2 1 j n1
MSI e (92)
2 n1 1 n2 n1 1 2 N n2 n2 n1 1
Pour notre DSM, on a : N = 19 composants. Nous allons balayer les différents nombres de
modules possibles de note torréfacteur.
148
5 5
DSM i, j
i 1 j 1 170
MSI i ( M 1 ) 8,5 ;
5 1 1 5 1 1
2
20
0 5 19 5
11 11
5 11 19 11
16 16
11 16 19 16
19 19
DSM i, j 74
MSI i M 4 i 17 j 17
12,3333 ;
19 17 1 19 17 1
2
6
16 19 19 19
149
MSI M 4 MSI i M 4 MSI e M 4 11 .
Le tableau 38 fait la synthèse des MSI évalués pour chaque module du torréfacteur à
quatre modules.
Tableau 38:Degré de modularité des quatre modules du torréfacteur avec l’algorithme existant
Modules 𝑴𝟏 𝑴𝟐 𝑴𝟑 𝑴𝟒
150
12
11
8
7,3429
6
5,1182
4
3,1458
2
0
M4(taille 3) M1(taille 5) M3(taille 5) M2(taille 6)
Modules et leurs tailles
Tableau 39:Degré de modularité des trois modules du torréfacteur avec l’algorithme existant
Modules 𝑴𝟏 𝑴𝟐 𝑴𝟑
On constate que pour le torréfacteur à trois modules, le module 𝑴𝟐 est est le plus facile à
maintenir. Par contre, le module 𝑴𝟏 est le plus difficile à maintenir, du fait d’un MSI plus faible.
L’évolution du MSI en fonction de la taille des modules est donnée par la figure 54.
151
12
4,4
4
3,69
0
M2(taille 4) M3(taille 7) M1(taille 8)
Modules et leurs tailles
Au regard de la figure 54, on fait également le même constat selon lequel les interactions
d’un module sont une fonction décroissante de la taille du module.
Tableau 40:Degré de modularité des deux modules du torréfacteur avec l’algorithme existant
Modules 𝑴𝟏 𝑴𝟐
152
4,5
Rappelons tout de même que les coûts de couplage interne et externes d’un module sont
donnés par les équations 81 et 82.
k = iM
2
Coût Couplage Externe M 2 DSM i, j taille DSM taille M k taille M n
jM , jM n
k k
(95)
Le coût de couplage global des modules est donné par la relation 96.
Modules
Coût Total Couplage = Coût Couplage Interne M Coût Couplage Externe M
Mk
k k
(96)
153
a) Cas du torréfacteur à quatre modules
Pour le module 1, on a :
=2(21+20+23+21)×(5)2
=4250 ;
2DSM i, j taille DSM taille M1 taille M n
2
Coût Couplage Externe M1 =
iM1 jM1, jM n
=140060.
Pour le module 2, on a :
=2(21+21+17+21)×(6)2
=5760 ;
2DSM i, j taille DSM taille M 2 taille M n
2
Coût Couplage Externe M 2 =
iM 2 jM 2 , jM n
=74224.
Pour le module 3, on a :
=2(14+21+19+19)×(5)2
=3650 ;
154
2DSM i, j taille DSM taille M 3 taille M n
2
Coût Couplage Externe M 3 =
iM 3 jM 3 , jM n
=2×18(5 + 3 + 19)2
=26244 ;
Coût Couplage M 3 = Coût Couplage Interne M 3 Coût Couplage Externe M 3
=29894.
Pour le module 4, on a :
=2(23+14)×(3)2
=666 ;
2DSM i, j taille DSM taille M 4 taille M n
2
Coût Couplage Externe M 4 =
iM 4 jM 4 , jM n
=0 ;
=666.
Le coût de couplage global des quatre modules du torréfacteur de soja s’obtient donc comme
suit :
4
Coût Total Couplage = Coût Couplage M i
i 1
=244844.
La synthèse des coûts de couplage du torréfacteur à quatre modules est donné par le tableau 41.
Tableau 41:Coût de couplage des quatre modules du torréfacteur avec l’algorithme existant
Modules 𝑴𝟏 𝑴𝟐 𝑴𝟑 𝑴𝟒
Au vu de ces résultats, on constate que le module 1 a le coût de couplage le plus fort, donc
ce module exige plus d’attention, plus de ressources, ou plus de travail des concepteurs. Par
155
contre, le module 4 présente un coût de couplage le plus faible, donc ce module exige moins
d’attention, moins de ressources, ou moins de travail des concepteurs.
Partant de ce tableau, il se trouve que le coût de couplage interne des modules varie de
666 à 5760 et le coût de couplage externe des modules varie de 0 à 135810. En additionnant les
bornes inférieures et supérieures des coûts, nous déduisons le seuil de satisfaction du coût de
couplage donné par l’intervalle ]666; 141570[ .
160000
140000 140060
Coût de couplage
120000
100000
80000
74224
60000
40000
29894
20000
0 666
M4(taille 3) M1(taille 5) M3(taille 5) M2(taille 6)
MODULES
Au regard de ce graphe, le coût de couplage n’est quasiment pas une fonction croissante
de la taille des modules. En effet, le module 2 qui est de plus grande taille a un coût de couplage
plus faible que le module 1 de taille inférieure à celle du module 2. Cela se traduit par le fait que
les interactions du modules 1 sont plus fortes que celles du module 2. Par contre, le coût de
couplage est une fonction croissante de la taille des modules 4, 3 et 2 respectivement. On constate
dès cet instant que le coût de couplage est à la fois fonction de la taille et des valeurs des
interactions des modules.
156
Tableau 42:Coût de couplage des trois modules du torréfacteur avec l’algorithme existant
Modules 𝑴𝟏 𝑴𝟐 𝑴𝟑
Le module 𝑴𝟑 est le moins contraignant pour les concepteurs, du fait d’un plus faible coût
de couplage .
La figure 57 montre l’évolution du coût des trois modules.
14000000
13190727
12000000
Coût de couplage
10000000
8000000
6000000
4000000
3334423
2000000
0 100245
M2(taille 4) M3(taille 7) M1(taille 8)
MODULES
Tableau 43:Coût de couplage des deux modules du torréfacteur avec l’algorithme existant
Modules 𝑴𝟏 𝑴𝟐
157
Coût de 𝑬𝒙𝒕𝒆𝒓𝒏𝒆 22445536 0
Couplage
𝑰𝒏𝒕𝒆𝒓𝒏𝒆 + 𝑬𝒙𝒕𝒆𝒓𝒏𝒆 22565344 10094
On constate que le module 𝑴𝟏 a le coût de couplage le plus élevé, il est donc plus
contraignant pour les concepteurs. Par contre, le module 𝑴𝟐 est le module le moins contraignant
pour la conception.
25000000
22565344
20000000
Coût de couplage
15000000
10000000
5000000
0 10094
M2(taille 7) M1(taille 12)
MODULES
D’après la figure 58, le coût de couplage est une fonction croissante de la taille des
modules.
158
Figure 59:DSM numérique du torréfacteur de soja à quatre modules
159
Figure 60:DSM numérique du torréfacteur de soja à trois modules
160
Figure 61:DSM numérique du torréfacteur de soja à deux modules
Les valeurs des interactions de ces matrices seront fort utiles dans l’évaluation des
coefficients correcteurs des coûts de couplage des modules du torréfacteur de soja.
Les coefficients correcteurs du coût de couplage sont donnés par les relation 84 et 85. Pour
des raisons de symétrie de la DSM, la relation 85 devient :
n1 1 n2 taille ( DSM ) n2
2 i, j 2 i, j
MSI M k
i 1 j n1 i n2 1 j n1
'
(97)
2 n1 1 n2 n1 1 2 taille( DSM ) n2 n2 n1 1
e
161
a) Cas du torréfacteur à quatre modules
Pour notre DSM numérique à 19 composants les coefficients correcteurs pour les différents
modules sont évalués ainsi qu’il suit :
5 5
i, j 8
MSI M 1
' i 1 j 1
0, 4 ;
5 1 1 5 1 1
i 2
20
0 5 19 5
2 i, j 2 i, j 8
MSI M 1
' i 1 j 1
i 6 j 1
0 0,0571 ;
2 1 1 5 1 1 2 19 5 5 1 1
e
140
11 11
i, j 8
MSI M 2
' i 6 j 6
0, 2666 ;
11 6 1 11 6 1
i 2
30
5 11 19 11
2 i, j 2 i, j 4 4
MSI M 2
' i 1 j 6
i 12 j 6
0,1083 ;
2 6 1 11 6 1 2 19 11 11 6 1
e
60 96
16 16
i, j 8
MSI i' M 3 i 12 j 12
0, 4 ;
16 12 1 16 12 1
2
20
11 16 19 16
2 i, j 2 i, j 6 2
MSI M 3
' i 1 j 12
i 17 j 12
0,1212 ;
2 12 1 16 12 1 2 19 16 16 12 1
e
110 30
162
19 19
2 i, j 4
MSI i' M 4 i 17 j 17
0,6666 ;
19 17 1 19 17 1
2
6
16 19 19 19
2 i, j 2 i, j 6
MSI M 4
' i 1 j 17
i 20 j 17
0 0,0625 ;
2 17 1 19 17 1 2 19 19 19 17 1
e
96
La synthèse des coefficients correcteurs du coût de couplage du torréfacteur à quatre modules est
donné par le tableau 44.
Modules 𝑴𝟏 𝑴𝟐 𝑴𝟑 𝑴𝟒
La figure 62 suivante fait une étude comparative du MSI corrigé pour le torréfacteur à quatre
modules et de celui obtenu avec l’algorithme existant.
12
MSI généré avec l'algorithme existant
11
MSI généré avec l'algorithme proposé
10
8
7,3429
MSI
6
5,1182
4
3,1458
2
0,6041 0,3429
0 0,2788 0,1583
M4(taille 3) M1(taille (5) M3(taille 5) M2(taille 6)
Taille des modules
Modules 𝑴𝟏 𝑴𝟐 𝑴𝟑
Avec le nouvel algorithme, nous faisons le même constat que celui de la littérature qui
stipule que le module 𝑴𝟐 du torréfacteur est le plus facile à maintenir. Par contre, le module le
moins facile à maintenir ici est le module 𝑴𝟑 ,donc dans la quantification de la modularité, en
considérant le torréfacteur subdivisé en trois modules, notre algorithme n’est plus en accord avec
celui de la littérature.
La figure 63 suivante fait une étude comparative du MSI corrigé du torréfacteur à trois
modules et de celui obtenu avec l’algorithme existant.
164
12
MSI généré avec l'algorithme existant
10 MSI généré avec l'algorithme proposé
9,85
8
MSI
4,4
4
3,69
Figure 63:Etude comparative du MSI corrigé du torréfacteur à trois modules et de celui obtenu
avec l’algorithme existant
Au regard de la figure 63, on constate bien que le MSI corrigé n’est pas en accord avec
celui de la littérature. En effet, le MSI corrigé décroit lorsqu’on passe du module 𝑴𝟐 au module
𝑴𝟑 et augmente légèrement lorsqu’on passe du module 𝑴𝟑 au module 𝑴𝟏 .
Modules 𝑴𝟏 𝑴𝟐
D’après les résultats obtenus, on fait toujours la même observation selon laquelle le module
𝑴𝟐 est le plus facile à maintenir. Nos résultats sont donc en accord avec ceux obtenus dans la
littérature. Par contre, il faut noter que notre algorithme a favorisé la création des modules plus
denses, avec un MSI se situant dans l’intervalle [0; 1].
165
IV.3.3 Coût de couplage
En tenant compte des coefficients correcteurs évalués précédemment (MSIi’ et MSIe’) et
ayant pris connaissance des coûts de couplage générés par l’algorithme de base, nous allons
évaluer le coût de couplage corrigé de chaque module constituant le torréfacteur de soja et
déduire le nouveau coût de couplage global des modules du torréfacteur de soja.
Nous évaluons les coûts correcteurs définis par les relations 87 et 88 où nous donnons les valeurs
arrondies à l’entier.
4250
= 0,4
= 10625 ;
Coût Couplage Externe Corrigé M1 = Coût Couplage Externe M1 MSI e' M1
=135810 × 0,0571
= 7755 ;
Coût Couplage Corrigé M1 = Coût Couplage Interne Corrigé M1 Coût Couplage Externe Corrigé M1
= 18380.
Pour le module 2, on a :
5760
= 0,2666
=21605 ;
= 68464 × 0,1083
= 7415 ;
Coût Couplage Corrigé M 2 = Coût Couplage Interne Corrigé M 2 Coût Couplage Externe Corrigé M 2
= 29020.
166
Pour le module 3, on a :
3650
= 0,4
= 9125 ;
= 26244 × 0,1212
= 3181 ;
Coût Couplage Corrigé M 3 = Coût Couplage Interne Corrigé M 3 Coût Couplage Externe Corrigé M 3
= 12306.
Pour le module 4, on a :
666
= 0,6666
= 999 ;
= 0×0,0625
=0;
Coût Couplage Corrigé M 4 = Coût Couplage Interne Corrigé M 4 Coût Couplage Externe Corrigé M 4
= 999.
Le coût de couplage total corrigé des quatre modules du torréfacteur de soja est donné par la
relation 98.
4
Coût Total Couplage Corrigé = Coût Couplage Corrigé M i
i 1
(98)
= 60705.
167
Le tableau 47 récapitule les coûts de couplage obtenu avec l’algorithme existant et le
nouvel algorithme de clustering proposé sur les quatre modules du torréfacteur et ressort la
réduction obtenue en coût.
Tableau 47:Synthèse des coûts générés par l’algorithme existant et le nouvel algorithme sur les
quatre modules du torréfacteur
La figure 64 présente l’évolution du coût de couplage généré par le nouvel algorithme en fonction
de la taille des quatre modules du torréfacteur de soja.
168
35000
30000
25000
20000
18380
15000
12306
10000
5000
999
0
M4(taille 3) M3(taille 5) M1(taille 5) M2(taille 6)
Figure 64:Evolution du coût de couplage corrigé en fonction de la taille des quatre modules
Avec l’algorithme existant, on a constaté que le module 1 a le coût de couplage le plus
élevé et nettement supérieur à celui du module 2. Pourtant du point de vu conception, le module
2 est le plus contraignant pour les concepteurs du fait de sa complexité avec une plus grande
taille (soit de 6 composants), ce qui parait donc poser un problème. L’algorithme que nous avons
proposé montre à la figure 64 que le coût de couplage est une fonction croissante de la taille des
modules, ce qui est d’ailleurs normal car la complexité de conception augmente avec la taille du
produit à concevoir. D’un autre côté, les moules 1 et 3 sont de même taille (soit de 5 composants),
il est donc difficile de percevoir l’ors d’un problème de maintenance de ces modules celui qui
mettra le plus de temps d’intervention où qui suscitera le plus de coûts alloués pour la
maintenance. Du coup avec l’algorithme que nous proposons, c’est fort de ce constat que des
deux modules, le module 3 est le moins contraignant et nécessitant moins de ressources pour la
maintenance.
169
Tableau 48:Synthèse des coûts générés par l’algorithme existant et le nouvel algorithme sur les
trois modules du torréfacteur
L’algorithme proposé appliqué aux trois modules du torréfacteur a favorisé une réduction
globale en coût de couplage de 91 %. Donc la nouvelle architecture est meilleure que celle
générée par l’algorithme existant.
Les résultats obtenus avec l’algorithme proposé ne sont pas en accord avec ceux obtenus
par l’algorithme existant, du fait qu’ici le coût de couplage augment avec la taille des modules.
Tableau 49:Synthèse des coûts générés par l’algorithme existant et le nouvel algorithme sur les
deux modules du torréfacteur
171
Figure 65:Architecture du torréfacteur de soja avec les éléments intégrateurs
Cette architecture montre que l’algorithme a intégré l’élément 𝐶4 dans le dernier module
et a intégré l’élément 𝐶6 dans le premier module avec lequel il interagissait prioritairement. Nous
allons à présent comparer l’architecture obtenue avec les éléments intégrateurs et celle obtenue
en appliquant l’algorithme de clustering sans les éléments intégrateurs. En appliquant les
relations 87 et 88 qui donnent les coefficients correcteurs des modules du torréfacteur de soja, on
obtient le tableau 50.
Tableau 50:Coefficients correcteur du torréfacteur de soja avec prise en compte des éléments
intégrateurs
Modules du torréfacteur 𝑴𝑺𝑰′𝒊 𝑴𝑺𝑰′𝒆 MSI’
Module 1 0,2 0,1 0,1
Module 2 0,4 0,0222 0,3778
Module 3 0,4 0,1166 0, 2834
Module 4 0,5 0,1 0,4
172
Le tableau 50 montre que le module 4 reste toujours le module qui pénalise le plus les
interactions externes. Par contre, avec la prise en compte des intégrateurs, c’est le module 1 qui
devient cette fois le plus difficile à maintenir.
La figure 66 montre l’évolution du MSI avec et sans la prise en compte des intégrateurs.
0,6 0,6041
0,5
0,4 0,4
0,3778
0,3429
0,3
0,2834
0,2788
0,2
0,1583
0,1 0,1
0
M4(taille 4) M2(taille 5) M3(taille 5) M1(taille 5)
M4(taille 3) M2(taille 6) M3(taille 5) M1(taille 5)
TAILLE DES MODULES AVEC ET SANS PRISE EN
COMPTE D'ELEMENTS INTEGRATEURS
La figure 66 montre que l’ajout d’un composant dans le module 4 suite aux éléments
intégrateurs, conduit à la réduction du MSI de 33%, ce qui favorise la création d’un module moins
dense. Par contre, l’économie d’échelle observée au niveau du module 2(soit avec une réduction
de 1composant) conduit à une hausse considérable du MSI (soit de 138%), ce qui favorise plutôt
la création d’un module plus dense. Le MSI du module 3 a légèrement fluctué, ceci se traduit par
le fait que les éléments intégrateurs n’ont pas affecté la taille de ce module. Le module 1 bien
qu’ayant conservé sa taille, a subi une réduction considérable de son MSI. Ça s’explique par le
fait que ce module en cédant un élément intégrateur et ayant reçu un autre a considérablement
augmenté ses interactions externes.
En appliquant les relations 87, 88 et 89, les résultats obtenus en coûts de couplage des
modules du torréfacteur sont donnés par le tableau 51.
173
Tableau 51:Coûts de couplage corrigé du torréfacteur de soja avec prise en compte des
éléments intégrateurs
Tableau 52:Synthèse des coûts générés par l’algorithme de clustering proposé avec et sans
éléments intégrateurs
174
La prise en compte des éléments intégrateurs a conduit à substituer la courroie par un
motoréducteur et son accouplement (Annexe 7) et en allant dans propriétés de masse dans le
logiciel de Conception SolidWorks (version 2016) utilisée pour la conception de notre
équipement, nous avons obtenu les résultats consignés dans le tableau 53.
175
Tableau 54:Variation du coût de couplage du torréfacteur avec le nombre de modules
D’après le tableau 54, on constate qu’avec l’algorithme proposé, le coût global de couplage
du torréfacteur augmente lorsque le nombre de modules diminue. L’algorithme proposé est donc
en accord avec celui de la littérature, du fait qu’on fait le même constat précédent. Cela se traduit
évidemment par le fait que plus on a de modules, moins les modules ont des composants, ce qui
réduit drastiquement la complexité de l’équipement. D’où il est avantageux d’avoir un
torréfacteur à quatre modules, que de l’avoir à trois ou à deux modules.
CONCLUSION
Cette partie a été consacrée à l’implémentation du nouvel algorithme de clustering proposé
au chapitre 3, dans l’optique de réduire les coûts de couplages générés par l’algorithme de
clustering existant et de définir une nouvelle architecture et reconfiguration du produit. Afin de
valider la démarche proposée pour notre algorithme, nous avons fait une application sur le
torréfacteur de soja qui a également servi d’étude de cas lorsque nous déployions l’algorithme
existant. Nous avions expérimenté les différentes éventualités où le torréfacteur aurait quatre
modules, trois modules où deux modules. Nous avions constaté une non prise en compte des
éléments intégrateurs, si le torréfacteur possède trois ou deux modules, dans ce cas il est donc
impossible de reconfigurer le torréfacteur de soja. Pour le torréfacteur ayant quatre modules (le
seul cas de figure permettant la prise en compte des éléments intégrateurs et permettant une
reconfiguration du torréfacteur de soja), il en ressort que l’algorithme proposé sans tenir compte
des éléments intégrateurs a donné une architecture qui a généré une réduction globale en coûts
de 75 % sur l’algorithme existant. En prenant en compte les éléments intégrateurs, nous avions
défini une autre architecture du torréfacteur de soja qui se trouve encore meilleure que celle
donnée par le nouvel algorithme qui ne prend pas en compte les éléments intégrateurs. La
nouvelle architecture a favorisé une économie d’échelle du module 2, en le réduisant d’un
composant, le rendant ainsi moins complexe et plus facile à maintenir. Ce module a donc subi
une réduction en coût de 45% et globalement on a réalisé une réduction de 27% en coûts des
modules du torréfacteur de soja. L’algorithme proposé a permis de réduire les coûts de couplage
176
d’environ 82% et le torréfacteur reconfiguré obtenu est moins encombrant et plus facile à
maintenir.
177
CONCLUSION GENERALE ET PERSPECTIVES
L’objectif général de ce travail de recherche était d’améliorer la maintenance par la
conception de la modularité. L’outil proposé qui s’appuie sur l’algorithme de clustering existant
a été validé par une application sur un torréfacteur de soja. L’atteinte de cet objectif général a
nécessité une méthodologie.
179
REFERENCES BIBLIORAPHIQUES
Addouche, S. (2003). Contribution à une démarche de conception optimisée des processus de
désassemblage. Thèse de doctorat. Franche-Comté : Université de Franche-Comté, 204 p.
Ait-Kadi, D., Diallo, C and Chelbi, A. (2004). A Joint Spare-Provisioning and Preventive
Maintenance Strategy for Availability Maximization under Limited Resources. Proceedings of
the 7th Probabilistic Safety Assessment and Management Conference, Berlin, 5, 2840−2846.
Ait-Kadi, D. (2007). Fiabilité des systèmes. Notes de cours, département de génie mécanique,
Université Laval.
Alven, V. (1964). Reliability engineering. Englewood Cliff, New Jersey: Prentice- Hall.
Al-Widyan, K and Angeles, J. (2005). A Model- Based Formulation of Robust Design, Journal
of Mechanical Design ,127 (3), 388 – 396.
Baldwin, C and Clark, K. (1997). Managing in an age of modularity. Harvard Business Review,
75, 84−93.
Baldwin, C and Clark, K. (2000). Design Rules: The Power of Modularity. The Academy of
Management Review, 26 (1) :130−133.
Baron, C. (2005). L’évaluation dans la conception système : vers une aide à la conduite de projet.
HDR, Institut National Polytechnique de Toulouse.
180
Beauville, A. (2020). Démarche de conception d’un système de production industriel
reconfigurable, dans un contexte de fortes variations de marché en volume et en diversité. Thèse
de doctorat, Paris, HESAM,187 p.
Beyer, H-G and Sendho, B. (2007). Robust Optimization - A Comprehensive Survey. Computer
Methods in Applied Mechanics and Engineering, 196 (33-34), 3190−3218.
Boyd, J.A. (1992). Allocation of reliability requirements: a new approach. Annual Reliability
and Maintainability Symposium 1992 Proceedings, 5− 6.
Browning, T.R. (1998). Use of dependency structure matrices for product development cycle
time reduction. Proceedings of the 5.fth ISPE International Conference on Concurrent
Engineering: Research and Applications, Tokyo, Japan,1−8.
Browning, T.R. (1999). Designing system development projects for organizational integration.
Journal of Systems Engineering, 2(4), 217−225.
181
Browning T.R. (2001). Applying the design structure matrix to system decomposition and
integration problems: A Review and New Directions. IEEE Transactions on Engineering
Management, 48 (3) , 292−306.
Browning, T.R and Eppinger, S.D. (2002). Modeling Impacts of Process Architecture on Cost
and Schedule Risk in Product Development. IEEE Transactions on Engineering Management,
49(4) , 443−458.
Carrascosa, M., Eppinger, S. D and Whitney, D. E. (1998). Using the design structure matrix
to estimate product development time. Design Automation Conference, Atlanta, GA.
Chen, R, Navin-Chandra, D and Prinz, F.B. (1993). Product design for recyclability: A cost
benefit model and its application. Proceedings of the 1993 IEEE International Symposium on
Electronics and the Environment, Arlington, VA, USA ,178−183.
Chen, S.J and Lin, L. (2003). Decomposition of interdependent task group for concurrent
engineering. Computers & Industrial Engineering, 44, 435 – 459.
Chen, K.M and Liu, R.J. (2005). Interface strategies in modular product innovation,
Technovation, 25 (7), 771−782.
Cho, S.H and Eppinger, S.D. (2001). Product Development Process Modeling Using Advanced
Simulation. Design Engineering Technical Conferences Pittsburgh, Pennsylvania,1−10.
Clarkson, P.J., Simons, C.S and Eckert, C.M. (2004). Predicting change propagation in
complex design. Journal of Mechanical Design, 126 (5), 765−797.
Cotaina, N., Matos, F., Chabrol, J and Djeapragache, D. (2000). Study of Existing Reliability
Centered Maintenance (RCM) Approaches Used in Different Industries. Technical Report
Number: FIM/110.1/DATSI/00, 98 p.
Dahmus, J., Gonzalez-Zugasti, J and Otto, K. (2001). Modular Product Architecture. Design
Studies, 22(5), 409−424.
182
Das, I. and Dennis, J. E. (1998). Normal-boundary intersection: A new method for genera-ting
the pareto surface in nonlinear multicriteria optimization problems. SIAM Journal on
Optimization 8(3), 631–657.
Das, S.K., Yedlarajiah, P and Narendra, R. (2000). An approach for estimating the end-of-life
product disassembly effort and cost. International Journal of Production Research, 38 (3),
657−673.
Deb, K., Pratap, A., Agarwal, S and Meyarivan, T. (2002). A fast and elitist multiobjective
genetic algorithm: NSGA-II. In IEEE Transactions on Evolutionary Computation ,6 (2),
182–197.
Desai, A and Mital, A. (2003). Evaluation of disassemblability to enable design for disassembly
in mass production. International Journal of Industrial Ergonomics, 32 (4), 265−281.
Dhillon, B.S. (2002). Engineering Maintenance : A Modern Approach. CRC Press, ISBN 1-
58716-142-7.
Dowie, T. and Simon, M (1994). Guidelines for designing for disassembly and recycling.
Department of Mechanical Engineering, Design and Manufacture, the Manchester Metropolitan
University.
Dowie, T. (1995). A Disassembly Planning and Optimisation Methodology for Design. PhD
thesis. Manchester Metropolitan University, Manchester.
Dubois, D., Lubiano, M. A., Prade, H., Gil, M. A., Grzegorzewski, P and Hryniewicz, O.
(2008). Soft methods for handling variability and imprecision. Conferences proceedings Part of
the Advances in Soft Computing Book Series, ISBN:978-3-540-85026-7, 48.
183
Duflou, J.R., Seliger, G., Kara, S., Umeda, Y., Ometto, A and Willems, B. (2008). Efficiency
of product disassembly: A case-based study. CIRP Annals - Manufacturing Technology, 57,
583−600.
Ericsson, A and Erixon, G. (1999). Controlling design variants: Modular product platforms.
Society of Manufacturing Engineers, 145 p.
Erixon, G. (1998). Modular Function Deployment – A method for product modularization. PhD
thesis, Royal Institute of Technology, Stockholm, Sweden.
Ethiraj, S.K and Levinthal, D.A. (2004). Modularity and innovation in complex systems.
Management science 50 (2): 159 −173.
Failli, F and Dini, G. (2001). Optimization of disassembly sequences for recycling of end-of-
life products by using a colony of ant-like agents. Engineering of Intelligent Systems, 2070,
632−639.
Fernandez, C. (1998). Integration analysis of product architecture to support effective team co-
location. Thesis, Massachusetts Institute of Technology MIT, USA.
184
Ghassen, H. (2007). Vers une conception conjointe des architectures du produit et de
l’organisation du projet dans le cadre de l’Ingénierie Système. Thèse de doctorat. Université de
Franche-Comté, UFR Sciences et Techniques, Ecole Doctorale Sciences Physiques pour
l’Ingénieur et Microtechniques, 249 pages.
Ghazilla, R., Taha, Z., Yusoff, S., Rashid, S.H and Sakundarini, N. (2014). Development of
decision support system for fastener selection in product recovery oriented design. The
International Journal of Advanced Manufacturing Technology, 70 (5 - 8), 1403−1413.
Gittard, C. (2009). Application de l’approche système dans l’analyse de la fiabilité lors des
phases amont de la conception de produits innovants. Mémoire d’ingénieur, Centrale Paris.
Giudice, F and Fargione, G. (2007). Disassembly planning of mechanical systems for service
and recovery: A genetic algorithm based approach. Journal of Intelligent Manufacturing, 18 (3),
313 − 329.
Guivarch, A.D. (2003). Concurrent Process Mapping, Organizations, Project and Knowledge
Management in Large-Scale Product Development Projects Using the Design Structure Matrix
Method. Massachusetts Institute of technology, 149 − 152.
Gungor, A and Gupta, S. (2001). Disassembly sequence plan generation using a branch-and-
bound algorithm. International Journal of Production Research, 39 (3) , 481 − 509.
Güngör, A. (2006). Evaluation of connection types in design for disassembly (DFD) using
analytic network process. Computers and Industrial Engineering, 50, 35 − 54.
Haoues, N., Froelich, D and Zwolinski, P. (2004). Disassembly for valorization in conceptual
design. In Environmentally Conscious Manufacturing IV, 5583, 31−42.
Hölttä, K and Salonen, M. (2003). Comparing three different modularity methods. Proc. Of
DETC’03, Design Engineering Technical Conferences, ASME 2003, Chicago, USA.
185
Hölttä, K., Suh, E and Weck, O. (2005). Tradeoff Between Modularity and Performance for
Engineering Systems and Products. International Conference On Engineering Design Iced 05
Melbourne, 1 − 14.
Hsu, H and Lin, G. (2002). Quantitative measurement of component accessibility and product
assemblability for design for assembly application. Robotics and Computer Integrated
Manufacturing, 18, 13 − 27.
Huang, C.C and Kusiak, A. (1998). Modularity in design of products and systems. IEEE
Transactions on Systems, Man and Cybernetics, Part A: Systems and Humans, 28 (1) , 66 − 77.
Huang, C. (2000). Overview of modular product development. Proc. Natl. Sci. Council,
ROC(A), 24 (3), 149 − 165.
Hwai-En, Tseng., Chien-Chen, Chang and Jia-Diann, Li. (2008). Modular design to support
green life-cycle engineering. Science Direct, 34 (4Tapez une équation ici.), 2524 – 2537.
Idicula, J. (1995). Planning for Concurrent Engineering. Thesis draft, Nanyang Technology
University.
IEC 61703. (2001). Mathematical Expressions for Reliability, Availability, Maintainability and
Maintenance Support Terms. International Standard, International Electrotechnical Commission,
IEC, Geneva.
IEEE 1220. (1998). Standard for application and Management of the Systems Engineering
Process. The Institute of Electrical and Electronics Engineers, 1 − 11.
Ireson, W., Coombs, C.F and Moss, R.Y. (1995). Handbook of Reliability Engineering and
Management. McGraw-Hill Companies, ISBN 0-07-012750-6, 2.
Jabbour, T and Mascle, C. (1998). A Database for the representation of assembly features in
mechanical products. Iinternational Journal of Computational Geometry and Applications, 8 (5-
6), 483 −507.
186
Jeandin, T. (2015). Méthode de choix des attachements pour la fin de vie des produits. Maîtrise
des sciences appliquées, Université de Montréal, Ecole Polytechnique de Montréal, 122 p.
Jiao, J., Simpson, T.W and Siddique, Z. (2007). Product family design and platform-based
product development: a state-of-the-art review. Journal of Intelligent Manufacturing, Special
issue on Product family design and platform-based product development, 18 (1), 5 − 29.
Jose, A and Tollenaere, M. (2005). Modular and platform methods for product family design:
literature analysis. Journal of intelligent Manufacturing, 16, 371 − 390.
Keller, R., Eckert, C.M and Clarkson, P.J. (2005). Visualizing change propagation. Proc. 15th
Int. Conf. On Engineering Design, ICED'05, Melbourne, Australia.
Kirkpatrick, S., Gelatt, C.D and Vecchi, M.P. (1983). Optimization by simulated annealing.
Science, New series, 220 (4598) , 671−680
Kongar, E and Gupta, S. (2001). Genetic algorithm for disassembly process planning. In
Proceedings of the SPIE International Conference on Environmentally Conscious
Manufacturing, 54−62.
Kongar, E and Gupta, S. (2006). Disassembly sequencing using genetic algorithm. The
International Journal of Advanced Manufacturing Technology, 30 (5 – 6), 497 – 506.
Kroll, E and Carver, B.S. (1999). Disassembly analysis through time estimation and other
metrics. Robotics and Computer Integrated Manufacturing, 15 (3), 191 − 200.
Kuo, T., Zhang, H. C and Huang, S. (2000). Disassembly analysis for electromechanical
products: a graph-based heuristic approach. International Journal of Production Research, 38 (5),
993 − 1007.Tapez une équation ici.
Lambert, A and Gupta, S. (2005). Disassembly modelling for assembly, maintenance, reuse,
and recycling. CRC Press, 1 – 19.
187
Langlois, R.N. (2002). Modularity in technology and organization. Journal of Economic
Behavior and Organization, 49, 19 − 37.
Lee, Y. Q and Kumana, S. (1992). Individual and group disassembly sequence generation
through freedom and interference spaces. Journal of Design and Manufacturing, 2, 143−154.
Lehman, J. S., Santner, T. J and Notz, I. (2004). Designing computer experiments to determine
robust control variables. Statistica Sinica, 14 (2), 571–590.
Li, J. R., Khoo, L. P and Tor, S. B. (2002). A Novel Representation Scheme for Disassembly
Sequence Planning. International Journal Advanced Manufacturing Technology, 20 (8),
621−630.
Marler, R. T and Arora, J. S. (2010). The weighted sum method for multi-objective
optimiztion: new insights. Structural and multidisciplinary optimization, 41 (6), 853 – 862.
Millet, D., Brissaud, D and Zwolinski, P. (2007). Design for reuse, remanufacture and
recycling; an alternative to design for landfill. International Journal of Environmentally
Conscious Design and Manufacture, G. Bertollucci guest editors 13 (3−4).
188
Military Handbook – 217F. (1991). Reliability Prediction of Electronic Equipment. Notice 2,
U. S. Department of Defense.
Military HandBook – 470A. (1997). Designing and Developing Maintenable products and
Systems». U.S. Department of Defense, Washington, DC.
Military Handbook – 338B. (1998). Electronic Reliability Design Handbook. U.S. Department
of Defense.
Moore, K. E., Gungor, A and Gupta, S. (2001). Petri net approach to disassembly process
planning for products with complex AND/OR precedence relationships. European Journal of
Operational Research, 135 (2), 428 − 449.
Morelli, M.D., Eppinger, S. D and Gulati, R.K. (1995). Predicting Technical Communication
in Product Development Organizations. IEEE Transactions on Engineering Management, 42 (3).
Murayama, T., Oba, F., Abe, S and Yamamichi, Y. (2001). Disassembly Sequence Generation
using Information Entropy and Heuristics for Component Replacement. Proceedings of the IEEE
International Symposium, 208 − 213.
NASA. (2000). Reliability Centered Maintenance Guide for Facilities and Collateral Equipment.
Department of Defense, Washington, 472 p.
Newcomb, P., Bras, B and Rosen, D. (1998). Implications of modularity on product design for
the life cycle. Journal of Mechanical Design, 120, 483 − 490.
Otto, K and Wood, K. (2001). Product design: techniques in reverse engineering and new
product development. Prentice Hall, Upper Saddle River, NJ.
Padulo, M and Guenov, M. D. (2011). Worst-case robust design optimization under distri-
butional assumptions. International Journal for Numerical Methods in Engineering, 88 (8) ,797–
816.
Pagès, A et Gondran, M. (1980). Fiabilité des systèmes. Edition Eyrolles, Paris 5ème.
Pahl, G and Beitz, W. (1996). Engineering Design: A Systematic Approach, Springer Verlag,
London, 2nd Edition.
Pak, K.G and Sodhi, R. (2002). Destructive disassembly of bolts and screws by impact fracture.
Journal of Manufacturing Systems, 21 (4), 316 − 324.
Phadke, M. (1989). Quality Engineering Using Robust Design. PTR Prentice- Hall Inc,
Englewood Cliffs, New Jersey.
Pil, F. K and Cohen, S.K. (2006). Modularity: Implications for imitation, innovation, and
sustained advantage. Academy of Management Review, 31 (4), 995 − 1011.
Probst, G et Ulrich, H. (1989). Pensée globale et management. Paris : Les Ed. d’organisation.
Rao, S. S. (2009). Engineering optimization: theory and practice. John Wiley and Sons.
190
Rodriguez-Torro, C., Jared, G and Swift, K. (2004). Product Development complexity
metrics: A framework for proactive-DFA implementation. International Design Conference-
Design 2004, Dubrovnik, 483 − 490.
Rose, C. M., Ishii, K and Masui, K. (1998). How product characteristics determine end-of-life
strategies. In Proceedings of the 1998 IEEE International Symposium on Electronics and the
Environment, 4-6 May 1998, Oak Brook, IL, USA, 322 − 327.
Said, C-W, Peter, M and Michel, T. (2014). Disassembly sequencing for End-of-life products.
Conference On Mechanical, Design Engineering & Advanced Manufacturing, Toulouse, France.
Said, C-W. (2018). Intégration des contraintes de désassemblage dans la conception modulaire
des produits manufacturés. Contexte de développement durable. Thèse de doctorat. Université
Grenoble Alpes.
Sanchez, R. (1999). Modular architectures in the marketing process. Journal of Marketing, 63,
92 − 112.
Schilling, M and Steensma, H. (2001). The use of modular organizational forms analysis. The
Academy of Management Journal, 44 (6), 1149 − 1168.
Shana, S and Hung, P. (2015). A novel selective parallel disassembly planning method for green
design. Journal of Engineering Design, 26 (10 - 12), 283 – 301.
Shukla, P. K. (2007). On the normal boundary intersection method for generation of efficient
front. In Computational Science–ICCS 2007, Springer, 310 – 317.
Smith, R.P and Eppinger, S.D. (1997). A Predictive Model of Sequential Iteration in
Engineering Design. Management Science, 43, 1104 − 1120.
Sosa, M., Eppinger, S and Rowles, C. (2003). Identifying modular and integrative systems and
their impact on design team interactions. Transactions of the ASME, 125, 240 − 252.
Sosa, M.E., Eppinger, S.D and Rowles, C.M. (2004). The Misalignment of Product
Architecture and Organizational Structure in Complex Product Development. Management
Science, 50 (12), 1674 – 1689.
Srinivasan, H and Gadh, R. (1998). A geometric algorithm for single selective disassembly
using wave propagation abstraction. Computer-Aided Design, 30 (8), 603 − 613.
Srinivasan, H., Figueroa, R and Gath, R. (1999). Selective disassembly for virtual prototyping
as applied to de-manufacturing. Robotics and Computed Integrated Manufacturing, 15, 231
− 245.
Starr, M. (1965). Modular production : a new concept. Harvard Business Review, 43 (6):
131 −142.
Steuer, R. E and Choo, E.-U. (1983). An interactive weighted Tchebycheff procedure for
multiple objective programming. Mathematical programming, 26 (3), 326 – 344.
192
Steward, D.V. (1981). The Design Structure System: A Method for Managing the Design of
Complex Systems. IEEE Transactions on Engineering Management, 28, 71−74.
Stone, R, Wood, K and Crawford, R. (1998). Heuristic Method to Identify Modules from a
Functional Description of a Product. Proceedings of DETC98 DETC98/DTM -5642 Atlanta, GA.
Stone, R., Wood, K and Crawford, R. (2000). A Heuristic Method for Identifying Modules for
Product Architectures. Design Studies, 21, 5 − 31.
Subba Rao, V. M., Milind, D and Jayant, R. (1999). Optimal Reliability allocation with
discrete Cost-Reliability Data for components. Operation Research, 47 (6), 899 – 906.
Taguchi, G. (1978). Off- Line and On-Line Quality Control Systems. Proceedings of
International Conferences on Quality Control, Tokyo, Japan.
Thornton, A. (2001). Optimism vs. Pessimism: Design Decisions in the Face of Process
Capability Uncertainty. ASME Journal of Mechanical Design, 123, 313–320.
Torres, F., Puente, S. T and Aracil, R. (2003). Disassembly Planning Based on Precedence
Relations among Assemblies. International Journal Advanced Manufacturing Technology, 21
(5), 317 − 327.
Tripathi, M., Agrawal, S., Pandey, M., Shankar, R and Tiwari, M. (2009). Real world
disassembly modeling and sequencing problem: Optimization by Algorithm of Self-Guided Ants
(ASGA). Robotics and Computer-Integrated Manufacturing, 25 (3), 483 − 496.
Tseng, Y., Kao, H.-T and Huang, F.-Y. (2009). Integrated assembly and disassembly sequence
planning using a GA approach. International Journal of Production Research, 48 (20), 1 − 23.
193
Ulrich, K and Tung, K. (1991). Fundamentals of product modularity. Proc. of ASME Winter
Annual Meeting Symposium on Design and Manufacturing Integration, 73 -79.
Ulrich, K. (1995). The role of product architecture in the manufacturing firm. Research Policy,
24, 419 - 440.
Ulrich, K and Eppinger, S. (2000). Product Design and Development. 2nd Ed. McGraw-Hill,
New York.
Van Wie, M., Greer, J., Campbell, M., Stone, R and Wood, K. (2001). Interfaces and product
architecture. ASME Design Engineering Technical Conference Proc., DETC01/DTM-21689.
Von, B. (1968). General System Theory: Foundations, Development, Applications, New York,
George Braziller. Traduction (1973) : Théorie générale des systèmes, Paris, Bordas (Dunod).
Wang, J. F., Liu, J. H., Li, S. Q and Zhong, Y. F. (2003). Intelligent selective disassembly
using the ant colony algorithm. Artificial Intelligence for Engineering Design, Analysis and
Manufacturing: AIEDAM, 17 (4 - 5), 325 − 333.
Whitfield, R.I., Smith, J.S and Duffy, A. (2002). Identifying Component Modules. Proc. of
Seventh International Conference on Artificial Intelligence in Design (AID'02), Cambridge,
United Kingdom, 571 − 592.
Wu, Y and Wu, A. (2000). Taguchi Methods for Robust Design. ASME Press, New York.
Xue, J., Qian, S and Zhang, Y. (2010). Disassembly sequence planning based on ant colony
optimization algorithm. IEEE Fifth International Conference on Bio-Inspired Computing:
Theories and Applications, 1125 −1129.
Yassine, A.A., Whitney, D. E., Lavine, J and Zambito, T. (2000). Do-it-right first-time
(DRFT) approach to DSM restructuring. In Proc. ASME 2000 Int. Design Engineering Technical
Conf. (DTM), Baltimore, MD.
Yassine, A., Whitney, D and Zambito, T. (2001). Assessment of rework probabilities for
simulating product development processes using the design structure matrix (DSM). Proceedings
of DETC 01 ASME 2001 International Design Engineering Technical Conferences Computers
and Information in Engineering Conference Pittsburgh, Pennsylvania.
Yu, T., Yassine, A and Goldberg, D. (2003). Genetic algorithm for developing modular product
architectures. Proc. ASME 15th Int. Conf. Design Theory Methodology, Chicago.
Yu, T., Yassine, A and Goldberg, A. (2007). An information theoretic method for developing
modular architectures using genetic algorithms. Research in Engineering Design, 18 (2), 91
−109.
Zhang, W. H and Gao, T. (2006). A min–max method with adaptive weightings for uniformly
spaced pareto optimum points. Computers and structures, 84 (28), 1760 –1769.
Zhang, X and Zhang, S. Y. (2010). Product cooperative disassembly sequence planning based
on branch-and-bound algorithm. International Journal Advanced Manufacturing Technology, 51
(9-12), 1139 − 1147.
Zussman, E., Kriwet, A and Seliger, G. (1994). Disassembly oriented assessment methodology
to support design for recycling. Annals of the CIRP, 43 (1), 9 − 14.
195
ANNEXES
ANNEXE 1 : Schémas côté de la cuvette
ENSAI
196
ANNEXE 2 : Schémas côté de l’axe du cylindre
ENSAI
197
ANNEXE 3 : Schémas côté du cylindre principal
ENSAI
198
ANNEXE 4 : Schémas côté de la trémie d’entrée
ENSAI
199
ANNEXE 5 : Schémas côté de la trémie de sortie
ENSAI
200
ANNEXE 6 : Torréfacteur de soja
201
ANNEXE 7 : Torréfacteur de soja reconfiguré
202
ANNEXE 8 : Quelques publications
Ngnassi Djami, A.B., Nzié, W. and Doka Yamigno, S. (2020). Disassembly Evaluation in
Design of a System Using a Multi-Parameters Index. Modern Mechanical Engineering, 9, 65-80.
A.B. Ngnassi Djami, W. Nzié. and S. Doka Yamigno, “Maintenance Modularity Optimization
using Clustering Algorithm: Application’’, International Journal of Industrial Engineering (IJIE),
ISSN:2349-9362, vol 7, nº 1, 2020, pp. 12-24.
Ngnassi Djami Aslain Brisco, Nzié Wolfgang and Doka Yamigno Serge, Mechanical System
Topology Optimization for Better Maintenance, Studies in Engineering and Technology, ISSN:
2330 – 2038, EISSN 2330-2046, Vol. 8, No.1, 2020, pp.1-13.
203