cat. : PUBLICATION TECHNIQUE

LGM et l’optimisation RAMS par les approches dynamiques

01/07/20
LGM et l’optimisation RAMS par les approches dynamiques

LGM et l’optimisation RAMS par les approches dynamiques

01/07/2020

PUBLICATION TECHNIQUE


Episode 1 : « Gagner en disponibilité opérationnelle en toute sécurité et à moindre coût. »

Par Jean LIEBAERT, Rédacteur de l’article et chef de projet sur un des projets en partenariat avec Thibault MONTIGAUD, relecteur et Coordinateur technique des projets, Guillaume CHARTIER, Chef de projet sur un des projets.

Sécurité et disponibilité font partie des nouvelles contraintes de notre société moderne. Qui n’a jamais rêvé de posséder une voiture qui fonctionnerait 99% du temps et qui n’aurait qu’une chance sur 1 milliard de vous blesser ? Cependant, une telle voiture serait assurément fort coûteuse tant au niveau de son développement que de sa maintenance. Et c’est bien l’un des enjeux majeurs des ingénieurs en Maîtrise des Risques et en Soutien Logistique Intégré de nos jours : trouver le parfait équilibre d’une équation à trois facteurs : (Coût, Disponibilité et Sécurité), le tout intégrant de nombreux paramètres et contraintes supplémentaires.

Pourtant, les attentes sociétales tendent de plus en plus vers l’obligation de maîtriser toutes données ou produits fournis tout en ne cessant d’être novateurs. Les ingénieurs, tout comme les financiers, doivent de ce fait faire face à toujours plus de responsabilités et prendre de plus en plus d’engagements sur tous les plans. Face à ces obligations réside la contrainte de réduction de coûts, incontournable pour quiconque veut conserver sa position dans une société où économie rime avec libre concurrence.

Afin de ne pas vous noyer au milieu d’une multitude d’informations trop techniques, nous exposerons rapidement les méthodes principalement employées de nos jours pour résoudre les problématiques de coûts, de disponibilité, et de sécurité.

Tout d’abord, il faut savoir que ces études ne sont jamais réalisées conjointement. On les retrouve dans le meilleur des cas séparées en deux : coût et disponibilité d’un côté, sécurité de l’autre, et le plus souvent il s’agit de trois études séparées, parfois même menées par des entités différentes. La cohérence et l’optimisation sont, de ce fait, très compliquées.

De plus ces études se font généralement à l’aide d’outils représentant un système statique dans lequel il est compliqué de faire varier les paramètres. Ils sont incapables de traiter l’impact du temps sur le modèle et doivent se contenter d’évaluer des cas moyens à l’aide d’approximations. Par ailleurs, les méthodologies utilisées sont très souvent majorantes, c’est-à-dire qu’en cas de doute, le pire cas est toujours considéré. Cependant, bien que les résultats ne correspondent pas exactement à la réalité, ils ont le mérite d’être obtenus de manière plutôt simple et proposent une première approximation plus qu’acceptable.

Mais dans une société où la course au « toujours plus, toujours mieux » est de mise, il devient de plus en plus compliqué de s’en tenir à ces évaluations majorantes. En effet, dans notre cas, « majorant » veut dire « plus coûteux », pour favoriser les résultats obtenus en termes de disponibilité et de sécurité, sinon les clients n’y reviennent pas. On va alors chercher à trouver un équilibre plus précis, permettant d’obtenir au minimum les mêmes résultats de disponibilité et de sécurité, mais avec un coût moindre grâce à un équilibre plus juste.

Certains peuvent être tentés de jouer sur les limites, mais les récentes tragédies nous montrent bien à quel point cette stratégie peut très vite s’avérer dangereuse.

Au sein de LGM et via plusieurs de nos contrats, nous avons ainsi décidé de lancer un grand chantier de « Simulations Dynamiques » MBSA (Model Based Safety Assessment = Analyse de sécurité dirigée par les modèles). Le but est de s’appuyer sur des méthodologies connues et maîtrisées par nos experts afin de réaliser ce que nous savions possible mais que nous n’avions jamais tenté : regrouper toutes ces études et les simuler toutes ensembles dans le même modèle.

Le lecteur avisé que vous êtes doit alors se dire :

« Mais attends, ce n’est pas une grande nouveauté ça. C’est connu depuis quelques temps que les réseaux de Petri permettent de simuler des systèmes dynamiques. En plus c’est facile à utiliser : un cercle c’est un état dans lequel je peux être (en panne, en marche, en réparation) puis je relie ces cercles avec des petites flèches suivant des conditions (une fois que le temps de réparation que j’ai fixé à 1h est écoulé, repasser dans l’état « en panne »). Du coup, où est la nouveauté ? ».

Image EP1 - 1

Analyse dynamique du code via PETRO@GRIF

La vraie innovation repose sur le regroupement des différentes études de coût, sécurité et disponibilité dans un modèle unique permettant leurs simulations imbriquées. Pour information, les analyses dynamiques par simulation sont capables de prendre en compte le temps, les séquencements et de propager leurs impacts élémentaires à des niveaux supérieurs, tels que la propagation d’incertitude par exemple. En d’autres termes, ces réseaux peuvent permettre de modéliser la réalisation de plusieurs chaînes d’actions en parallèle, qui peuvent se croiser et interagir entre elles.

Les résultats obtenus ne sont plus une unique valeur de sortie, mais une plage de valeurs avec les densités de répartition correspondantes (c’est-à-dire la probabilité que chaque scénario joué corresponde à ce qu’il se serait passé en réalité si jamais le modèle était un système en fonctionnement). Cette méthode permet de traiter l’ensemble des comportements possibles du système et d’obtenir des résultats beaucoup plus détaillés qu’une simple moyenne faite sur l’ensemble des cas pouvant survenir. Associée à une aide décisionnelle elle permet d’étudier en détails les cas intéressants et de ne plus avoir à jouer sur les limites.

Image EP1 - 2

Optimisation de la disponibilité et du coût à ISO sécurité via l’algorithme LGM

En ce sens, LGM a mené plusieurs études dont le but était de démontrer qu’il est possible d’atteindre les objectifs de sécurité requis tout en optimisant la disponibilité, et tout cela en allant même jusqu’à optimiser le stock de pièce de rechanges (gain de coût car une pièce stockée inutilement, c’est de l’argent perdu). Deux grandes études se détachent. La première, nous a permis de confirmer que le modèle est bien capable de lier disponibilité et sécurité, tout en restant exploitable à l’aide d’une IHM développée par LGM dans le but de permettre l’exploitation des réseaux de Petri par des personnes qui ne sont pas initiées au formalisme de Petri.

Afin de vous donner une idée de l’étendue de cette étude, quelques chiffres :

  • Plusieurs milliers de paramètres,
  • Plusieurs centaines de millions de nœuds modélisés dans les réseaux de Petri,
  • 16 800 URL (Unité Remplaçable en Ligne) représentées,
  • Plus d’un an de travaux.

La seconde étude a poussé le concept un peu plus loin en optimisant le stock de pièces de rechanges et la logique de stockage tout en préservant la sécurité et la disponibilité. Et plus que le concept, c’est la taille même de l’étude qui a été repoussée. Il s’agit d’une simulation réalisée :

  • Entre plusieurs pays,
  • Sur 450 systèmes de très grandes tailles,
  • Avec plus 1 000 000 URL représenté,
  • Modélisant 450 équipes de maintenance.
Image EP1 - 3

IHM de paramétrage conçue par LGM

Le tout a été modélisé en simultané, et bien évidemment de tels modèles sont extrêmement lourds. Les puissances actuelles des ordinateurs bureautiques permettent de mettre en œuvre des modèles de 2 000 URL sur 5 localisations (équivalent à des sites où le système peut fonctionner) et avec une dizaine d’équipes de maintenances sans que cela ne pose de problème. LGM présentera au Lambda-Mu 22 un cas d’étude de taille restreinte composé de trois avions, deux aéroports et deux équipes de maintenance. Cette étude permet de simuler la majeure partie des phénomènes apparaissant dans les simulations complexes. Une seconde publication portera quant à elle sur les principes mathématiques/méthodologiques fondamentaux qui permettent de modéliser un système puis d’optimiser son parc de soutien de manière à tenir l’ensemble des objectifs de sécurité et de disponibilité pour un coût minimal.

Les résultats issus de ces études montrent que les modélisations prenant en compte aussi bien la disponibilité que la sécurité, permettent une nouvelle approche des concepts de soutien, où l’ensemble des facteurs et des acteurs sont impliqués. Cette implication offre un réel recul sur chacun des sujets et donc une optimisation globale du projet. En résumé, réaliser un système avec un concept de maintenance optimisé, donc moins cher et plus disponible, tout en étant toujours aussi sûr.