Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

La gestion des projets complexes

Le blog de Rodolphe Krawczyk

L'humain dans la boucle des chaînes complexes: perturbateur ou nécessité?

Publié le

L'humain dans la boucle des chaînes complexes: perturbateur ou nécessité?
© Acefitt / CC BY-SA 4.0

Les déboires de Boeing sur son 737 MAX remettent en question le rôle de l'homme dans les chaînes de fonctionnement complexes: l'homme est-il condamné à terme à ne plus être "dans la boucle"?

La sophistication de plus en plus poussée des avions de ligne, dont les logiciels sont censés prévenir toutes les pannes envisageables, remet sur le tapis, à chaque nouvelle catastrophe aérienne, le rôle de l'homme dans les chaînes fonctionnelles.

L'accident de l'Airbus d'Air France dans le "pot au noir" de l'Atlantique a été attribué à une erreur humaine, mais entraînée par un manque de préparation à des procédures reconnues complexes, surtout dans des conditions météorologiques extrêmes.

Inversement, la décision du célèbre pilote Sully de faire amerrir "son" Airbus sur l'Hudson a été reconnue comme la "bonne" décision face à ce que recommandait la procédure de pilotage automatique.

Le cas plus récent du MCAS du Boeing 737 MAX qui a défrayé (à juste titre!) la chronique aéronautique ces derniers mois a mis en évidence deux éléments aussi intéressants qu'importants:

  • la boucle de contrôle du MCAS s'est enclenchée plusieurs fois automatiquement malgré les tentatives du pilote et de son copilote pour repasser en pilotage manuel : la machine a commandé…
  • même sans être spécialiste, lorsqu'on regarde le schéma fonctionnel (assez simple) du MCAS, on a du mal à comprendre comment une information erronée sur une sonde (et se traduisant donc par des informations divergentes entre les deux sondes redondantes en entrée de la boucle de contrôle) n'a pu être prise en compte par le logiciel, alors que les spécialistes savent depuis des années gérer une divergence d'informations (par exemple avec la technique du "vote majoritaire"): il s'agit ni plus ni moins que d'une erreur de conception (facilement rattrapable par une modification mineure, mise en place par Boeing à peu de frais… du moins pour le coût direct de la modification).

Une leçon majeure à en tirer est que même une chaîne fonctionnelle d'une complexité extrême comme peut l'être celle d'un Boeing 737 MAX n'est pas à l'abri du "grain de sable" matérialisé par la défaillance d'une composante de la chaîne due à un simple "oubli" (dans ce cas, celui qu'une des deux sondes pouvait être déficiente): et c'est la défaillance de cette (petite) composante de la chaîne de contrôle qui a conduit à la perte totale de l'avion et des personnes transportées. On ne peut réécrire l'histoire, mais il n'est pas exclu de penser que si l'équipage avait pu reprendre le contrôle de l'appareil, le crash aurait pu être évité…

J'ai découvert cette semaine que la question se pose aussi dans le cas des drones armés, pour lesquels trois concepts du rôle de l'homme ont été définis (avec des terminologies assez arbitraires dont le seul but semble être de discerner les trois concepts): "man in the loop", "man on the loop" et "man off the loop", qu'on peut résumer ainsi:

  • dans le premier cas, l'homme a la main sur les opérations du drone;
  • dans le deuxième, il laisse le drone voler jusqu'à son objectif de façon autonome, mais c'est l'homme qui décide d'utiliser les armes du drone ou pas;
  • dans le troisième, il laisse le drone aller jusqu'au bout de sa mission de façon autonome, y compris en ce qui concerne l'emploi des armes…

Alors… "man, in the loop" or "no man in the loop"?...

  • L'homme dans la boucle d'un avion de ligne pose le problème du risque d'erreur (humaine) pouvant entraîner la mort de dizaines de personnes.
  • L'homme dans la boucle d'un drone de guerre pose le problème du risque d'erreur (humaine) pouvant entraîner la mort d'innocents.

Dans les deux cas se pose aussi le problème de la conséquence funeste de chaînes fonctionnelles pouvant être sujette à une défaillance, aussi mineure soit-elle.

A vrai dire, je ne crois pas que notre décennie verra l'élimination complète de l'humain des chaînes complexes, et cela pour une raison bien simple: pour reprendre l'exemple du 737 MAX, c'est in fine une erreur de conception (donc humaine) qui a causé la défaillance de la chaîne de contrôle, et c'est par une procédure manuelle (donc humaine) que l'appareil aurait dû  être sauvé, en contrant cette défaillance.

Mais d'ici 2030, qui peut dire si les progrès en termes d'outils de simulation, d'Intelligence Artificielle, de puissance de calcul, ne conduiront pas à la disparition de l'homme non seulement dans la conception (il semble que le phénomène ait déjà commencé) mais aussi dans l'utilisation (le phénomène a fait plus que commencer avec les voitures autonomes). Mais comment peut-on être vraiment sûr que l'absence de l'homme, que ce soit dans la conception ou dans la mise en œuvre de chaînes complexes, rendra ces dernières totalement fiables? Je me permets d'exprimer quelques doutes, en souhaitant très fortement ne pas être le seul (et comme le dit un proverbe russe: "Le doute est le commencement de la sagesse"…).

 

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle