L'auto-intoxication des systèmes par leur propre complexité

Ouverture libre

   Forum

Il n'y a pas de commentaires associés a cet article. Vous pouvez réagir.

   Imprimer

 1278

L'auto-intoxication des systèmes par leur propre complexité

Les considérations qui suivent ne reposent pas, on s'en doute, sur des études approfondies portant sur la fiabilité des systèmes évoqués. Il ne s'agit que d'impressions, mais celles-ci nous semblent devoir être approfondies, en notre temps technologique, par des experts du domaine voire par des philosophes.

Les exemples cités ici nous confortent dans la vision de l'évolution anthropotechnique, développée dans notre essai Le paradoxe du Sapiens. Il s'agit de systèmes associant de façon inextricable le biologique, l'humain et le technologique. Ils sont non seulement imprévisibles par la raison humaine, sous ses formes actuelles, mais sans doute aussi incontrôlables par cette même raison. Est-ce à dire que les humains impliqués dans leur développement devraient renoncer à toute responsabilité dans les catastrophes pouvant découler de celui-ci ? La morale sociale répondra négativement. Mais en pratique, tout se passe comme s'il s'agissait de déterminismes se déroulant sur un mode proche de celui des grands évènements naturels.

Sans entrer plus avant dans cette discussion, donnons quelques exemples récents (parmi des dizaines d'autres disponibles) d'une telle auto-intoxication. Ils portent sur les systèmes aujourd'hui les plus complexes qui soient, dans l'armement et le nucléaire. Nous ne mentionnons pas ici la navette spatiale américaine, désormais retirée du service. Elle a finalement fait face plus qu'honorablement, malgré 2 accidents, à son cahier des charges. Ceci peut-être parce que les humains impliqués étaient étroitement asservis au système.

Le cas du F 35

Il s'agit de l'avion de combat Joint Strike Fighter dit aussi F 35 développé par Lockheed Martin pour le compte du Pentagone. Il était destiné à équiper les forces aériennes et aéronavales américaines, sous diverses versions. Il devait servir aussi, dans l'esprit du Complexe militaro-industriel américain, à remplacer tout autre appareil concurrent dans l'ensemble des forces aériennes du monde, hors celles relevant de la souveraineté russe et chinoise. Or ce programme, surchargé de contraintes fonctionnelles et techniques, n'a pas encore abouti, malgré des dépassements jamais vus jusqu'ici de crédits et de délais. Deux exemplaires d'essai seulement, sous une version dégradée, ont été livrés à l'US Air Force. Aucune perspective d'utilisation opérationnelle ne semble devoir en découler.

Notre confrère Philippe Grasset, éditeur du site dedefensa.org, s'est fait depuis des années l'historiographe de ce cas exemplaire. L'anthropologue-historien ne pourrait que souhaiter voir Philippe Grasset, s'il en avait le temps, développer sous la forme d'une véritable thèse cet incroyable suspense technologique, économique, politique et diplomatique. L'aventure obère non seulement les perspectives de l'US Air Force pour les 30 prochaines années, mais le Pentagone lui-même et finalement l'empire américain tout entier. Lochkeed Martin devrait également en subir des conséquences graves sauf à être énergiquement soutenu par ses amis politiques.

On lira le dernier développement de cette affaire dans l'article de Philippe Grasset «Le JSF menace-t-il Lockheed Martin?». (Voir le 22 juillet 2011.)

Le cas du F 22 Raptor.

En dehors des milieux militaires, peu d'observateurs ont noté que depuis plus de deux mois maintenant l’avion de combat de l’USAF F-22 Raptor est interdit de vol à cause de ce que Philippe Grasset qualifie d'un étrange problème d’alimentation en oxygène du pilote. Le système déficient équipe d’autres types d’avions de combat de l’USAF qui, eux, n’ont pas l’air d’être affectés par le défaut de fonctionnement. On imagine ce que produirait une telle interdiction de vol si les Etats-Unis étaient engagés militairement plus qu'ils ne le sont actuellement. Le F 22 est moins complexe que le F 35, tout en étant sans doute trop complexe encore. Par contre des centaines d'exemplaires sont en activité depuis plusieurs années. Pourquoi le défaut en cause n'était-il pas apparu jusqu'ici et pourquoi les meilleurs spécialistes n'arrivent-ils pas aujourd'hui à le résoudre. On pourrait là encore incriminer un effet émergent, c'est-à-dire imprévisible voire incompréhensible, tenant à la complexité non de l'avion seul mais du système avion+pilote+équipements au sol.

Voir sur ce sujet, toujours de Philippe Grasset, l'article «Le très très “étrange cas du F-22”». (Le 20 juillet 2011.)

La numérisation et la robotisation du champ de bataille

Il s'agit comme nous l'avions rappelé dans des articles précédents d'un enjeu étudié par toutes les grandes armées, notamment bien sûr aux Etats-Unis. Nous sommes de ceux qui pensent que de telles réalisations feront apparaître des systèmes globaux quasi autonomes, prenant la forme de ce que nous avons appelé des “processus coactives” évoqués dans notre article.

Un de nos correspondants, Nicolas Leccia, nous signale que Michel Asencio, chercheur associé à la Fondation pour la Recherche Stratégique, a publié deux études approfondies sur cette question. Elles mériteraient d'être discutées non seulement par les spécialistes mais par tous les décideurs politiques – sans oublier les simples citoyens. (Voir la première et la seconde.)

Le cas des réacteurs nucléaires.

Nous nous bornerons à rappeler ici le fait qu'aucun scientifique ou technicien au monde n'est aujourd'hui encore capable de savoir comment évolue la dégradation des cœurs des réacteurs de Fukushima ni plus généralement comment sera contenue la contamination progressive du site, de la mer et peut-être de tout le nord du Japon. De l'avis général, il s'agit d'une question de complexité galopante, trop de facteurs entrant en cause, dont certains non observables, pour permettre la modélisation puis la gestion par les humains, en l'état actuel des ressources humaines disponibles..

La question de la complexité galopante n'affecte pas seulement les centrales japonaises, mais tous les réacteurs en service. Elle se traduit notamment par l'impossibilité de vérifier efficacement l'étanchéité des canalisations. Des experts envisagent désormais sérieusement d'y affecter des robots. Mais avant que ceux-ci ne soient au point et mis en place, il se passera beaucoup de temps. De plus, le robot n'introduira-t-il pas ses propres facteurs de complexification? Ce serait alors une fuite en avant sans fin.

* Sur Fukushima, voir notre article du 19 juin 2011 où nous ne voyons pas grand chose à changer.

* Sur le fait de confier à des robots le diagnostic des équipements nucléaires, voir l’article du MIT signalé par notre correspondant Jacques Maudoux «Inside the innards of a nuclear reactor».

Jean-Paul Baquiast