Dans cette contribution nous approcherons la notion de combat à haute intensité uniquement sous l’angle particulier des confrontations mettant en œuvre des objets technologiques en nombre potentiellement très grand, liés par un réseau d’interactions complexe, permettant des échanges d’informations, de données, à très haute fréquence, caractérisés éventuellement par des actions non-locales (action sur plusieurs sites géographiques différents) et pouvant se déplacer à très grande vitesse.
La maîtrise d’un combat visant à contrer une attaque de ce genre dépasse largement les capacités cognitives et perceptives humaines.

 

Ce document ne constitue pas une position officielle de l’armée de Terre.

 

Lire le document

Armes autonomes et combats à haute intensité : quelques repères éthiques

  Vers tous les articles du CREC

 

Autonomie et haute intensité des combats.

On a beaucoup discuté de l’utilisation militaire de systèmes autonomes d’un point de vue juridique et éthique. La délégation de pouvoirs de décision et d’action à des machines fonctionnant sans le contrôle direct d’un opérateur humain s’est petit à petit imposée, en raison de plusieurs éléments. Un premier est certainement la vitesse de réaction imposée par celle des vecteurs (missiles, etc.) ou des plateformes d’armes (drones, avions de chasse, etc.) susceptibles de menacer la sécurité des combattants ou d’un pays tout entier. Un deuxième élément de cette montée en puissance des recherches et du développement de systèmes autonomes d’armes, est la possibilité de conflits à haute intensité où une multitude de systèmes autonomes hostiles sont déployés, en même temps, pour saturer les capacités défensives. La haute vitesse des objets de la technologie d’armement et leur usage possible en essaims ou leur capacité de frappe en de multiples endroits à la fois, a conduit à une course aux systèmes autonomes censés réagir, de manière appropriée, à ces nouvelles menaces que l’humain lui-même ne pourrait plus affronter, même en dialogue avec des systèmes d’aide à la décision.

Comme nous venons de le dire, la question, du recours à des systèmes d’intelligence artificielle ou de robotique largement autonomes se pose donc naturellement ainsi que son évaluation éthique. Cette évaluation est cruciale, car les exigences d’une défense ne doivent pas nous faire oublier les principes fondamentaux dictés par le Droit et par une éthique fondée sur le respect de ce qui fait le propre de l’humain.

 

Risques majeurs.

Le problème majeur des combats de haute intensité impliquant une multitude d’objets en interactions, non supervisés directement par l’humain est le risque de l’apparition de comportements collectifs non prévisibles mais néfastes non seulement pour l’attaqué, mais aussi pour l’attaquant. Dans les systèmes complexes on sait que des formes d’ordres inédits peuvent surgir du chaos des interactions. L’usage de systèmes défensifs basés également sur une multitude d’objets autonomes en interaction, peut induire des phénomènes de compétition évolutive induisant des comportements non-maîtrisés, non-attendus. L’existence de boucles de rétroaction positive entre des objets en interaction peut être à l’origine de phénomènes d’amplification échappant à tout contrôle. L’instabilité de ces systèmes peut également faire que de petites fluctuations néfastes amorties dans les situation d’équilibre, peuvent prendre des proportions désastreuses. Ces effets bien connus de la mécanique statistique, de la théorie des système dynamiques et de la thermodynamique non-linéaire ont été étudiés par Charles R. Hadlock dans son ouvrage, Six Sources of Collapse. Celui-ci montre que ces émergences de formes d’organisation inédites, ces évolutions imprévues sont à l’origine de phénomènes d’effondrement des structures qui seraient censées rester sous notre contrôle. Le risque majeur, pour le sujet qui nous occupe, est donc de mettre en œuvre des systèmes d’armes complexes qui pourraient devenir totalement ingérables, incontrôlables à moyen ou à long terme. Ce qui signifie que ces systèmes risqueraient de perdre leur sens, se soustrayant aux finalités qui leur ont été imposées par l’autorité militaire et politique.

Notons aussi que l’utilisation de systèmes d’intelligence artificielle capable de faire de l’apprentissage rapide et profond, non supervisé, pour s’adapter aux réactions de l’adversaire serait aussi risqué, dans la mesure où une reconfiguration non supervisée d’un algorithme risque lui aussi, en fonction des contextes, de se soustraire aux finalités ultimes de leurs utilisations et de leurs utilisateurs.

Nous sommes donc face au problème suivant : face à une menace potentielle liée à l’utilisation de systèmes d’armes autonomes, auto-apprenantes, fonctionnant en réseaux et de manière non-locale, nous risquons de nous retrouver devant un dilemme : voir sa sécurité menacée en renonçant à ce type de systèmes ou utiliser ces derniers en prenant le risque qu’ils nous échappent totalement, contredisant peut-être les finalités politiques ou militaires qui régulent leur usage.

 

[…]

 

Auteur : Dominique Lambert, Université de Namur, chercheur associé au CReC.

 

20220323 NP CREC Lambert Armes autonomes et combats a haute intensite 1


En naviguant sur ce site, vous acceptez l'utilisation de cookies, ce qui nous permet de vous proposer des contenus adaptés à vos centres d'intérêts.