Armes : interdire les "robots tueurs" autonomes, sans attendre

Publié le par dan29000

Ces armes complètement autonomes constitueraient un danger accru pour les civils


19 novembre 2012

« Donner à des machines le pouvoir de décider qui peut survivre et qui doit mourir sur le champ de bataille reviendrait à aller trop loin dans le recours à la technologie. L'exercice par l'homme d'un contrôle sur la guerre robotisée est essentielle pour réduire le nombre des morts et des blessés parmi les civils. »

Steve Goose, directeur de la division Armes

(Washington, le 19 novembre 2012) – Les gouvernements devraient interdire de manière préventive les armes complètement autonomes, en raison du danger qu'elles représenteraient pour les civils dans un conflit armé, a déclaré Human Rights Watch dans un rapport publié aujourd'hui. Ces armes futures, parfois appelées « robots tueurs », auraient la capacité de choisir et de tirer sur des cibles sans aucune intervention humaine. 


Ce rapport de 50 pages, intitulé « Losing Humanity: The Case Against Killer Robots » («Une arme inhumaine : Les arguments contre les robots tueurs ») donne un aperçu des préoccupations suscitées par ces armes complètement autonomes, qui seraient par nature dénuées des qualités humaines permettant d'exercer des contrôles - juridiques ou non - sur des opérations meurtrières pour les civils. En outre, les obstacles qui empêcheraient de tenir quiconque responsable de dommages causés par ces armes affaibliraient la capacité de la loi à décourager des récidives.


« Donner à des machines le pouvoir de décider qui peut survivre et qui doit mourir sur le champ de bataille reviendrait à aller trop loin dans le recours à la technologie », a déclaré Steve Goose, directeur de la division Armes à Human Rights Watch. « L'exercice par l'homme d'un contrôle sur la guerre robotisée est essentielle pour réduire le nombre des morts et des blessés parmi les civils. »


Le rapport « Une arme inhumaine » est la première étude d'envergure sur les armes complètement autonomes effectuée par une organisation non gouvernementale et est basée sur des recherches en profondeur sur la loi, la technologie et l'éthique de ce concept d'armes. Elle est publiée conjointement par Human Rights Watch et par la Clinique des droits humains internationaux de la faculté de droit de l'Université de Harvard (Harvard Law School International Human Rights Clinic).


Human Rights Watch et la Clinique des droits humains internationaux ont appelé à l’élaboration d'un traité international qui interdirait formellement la mise au point, la production et l'utilisation d'armes complètement autonomes. Ils ont également appelé individuellement les États à édicter des lois et à adopter des politiques visant à empêcher la mise au point, la production et l'utilisation de telles armes à l'échelon national.

Les armes pleinement autonomes n'existent pas encore et les grandes puissances, dont les États-Unis, n'ont pas encore pris la décision de s'en doter. Mais les forces armées de haut niveau technologique sont en train d'en mettre au point ou se sont déjà dotées d'engins précurseurs qui illustrent la tendance à aller vers une plus grande autonomie des machines sur le champ de bataille. Les États-Unis sont à la pointe de cette évolution technologique. Plusieurs autres pays – dont l'Allemagne, la Chine, la Corée du Sud, Israël, le Royaume-Uni et la Russie – s'y sont également engagés. De nombreux experts prédisent que la pleine autonomie des armes pourrait être réalisée dans 20 ou 30 ans, voire plus tôt.


« Il est essentiel d'arrêter la mise au point de robots tueurs avant qu'ils ne fassent leur apparition dans les arsenaux nationaux », a ajouté Steve Goose. « Au fur et à mesure que les pays s'investiront dans cette technologie, ce sera de plus en plus difficile de les convaincre de l'abandonner. »



Les armes totalement autonomes ne pourraient pas satisfaire les critères imposés par le droit international humanitaire, ont affirmé Human Rights Watch et la clinique de Harvard. Elles seraient incapables de distinguer de manière appropriée entre soldats et civils sur le champ de bataille ou d'exercer le jugement humain nécessaire pour évaluer la proportionnalité d'une attaque – c'est-à-dire de juger si les dommages subis par les civils dépassent en termes d'impact l'avantage militaire tiré de l'attaque.

Ces robots auraient également pour effet d'affaiblir les contrôles non juridiques sur les meurtres de civils. Des armes pleinement autonomes ne pourraient pas montrer de compassion pour leurs victimes et des autocrates pourraient en abuser en s'en servant contre leur propre peuple. Bien que remplacer des troupes humaines par des machines puisse sauver des vies de soldats, cela pourrait aussi faciliter la décision de partir en guerre et reporter sur les civils le fardeau d'un conflit armé.

Enfin, l'utilisation d'armes complètement autonomes créerait un vide juridique en matière de responsabilité. Tenter de tenir le commandant, le programmeur ou le fabricant responsable juridiquement des actes d'un robot présenterait de grosses difficultés. L'absence de responsabilité légale diminuerait la possibilité de décourager les violations du droit international et de rendre une justice réellement réparatrice aux victimes.


Même si la plupart des responsables militaires affirment que dans l'avenir immédiat, les humains conserveront un certain niveau de supervision sur les actes de robots transformés en soldats, l'efficacité de cette supervision est discutable, ont déclaré Human Rights Watch et le laboratoire de Harvard. En outre, certaines déclarations faites par des autorités militaires ont laissé la porte ouverte à une pleine autonomie de ce type d'armes à l'avenir.


« Il faut agir maintenant, avant que les robots tueurs ne passent du domaine de la science-fiction à la réalité », a conclu Steve Goose.

 

 

 

SOURCE / HUMAN RIGHTS WATCH

Publié dans actualités

Commenter cet article