Source : http://www.rtflash.fr/newsletter/694?email=kannie42%40gmail.com&hash=92153c98efd4ceb64f8bf6addb0f19cbe2990016
En moins de 10 ans, les robots sont devenus des auxiliaires militaires majeurs et irremplaçables. Dans tous les conflits et théâtres d’opérations de ces dernières années, ils ont joué un rôle d’intervention tactique et stratégique incontournable et de plus en plus efficace.
Selon l’université de Washington, en 2020 un tiers des forces armées américaines seront constituées de robots. Rien qu’en Irak et en Afghanistan, on estime que l’armée américaine a déployé plus de 6000 robots. Pour des raisons bien compréhensibles, les militaires communiquent peu sur la présence de ces soldats d’un nouveau genre. Parmi ces derniers, on peut notamment citer le « iRobot Packbot 510 », un robot autonome équipé de capteurs qui lui permettent de détecter et d’éviter les obstacles et d’évoluer dans un environnement complexe.
Ce robot, qui se décline en une dizaine de versions, est devenu un assistant précieux pour les fantassins exposés à des conflits non conventionnels de type guérilla ou insurrection. Il peut non seulement détecter et éliminer les engins explosifs mais également détecter la provenance de tirs ennemis, une qualité très appréciée quand les fantassins doivent évoluer en milieu urbain et sont exposés aux Snipers.
Autre machine étonnante, le SnakeBot, un robot serpent autonome conçu pour espionner l’ennemi. Chaque section de ce robot est autonome et possède sa propre capacité d’autonomie et d’action. Ce robot, même en partie détruit peut s’auto réparer et il est capable de progresser dans pratiquement n’importe quel type d’environnement, soit pour observer l’ennemi soit pour l’attaquer avec des charges explosives.
Un autre type de robot militaire promis à un grand avenir est l’exosquelette qui permet de démultiplier la vitesse, la puissance et la précision des fantassins sur le champ de bataille. Le robot XOS2, présenté il y a deux ans, appartient cette catégorie. Il ne pèse que 10 kg et permet à un soldat de manœuvrer des charges de près de 100 kg !
Il faut également évoquer le projet « BigDog » de robot-mule, destiné au transport d’équipement militaire. Cet étonnant robot se pilote par commande vocale (Voir article) et, après 10 ans de recherche, il peut à présent porter jusqu’à 180 kg d’équipement durant 32 km en 24 heures.
Enfin, la DARPA (le département de recherche de l’armée américaine), a présenté, en octobre 2012, le Pet-Proto, un robot humanoïde « capable de prendre certaines décisions de manière autonome en fonction du contexte » (Voir article).
L’US Air Force travaille également sur des « Micros-Engins Aériens » (MAV), pas plus gros que des insectes et pouvant être utilisés en milieu urbain et même à l’intérieur des bâtiments. Ces microrobots seront d’abord destinés à la reconnaissance à l’observation mais il est tout à fait imaginable qu’ils puissent attaquer l’ennemi, soit en utilisant une micro-charge explosive, soit en lui injectant un poisson.
Mais avant que les robots ne s’imposent aux côtés ou à la place des combattants sur le champ de bataille, on oublie souvent qu’ils sont déjà depuis quelques années omniprésents sur tous les théâtres d’opérations militaires, sous la forme de drones.
Dans tous les conflits non conventionnels qui se déroulent actuellement et qui sont de type asymétrique (c’est-à-dire opposant des armées régulières à des organisations et groupes terroristes et mafieux) les drones, qu’il s’agisse des versions d’observation ou des versions de combat, sont devenus des acteurs irremplaçables.
Que ce soit en Afghanistan, au Moyen-Orient ou plus récemment au Mali, les drones militaires ont joué un rôle déterminant dans le repérage et l’élimination des groupes terroristes. Ces « robots volants » ont complètement modifié la donne stratégique et tactique en à peine 10 ans.
Ils ont notamment permis l’élimination sélective des principaux dirigeants des groupes terroristes qui s’étaient réfugiés dans des régions inaccessibles où des interventions terrestres auraient été très complexes à mettre en œuvre et surtout très coûteuses en vies humaines.
Il y a quelques semaines, le Sénateur américain Lindsey Graham estimait que les Etats-Unis avaient tué depuis 5 ans au moins 4 700 personnes en utilisant ces drones de combat. Un chiffre résume bien la montée en puissance impressionnante de l’utilisation de ces drones sur les théâtres d’opérations militaires : en moins de 10 ans, la fréquence des frappes de drones américains est passée, en moyenne, d’une tous les 40 jours à une tous les trois jours !
Autre indicateur éclairant : l’armée américaine possédait moins d’une centaine de drones il y a 10 ans ; elle en alignerait à présent plus de 8000 et pourrait en posséder 20 000 en 2020. L'armée de l'air américaine a d’ailleurs annoncé qu’elle formait à présent plus d'opérateurs de drones qu'elle n'entraîne de pilotes pour ses avions de chasse.
Mais l’utilisation de ces systèmes d’armes redoutables ne va pas sans soulever de nombreuses questions juridiques morales et éthiques et commence à susciter un large débat aux Etats-Unis. Officiellement chaque attaque de drones fait l’objet d’une évaluation militaire et juridique précise et doit obtenir l’approbation personnelle du Président américain.
Mais le problème est qu’il y a souvent loin entre la mission parfaite programmée par ordinateur et visualisée sur un écran vidéo et les réalités des dommages constatés sur le terrain. Les drones peuvent rarement procéder à une identification visuelle directe des « cibles » à éliminer. Il n’est donc pas rare que des frappes de drones soient décidées sans que l’on puisse être absolument certain qu’elles vont bien tuer les chefs terroristes visés.
Par ailleurs, même quand une frappe de drones élimine un responsable terroriste, il est malheureusement inévitable et assez fréquent qu’elle entraîne également la mort de plusieurs dizaines de personnes innocentes qui vivaient dans l’environnement immédiat de cette «cible».
Cette question des dommages collatéraux causés par les attaques de drones a d’ailleurs pris depuis quelques mois une importance politique considérable car les états concernés, notamment le Pakistan, ont bien compris que ces frappes meurtrières, même si elles sont d’une efficacité indiscutable, exaspèrent les populations locales et alimentent un puissant sentiment antiaméricain et anti-occidental.
En outre il faut rappeler que sur un plan juridique et légal, l’utilisation des drones échappe pour l’instant aux cadres prévus par les conventions internationales en matière de guerre.
Or l’arrivée d’une prochaine génération de drones dotés d’une capacité d’autonomie, d’évaluation de la situation et de prise de décision bien plus grande, va rendre indispensable un vrai débat démocratique et moral sur les conditions d’utilisation de ces systèmes robotisés de destruction.
Actuellement, l’armée britannique expérimente un nouveau drone révolutionnaire, baptisé Taranis, en référence au dieu du tonnerre. Cet engin redoutable qui vole à plus de Mach 1, est de type furtif ; il est donc très difficilement détectable par radar. Il possède un très grand rayon d’action et une puissance de feu considérable mais surtout il est doté d’une autonomie de décision nouvelle.
À terme, Taranis sera en effet capable de suivre une trajectoire définie à l’aide des ordinateurs de bord pour atteindre sa cible mais il pourra également modifier si besoin la trajectoire initialement programmée pour s’adapter à une menace ou un changement imprévu dans son environnement. C’est seulement au stade ultime, lorsqu’il sera en mesure d’exécuter sa frappe, qu’il aura besoin d’une autorisation humaine pour déclencher son tir.
Cette nouvelle génération d’engins volants automatisés pose des problèmes légaux et moraux encore plus complexes que les appareils actuels. Le professeur Noel Sharkey, ingénieur en robotique et spécialiste des systèmes militaires autonomes à l'Université de Sheffield, souligne à ce propos que « Avec ce nouveau type d’engins volants automatisés nous faisons un saut dans l’inconnu car nous ne savons pas du tout comment les gouvernements qui vont disposer d’une telle technologie vont l’utiliser. »
Mais les Britanniques ne sont pas les seuls à développer ces nouveaux drones autonomes. L'armée américaine expérimente également son "X-47B" un drone furtif, capable, comme le Taranis, d’effectuer des missions préprogrammées en utilisant une forme d’intelligence artificielle. Ce drone d’une capacité d’emport de plus de 2 tonnes et bardé d’informatique et de capteurs, utilise des programmes sophistiqués d’intelligence artificielle. Il est capable d’apponter en toute circonstance sur un porte-avions et posséderait une autonomie et un rayon d’action considérables. De l'avis des observateurs, sa "dextérité" de pilotage serait, en toutes circonstances, supérieure à celle des pilotes les plus habiles !
En Europe, plusieurs pays dont la France se sont associés au sein du projet « Neuron » pour développer également un drone furtif et intelligent qui vient d’accomplir ses premiers vols d’essai il y a quelques mois.
Face à cette évolution technologique rapide, l’influente association Human Rights Watch a publié un rapport préconisant que des restrictions d’utilisation soient imposées à ces « robots tueurs», comme les appelle de manière flatteuse cette organisation.
Bien entendu, les responsables militaires américains ou européens ne manquent pas de souligner qu’ils ne permettront jamais à des machines de prendre la décision finale de tuer. Le problème, c’est qu’une fois qu’une technologie est disponible, il est très difficile de ne pas en exploiter toutes les potentialités.
La presse anglaise ou américaine évoque également la possibilité que de tels engins robotisés tombent entre les mains de tyrans ou de dictateurs qui pourraient, sans aucun état d’âme, les utiliser à des fins de répression interne et d’élimination de leurs opposants politiques ou de groupes ethniques particuliers.
Autre point qui ne manque pas de soulever des inquiétudes : la vulnérabilité informatique de ces systèmes robotisés. En 2011, un drone Predator a ainsi brusquement modifié son comportement après avoir été infecté par un bug informatique. Heureusement, dans ce cas précis il n’y a pas eu de conséquences graves. On imagine cependant qu’un tel incident survenant sur un drone lourdement armé et sur le point d’exécuter sa frappe, pourrait avoir des conséquences désastreuses.
Il est certain qu’avec l’arrivée prochaine de systèmes militaires robotisés terrestres et aériens utilisant massivement l’intelligence artificielle et possédant une réelle capacité d’autonomie de décision, la question de la responsabilité morale, politique et financière des dommages causés par ces engins va devenir cruciale.
Comme le souligne une analyse publiée par la presse américaine, le pire n’est jamais sûr mais l’évolution de la technologie conjuguée aux nouveaux types de conflits et de menaces qui déchirent la planète, feront qu’il sera très difficile pour les pouvoirs politiques de ne pas utiliser de manière croissante ces robots militaires autonomes.
Cette tentation sera d’autant plus grande qu’on voit bien que les opinions publiques acceptent de moins en moins l’idée de pertes militaires humaines importantes, quels que soient les enjeux invoqués. En outre, en ces temps de contraintes budgétaires et de crise financière, les armées devront faire plus et mieux avec de moins en moins d’argent et dans un tel contexte, les robots militaires autonomes représentent évidemment une solution irrésistible.
Certains analystes soulignent enfin, non sans raison, qu’aujourd’hui, l’idée qu’une machine puisse faire preuve d’une forme d’intelligence, d’une capacité de libre arbitre d’un sens moral paraît saugrenue voire absurde. Mais qu’en sera-t-il dans 20 ou 30 ans quand ces robots disposeront d’une puissance de calcul et d’une capacité d’analyse et d’évaluation que nous pouvons à peine imaginer à présent ?
Confrontés à cette évolution vertigineuse de la technologie, la question n’est plus de savoir si un jour une machine sera considérée comme intelligente et responsable de ses actes mais, dans le cas qui nous occupe, à quel moment un robot militaire sera pour la première fois considéré comme moralement et légalement responsable des dommages qu’il aura infligés…
Le grand écrivain de science-fiction et visionnaire Isaac Asimov, avait imaginé il y a plus de 70 ans des robots intelligents, pouvant faire preuve d'un comportement imprévisible. Il avait également formulé les trois fameuses lois de la robotique qui devaient donner aux robots un sens moral. Dans l'une de ses nouvelles, des magistrats sont amenés à s'interroger pour savoir si un robot peut être jugé comme un être humain et ils décident de répondre oui à cette question après s'être aperçus que le robot leur avait menti et avait donc adopté un comportement proprement humain.
Espérons que les redoutables robots militaires qui déchaîneront leur puissance de feu sur les champs de bataille du futur auront également une parcelle d'humanité !
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat