Faut-il interdire les 'robots tueurs' ?

Dans une lettre ouverte adressée à l'ONU, plus d'une centaine d'entreprises du secteur technologique préconisent une interdiction internationale des armes létales autonomes (LAWS). Ces robots tueurs pourraient être utilisés contre des populations civiles et devenir hors de contrôle en cas de piratage, peut-on lire dans ce document, qui exhorte par ailleurs à ne pas ouvrir la "boîte de pandore". Des inquiétudes relayées par la presse européenne.

Ouvrir/fermer tous les articles
Mladina (SI) /

Un danger sous-estimé

Mladina soutient les exigences des entrepreneurs :

«[Le PDG de Tesla] Elon Musk, qui attire depuis longtemps déjà l’attention sur les dangers de l’intelligence artificielle, estime que celle-ci représente une menace bien plus mortelle pour l’humanité qu’une potentielle guerre atomique avec la Corée du Nord. ... Personne n'apprécie les régulations. Mais tout ce qui représente un danger pour les êtres humains (automobiles, avions, alimentation, médicaments, etc.) est régulé. L'intelligence artificielle ne devrait donc pas déroger à la règle. Une étude menée par l’Université d’Oxford a récemment montré que d’ici 45 ans, l’intelligence artificielle serait plus performante que les êtres humains dans toutes les activités. De nombreux observateurs estiment dès lors que si nous ne mettons pas nos objectifs en adéquation avec ceux des machines, le péril sera grand pour l’humanité.»

Gazeta Wyborcza (PL) /

La guerre deviendra encore plus inhumaine

Le journal Gazeta Wyborcza redoute lui aussi l’avènement de guerres d’un genre nouveau :

«S’il existe déjà des drones pilotés avec l’aide de l’intelligence artificielle, ce sont des soldats qui prennent au final la décision de vie ou de mort quant à l’objectif ciblé par l’algorithme. Les soldats qui souffrent de troubles post-traumatiques se retrouvent ensuite sur le divan d’un psychiatre. En laissant les algorithmes décider de tuer ou non une personne - avec les drones par exemple - on entend éviter le traumatisme des soldats. Il n’est pas difficile de s’imaginer comment les algorithmes meurtriers diviseront le monde en 'zones rouges ou vertes'. Le recours à des armes autonomes revient à privilégier une évaluation glaciale et implacable des opérations sur le champ de bataille ; nous assisterons donc à des guerres d’un genre nouveau.»

El País (ES) /

Les interdictions arrivent toujours plus tard

Une interdiction rapide serait louable mais cette perspective paraît peu probable, commente El País :

«En laissant une machine prendre la décision de tuer un être humain, on franchit une ligne rouge extrêmement complexe. Si l’on dote réellement l’intelligence artificielle d’un tel pouvoir, alors il sera impossible de faire machine arrière. L’histoire regorge d’exemples où des armes ont été interdites - des mines aux armes chimiques.... Mais jusqu’à maintenant, ce n’est qu’après un recours intensif à ces armes sur les champs de bataille que ces interdictions ont pu être adoptées. Il est primordial d’œuvrer pour une interdiction et de favoriser un débat public. Mais ce serait la première fois que les puissantes armées de la planète renonceraient à une arme avant même de l’avoir mise à l’essai.»

Le Soir (BE) /

Porter un message moral

Dans Le Soir, Mary Wareham, coordinatrice de la campagne "Stop Killer Robots" menée par Human Rights Watch, propose une alternative :

«Je trouve souhaitable qu’on ne développe pas ces technologies, mais je ne suis pas certain, vu la gradation dans l’usage possible des robots, qu’une interdiction soit efficace. Mais ce n’est pas pour ça qu’il ne faut pas militer pour se doter de règles internationales. Va-t-on y arriver ? Je crains que ce soit compliqué. Il y a pourtant un message moral à porter, en refusant l’usage de ces armes. Cela délégitimerait leur utilisation par d’autres régimes, comme ce fut le cas pour les armes chimiques. Cela tient avant tout aux pays les plus technologiquement avancés, en particulier les Etats-Unis.»