Applications militaires de l'IA : quelles limites ?

Pour la guerre aussi, le ministère de la Défense américain mise sur l'intelligence artificielle. Il a déjà commencé à coopérer avec des entreprises telles que xAI. Le Pentagone a récemment inscrit sur une liste noire le développeur d'IA Anthropic, suite au refus de ce dernier d’ouvrir sans réserves ses technologies à l'usage militaire. Les chroniqueurs font le point sur les champs d'utilisation possibles et les risques.

Ouvrir/fermer tous les articles
Expresso (PT) /

Vers un totalitarisme technologique

Expresso décrit les dangers du recours à l'IA :

«Une récente étude du King's College de Londres montre que lorsqu'il s'agit de gérer des conflits militaires, les modèles de langage les plus avancés optent en faveur d'une solution nucléaire. Ils sont en quelque sorte dépourvus de l'instinct de survie animal. … La différence entre un système qui aide à la prise de décision (en identifiant un suspect ou des cibles), et un système, qui prend les décisions (qui doit être arrêté, expulsé ou tué), n'est pas une question de technologie. Elle relève d'une construction [éthique] pluriséculaire. Le totalitarisme ultime et le plus dévastateur sera de nature technologique.»

Süddeutsche Zeitung (DE) /

Le brouillard de la guerre

Avec les images générées par IA, Internet devient une foire d'empoigne, constate Süddeutsche Zeitung :

«Quelle que soit l'identité de ceux qui diffusent ces images – renseignement iranien, trolls indépendants, puissances tierces – ils ont avant tout un objectif. Ce n'est pas le mensonge qui prime, mais son effet durable : la confusion générale. … Ces tactiques montrent avant tout une chose : le monde informationnel numérique est le point faible des puissances occidentales. Les défendre sera l'un des principaux défis des guerres du futur. Les innombrables montages IA montrent que dans la guerre, les groupes d'intérêt arrivent bien plus vite à se servir des nouvelles technologies que ne sont capables de le faire les défenses.»

Habertürk (TR) /

Une déresponsabilisation collective

Habertürk met en garde contre les processus d'automatisation :

«'La dernière décision revient toujours à l'humain.' Cette phrase est lourde de sens. Elle recèle surtout une question : lorsqu'une IA vous présente une liste de cibles établie en quelques secondes, votre consentement est-il une vraie décision, ou appuyez-vous simplement sur le bouton pour démarrer la machine ? Les experts qualifient ce phénomène de 'biais d'automatisation'. Si l'on vous soumet une liste, vous avez tendance à faire confiance à cette liste. … Sur le terrain, la notion de responsabilité se délite. Qui est responsable ? Un logiciel défaillant, son développeur, le soldat qui a donné l'autorisation finale, ou le commandant qui a donné l'ordre à ce soldat ?»

Delfi (LV) /

Les experts doivent intervenir

Dans Delfi, le journaliste Māris Zanders en appelle à la responsabilité des politiques :

«Le problème, c'est qu'en l'absence d'expertise, les responsables politiques voient dans l'IA davantage une opportunité qu'un risque. Vu que l'aspect militaire de l'IA continuera de se développer (jusqu'à la catastrophe), il est essentiel que les responsables politiques ne soient pas les seuls dépositaires du droit de décider de l'utilisation des technologies acquises. L'industrie et les experts doivent avoir la possibilité de prendre la parole. De ce point de vue, il est positif que dans ce conflit, Google, Amazon, Apple et Microsoft se soient rangés du côté d'Anthropic – même s'il ne faut pas s'imaginer que les géants de la tech puissent agir de manière désintéressée.»