KI im Krieg: Wie weit darf der Einsatz gehen?
Das US-Verteidigungsministerium setzt auch im Krieg auf künstliche Intelligenz. Mit Unternehmen wie xAI arbeitet es bereits zusammen. Den KI-Entwickler Anthropic setzte das Pentagon kürzlich auf die Schwarze Liste, nachdem sich das Unternehmen geweigert hatte, seine Technologien umfassend für militärische Zwecke zu öffnen. Kommentatoren beleuchten Einsatzmöglichkeiten und Risiken.
Es droht ein Totalitarismus der Technologie
Expresso beschreibt die Gefahren der Einbindung von KI:
„Eine aktuelle Studie des King’s College London zeigt, dass die fortschrittlichsten Sprach-Modelle, wenn sie zur Bewältigung militärischer Konflikte eingesetzt werden, in 95 Prozent der Fälle letztendlich die nukleare Lösung wählen. Ihnen fehlt sozusagen der animalische Überlebensinstinkt. … Der Unterschied zwischen einem System, das bei der Entscheidungsfindung hilft (indem es einen Verdächtigen oder Ziele identifiziert), und einem System, das Entscheidungen trifft (wer festgenommen, abgeschoben oder getötet werden soll), liegt nicht in der Technologie. Er liegt in dem, was von einem jahrhundertelangen [ethischem] Konstrukt übrig geblieben ist. Der endgültige und überwältigendste Totalitarismus wird technologischer Natur sein.“
Das Ziel ist Verwirrung
Auch das Internet wird durch KI-generierte Bilder zum Schlachtfeld, konstatiert die Süddeutsche Zeitung:
„Wer auch immer diese Bilder verbreitet – der iranische Geheimdienst, unabhängige Internet-Trolle, Drittmächte –, hat vor allem ein Ziel. Nicht die Lüge selbst ist wichtig, sondern ihre nachhaltige Wirkung: die allgemeine Verwirrung. ... Diese Taktiken zeigen vor allem eines: Die digitale Informationswelt ist die offene Flanke der westlichen Mächte. Sie zu verteidigen, wird eine der größten Herausforderungen künftiger Kriege bleiben. Die unzähligen KI-Falschbilder zeigen, dass es interessierten Gruppen im Krieg oft sehr viel schneller gelingt, sich neue Technologien zunutze zu machen, als es die Verteidigung vermag.“
Verantwortungsbewusstsein schwindet
Habertürk warnt vor Automatisierungsprozessen:
„'Die endgültige Enscheidung trifft immer der Mensch.' Hinter diesem Satz verbirgt sich viel. Vor allem diese Frage: Wenn künstliche Intelligenz innerhalb von Sekunden eine Zielliste erstellt und sie Ihnen vorlegt, ist Ihre Zustimmung dann eine echte Entscheidung oder drücken Sie lediglich einen Knopf, um die Maschine in Gang zu setzen? Experten bezeichnen dies als 'Automatisierungsvoreingenommenheit'. Wenn Ihnen eine Liste vorgelegt wird, neigen Sie dazu, dieser Liste zu glauben. … In der Praxis schwindet die Verantwortung dahin. War es die fehlerhafte Software, das Unternehmen, das die Software entwickelt hat, der Soldat, der die endgültige Genehmigung erteilt hat, oder der Kommandant, der diesem Soldaten den Befehl erteilt hat?“
Experten müssen eingebunden werden
Publizist Māris Zanders appelliert in Delfi an die Verantwortung der Politik:
„Das Problem besteht darin, dass politische Entscheidungsträger aufgrund mangelnder Expertise KI in erster Linie als Chance und nicht als Risiko sehen. Angesichts der Tatsache, dass sich der militärische Aspekt von KI weiterentwickeln wird (bis hin zur Katastrophe…), ist es daher von entscheidender Bedeutung, dass politische Entscheidungsträger nicht das alleinige Recht haben, über die Nutzung der erworbenen Technologien zu entscheiden. Industrie und Experten müssen die Möglichkeit haben, sich zu Wort zu melden. Aus diesem Blickwinkel betrachtet ist es – auch wenn man sich über die Uneigennützigkeit großer IT-Konzerne keine Illusionen machen sollte – positiv, dass Google, Amazon, Apple und Microsoft sich im Konflikt auf die Seite von Anthropic gestellt haben.“