Savaşta yapay zekâ kullanımı ne kadar ileri gitmeli?

ABD Savunma Bakanlığı savaşlarda da yapay zekâdan faydalanıyor. xAI gibi şirketlerle işbirlikleri yapıyor. Pentagon bir süre önce, teknolojilerinin kapsamlı bir şekilde askeri amaçlar için kullanılmasını reddeden yapay zekâ geliştiricisi Anthropic’i kara listeye almıştı. Köşe yazarları, kullanım olanaklarına ve risklere ışık tutuyor.

Tüm alıntıları göster/kapat
Expresso (PT) /

Teknolojik nitelikte bir totalitarizme doğru

Expresso, yapay zekânın askeri süreçlere dahil edilmesinin doğurduğu riskleri şöyle açıklıyor:

King’s College London tarafından yapılan güncel bir araştırma, en gelişmiş dil modellerinin askeri çatışmaların üstesinden gelmek için kullanıldıklarında vakaların yüzde 95’inde nihayetinde nükleer çözüme başvurduklarını gösteriyor. Tabiri caizse, onlarda hayvansal hayatta kalma içgüdüsü bulunmuyor. ... Karar verme sürecine (şüpheliyi ya da hedefleri tespit ederek) yardımcı olan bir sistem ile (kimin tutuklanması, sınır dışı edilmesi ya da öldürülmesi gerektiğine dair) kararlar veren bir sistem arasındaki fark teknolojiden ziyade, yüzyıllardır süren [etik] bir kurgudan geriye ne kaldığında gizli. Nihai ve en ezici totalitarizm, teknolojik nitelikte olacaktır.”

Süddeutsche Zeitung (DE) /

Amaç kafa karışıklığı yaratmak

Süddeutsche Zeitung, yapay zekâ tarafından üretilen görseller yüzünden internetin de bir savaş alanına dönüştüğünü belirtiyor:

“Bu görselleri yayanlar her kimseler -İran gizli servisi, bağımsız internet trolleri ya da üçüncü güçler- her şeyden önce tek bir gayeleri var. Asıl önemli olan yalanın kendisi değil, kalıcı etkisi: yani genel bir kafa karışıklığı. ... Bu taktikler her şeyden önce şunu gösteriyor: Dijital bilgi âlemi Batılı güçlerin savunmasız kanadı. Onu savunmak, gelecekteki savaşların en büyük zorluklarından biri olacak. Yapay zekâyla üretilmiş sayısız sahte görsel, savaşta çıkar gruplarının yeni teknolojilerden yararlanmayı savunma mekanizmalarından çoğu zaman çok daha hızlı becerdiğini gösteriyor.”

Habertürk (TR) /

Sorumluluk bilinci kayboluyor

Habertürk, otomasyon süreçleri konusunda uyarıyor:

“'İnsan her zaman son kararı veriyor'. Bu cümle çok fazla şeyi gizliyor. En çok da şu soruyu: Yapay zekâ hedef listesini saniyeler içinde üretip önünüze koyduğunda, sizin onayınız gerçek bir karar mıdır, yoksa makineyi devreye sokan bir düğmeye basmaktan mı ibaretsiniz? Buna uzmanlar 'otomasyon yanlılığı' diyor. Önünüze bir liste geldiğinde, o listeye inanma eğilimindesinizdir. … Pratikte sorumluluk eriyip gidiyor. Hata yapan yazılım mıydı, yazılımı geliştiren şirket mi, son onayı veren asker mi, yoksa o askere emri veren komutan mı?”

Delfi (LV) /

Uzmanların söz hakkı olmalı

Gazeteci Māris Zanders, Delfi’de siyasetçileri sorumluluk almaya çağırıyor:

“Sorun şu ki, siyasi karar vericiler uzmanlık eksikliği nedeniyle yapay zekâyı risk olarak değil, öncelikle bir fırsat olarak görüyor. Yapay zekânın askeri boyutunun (felakete varacak kadar) gelişmeye devam edeceği gerçeği dikkate alındığında, edinilen teknolojilerin kullanımına karar verme yetkisinin yalnızca siyasi karar vericilerin elinde olmaması kritik önem arz ediyor. Endüstrinin ve uzmanların söz hakkı olmalı. Bu açıdan bakıldığında -büyük bilişim şirketlerinin menfaat peşinde koşmadığı konusunda hayallere kapılmamak gerekse de- Google, Amazon, Apple ve Microsoft’un bu ihtilafta Anthropic’in tarafını tutması olumlu.”