Yapay zekâ ne kadar tehlikeli ve onu kim dizginlemeli?
Önde gelen bir dizi yapay zekâ uzmanı, salı günü yayınladıkları bildiride teknolojiye dair sert uyarılarda bulundu ve teşkil ettiği riskleri salgın hastalıklar ve nükleer savaşla eş tuttu. Bildirinin imzacıları arasında, ChatGPT’nin geliştiricisi OpenAI'ın başkanı Sam Altman da var. Altman, Uluslararası Atom Enerjisi Ajansı IAEA’ye benzer uluslararası bir kurum tesis edilmesini önerdi. Yorumcuların çoğunluğu önerilere şüpheyle yaklaşıyor.
Nükleer silahların kontrolüyle kıyaslanamaz
The Spectator’a göre, OpenAI’ın önerdiği yapay zekâ düzenlemesinin başarılı olması pek mümkün değil:
“Bilgisayarların performans kaynağı, uranyum madenleri kadar kıt ve izlenebilir değil. Süper zekâ gerçekten de OpenAI ve diğerlerinin sandığı kadar dönüştürücü güçlere sahipse, türlü sahtekârlıklar yapma güdülerini de tetikleyecektir. ... Küba Füze Krizi’ndeki kötü gizlenmiş siloların aksine, artık üretilmiş bir süper zekâyı sabit diske koyup dünyanın dört bir yanına kaçırmak mümkün. Dolayısıyla yayılması nispeten kolay görünüyor. ... OpenAI’ın önerileri yeterli değil, ancak Altman ve arkadaşlarının yaptığı asıl iyilik, alarm zillerini çalmak oldu. Yeni fikirlere ihtiyacımız var, hem de acilen.”
Sorumluluk siyasetçilere yükleniyor
Der Spiegel köşe yazarı Sascha Lobo, uyarıda bulunanların olası suçlamalara karşı peşinen savunmaya geçtiğini düşünüyor:
“Yapay zekâ güçlü ve onunla ilgili bazı şeylerin ters gitme olasılığı yüksek. O nedenle, uyaran rolünü üstlenmek yapay zekâ aktörlerine pratik geliyor, zira uyaran taraflar halkın gözünde nadiren suçlu ilan edilirler. Yapay zekâ seçkinlerinden gelen bu tür uyarılar, sorumluluğu en azından kısmen de olsa siyasetçilere yüklüyor. Bir sorun olması durumunda şöyle demeleri olası: Hey, sizden hızlı ve etkili düzenlemeler talep ettik ama yapmadınız, şimdi de bunun bedelini ödüyorsunuz.”
Suçlunun adı konmalı
The Independent da yapay zekâ sektöründen gelen açıklamaları yanlış buluyor:
“Yapay zekânın salgın hastalıklar kadar korkunç olabileceğine dair yapılan uyarılarla tuhaf bir şekilde, yapay zekânın teşkil ettiği tehlikeler bir virüs mutasyonu gibi kendiliğinden ortaya çıkıyormuş gibi gösterilmeye çalışılıyor. Yapay zekâ bir tehlike barındırıyorsa, geliştiricilerinin bilinçli verdiği kararlardan ötürüdür - genelde de geliştiriciler bu yeni uyarının altına imza atan şirketler. ... Bu şirketler kime sesleniyor acaba? Nihayetinde dünya üzerindeki yaşamı yok edebilecek bir ürünün yaratıcısı kendileri. Evin kapısı iyi kilitlenmediği için hırsız tarafından azarlanmaya benziyor yaptıkları.”
Şeffaflık savunmasız kılar
Neue Zürcher Zeitung, yönetmelik meselesinde ihtilaf çıkarabilecek hususların altını çiziyor:
“OpenAI, yapay zekâsını nasıl eğittiğini açıklamak zorunda kalırsa birincisi ‘sihrini’ biraz yitirir. İkincisi, rakipleri fikirlerini kopyalayabilir. Üçüncüsü, şirketin yapay zekâya dahil edilen veriler üzerinde gerekli haklara sahip olup olmadığı dahi belli değil. Sanatçılar, yapay zekâyla görüntü üreten bazı şirketlere davalar açmaya başladı bile. Bu davalara konu olanlar, yapay zekâlarını hangi verilerle eğittiklerini açık eden şirketler. Şeffaflık daha savunmasız kılıyor. ... Bunu tamamen güvenli ve doğru yapmak çok zor. Altman’ın buna karşı lobi faaliyeti yürütmek hakkı. AB de elbette hangi kuralların gerçekten gerekli olduğuna karar verirken orantılı davranmalı.”
Yeni şeylerden korkmak doğamızda var
News.bg, insanlık tarihi boyunca çığır açan teknolojilere karşı şüphecilik hep vardı, diyor:
“Sanayi devriminin ilk dönemlerinde işçiler, makinelerin işlerini ellerinden alacağına inanıyordu, ancak gerçekte makineleşme, yaşam kalitesinde önemli bir iyileşme sağladı. İlk aşılar da benzer şüphelere yol açmıştı. ... Yerleşim yerlerinin elektriklendirilmesi başlangıçta bazıları tarafından satanizm olarak yaftalanırken, günümüzde elektriksiz bir hayatı hayal edemeyecek durumdayız. Yapay zekâ hayatımızı optimize edecek. Bunun anlamı şu: Yapay zekâ yardımıyla aynı faaliyetlere çok daha az zaman ve enerji harcayacağız ve potansiyel olarak daha anlamlı işlere daha fazla zaman ayırabileceğiz.”