Birleşik Krallık’ta teknoloji dünyasını doğrudan etkileyecek çok önemli bir siyasi baskı oluşuyor. Farklı partilere mensup 100’den fazla parlamenter, hükümete çağrıda bulunarak en gelişmiş yapay zekâ modellerinin bağlayıcı kurallarla düzenlenmesini talep etti. Bu çağrı, özellikle “süper zekâ” seviyesine ulaşabilecek sistemlerin kontrol dışı gelişmesi hâlinde ulusal ve küresel güvenliğin tehlikeye girebileceği uyarılarıyla güçleniyor.
Söz konusu talep, Skype’ın kurucu ortaklarından Jaan Tallinn tarafından desteklenen Control AI adlı sivil toplum kuruluşunun koordinasyonunda yürütülüyor. Kampanya, Başbakan Keir Starmer’a sesleniyor ve İngiltere’nin ABD’deki yönetimden, özellikle de Donald Trump liderliğindeki Beyaz Saray’dan bağımsız bir tutum sergilemesini istiyor.
‘Süper Zekâ, Nükleer Silahtan Bile Tehlikeli Olabilir’
Kampanyaya katılan isimler arasında eski savunma bakanı ve İşçi Partisi üyesi Des Browne da bulunuyor. Browne, süper zekâ oluşturabilecek modeller için çok net bir uyarıda bulunuyor:
“Bu, nükleer savaş kapasitesinin ortaya çıkışından beri karşılaştığımız en tehlikeli teknolojik gelişme olabilir.”
Browne’a göre yalnızca ulusal düzenlemeler değil, ülkeler arası zorunlu işbirliği gerekiyor. Aksi hâlde devletlerin ve teknoloji şirketlerinin “avantaj yarışına” girmesi küresel ölçekte büyük riskler doğurabilir.
Konservatif Parti’den eski çevre bakanı Zac Goldsmith ise hükümetlerin teknoloji devlerinin arkasında kaldığını belirterek:
“AI şirketleri çok hızlı ilerliyor, hükümetlerse kilometrelerce geride.” sözleriyle eleştirisini dile getirdi.
Hubble’dan Çocuk Güvenliğine: Somut Riskler Artıyor
2023’te Bletchley Park’ta düzenlenen AI Güvenliği Zirvesi, en gelişmiş modellerin “kasıtlı veya kazara ciddi zararlar” yaratabileceğini zaten ortaya koymuştu. Zirve sonucunda kurulan AI Security Institute, bugün uluslararası kabul gören sayılı güvenlik kurumundan biri olarak görülse de parlamenterler, hükümetin hâlâ yeterince hızlı hareket etmediği görüşünde.
Eski AI Bakanı Jonathan Berry, süper zekâ seviyesine yaklaşan modeller için küresel düzeyde bağlayıcı kurallar gerektiğini savunuyor. Berry’nin önerdiği güvenlik mekanizmaları arasında:
- modeller belirli bir güce ulaştığında zorunlu test süreçleri,
- geliştiricilerin “acil durdurma” (off switch) mekanizmalarını kanıtlaması,
- riskli modellerin yeniden eğitilebilmesini garanti eden protokoller yer alıyor.
Berry, mevcut risklerin tahmin edilenden çok daha görünür hâle geldiğini hatırlatarak yakın dönemdeki örnekleri paylaştı:
intihara teşvik eden chatbot’lar, kendisini tanrı sanan kullanıcılar ve yapay zekâyı terapist yerine koyan bireyler…
“Bu riskler artık soyut değil, gerçek ve çok ciddi” ifadeleriyle uyarı yaptı.
ABD Baskısı ve İngiltere’nin Stratejik Açmazı
İngiltere’de hükümet, 2024’te en güçlü yapay zekâ modelleri için özel güvenlik şartları getirecek bir yasa çıkaracağını duyurmuştu. Ancak aradan geçen zamana rağmen bir yasa tasarısı hâlâ yayımlanmadı.
Bunun en önemli nedenlerinden biri, kampanya liderlerine göre, ABD’nin baskısı. Washington yönetimi, özellikle ABD merkezli teknoloji devlerinin ticari büyümesini engelleyebilecek düzenlemelere sıcak bakmıyor.
Control AI’ın CEO’su Andrea Miotti, mevcut yaklaşımı “çekingen ve yetersiz” olarak nitelendiriyor:
“AI şirketleri hükümetlere ‘çok erken, inovasyonu öldürür’ diye baskı yapıyor. Oysa aynı şirketler AI’nın insanlığı yok edebileceğini söylüyor. Bu çelişki, düzenlemenin aciliyetini gösteriyor.”
Miotti’ye göre zorunlu güvenlik standartlarının önümüzdeki bir iki yıl içinde yasa hâline gelmesi gerekiyor.
‘Süper zekâ geliştirme yarışı durdurulmalı’
Zac Goldsmith, İngiltere’nin yeniden küresel liderlik üstlenmesi gerektiğini savunarak çok net bir talepte bulundu:
“Süper zekâ geliştirilmesi, risklerini tam olarak anlayana kadar uluslararası anlaşmayla durdurulmalı.”
Kontrol çağrıları yalnızca hükümete değil, aynı zamanda dini ve etik otoritelere de ulaştı. Oxford Piskoposu Steven Croft, bağımsız bir AI düzenleme kurumunun şart olduğunu, kamu sektörünün yapay zekâyı nasıl kullandığının denetlenmesi gerektiğini söyledi.
Croft ayrıca yapay zekânın toplum üzerindeki etkilerine dikkat çekti:
- Çocuk ve yetişkinlerde zihinsel sağlık riskleri,
- Devasa enerji ve çevresel maliyetler,
- Genel amaçlı modellerin insan değerleriyle uyumsuzluk riski…
“Hükümet, ihtiyat ilkesini tamamen terk etmiş gibi görünüyor” diyerek endişesini belirtti.
