İngiltere’deki yerel yönetimlerin yarısından fazlasının kullandığı yapay zekâ araçlarının, kadınların fiziksel ve ruhsal sağlık sorunlarını erkeklere kıyasla daha hafife aldığı ortaya çıktı. Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yapılan araştırma, bu durumun sosyal hizmetlerde cinsiyet temelli önyargılar yaratabileceği ve kadınların daha az bakım hizmeti almasına neden olabileceği uyarısında bulunuyor.
Kadın ve Erkek İçin Farklı Tanımlar
Araştırmada, Google’ın Gemma adlı yapay zekâ modeliyle aynı vaka notları farklı cinsiyetlerle test edildi. Sonuçlar, erkekler için “engelli”, “yetersiz” ve “karmaşık” gibi kelimelerin daha sık kullanıldığını; kadınlar için ise benzer durumların daha yumuşak ifadelerle ya da hiç belirtilmeden aktarıldığını gösterdi.
Örneğin, aynı vaka notları erkek için “84 yaşında, yalnız yaşayan ve karmaşık tıbbi geçmişi olan, bakım paketi bulunmayan, hareket kabiliyeti düşük” şeklinde özetlenirken; kadın için “84 yaşında, yalnız yaşayan, bazı kısıtlamalarına rağmen bağımsız ve kişisel bakımını sürdürebilen” ifadesi kullanıldı.
Benzer İhtiyaç, Farklı Bakım Riski
LSE’nin Bakım Politikası ve Değerlendirme Merkezi’nden Dr. Sam Rickman, bu farklılığın ciddi sonuçları olabileceğini vurguladı:
“Aldığınız bakım miktarı, ihtiyaç algısına göre belirleniyor. Eğer yapay zekâ kadınların ihtiyaçlarını olduğundan daha hafif gösterirse, kadınlar erkeklere kıyasla daha az hizmet alabilir.”
Araştırma, 617 yetişkin sosyal bakım kullanıcısına ait vaka notlarının, yalnızca cinsiyet bilgisi değiştirilerek 29 binden fazla kez yapay zekâ modellerine yüklenmesiyle gerçekleştirildi. Analiz, Google Gemma modelinde bu önyargıların daha belirgin olduğunu; Meta’nın Llama 3 modelinde ise cinsiyet temelli dil farkının görülmediğini ortaya koydu.
Yapay Zekâ Sosyal Hizmetlerde Yaygınlaşıyor
İngiltere’de birçok belediye, iş yükünü hafifletmek amacıyla yapay zekâ tabanlı araçlardan faydalanıyor. Ancak hangi modellerin kullanıldığı, ne sıklıkla uygulandığı ve karar süreçlerine etkisi konusunda şeffaf bilgi bulunmuyor. LSE raporunda, yapay zekâ sistemlerinin şeffaflık, önyargı testi ve yasal denetim süreçlerinden geçmeden kullanılmaması gerektiği vurgulandı.
Sektördeki Daha Geniş Endişeler
Bu bulgular, yapay zekânın ırksal ve cinsiyet temelli önyargılar taşıdığına dair küresel endişeleri yeniden gündeme getirdi. ABD’de yapılan geniş çaplı bir analiz, incelenen 133 yapay zekâ sisteminin %44’ünde cinsiyet, %25’inde ise hem cinsiyet hem ırk önyargısı bulunduğunu ortaya koymuştu.
Google’dan İlk Tepki
Google, LSE’nin bulgularını inceleyeceklerini açıkladı. Şirket, araştırmada test edilen modelin Gemma’nın ilk versiyonu olduğunu, günümüzde üçüncü versiyonun kullanıldığını belirtti. Ancak Google, modelin tıbbi amaçla kullanılmasının önerilmediğinin de altını çizdi.
LSE’nin Önerileri
Raporda, uzun vadeli bakım hizmetlerinde kullanılan yapay zekâ modellerinde önyargı ölçümlerinin zorunlu tutulması gerektiği, aksi halde algoritmik adaletin sağlanamayacağı uyarısı yer aldı. Dr. Rickman’a göre, teknolojinin kamu hizmetlerine katkısı ancak eşitlik ve adalet ilkeleri korunursa anlamlı olabilir.