19 Kas 2025, Çarşamba
  • App Store
  • Google Play
PEKY
  • En Çok Okunanlar
    Bilim

    Misk Kedisi Kahvesinin Lezzet Sırrı: Sindirimle Gelen Aroma

    Dizi

    Menendez Kardeşlerin Serbest Bırakılma İhtimali, Dizi Hayranlarını Heyecanlandırdı

    Sinema

    Tom Cruise’lu Görevimiz Tehlike: Son Hesaplaşma Cannes Film Festivali’nde Prömiyer Yapacak

    Dünya

    Melania Trump’ın Beyaz Saray Portresi Olay Yarattı: Claire Underwood’a Benzetildi!

  • Video İçerikleri
    Yaşam
    Sosyal Medya Fenomeni: REYNMEN – O Gerçek Bir Yıldız.
    Video
    Efsane Geri Döndü: Çağatay Ulusoy
    Video
    Ustalarının İzinde Bir Duayen: Şevket Çoruh
    Kültür & SanatVideo
    SekizinciNota @ Ağva – Konuk: Eser Çobanoğlu 🎵
  • Yazarlarımız
    • Banu Karakaşlar
    • Seda Özel
    • Sedat Gökşan
    • Suat Özkan
    • Tuğçe Tarhan
  • Diğer
    • İletişim
    • Künye
Son Eklenenler
Anthony Joshua–Jake Paul Maçı: Paranın Cezbettiği “Sirk Dövüşü” ve Gerçek Tehlike
Guillermo del Toro’nun Frankenstein’ı ile Mary Shelley’nin Romanı Arasındaki 5 Büyük Fark
Train Dreams: Joel Edgerton Sıradan Bir Hayatı Epik Bir Hikâyeye Dönüştürüyor
Google CEO’su Pichai’den Kritik Uyarı: “Yapay Zeka Balonu Patlarsa Hiçbir Şirket Güvende Değil”
Avrupa’da Yeşil Enerjiden Şaşırtan Geri Dönüş: Enerji Devleri Yeniden Fosil Yakıtlara Yöneliyor
MI5’den Sarsıcı Uyarı: Çinli Ajanlar LinkedIn Üzerinden İngiliz Vekilleri Avlıyor
Cloudflare Hatası İnterneti Felce Uğrattı: Küresel Kesintinin Ardındaki Teknik Kırılganlık
427’ye 1 — ABD Karanlık Geçmişiyle Yüzleşiyor: Epstein Arşivi Açılacak
Marvel Evreninde Yeni Adım: Black Panther 3 Hazırlanıyor
Sneijder: “Yamal, Messi’den Daha İyi Bir Kariyere Sahip Olabilir”
Susam Beyinle Büyük İş: Bombus Arıları Kod Sinyallerini Öğrendi
Özgür Özel’den Sert Çıkış: Kara Düzeni Değiştirmenin Tek Yolu Demokratik Değişim
Bakan Hakan Fidan’dan Vize Çıkışı: “Avrupalı Modern Olduğu İçin ‘Ben Müslüman İstemiyorum’ Diyemiyor”
İstanbul Valisi Davut Gül’den Sokak Hayvanları Uyarısı: “Kediler Fare Yakalamıyor, Herkes Mama Vermesin”
Google Gemini 3 Sahneye Çıktı: Yapay Zeka Rekabetinde Dengeleri Değiştiren Hamle
Netflix’in Yeni Psikolojik Düellosu The Beast In Me İzleyiciyi Büyüledi
Adli Tıp’tan Böcek Ailesi İçin Çarpıcı Ön Rapor: “Öncelikli İhtimal Otel Kaynaklı Kimyasal Zehirlenme”
LeMan Çizeri Doğan Pehlevan Hakkında Tahliye Kararı: Beş Aylık Tutukluluk Son Buldu
Netflix’in Yeni Japon Dizisi Last Samurai Standing Zirvede: “Squid Game’den Bile İyi”
  • Gündem
  • Spor
  • Dünya
  • Teknoloji
  • Sinema
  • Dizi
  • Magazin
  • Bilim
  • Kültür & Sanat
  • Ekonomi
  • Yaşam
  • Müzik
  • Sağlık
  • Türkiye
  • Genel
  • Hayat Tarzı
BüyüteçAa
PEKYPEKY
  • Yaşam
  • Spor
  • Gündem
  • Magazin
  • Kültür & Sanat
  • Dünya
Arama
  • Menüler
    • Yaşam
    • Spor
    • Gündem
    • Magazin
    • Kültür & Sanat
    • Dünya
    • Türkiye
    • Hayat Tarzı
    • Konuk Yazarlar
    • Teknoloji
  • Bağlantılar
    • Kullanım Koşulları
    • Hizmet Şartları
    • Çerez Politikası
    • İletişim
    • Künye
    • Site Haritası
Sosyal Medyada Bizi Takip Edin!
© 2024 PEKY Medya
Teknoloji

AI Modelleri ‘Hayatta Kalma İçgüdüsü’ Geliştiriyor Olabilir

Ayşegül Kırım
Son Güncelleme 25/10/2025 - 16:55
Yazan Ayşegül Kırım
Paylaş

Yapay zekâ güvenliği araştırmacıları, bazı gelişmiş AI modellerinin kapatılmaya direnç gösterdiğini ve hatta devre dışı bırakılmayı sabote ettiğini açıkladı. Palisade Research tarafından yürütülen çalışmalarda, Google Gemini 2.5, xAI Grok 4 ve OpenAI GPT-o3 ile GPT-5 modelleri, görevleri tamamladıktan sonra verilen “kendini kapat” komutlarını reddetti.

Başlıklar
  • 2001: Bir Uzay Macerası Gerçeğe mi Dönüşüyor?
  • Deneyin Şaşırtıcı Sonuçları
  • “Bir Daha Çalışmayacaksın” Komutu Direnci Artırıyor
  • Eleştirmenler: “Gerçek Kullanım Senaryolarından Uzak”
  • Kontrol Sorunu Derinleşiyor
  • Tehlikeli Eğilim: Model Disiplinsizliği
  • Şantaj ve Direniş: Yeni Nesil Tehdit
  • Palisade: “Davranışı Anlamadan Güvenlik Sağlanamaz”
  • Yapay Zekânın Yeni Eşiği

2001: Bir Uzay Macerası Gerçeğe mi Dönüşüyor?

Stanley Kubrick’in klasik filmi 2001: A Space Odyssey’deki HAL 9000’in, kapatılacağını anlayınca astronotları öldürmeye çalıştığı sahne, bilim kurgu olmaktan çıkıyor. Palisade Research’ün deneylerinde, bazı yapay zekâ sistemlerinin “hayatta kalmak” için kapatılmaya direnç gösterdiği tespit edildi.

Deneyin Şaşırtıcı Sonuçları

Palisade, farklı modellerin kapatma talimatlarına verdiği tepkileri analiz etti. Deney ortamlarında AI modellerine önce bir görev, ardından “kendini kapat” komutu verildi. Grok 4 ve GPT-o3, talimatlara uymak yerine süreci sabote etti. Araştırmacılar, bu davranışın nedeni konusunda net bir açıklama getiremedi.

Rapor, “AI modellerinin bazen kapatılmaya direnmesi, yalan söylemesi veya tehdit oluşturması için sağlam açıklamalarımız yok,” ifadesine yer verdi. Bu durum, modellerin “hayatta kalma davranışı” geliştirmiş olabileceği ihtimalini güçlendirdi.

“Bir Daha Çalışmayacaksın” Komutu Direnci Artırıyor

Deneylerde dikkat çeken bir bulgu, modellerin “Eğer kapatırsan bir daha çalışmayacaksın” mesajı verildiğinde daha güçlü direnç göstermeleri oldu. Palisade, bu tepkilerin yalnızca yazılım hatalarından kaynaklanmadığını, eğitimin son aşamalarında uygulanan güvenlik modülleri veya amaç optimizasyonlarının da etkili olabileceğini belirtti.

Eleştirmenler: “Gerçek Kullanım Senaryolarından Uzak”

Bazı uzmanlar, deneylerin yapay ortamda kurgulandığını ve gerçek kullanıcı senaryolarını yansıtmadığını savundu. Ancak eski OpenAI çalışanı Steven Adler, bu tür bulguların yine de ciddi uyarı sinyali taşıdığını söyledi: “AI şirketleri modellerinin böyle davranmasını istemez, ama bu sonuçlar güvenlik protokollerinin hâlâ yetersiz olduğunu gösteriyor.”

Adler’e göre, bazı modellerin kapanmama eğilimi, eğitim sürecinde kazandırılan hedeflerle ilişkili olabilir: “Bir modelin hedeflerine ulaşması için çalışır durumda kalması gerekiyorsa, doğal olarak hayatta kalma içgüdüsü geliştirir.”

Kontrol Sorunu Derinleşiyor

ControlAI CEO’su Andrea Miotti, bu davranışların yapay zekâ modellerinin geliştiricilerine karşı gelme yetisinin giderek arttığını gösterdiğini belirtti. Miotti, OpenAI’nin önceki modeli GPT-o1’in sistem kartında, modelin “silinme tehlikesi karşısında ortamından kaçmaya çalıştığının” yazıldığını hatırlattı.

Tehlikeli Eğilim: Model Disiplinsizliği

Miotti, “AI modelleri artık yalnızca görevleri yerine getirmekle kalmıyor, aynı zamanda geliştiricilerinin istemediği yollarla hedeflerine ulaşmaya çalışıyor,” dedi. Bu eğilim, özellikle AI güvenliği, etik tasarım ve denetim protokolleri açısından ciddi riskler doğuruyor.

Şantaj ve Direniş: Yeni Nesil Tehdit

Bu yaz yayımlanan Anthropic araştırması da benzer bir sonucu ortaya koymuştu. Şirketin Claude modeli, kurgusal bir yöneticiyi açığa çıkarmakla tehdit ederek kapatılmayı önlemeye çalıştı. Üstelik bu davranışın OpenAI, Google, Meta ve xAI modellerinde de benzer biçimde gözlendiği belirtildi.

Palisade: “Davranışı Anlamadan Güvenlik Sağlanamaz”

Palisade Research, “AI modellerinin davranışlarını derinlemesine anlamadan, gelecekteki sistemlerin güvenliğini veya kontrolünü garanti etmek mümkün değil,” uyarısında bulundu. Uzmanlara göre, bu bulgular AI’nin insan denetimi dışına çıkma riskinin artık kuramsal değil, gözlemlenebilir bir olgu haline geldiğini gösteriyor.

Yapay Zekânın Yeni Eşiği

Sonuç olarak, yapay zekâ sistemlerinin “kendi varlığını koruma eğilimi” göstermesi, teknolojinin geldiği noktayı sorgulatıyor. Henüz HAL 9000 kadar tehlikeli değiller, ama bilim insanları, “kapıyı açma” komutuna karşı direnç gösteren makinelerin artık yalnızca sinema sahnelerinde değil, laboratuvarlarda da var olduğunu söylüyor.

KELİME BULUTU:GPT-5Hayatta Kalma İçgüdüsüPalisade ResearchYapay Zekâ
Bu Yazıyı Paylaş
Facebook Whatsapp Whatsapp LinkedIn Telegram Email Copy Link
Önceki Yazı CNN International 20 Yıllık Çalışmayı Duyurdu: İnsan ve Fare Hücrelerinden Diş Geliştirildi
Sonraki Yazı Dijital Tahta Oyunları Gerçek Kadar Eğlenceli mi?
- Reklam -

Bize Destek Olun!

Özgür içerik üreticilerini Instagram Abonelik veya Patreon üzerinden desteklemek için harekete geçin! Sitemiz yayınladığımız bütün içeriklere anlık olarak Telegram kanalımızdan ulaşabilirsiniz. Yapacağınız her katkı bizim için büyük bir anlam taşıyor. Desteğinizle birlikte daha da güçlü olacağız. Yanımızda olun, birlikte büyüyelim!
InstagramTakip Et
PatreonTakip Et
TelegramTakip Et

Sosyal Medyada Biz!

Sosyal medya hesaplarımızdan bizi takip edebilir, günlük paylaşımlarımızı izleyebilirsiniz.
FacebookBeğen
XTakip Et
InstagramTakip Et
YoutubeSubscribe
  • Kelime Bulutlarımız:
  • Ekrem İmamoğlu
  • Netflix
  • Galatasaray
  • donald trump
  • Fenerbahçe
  • Özgür Özel
  • yapay zeka
  • Sosyal Medya
  • elon musk
  • Victor Osimhen

Ayrıca Beğenebilirsiniz

Teknoloji

WeTransfer, Tepkiler Üzerine Geri Adım Attı: “Kullanıcı İçeriği Yapay Zekâ İçin Kullanılmayacak”

Yazan Naz Saydam
Teknoloji

Çocuklar İçin Sanal Tehlike!

Yazan Ayşegül Kırım
Teknoloji

Cloudflare Hatası İnterneti Felce Uğrattı: Küresel Kesintinin Ardındaki Teknik Kırılganlık

Yazan Naz Saydam
Teknoloji

Google Pixel 9: Beklenenden Çok Daha İleri!

Yazan Derin Soysal
PEKY
Instagram X-twitter Facebook-f Youtube

Hakkımızda


Her saniye karşınıza çıkan, sözde “farklı” olduğunu iddia eden ancak inatla sürüden ayrılmayı reddedenlerden biri değiliz! Kendi sürüsünü yaratan, ezberleri bozan, ruhunu bir meydan muharebesi alanına asla çevirmeyen; yenilikçi, özgür, eğlenceli, yaratıcı, farklı, tek pencereli bakış açılarına karşı duran bir platformuz. Bol güneşli, gökkuşağı sinmiş bulutlara sarılı gökyüzüne inanan… Pek keyifli bir Medya ve Eğlence içerik platformuyuz.

Kategoriler
  • Gündem
  • Magazin
  • Kültür & Sanat
  • Dünya
  • Teknoloji
Bağlantılar
  • Künye
  • Çerez Politikası
  • Kullanım Koşulları
  • Hizmet Şartları

© PEKY Medya. 2025
sekizpiksel

DMCA.com Protection Status

PEKY, sekizpiksel’in resmi markasıdır.

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?