ABD Savunma Bakanlığı (Pentagon), yapay zeka alanında önemli bir iş birliğine imza attı. Pentagon, OpenAI ile ulusal güvenlik ve savunma teknolojilerine yönelik yapay zeka çözümleri geliştirmek amacıyla 200 milyon dolarlık bir sözleşme yaptı.
Bu anlaşma, yapay zekânın artık sadece ticari değil, askeri ve stratejik alanlarda da belirleyici güç haline geldiğini gösteriyor.
Pentagon’dan Resmi Açıklama Geldi
ABD Savunma Bakanlığı, yapılan anlaşmaya ilişkin yazılı bir açıklama yayımladı. Açıklamada, bu iş birliğinin temel hedefinin, savaş alanlarında ve kurumsal operasyonlarda kullanılabilecek yapay zeka prototiplerinin geliştirilmesi olduğu belirtildi.
Projenin, Dijital ve Yapay Zeka Ofisi (CDAO) tarafından yürütüleceği ifade edildi.
Yapay Zeka Savunma Stratejisinin Parçası
Bu iş birliği, ABD’nin ulusal güvenlik stratejisinde yapay zekaya verdiği önemi bir kez daha ortaya koyuyor. Anlaşma kapsamında geliştirilecek sistemler; askeri planlama, karar destek mekanizmaları, tehdit analizi ve veri işleme süreçleri gibi çok çeşitli alanlarda kullanılacak.
Pentagon’un açıklamasına göre, bu projeler 2026 Temmuz ayı itibarıyla tamamlanmış olacak.
OpenAI, Güvenlik Odaklı İlk Büyük Devlet Anlaşmasını İmzaladı
Bu anlaşma, OpenAI için de oldukça kritik bir adım niteliğinde. Şirket, bugüne kadar daha çok ticari uygulamaları ve ChatGPT gibi ürünleri ile öne çıkarken, bu kez doğrudan ABD hükümeti ile güvenlik odaklı bir projede yer alacak.
Uzmanlar, bu iş birliğinin, yapay zekâ şirketlerinin askeri alandaki rolünün artacağına işaret ettiğini belirtiyor.
Teknoloji, Sadece Sivil Alana Ait Değil
ABD, Çin başta olmak üzere diğer büyük güçlerin askeri yapay zeka geliştirme çabalarına karşılık, son dönemde çok sayıda teknoloji şirketiyle stratejik ortaklıklar kuruyor.
OpenAI ile imzalanan bu anlaşma, Microsoft, Palantir, IBM ve Google gibi şirketlerle yapılan savunma protokollerine eklenmiş durumda.
Eleştiriler Ve Etik Tartışmalar Da Gündemde
Bu tür anlaşmalar, yapay zekanın askeri kullanımı konusunda bazı çevrelerden eleştiri de alıyor. Etik uzmanları, yapay zekanın otomatik silah sistemleri ya da gözetim teknolojileriyle entegre edilmesi halinde doğabilecek sonuçlara karşı dikkatli olunması gerektiğini vurguluyor.
Ancak ABD Savunma Bakanlığı, projede yer alacak tüm sistemlerin “insan denetimi” ilkesine bağlı kalacağını belirterek, etik sınırların gözetileceğini duyurdu.