Yapay Zeka Anlaşmazlığı Sonrası İran'a Saldırı Başladı
Yapay zeka müzakereleri ve İran saldırısı, Pentagon'un yapay zeka kullanımını genişletme çabalarını gündeme taşıdı.
OpenAI'ın ticari bir yapıya dönüşmesi ve yapay zeka güvenliğinin ihmal edilmesi eleştirileriyle Anthropic'in kurulması, Pentagon ile yapılan görüşmelere de yansıdı.
ABD ordusu, istihbarat çalışmalarından askeri operasyonlara kadar birçok alanda Anthropic'in geliştirdiği Claude yapay zeka modelini kullanıyor. Ancak, Pentagon'un bu teknolojiyi askeri operasyonlarda sınırsız kullanma talebi kabul edilmedi.
Pentagon, Anthropic'ten Claude'un güvenlik kısıtlamalarını kaldırarak teknolojinin tüm yasal amaçlarla sınırsız kullanılmasını istedi.
Şirket, Claude'un ABD vatandaşlarının kitlesel gözetimini ve otonom silahlarda kullanılmasını engellemede ilerleme kaydedilmediğini belirtti. Pentagon ise bu iddiaları reddetti.
Donald Trump, Anthropic teknolojisinin tüm federal kurumlarda kullanımının derhal durdurulması emrini verdi.
Trump, Anthropic'in ABD ordusuna savaş stratejilerini dikte etmesine izin vermeyeceklerini belirtti ve şirketin anayasa yerine kendi hizmet şartlarını empoze etmeye çalıştığını söyledi.
Bunu takiben, OpenAI CEO'su Sam Altman, Pentagon ile yapay zeka modellerinin entegrasyonu konusunda anlaşmaya vardıklarını açıkladı. Altman, güvenlik ve etik ilkelerin korunacağını ifade etti.
Yapay Zekanın Etkisi
Yapay zeka şirketleriyle yapılan görüşmelerin hemen ardından ABD ve İsrail'in İran'a saldırısı başladı. Bu gelişmeler, yapay zeka şirketlerinin tutumlarını dünya gündeminin merkezine yerleştirdi.
Pentagon, operasyonlarda üstünlük sağlamak amacıyla bu müzakereleri hızla sonuçlandırmak istiyor.
Yapay zekanın hedef belirleme, dron kontrolü ve siber saldırıları analiz etme gibi yeteneklerinin geniş ölçekte kullanılmak istendiği belirtiliyor.
Uzmanlar, İran'a karşı planlanan araçların etkinliği için yüksek kapasiteli yapay zekanın önemine dikkat çekiyor.
Otonomi: Fırsat mı, Tehdit mi?
Anthropic'in karşı çıktığı tam otonom kullanım konsepti, çok unsurlu sistemlerle yapılacak operasyonlar için önem taşıyor.
Anthropic, teknolojisinin otonom silah sistemlerinde kullanılmasına izin vermezken, bu durum bazı çevrelerce askerlerin elini kolunu bağlamak olarak değerlendiriliyor.
Tam otonom kullanım, yapay zekanın savaş alanında insan denetimi olmadan karar vermesi anlamına geliyor, ancak bu uluslararası hukukta karşılık bulmuyor ve bazı çevrelerce etik olarak kabul edilmiyor.
OpenAI ise Anthropic'in boşalttığı alanı doldurarak ABD ordusuna yapay zeka desteği sağlama garantisi verdi.
Bu destek, hızlı karar alma ve çeşitlilik içeren saldırı ve savunma yaklaşımları sağlıyor.
Bilkent Üniversitesi Öğretim Üyesi Prof. Dr. Süleyman Serdar Kozat, yapay zekanın muharebe sahasının en kritik unsuru haline geldiğini belirtti.
Kozat, ABD ve İsrail'in kullandığı yapay zeka teknolojilerinin çeşitli veri kaynaklarını analiz ederek hızlı karar desteği sunduğunu ifade etti.
Bu durum, yapay zekanın savunma alanında ne kadar kritik hale geldiğini gösteriyor.
Kozat, yapay zekanın otonom silahlar kapsamında dikkatle ele alınması gerektiğini söyledi ve Türkiye'nin yerli teknolojiler geliştirmesinin önemine vurgu yaptı.
Yorumlar (0)
Yorum Yaz
Henüz yorum yapılmamış. İlk yorumu siz yapın!