Google, ABD Savunma Bakanlığı'nın yapay zeka modellerini "kanuna uygun tüm devlet amaçları" için kullanmasına izin verdi.
Pentagon geçen yıl aralarında Anthropic, OpenAI ve Google'ın olduğu önde gelen yapay zeka modeli geliştiricileriyle her biri 200 milyon dolara kadar ulaşan anlaşmalar imzalamıştı.
Google, imzaladığı anlaşmaya göre hükümetin talebi doğrultusunda yapay zeka modelinin güvenlik ayarlarını değiştirmeye yardım edecek.
Otonom silahlarda kullanılmayacak
Anlaşmada "taraflar yapay zeka sisteminin, yurt içinde toplu kamu gözetlemesi veya uygun bir şekilde insan denetimi ya da kontrolü olmadan (hedef seçimi dahil) otonom silahlarda kullanımına yönelik olmadığında hem fikir" ifadeleri yer aldı. Öte yandan anlaşmanın "devletin kanuna uygun kararları üzerinde kontrol veya veto hakkı vermediği" belirtiliyor.
Google'ın kamu ile iş birliklerini yürüten biriminin sözcüsü, anlaşmanın mevcut bir anlaşmanın tadili olduğunu söyledi.
Google çalışanlarından Pentagon tepkisi
ABD basınındaki haberlere göre, Google DeepMind ve Google Cloud gibi yapay zeka alanında çalışan 600'den fazla kişi, Pentagon ile süren yapay zekada işbirliği konulu görüşmelere ilişkin ana şirket Alphabet'in Üst Yöneticisi (CEO) Sundar Pichai'ye açık mektup gönderdi.
Mektupta, Pentagon ile devam eden görüşmelerden endişe duyulduğuna işaret edilerek, yapay zeka sistemlerinin hata yapabildiği belirtildi.
Çalışanların, bu teknolojinin etik dışı ve tehlikeli kullanımının önlenmesi için sorumluluk duyduğu vurgulanan mektupta, şunlar kaydedildi:
"Bu nedenle sizden yapay zeka sistemlerimizin gizli çalışmalar için erişilebilir hale getirilmesini reddetmenizi talep ediyoruz. Yapay zekanın insanlığa faydalı olduğunu görmek istiyoruz, insanlık dışı veya son derece zararlı şekilde kullanıldığını görmek istemiyoruz."
Mektupta, bu zararlı kullanımlara "ölümcül otonom silahlar ve toplu gözetim" örnek verilerek bu işbirliğinin reddedilmemesi halinde Google'ın bilgisi dışında olacak zararlı kullanımları durduramayabileceği belirtildi.
Bu konuda "yanlış karar vermenin Google'ın itibarına, dünyadaki rolüne ve işine geri dönülemez zarar verebileceği" ifade edilen mektupta, geliştirilmesinde rol oynadıkları teknolojinin yanlış kullanımı nedeniyle dünyada çok sayıda can kaybı olduğuna dikkati çekildi.
Hükümet ile Anthropic arasındaki gerilim
Yapay zeka firması Anthropic'in, Claude modelini "tüm yasal askeri amaçlar" için kullanıma açmayı reddetmesi ve askeri kullanıma dair güvenlik endişeleri, Pentagon ile anlaşmazlıklara yol açmıştı.
ABD Savunma Bakanı Pete Hegseth, 24 Şubat'ta Anthropic'e ültimatom vermiş, Pentagon'un şirketin yapay zekasını istediği şekilde kullanmasına 27 Şubat'a kadar izin vermedikleri takdirde hükümetle sözleşmelerini kaybetme riskinin bulunduğunu söylemişti.
ABD Başkanı Donald Trump da 27 Şubat'ta Pentagon ile Anthropic arasında yaşanan tartışmaların ardından tüm federal kurumlara Anthropic teknolojisinin kullanımının derhal durdurulması talimatı vermişti.
Ardından Pentagon, 6 Mart'ta teknolojisinin ABD vatandaşlarının gözetlenmesinde ve tam otonom silahlarda kullanılmasını kabul edemeyeceğini açıklayan firmayı "tedarik güvenliği açısından riskli" ilan etmişti.
Anthropic, 9 Mart'ta ABD hükümetine karşı iki dava açarak, Pentagon yetkililerinin yapay zeka güvenliği konusundaki tutumundan dolayı şirkete yasa dışı şekilde misilleme yaptığını iddia etmişti.
OpenAI ve Google çalışanlarının imzaladığı açık mektupta ise Pentagon'un Anthropic'e baskı yaptığı belirtilerek duruma tepki gösterilmişti.