Anthropic, Pentagon'un 'Riskli' İlanına Karşı Hukuki Mücadele Başlattı
ABD Savunma Bakanlığı'nın yapay zeka firması Anthropic'i 'tedarik güvenliği açısından riskli' olarak ilan etmesi üzerine, firma iki ayrı dava açarak bu karara itiraz etti. Anthropic, teknolojisini 'tüm yasal askeri amaçlar' için kullanılmasına izin vermeyi reddetmesi nedeniyle Pentagon ile yaşanan a
ABD Savunma Bakanlığı'nın yapay zeka firması Anthropic'i 'tedarik güvenliği açısından riskli' olarak ilan etmesi üzerine, firma iki ayrı dava açarak bu karara itiraz etti. Anthropic, teknolojisini 'tüm yasal askeri amaçlar' için kullanılmasına izin vermeyi reddetmesi nedeniyle Pentagon ile yaşanan anlaşmazlık sonucunda hem California federal mahkemesinde hem de Washington federal temyiz mahkemesinde hukuki süreç başlattı.
Dava dilekçelerinde, Pentagon'un bu adımının 'benzeri görülmemiş ve yasa dışı' olduğu belirtilirken, Anthropic'in haklarını savunmak ve yürütme organının hukuka aykırı 'misilleme kampanyasını' durdurmak için yargıya başvurmanın son çare olduğu ifade edildi.
Pentagon, 6 Mart'ta Anthropic'in yapay zeka sohbet robotu Claude modelini 'tüm yasal askeri amaçlar' için kullanılmasına izin vermemesinin ardından firmayı riskli olarak nitelendirmişti. ABD ordusunun, istihbarat ve silah geliştirme gibi askeri operasyonlarda Claude modelini kullandığı biliniyor. Ancak firmanın bu modelin askeri kullanımına dair çekinceleri, Savunma Bakanlığı ile gerginliğe yol açmıştı.
Savunma Bakanı Pete Hegseth, 24 Şubat'ta Anthropic'e ültimatom vererek, şirketin teknolojisini ordunun istediği şekilde kullanılmasına izin vermemesi halinde, hükümetle olan sözleşmelerini kaybetme riskiyle karşı karşıya kalacağını açıklamıştı. Ardından, dönemin ABD Başkanı Donald Trump da 27 Şubat'ta federal kurumlara Anthropic teknolojisinin kullanımının durdurulması talimatını vermişti.
Kaynak: Anadolu Ajansı
