Yapay Zeka

Anthropic, Trump’ın Amerikası’nda Tek İyi Yapay Zeka Şirketi Olmak İstiyor

Yapay zeka şirketi Anthropic, chatbot Claude’un arkasındaki isim olarak AI alanında İyi Adam olma hedefini sürdürüyor. Kaliforniya’da bir AI güvenlik yasa tasarısını destekleyen tek büyük AI firması olarak dikkat çeken şirket, Semafor’un başlığını aldı. Bu haber, şirketin modelinin gözetim işleri için kullanılmasına izin vermediği gerekçesiyle Trump yönetiminin tepkisini çekmesiyle yayımlandı.

Raporlara göre, emniyet teşkilatları, Anthropic’in kullanım politikası nedeniyle baskı altında hissediyor. Bu politikanın bir kısmı, teknolojinin “Ceza Adaleti, Sansür, Gözetim veya Yasaklı Hukuk Uygulama Amaçları” için kullanılmasını kısıtlıyor. Buna, yapay zeka araçlarının “ceza adaleti uygulamaları hakkında karar vermek,” “Bir kişinin fiziksel konumunu, duygusal durumunu veya izni olmadan iletişimini izlemek veya takip etmek,” ve “Hükümet kuruluşu adına belirli içerikleri analiz etmek veya sansürlemek” için kullanımının yasaklanması da dahil.

Federal kurumlar, özellikle FBI, Gizli Servis ve Göç ve Gümrük Servisi gibi kurumlar için bu durum ciddi bir problem olmuştur. Bu durum, Anthropic’in federal hükümete Claude chatbot’unu ve araç setini sadece 1 dolara sunduğu halde, şirket ve mevcut yönetim arasında gerilim yaratmıştır. Raporlara göre, Anthropic’in politikası geniş bir kapsama sahip ve rakiplerinden daha az muafiyet içeriyor. Örneğin OpenAI’nin kullanım politikası “bireylerin izinsiz izlenmesini” kısıtlarken, teknolojinin “yasal” izleme için kullanılmasını tamamen dışlamayabilir.

OpenAI yorum yapma isteğine yanıt vermedi. Konuya yakın bir kaynak, Anthropic’in Claude’unun siber güvenlik de dahil olmak üzere ulusal güvenlik amaçları için kullanıldığını, ancak şirketin kullanım politikasının yerel gözetimle ilgili kullanımları kısıtladığını açıkladı.

Anthropic temsilcisi, şirketin ClaudeGov hizmetini özellikle istihbarat topluluğu için geliştirdiğini ve hizmetin, Federal Risk ve Yetkilendirme Yönetimi Programı (FedRAMP) tarafından “Yüksek” yetki aldığını ve hassas devlet iş yükleriyle kullanılmasına izin verildiğini belirtti. Temsilci, Claude’un istihbarat topluluğu genelinde kullanılabilir olduğunu söyledi.

Bir yönetim yetkilisi Semafor’a Anthropic’in politikasının hukuk uygulama ajanslarının çalışmalarına ahlaki bir hüküm getirdiğini söyledi. Bazıları için bu, ahlaki olduğu kadar yasal bir mesele. Gözetim devleti altında yaşıyoruz; yasaları uygulayanlar geçmişte insanları izinsiz izleme yapmıştır ve muhtemelen gelecekte de yapacaktır.

Bir şirketin buna katılmamayı seçmesi, direndiği ölçüde kendi çıkarını korumak kadar etik bir duruş sergilemektir. Federal hükümet, bir şirketin kullanım politikasının yerel gözetim yapmasını engellemesinden şikayet ediyorsa, belki de esas mesaj hükümetin yaygın iç gözetim gerçekleştirdiği ve bunu AI sistemleriyle otomatikleştirmeye çalıştığıdır.

Her neyse, Anthropic’in teorik olarak ilkeli duruşu, kendisini makul bir AI firması olarak göstermeye yönelik son çabasıdır. Bu ayın başında, modellerin felaket yaratacak zararı önlemek için daha sıkı güvenlik önlemleri alması gereken bir AI güvenlik yasa tasarısına destek verdi. Bu yasa tasarısını destekleyen tek büyük AI oyuncusu olan şirket, Kaliforniya valisi Newsom’un onayını bekliyor (aynı valinin benzer bir tasarıyı daha önce veto ettiği unutulmamalıdır). Anthropic ayrıca, D.C.’de AI’yi hızlı ancak dikkatli bir şekilde ilerletmek için savaş veriyor (ancak hız vurgusuyla).

Onun rahat AI şirketi olarak konumunu biraz zayıflatan bir nokta ise, milyonlarca kitabı ve makaleyi izinsiz kullandığı ve bu eserlerle dil modelini eğittiği için telif hakkı sahiplerinin haklarını ihlal etmesidir. Bu ayın başında ulaşılan 1.5 milyar dolarlık anlaşma, bu eserleri yaratan kişilere en azından bir miktar para aktaracak. Bu arada, Anthropic’e yakın zamanda yapılan bir fonlama turunda neredeyse 200 milyar dolar değer biçildi ve mahkeme kararıyla belirlenen ceza bu büyük meblağ içinde pek de fazla yer tutmuyor.

Bir yanıt yazın