Teknoloji

DeepSeek hakkında hem suçlamalar hem de soruşturmalar başlatıldı.

Beyaz Saray’ın kripto ve yapay zekâ danışmanı David Sacks, Çin merkezli yapay zekâ girişimi DeepSeek’in, OpenAI’nin modellerinden elde edilen çıktıları kullandığına dair önemli kanıtlar bulunduğunu ileri sürdü. Sacks, Fox News’e yaptığı açıklamada, “DeepSeek’in burada OpenAI modellerinden bilgi damıtma faaliyetinde bulunduğuna dair güçlü kanıtlar mevcut; fakat OpenAI’nin bu durumdan pek memnun olduğunu sanmıyorum” diye belirtti. Ancak, bu kanıtların ayrıntılarına dair net bilgi vermedi.

Damıtma olarak bilinen bu teknik, bir yapay zekâ modelinin diğer bir modelin çıktılarından öğrenerek benzer yetenekler kazanmasını sağlıyor. Yapay zekâ alanında yaygın olarak kullanılan bu yöntem, modellerin daha verimli ve etkili hale getirilmesi amacıyla tercih ediliyor. DeepSeek’in bu tekniği kullanarak gelişmiş GPU’lara büyük ölçüde bağımlı olmadan daha verimli bir yapay zekâ modeli oluşturma kabiliyeti dikkat çekiyor. Bu durum, Amerikan yapay zekâ şirketlerini, “taklitçi” olarak adlandırdıkları diğer modellerin önüne geçmek için damıtma tekniğine karşı önlem almaya yönlendirebilir.

DeepSeek’in geliştirdiği R1 modeli, matematiksel ve mantıksal akıl yürütme gibi görevlerde OpenAI’nin o1 modeli ile karşılaştırılabilir bir performans sergiliyor. Şirket, bu başarıyı daha düşük maliyet ve daha az hesaplama gücüyle elde ettiğini ileri sürüyor. Bu durum, yapay zekâ araştırmalarında verimlilik ve maliyet etkinliği konusunu tekrar gündeme getiriyor.

Öte yandan, Microsoft ve OpenAI, DeepSeek’in performansının kendi modellerinin damıtılmasından mı yoksa bağımsız bir araştırma atılımından mı kaynaklandığını araştırıyor. Konuya dair güvenilir kaynaklara göre, Microsoft’un güvenlik araştırmacıları, DeepSeek ile bağlantılı olabileceğini düşündükleri kişilerin OpenAI uygulama programlama arayüzünü (API) kullanarak büyük miktarda veri sızdırdığını gözlemledi. OpenAI’nin teknoloji ortağı ve en büyük yatırımcısı olan Microsoft’un, bu durumu OpenAI’ye bildirdiği ifade ediliyor.

İtalya’dan DeepSeek’e soruşturma

İtalya’nın veri koruma otoritesi Garante, DeepSeek’in kişisel verileri nasıl kullandığına dair bilgi talep etti. Garante, toplanan kişisel verilerin türleri, kaynakları, amaçları, yasal dayanakları ve verilerin Çin’de depolanıp depolanmadığına ilişkin ayrıntılı bilgiler istedi. DeepSeek ve bağlı şirketlerinin bu taleplere yanıt vermek için 20 günü bulunuyor. Bu durum, DeepSeek’e yönelik ilk düzenleyici hamlelerden biri olarak öne çıkıyor.

DeepSeek’in hızlı yükselişi, yapay zekâ alanındaki rekabeti artırırken etik tartışmaları da yoğunlaştırıyor. Şirketin uyguladığı yöntemlerin sektördeki diğer aktörler tarafından nasıl değerlendirileceği ve bunun gelecekteki yapay zekâ araştırmaları üzerindeki etkisi merakla bekleniyor. Ayrıca, bu gelişmeler, yapay zekâ modellerinin geliştirilmesinde etik ve yasal standartların önemini bir kez daha gün yüzüne çıkarıyor.

Bir yanıt yazın