Yapay zeka sektöründe dikkat çeken yeni bir gelişme yaşandı. Anthropic bazı yapay zeka laboratuvarlarının Claude modelinin yeteneklerini sistematik biçimde kopyalamaya çalıştığını açıkladı.
Şirket DeepSeek, Moonshot AI ve MiniMax isimli üç laboratuvarın sahte hesaplar üzerinden büyük ölçekli erişim sağlayarak modeli inceleyip kendi sistemlerini geliştirmek için kullandığını bildirdi.
24 bin sahte hesap, 16 milyon konuşma!
Anthropic tarafından paylaşılan teknik rapora göre söz konusu laboratuvarlar yaklaşık 24 bin sahte hesap oluşturdu. Bu hesaplar aracılığıyla Claude ile 16 milyondan fazla etkileşim gerçekleştirildi. Trafik normal kullanıcı davranışlarından farklı bir yapı sergiledi ve belirli yeteneklerin çıkarılmasına odaklandı.

Kullanılan yöntem distillation olarak adlandırılıyor. Bu yöntem normalde yapay zeka şirketlerinin kendi modellerini küçültmek için kullandığı bilinen bir eğitim tekniği. Güçlü bir modelin ürettiği yanıtlar daha küçük bir modele öğretilerek daha ucuz ve hafif sistemler oluşturuluyor. Ancak burada süreç rakip bir modelden yetenek aktarımı amacıyla uygulandı.
Anthropic sahte hesapların proxy servisleri üzerinden yönetildiğini ve yüzlerce hesabın eş zamanlı çalıştırıldığını belirtti. Tek bir ağda aynı anda 20 binden fazla hesabın aktif tutulabildiği tespit edildi. Hesaplardan gelen isteklerin yapısı belirli yetenekleri çıkarmaya yönelik tekrar eden ve planlı sorgulardan oluştu.
DeepSeek kampanyasında modelin akıl yürütme yetenekleri ve değerlendirme görevleri hedef alındı. Claude’dan adım adım düşünme süreçlerini yazması istendi ve bu yanıtlar eğitim verisi olarak kullanıldı.
Moonshot AI tarafında ajan davranışı, araç kullanımı, kod yazma ve veri analizi alanlarına yönelik milyonlarca istek gönderildi. MiniMax kampanyasında ise özellikle kodlama ve araç orkestrasyonu yeteneklerine odaklanıldığı kaydedildi.
Şirket, bu erişimlerin hizmet şartlarını ve bölgesel erişim kurallarını ihlal ettiğini açıkladı. Ticari erişimin bulunmadığı bölgelerde dolaylı bağlantı sağlayan proxy altyapılar kullanıldı. Trafik dağıtılarak tespit edilmemesi için yük dengeleme yöntemleri uygulandı.
Raporda distillation yoluyla elde edilen modellerin güvenlik önlemlerini taşımayabileceği bilgisi de yer aldı. Gelişmiş yapay zeka sistemlerinde yer alan kötüye kullanım engelleri, kopyalanan sistemlerde bulunmayabiliyor. Bu durumun siber saldırılar, zararlı yazılım geliştirme, yanlış bilgi üretimi ve gözetim sistemleri gibi alanlarda risk oluşturabileceği ifade edildi.
Anthropic ayrıca bu faaliyetlerin giderek daha karmaşık hale geldiğini ve farklı şirketler, bulut sağlayıcıları ve düzenleyici kurumlar arasında koordinasyon gerektirdiğini belirtti.
Şirket API trafiğini analiz eden davranış tespiti sistemleri geliştirdiğini, hesap doğrulama süreçlerini sıkılaştırdığını ve diğer yapay zeka firmalarıyla teknik bulguları paylaştığını açıkladı.
Gelişme yapay zeka alanındaki rekabetin yalnızca yeni model üretmekle sınırlı kalmadığını gösterdi. Buradaki süreç fiziksel bir sistem ya da donanım yarışı değil, modellerin yeteneklerinin çıkarılması ve yeniden eğitilmesi üzerinden ilerleyen teknik bir rekabet alanı oluşturuyor.



