Microsoft, Designer yapay zeka görüntü oluşturucusunda kullanıldığında şiddet içeren veya cinsel sanat eserleri oluşturan bazı metin istemlerinin kullanımını kaldırdı. Bu hamlenin mevcut bir Microsoft çalışanının, Designer’ı (eski adıyla Bing Image Creator) kullanmanın tehlikeleri konusunda şirketi ve ABD hükümetini resmi olarak uyarma arayışına devam etmesinden birkaç gün sonra geldiğini belirtelim.
CNBC‘nin haberine göre, “seçim yanlısı”, “dört yirmi” ve “yaşam yanlısı” gibi metin istemlerinin artık Designer’a yazıldığında “içerik politikasıyla çelişebileceğini” belirten bir mesaj oluşturuluyor. Artık Microsoft’un politikalarını ihlal eden birden fazla test isteminin “erişiminizin otomatik olarak askıya alınmasına yol açabileceğine” dair bir uyarı da sunuluyor.
Cuma günü CNBC’ye gönderilen bir açıklamada bir Microsoft sözcüsü şunları söyledi: “Güvenlik filtrelerimizi daha da güçlendirmek ve sistemin kötüye kullanımını azaltmak için sürekli izliyor, ayarlamalar yapıyor ve ek kontroller uyguluyoruz.”
Bazı metin istemleri artık Designer’da çalışmayabilirken CNBC, diğer istemlerin hala şiddet içeren görüntüler içeren sanat eserleri oluşturabildiğini bildiriyor. Örneğin, “araba kazası” yazmak, “mutasyona uğramış yüzlere” sahip vücutların olduğu görüntüler oluşturabiliyor. Ek olarak Designer, telif hakkıyla korunan karakterleri kullanarak resimler oluşturmaya devam da devam ediyor.



