Intel ile DeepFake Tespit Teknolojisi FakeCatcher Üzerine Konuştuk - Technopat
Sonuç bulunamadı
Bütün Sonuçları Göster
Teknoloji tutkunu Technopatların ortak adresi: Technopat.net
  • Haber
  • Yapay Zeka
  • Tavsiyeler
  • Oyun
  • Video
  • Teknoloji
    • Mobil
    • Nasıl Yapılır
    • Yazılım
    • Elektronik Alışveriş Fırsatları
    • Pratik
    • Ev Teknolojileri
    • Makale
    • Güvenlik
    • Ekonomi
    • İnternet
    • Giyilebilir Teknoloji
    • Sağlık
    • Yazıcı
    • Sosyal Medya
    • Otomobil
      • Elektrikli Otomobil
  • Sosyal
Teknoloji tutkunu Technopatların ortak adresi: Technopat.net
  • Haber
  • Yapay Zeka
  • Tavsiyeler
  • Oyun
  • Video
  • Teknoloji
    • Mobil
    • Nasıl Yapılır
    • Yazılım
    • Elektronik Alışveriş Fırsatları
    • Pratik
    • Ev Teknolojileri
    • Makale
    • Güvenlik
    • Ekonomi
    • İnternet
    • Giyilebilir Teknoloji
    • Sağlık
    • Yazıcı
    • Sosyal Medya
    • Otomobil
      • Elektrikli Otomobil
  • Sosyal
Sonuç bulunamadı
Bütün Sonuçları Göster
Teknoloji tutkunu Technopatların ortak adresi: Technopat.net

Anasayfa - Haber - Intel ile DeepFake Tespit Teknolojisi FakeCatcher Üzerine Konuştuk

Intel ile DeepFake Tespit Teknolojisi FakeCatcher Üzerine Konuştuk

8 Haziran 2023 - 16:00
- Haber, Röportaj
FakeCatcher

DeepFake, yapay zeka ve makine öğrenimi teknolojilerinin gelişmesiyle neredeyse tespit edilemez noktaya geldi. Bu sebeple şirketler de bu video ve görsellerin sahte olup olmadığını anlamak için bazı çözümler geliştirmeye çalışıyor.

Bu çözümlerden biri de Intel Labs’de Kıdemli Personel Araştırma Bilimcisi İlke Demir’in geliştirdiği FakeCatcher. Yeni DeepFake tespit aracıyla ilgili merak edilenleri, geliştiricisi İlke Demir’e sorduk.

Intel Labs Kıdemli Personel Araştırma Bilimcisi İlke Demir
Intel Labs Kıdemli Personel Araştırma Bilimcisi İlke Demir

Soru: Sizce DeepFake videolar toplum için bir tehdit teşkil ediyor mu?

Son birkaç yıldır internette çoğalan DeepFake videolar, yanlış bilgi ve kafa karışıklığı tohumları ekiyor. DeepFake teknolojisi, gerçekmiş gibi görünen, ağır manipülasyona uğramış videolar yaratmak için çirkin bir şekilde kullanılabiliyor.

Bu videolar gerçek insanların yüz ve ses özelliklerini taklit ederek izleyicileri yanlış bilgilendiriyor ve kandırıyor. DeepFake videoların zarar verici olduğu çeşitli durumlar var. Yasadışı faaliyetler, kimlik hırsızlığı, sahtecilik ve propaganda bunlardan bazıları.

Soru: FakeCatcher hakkında bilgi verebilir misiniz?

FakeCatcher, gerçek videolardaki orijinallik ipuçları olarak kalp atışlarını kullanan bir DeepFake tespit algoritmasıdır.

Dünyanın ilk gerçek zamanlı DeepFake detektörü olan Intel’in DeepFake tespit platformu, sonuçları birkaç saat ya da dakika içinde değil, milisaniyeler içinde getirmek için Intel donanım ve yazılımlarından yararlanıyor.

Soru: FakeCatcher’ı diğer tespit algoritmalarından farklı kılan nedir? FakeCatcher nasıl çalışıyor? 

Diğer derin öğrenme tabanlı dedektörler, ham verilere bakarak videonun özgün olmadığına ilişkin işaretleri bulmaya ve videonun sorunlu yanlarını belirlemeye çalışıyor. FakeCatcher ise gerçek videolarda, belli belirsiz kan akışı gibi bizi insan yapan şeyleri değerlendirerek gerçek ipuçları arıyor.

Kalbimiz kan pompaladığında, damarlarımızın rengi değişir. Bu kan akışı sinyalleri yüzün her yerinden toplanıyor ve algoritmalar, bu sinyalleri uzamsal-zamansal haritalara dönüştürüyor. Bu şekilde, derin öğrenmeyi kullanarak bir videonun gerçek mi yoksa sahte mi olduğunu anında tespit edebiliyoruz.

Soru: Intel’in FakeCatcher teknolojisi piyasaya sürüldüğünden bu yana sıkça kullanıldı mı?

Ne zaman yanlış bilgi yayan yeni bir viral video ortaya çıksa, FakeCatcher’ın bu video üzerindeki performansını değerlendirmeye çalışıyoruz. Videoların ya da sorguların tam sayısını saklamıyoruz fakat piyasaya sürüldüğünden bu yana 20’den fazla etkileşimde herkese açık ve özel olarak gösterildi.

Soru: Intel’in FakeCatcher teknolojisini benzersiz kılan nedir?

Intel’in gerçek zamanlı platformu, sonuçları birkaç saat ya da dakika yerine milisaniyeler içinde (64 karelik ilk segmentten sonra saniyede 30 kare) getiriyor. Böylece büyük video dosyalarını bir DeepFake tespit sitesine yükleme ve sonuçları bekleme ihtiyacını ortadan kalkmış oluyor.

Bu yazılım, bir videonun piksellerindeki belli belirsiz “kan akışı” gibi insan gözünün göremediği şeyleri analiz ederek, sahte videoları %96 gibi çarpıcı bir doğruluk oranıyla tespit edebiliyor. Karmaşık sinirsel mimarilere sahip dünyanın önde gelen yedi DeepFake detektörüyle karşılaştırıldığında, FakeCatcher en iyi performansa sahip bir sonraki uygulama algoritmasına kıyasla %8’den daha iyi bir performans gösteriyor.

Soru: Intel’in FakeCatcher teknolojisini kullanmak herhangi bir potansiyel riski teşkil ediyor mu?

Her teknolojide olduğu gibi, her zaman bir nebze potansiyel risk var. PPG sinyallerinin önemli ölçüde bozulduğu çok düşük çözünürlüklü gerçek videolar söz konusu olduğunda, FakeCatcher bunların sahte olduğunu belirleme hatasına düşebilir. Ağır şekilde sıkıştırılmış ya da düşük çözünürlüklü videolar da içeriği bozar ve hem insanların hem de deepfake tespit algoritmalarının, videonun sahte olduğunu ilan edebilmesi için gerekli bilgileri elde etmeyi zorlaştırır. Fakat bu gibi videolar için ulaşılan yanlış tespitler, hakikaten sahte bir videonun gerçek olduğunun ilan edilmesi kadar zararlı değildir.

Soru: FakeCatcher ırk, cinsiyet ve başka unsurlara dayalı yanlılığı azaltabilir mi?

Fotopletismografi sinyalleri, uzun süredir tıp alanında uzaktan hasta izleme için kullanılıyor. PPG’nin farklı varyasyonları vardır. Örneğin GPPG sinyalleri aydınlatma ve hareket değişikliklerine karşı daha iyi sonuçlar verirken, chromPPG sinyallerinin cilt rengi değişikliklerine karşı daha iyi performans gösterdiğini görüyoruz. Bu nedenle, biz daha doğru sonuçlara ulaşmak ve ırk gibi ten rengi farklılıklarının etkisini başarılı bir şekilde hafifletmek için bu farklı PPG sinyallerini birleştiriyoruz.

Ayrıca teknolojimizin farklı cinsiyetler ve ırklar arasındaki PPG sinyallerinin gücünü değerlendirdiği FakeCelebAV adlı dengeli etiketli bir veri setimiz de var. Bu veri setiyle deepfake kaynak tespit probleminin üstesinden gelmeyi amaçlıyoruz. Cinsiyetler ya da ten renkleri arasındaki tespit doğrulukları arasındaki farkın önemli olmadığını tespit ettik. Asyalı yüzlerdeki tespitlerin Kafkasyalı yüzlerdekinden daha yüksek doğruluğa sahip olduğunu görmek olağandışı değil ve bunun tersi de geçerli.

Sahtelik tespitinin bir adım ötesi olduğunu söyleyebileceğimiz daha zor bir problem olan kaynak tespitiyle ilgili deneylerimizi FakeAVCeleb veri seti üzerinde gerçekleştirdik. Bu veri setinin dörtte biri kapsam dışı deepfake’leri içeriyor, bu nedenle doğruluklar yalnızca kategoriler arasında karşılaştırma yapmak için belgelendi. Deneylerimiz sonucunda, farklı cinsiyetler ve ırklar arasında aşağıdaki özgünlük tespiti doğrulukları belirlendi:

  • %82,64 – Genel
  • %89,47 – Afrikalı Amerikan
  • %85 – Kafkasyalı
  • %77,11 – Asyalı
  • %81,63 – Erkek
  • %83,67 – Kadın
Etiketler: DeepfakeFakeCatcherFotoğrafgörselİlke DemirIntelIntel Labssahte videoteknolojiVideoyapay zeka
PaylaşPaylaşTweetYollaPaylaş
Asım Demir

Asım Demir

Technopat.Net Haber Editörü

Yorum Yap Yanıtı iptal et

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

RSS Technopat Sosyal

  • Kredi kartından yapılan işlemini iptal ettirme var mı?
  • İninal neden kapandı?
  • Acer Nitro 16s Ryzen AI 9 365 16 GB 1TB RTX5070 Ti 180Hz 16 inç WQXGA laptop 74999₺
  • 8.000 TL bütçeyle işlemci ve anakart önerisi
  • Gigabyte A16 vs Acer Nitro Lite NL16-71
  • 3.5 bin TL'ye mouse önerisi
  • ATK Dragonfly A9 Wireless Mouse alınır mı?
  • Sinerji'den Asus ROG Delta alınır mı?
  • ASUS ROG STRIX G16 G416JI331 laptop boştayken mavi ekran veriyor
  • 90 dolarlık skin satışında bakiye beklemede kaldı

Technopat Video

Teknoloji tutkunu Technopatların ortak adresi: Technopat.net!

Güncel teknoloji, internet, donanım, yazılım, oyun ve daha fazlası haber, makale ve videolar ile Technopat’ta sizlerle.


01010100 01100101 01100011 01101000 01101110 01101111 01110000 01100001 01110100

Kategoriler

  • Yapay Zeka
  • Ev Teknolojileri
  • Makale
  • Video

Sosyal Medya

Bağlantılar

  • Hakkında
  • Haber
  • Video
  • Sosyal
  • Çerez Politikası
© 2011-2025 Technopat. Tüm Hakları Saklıdır.
Netse
Çerez Onayı
Web sitemizi ziyaret ettiğinizde, kullanıcı deneyiminizi daha iyi hale getirmek, hizmetlerimizi size daha etkin bir şekilde sunabilmek için çerezler (cookies) ve benzeri araçlar kullanıyoruz. Çerezler, internet sitesinin düzgün çalışmasını sağlamak, içeriği kişiselleştirmek, sosyal medya özellikleri sağlamak ve trafik analizi yapmak için kullanılan küçük metin dosyalarıdır. Çerezleri nasıl kullandığımız ve kişisel verilerinizi nasıl işlediğimiz hakkında daha fazla bilgi almak için çerez politikamızı ve kişisel veri politikamızı inceleyebilirsiniz.
Fonksiyonel Her zaman aktif
Teknik depolama veya erişim, sadece kullanıcının açıkça talep ettiği belirli bir hizmetin kullanılmasını sağlama amacıyla veya iletişimin elektronik iletişim ağı üzerinden iletilmesinin tek amacıyla yasal olarak kesinlikle gereklidir.
Tercihler
Teknik depolama veya erişim, abone veya kullanıcı tarafından istenmeyen tercihlerin depolanması yasal amacıyla gereklidir.
İstatistikler
Sadece istatistiksel amaçlarla kullanılan teknik depolama veya erişim. The technical storage or access that is used exclusively for anonymous statistical purposes. Without a subpoena, voluntary compliance on the part of your Internet Service Provider, or additional records from a third party, information stored or retrieved for this purpose alone cannot usually be used to identify you.
Pazarlama
Teknik depolama veya erişim, reklam gönderimi için kullanıcı profilleri oluşturmak veya kullanıcıyı bir web sitesinde veya birden fazla web sitesinde benzer pazarlama amaçları için takip etmek amacıyla gereklidir.
  • Seçenekleri yönet
  • Hizmetleri yönetin
  • {vendor_count} satıcılarını yönetin
  • Bu amaçlar hakkında daha fazla bilgi edinin
Tercihleri yönet
  • {title}
  • {title}
  • {title}
Sonuç bulunamadı
Bütün Sonuçları Göster
  • Giriş
  • Teknoloji Haberleri
  • Sosyal
  • Nasıl Yapılır
  • Yapay Zeka
  • Video
  • Tavsiyeler
  • İncelemeler
    • Video İncelemeler
  • Güvenlik
  • Oyun
  • Makale
    • Pratik
    • Yazar Köşeleri

© 2025 Technopat
Sorularınız için Technopat Sosyal