ChatGPT'de zararlı yazılım kodlamak çok kolay

RessTheFireFlies

Zeptopat
Katılım
27 Mayıs 2024
Mesajlar
14
Daha fazla  
Cinsiyet
Erkek
ChatGPT'de zararlı yazılım kodlamak oldukça kolay. Bence OpenAI'ın buna bir çare bulması lazım, sadece basit bir GitHub aratmasında bile onlarca Jailbreak kodu bulabiliyoruz ve bunlar da bazı hackerların işine geliyor. Ben bile istesem basit bir Jailbreak kullanarak ChatGPT'ye virüs kodlatabilirim.

resim_2024-05-27_145641701.png
 
Son düzenleyen: Moderatör:
Zaten çok kolay kandırılıyor, film için v.b deyince bile döktürüyor. Dan ve geliştirici mosu inputunu da yutuyor hemen.
 
Ben ChatGPT'ye bilgisayarı kapattıran bir Python kodu yazmasını istemiştim. Daha sonra bunu exe dosyasına dönüştürüp bir makro yazılımıymış gibi yakın arkadaşıma attım. Yakın arkadaşımda buna inandı maalesef. 😂
 

Yeni konular

Yeni mesajlar

Geri
Yukarı