RessTheFireFlies
Zeptopat
- Katılım
- 27 Mayıs 2024
- Mesajlar
- 14
Daha fazla
- Cinsiyet
- Erkek
ChatGPT'de zararlı yazılım kodlamak oldukça kolay. Bence OpenAI'ın buna bir çare bulması lazım, sadece basit bir GitHub aratmasında bile onlarca Jailbreak kodu bulabiliyoruz ve bunlar da bazı hackerların işine geliyor. Ben bile istesem basit bir Jailbreak kullanarak ChatGPT'ye virüs kodlatabilirim.
Son düzenleyen: Moderatör: