kaansecret
Hectopat
- Katılım
- 12 Temmuz 2022
- Mesajlar
- 165
- Çözümler
- 1
Son dönemde birçok geliştirici, üretkenliği artırmak için yapay zekâ destekli IDE’leri (ör. GitHub Copilot, Cursor, vs.) aktif biçimde kullanıyor. Ancak bu araçların sunduğu kolaylıkların yanında, farkında olunması gereken kritik güvenlik riskleri de var.
Yapay zekâ sistemleri bilinçli bir şekilde zararlı kod üretmez, ancak kullanıcının bağlamını yanlış yorumladığında, tehlikeli komutlar veya veri sızıntısına neden olabilecek işlemler önerebilir.
Örneğin:
AI sizin yerinize yazabilir, ama sizin yerinize düşünemez.
Maalesef bazı AI IDE'lerinin gizlice backende phishing (kimlik avı) vs. gibi kodlar yerleştirdiği ve hassas sistemlerde ciddi veri sızıntısı ve ihlalleri yaşanabildiği durumlar olabilmekte. Herkesin çok dikkatli olması lazım.
Yapay zekâ sistemleri bilinçli bir şekilde zararlı kod üretmez, ancak kullanıcının bağlamını yanlış yorumladığında, tehlikeli komutlar veya veri sızıntısına neden olabilecek işlemler önerebilir.
Örneğin:
- Geçici dosyaları sil” gibi masum bir isteğe, rm -rf / benzeri sistem silme komutlarıyla yanıt verebilir.
- Kullanıcı verilerini log’lamak isterken, farkında olmadan hassas bilgileri dışa aktarabilir.
- Güvenlik açıklarına sahip 3. parti kütüphaneler veya API’ler önerebilir.
- Antivirüs yazılımları bu tür hataları genellikle tehdit olarak algılamaz, çünkü ortada klasik anlamda bir “virüs” değil, tehlikeli bir mantıksal davranış vardır.
- AI’nin ürettiği her kod satırını anlamadan çalıştırmayın.
- Özellikle dosya sistemine, ağ erişimine veya dış API’lere müdahale eden kodları inceleyin.
- Kodun ne yaptığına değil, ne yapabileceğine odaklanın.
AI sizin yerinize yazabilir, ama sizin yerinize düşünemez.
Maalesef bazı AI IDE'lerinin gizlice backende phishing (kimlik avı) vs. gibi kodlar yerleştirdiği ve hassas sistemlerde ciddi veri sızıntısı ve ihlalleri yaşanabildiği durumlar olabilmekte. Herkesin çok dikkatli olması lazım.