yalan değil de hiç emin değil çok basit sorulara çok yanlış cevaplar verebiliyor özellikle seçenekli sorulara verdiği cevaplar akıl alır gibi değil, fikri çok çabuk değişip yanlış olanı savunabiliyor.Arkadaşlar bir yazılım müh. Olarak ChatGPT, AiStudio, Gemini, DeepSeek, Claude vb araçları sık sık kullanıyoruz. ChatGPT hariç diğerlerinden hiç şüphe duymadım ama siz de arada ChatGPT'nin yalan söylediğini düşünüyor musunuz? Gerçekten de böyle bir şey var mı ChatGPT sıkıştığı konularda bize yalan söylüyor mu?
Bunu da fark ettim. Bir kod attım kodda örneğin x adlı bir fonksiyonda hata var tüm kodu atıp ya bu kodda hata var mı? sanki y fonksiyonunda hata var gibi geldi yazınca x fonksiyonundaki bariz hatayı görmeyip doğru çalışan y fonksiyonunu bozuyor.ChatGPT nasıl sorarsanız hep ona göre cevap veriyor, onaylıyor. Bazen yanlış olduğu çok belirgin bir şeyi onaylıyor ama detaylı sorunca düzeltiyor. Bir şeyi bir kere değil en az iki kere sormak lazım özellikle “Öyle olduğuna emin misin? Bir kere daha araştır” gibi sorularla.
Bu sitenin çalışmasını sağlamak için gerekli çerezleri ve deneyiminizi iyileştirmek için isteğe bağlı çerezleri kullanıyoruz.