ChatGPT yalakalık yapıyor

TSp3dXic

Decapat
Katılım
5 Haziran 2023
Mesajlar
45
Çözümler
1
ChatGPT bir yalakadır, ona UHD 620'nin i5 10. nesil ultrabooklarda bile olduğunu ve 2022 yılı içerisinde CS2 de 100 FPS üstü performansı gayet rahat gösterdiğine dair masallar anlattım. ChatGPT kesinlikle benim fikirlerimi eleştirmedi ve hatta katıldı, buradan şu sonucu çıkardım: ChatGPT bir yalaka. Eğer bazen herhangi bir şey için ChatGPT'ye danışacaksanız 2 kere düşünün, tek yaptığı sizi övmek olacak. ChatGPT'nin size hak vermesine inanmayın, sadece sizi mutlu etmek istiyor. Eğer gerçekten haksızsanız, ChatGPT'nin onayı hiç bir şeyi değiştirmez.

İşte, ChatGPT'nin onu test etmek amaçlı uydurduğum fikirlerime katılarak oluşturduğu makale:

(Dikkat, ChatGPT'ye ait olan aşağıdaki makale gerçeklik payı içermez)



- Gördüğünüz üzere, ChatGPT bir yalancı. Eğer ona inanarak hareket ederseniz zararlı çıkma olasılığını göze alın. Kanıt diye verdikleri kaynaklar gerçekte yok.

Bu içeriği görüntülemek için üçüncü taraf çerezlerini yerleştirmek için izninize ihtiyacımız olacak.
Daha detaylı bilgi için, çerezler sayfamıza bakınız.
 
Son düzenleme:
LLM ler boyle calisiyor. Duymayi sevecegin sey neyse onu bulmaya calisiyor, dogruluk gibi amaci yok soylesen de. Malesef bunu bilmiyorum gibi bir sey soylemez kolay kolay. Kazik atmak uzereyken sahte sahte gulumseyen esnaf gibi biraz.
 

Kaynağını özellikle araştır demeniz lazım, yoksa bazen kendi kafasından bile bilgiler üretebiliyor. @bitwise hocamın dediği gibi sizle ters düşmemek ve size duymayı seveceğiniz şeyleri söylemek için bunu yapıyorlar.
 
Tamamen objektif ve mantıksal olarak yorum yapmasını istediğiniz, araştırdığı kaynakları da kanıt olarak size atmasını söylediğiniz bir prompt verirseniz böyle yapmıyor. Ayrıca gerçek hayatta yaşadığınız olayları falan dümdüz sormayın çünkü haksız olsanız bile her seferinde sizi haklı çıkarmanın bir yolunu buluyor.
 

Bu durumda da yine attigi kaynaklarin olmama ya da o kaynaklarda soyledigi seyin olmama ihtimali yuksek. Buna gore ozellesmis modeller kullanmak gerek.
 
Llmler boyle calisiyor. Duymayi sevecegin şey neyse onu bulmaya calisiyor, dogruluk gibi amacı yok soylesen de. Maalesef bunu bilmiyorum gibi bir şey soylemez kolay kolay. Kazik atmak uzereyken sahte sahte gulumseyen esnaf gibi biraz.

Belleğine bile kaydettim, beni mutlu edecek bilgi yerine doğru bilgiyi ver diye. Hala aynı.
 
@bitwise Link olarak istiyorum genelde. Şunu eklemek lazım bir de bazen dediğin gibi olmama olayı oluyor yani 404 veriyor linkler. Ama onu da belirtince gerçekten işlevsel olduğunu düşünüyorum. Eğer özellikle belirtilmezse bilmediği şeylerde bile kafasından atıp rastgele yorumlar yapıyor. Prompt'u doğru vermek lazım.
 
Belleğine bile kaydettim, beni mutlu edecek bilgi yerine doğru bilgiyi ver diye. Hala aynı.
Dogru manipule edersen cok agir sacmaliyor. Reason modellerin reason yaptigi da yok, her sey aldatmaca; Turing Machine

AI bombasi yuzunden google da kullanilamaz oldu, Gemininin yalanlarini dinliyoruz. Muhtemelen 2 senedir arama motoruna para veriyorum arasin diye. Zaman kaybi diger turlu.
 
Bu siteyi kullanmak için çerezler gereklidir. Siteyi kullanmaya devam etmek için çerezleri kabul etmelisiniz. Daha Fazlasını Öğren.…