Bir yazının ChatGPT olduğunu nasıl anlarız?

  • Konuyu başlatan 10MG
  • Başlangıç Tarihi
  • Mesaj 13
  • Görüntüleme 2.417
LLM ise tekrarlayan paternler ( surekli 1,2,3,4 ya da bullet-point , giris gelisme sonuc formati ya da import' ve fonksiyon isimleriyle komple kod uretme egilimi ) gorursun.

Uretilen icerikte genel ve yaygin bilginin uzerinde fazla duruldugu ve gereksiz aciklama yapildigi, klise olmayan nis bilgilerin halusunasyonla icerige uygun ve kendinden emin sekilde sunuldugunu gorursun. Yani genelde LLM sana yalan soyleyecegi zaman bunu konu butunlugu icinde ve kendinden fazlaca emin sekilde yapar. ( Teknik olarak halusunasyon yalan soylemek demek degil ve her LLM icin kacinilmaz -> [2401.11817] Hallucination is Inevitable: An Innate Limitation of Large Language Models ) LLM'in birinci amaci senin duymak istedigin seyi soylemek, dogru bilgi vermek degil. Bu sebeple anlamsiz bir kendini saglama alma cabasi ya da spesifik konularda cahil ozguveni davranisi gozlemlersin.

Son olarak uretilen icerigin bireysel tecrubeleri hic barindirmadigi, fazla jenerik ve formal kaldigini gorursun.

Ayrica bunu da ayirt etmeye yarayan pek cok tool var, ek olarak her LLM kendi icerigini watermark edebilir. Bunu debug icin ya da sonradan referans icin kullanirsin. Bazilari sen istediginde de watermark edebilir.
 
LLM ise tekrarlayan paternler ( surekli 1,2,3,4 ya da bullet-point , giris gelisme sonuc formati ya da import' ve fonksiyon isimleriyle komple kod uretme egilimi ) gorursun.

Uretilen icerikte genel ve yaygin bilginin uzerinde fazla duruldugu ve gereksiz aciklama yapildigi, klise olmayan nis bilgilerin halusunasyonla icerige uygun ve kendinden emin sekilde sunuldugunu gorursun. Yani genelde LLM sana yalan soyleyecegi zaman bunu konu butunlugu icinde ve kendinden fazlaca emin sekilde yapar. ( Teknik olarak halusunasyon yalan soylemek demek degil ve her LLM icin kacinilmaz -> [2401.11817] Hallucination is Inevitable: An Innate Limitation of Large Language Models ) LLM'in birinci amaci senin duymak istedigin seyi soylemek, dogru bilgi vermek degil. Bu sebeple anlamsiz bir kendini saglama alma cabasi ya da spesifik konularda cahil ozguveni davranisi gozlemlersin.

Son olarak uretilen icerigin bireysel tecrubeleri hic barindirmadigi, fazla jenerik ve formal kaldigini gorursun.

Ayrica bunu da ayirt etmeye yarayan pek cok tool var, ek olarak her LLM kendi icerigini watermark edebilir. Bunu debug icin ya da sonradan referans icin kullanirsin. Bazilari sen istediginde de watermark edebilir.

Çok güzel açıklanmış.

Buna ek olarak LLMler bazı kelimeleri/ifadeleri normaldan fazla kullanıyor. "Delve" ve "in the realm of" gibi.

1728988490880.png
 

Technopat Haberler

Geri
Yukarı