OpenAI, 29 Ekim itibarıyla ChatGPT’nin işlevlerinde bazı değişiklikler yaptı. Bu değişiklikle birlikte yapay zeka aracı artık bir danışman gibi değil, daha çok bir eğitim aracı olarak görev yapacak. Yeni düzenlemeye göre ChatGPT artık kişisel sağlık, hukuk veya finans konularında tavsiyeler vermeyecek. Bunun yerine yalnızca genel ilkeleri açıklayacak ve temel mekanizmaları anlatacak.
ChatGPT artık sağlık, hukuk veya finans konularında tavsiye vermeyecek
OpenAI’nin bu kararının arkasında ChatGPT’nin yukarıda bahsedilen konularda riskli tavsiyeler vermesinin önüne geçme amacı yatıyor. Bu değişiklikle birlikte ChatGPT artık ilaç ismi belirtmiyor, doz önerisinde bulunmuyor, yatırım tavsiyesi sunmuyor ve hukuki belge şablonları paylaşmıyor. Bu sınırlamaların temel amacı kullanıcıların yapay zeka teknolojisinden profesyonel hizmet beklentisine girmesini önlemek diyebiliriz.

Bilindiği üzere geçmişte birçok kullanıcı ChatGPT’yi adeta bir sanal doktor gibi kullanıyordu. Belirtilerini yazarak teşhis arayışına giren bazı kullanıcılar aldıkları yanıtlar nedeniyle ciddi bir hastalığa sahip olduklarını düşünmeye başlıyordu. Kısacası basit bir baş ağrısı bile sistem tarafından yanlış yorumlanarak gereksiz endişelere yol açabiliyordu. OpenAI’nin aldığı yeni önlem ise bu tür yanlış yönlendirmelerin ve yersiz paniklerin önüne geçmeyi amaçlıyor.
ChatGPT artık vergi, kredi ya da yatırım gibi finansal konularda kişisel analiz yapmıyor. Yasal belgeler hazırlamak ya da yatırım tavsiyesi vermek yerine artık kavramları açıklamakla yetiniyor. Bu değişikliğin temel nedeni kullanıcıların yapay zekaya hukuki sorumluluk yükleyebileceği riskleri ortadan kaldırmak.
Yeni politikanın arkasında gizlilik endişeleri de önemli bir rol oynuyor. Kullanıcılar sohbet sırasında sağlık bilgilerini, gelir durumlarını ya da banka hesap bilgilerini paylaşabiliyor. Bu veriler sistemin eğitim sürecine dahil olma ihtimali taşıdığı için gizlilik açısından risk oluşturabiliyor.



