Yapay zeka tehlikeli mi?

Yapay zekayı insanlar kontrol ettiği için yapay zeka kendi kendine bir şey yapamaz ama kötü bir insan tehlikeli bir şeyler yapabilir. Yani aslında yine kötülüğü insanlar yapar.
 
Aklıma Matrix'in ve Tanrı'nın Formülü kitabının hikayeleri geldikçe yapay zekanın gelecekte nerelere varacağı konusunda endişelerim olmuyor değil.
 
Normalde tehlikeli değil. Eğer bir korsan, yapay zekanın işleyişine kötü amaçlı kod eklerse ne olacağını bilemeyiz.
 
Son düzenleme:
Yapay zeka insan zekasının üstüne çıkmadığı sürece sorun yok, çıktığı anda ise işte o zaman endişelenmeliyiz çünkü o anda nelerin olacağı öngürülemez.

Fişini çekeriz olur biter diye düşünürsünüz, ama sizden daha zeki bir varlık bunu önceden tahmin edip önlemini alır. Bu konuya güzel bir örnek "Next" adlı dizidir.

Yapay zeka insan zekasının üstüne çıkmadığı sürece sorun yok, çıktığı anda ise işte o zaman endişelenmeliyiz çünkü o anda nelerin olacağı öngürülemez.

Fişini çekeriz olur biter diye düşünürsünüz, ama sizden daha zeki bir varlık bunu önceden tahmin edip önlemini alır. Bu konuya güzel bir örnek "Next" adlı dizidir.

Ayrıca yapay zekaları tehlikeli yapan bir özellik kendilerini katlanarak geliştirmeleridir.

Şöyle bir örnek ile açıklayayım: Siz %10 zekaya sahip bir yapay zeka yaptınız, bu yapay zeka kendini geliştirdi %10 artık %20 oldu.

Sonra kendini %20'lik zekası ile geliştirdi, artık %40 oldu.

Bu sefer de %40'lık zekası ile geliştirdi ve %80 oldu bu böyle sonsuza doğru gidecek ve yapabileceğimiz çok az şey olacak.
 
Son düzenleme:
Şu an bile tehlikeli. Yalan ve uydurma amaçlı içerik üretmek için kullanılabiliyorlar bu tarz araçlar. Bu özellikle seçim dönemlerinde kara propaganda yapmak isteyen kesimler için harika bir olanak.

Ses değiştirme ve deep fake görüntü oluşturma gibi farklı alanlarda da zarar verebiliyorlar. Örneğin herhangi bir kişi yapmadığı bir eylem ya da söylemediği bir söz yüzünden başı belaya girebilir.

Kod yazabilen yapay zeka sohbet botları da kötü amaçlı program (malware) yazdırmak ya da yazan bilgisayar korsanlarına yardımcı olmak amacıyla kullanılıyorlar şu anda.

Kötü amaçlı olmayan durumlarda bile sorunlar çıkabiliyor. Örneğin ChatGPT ya da Bard gibi sohbet botlarının yanlış ve uydurma bilgi veya olmayan olayları üretebildikleri biliniyor. Buna “AI hallucination” adı veriliyor. Ödev ya da iş yaptırmak istenlerin başı çok kez belaya girdi bu sorun yüzünden.

Geçen sene bu konuların çoğu tartışmaya açık bile değildi. OpenAI ve ürünü ChatGPT'nin iteklemesi sayesinde pek çok şirket (başta Google) yapay zeka konusunda saldırıya geçti. Rekabet olduğu için de hızlı gelişiyor bu araçlar. Şimdiden bunları konuşuyorsak gelecekte ortaya çıkabilecek sorunlar da artacaktır haliyle.

Özetlemek gerekirse; evet tehlikeli durumlar olabilir ama potansiyelleri de çok yüksek. Daha fazla zaman kazanma ve daha az maliyetle daha çok içerik üretme konusunda yardımcı oluyorlar ve ileride daha da fazlası gelecektir. Kötü yanları var diye bu araçları tamamen ortadan kaldırmak mantıklı olmaz. Cin şişeden çıktı bir kere.

“Yapay genel zeka” ve “makinelerin bilinç kazanması” gibi konular çok farklı elbette. O daha çok bilim kurgu gibi kalıyor ama yakın zamanda bu kadar gelişmenin ardı ardına gelmesi insanları korkutmuyor da değil. Buna rağmen “Terminatör” ya da “Matrix” gibi bir senaryo (en azından şimdilik) beklenmiyor.
 

Geri
Yukarı