Ben yaptım öyle bir şey. Yıllar önce yazılmış bir Open Source Game Engine'e contrubtion yapıyordum. Berbat ötesi çalışıyor. Yarardan çok zarara sebep oluyor. En kötüsü de yavaşlatıyor benim düşünce hızımı. Bir noktadan sonra, yazmadan önce ne önerecek diye beklemeye başlıyorsun. Genelde önerileri de işe yaramıyor, en azından benim çalıştığım projede yaramıyordu. Template meta programlama kullanarak C++'ta dosyadan verilen "herhangi" bir sınıfı elle bind ihtiyacı olmadan doldurmaya yarayan bir sistem yazmaya çalışıyordum. Copilot gram yardımcı olmadı.GitHub CoPilot açık iken herhangi bildiğiniz dili açın ve basit çaplı bir ne bileyim webse routing frameworku yazın değilse başka bir framework yazın sonra kod yazmaya devam edin sonra görün CoPilotu
Diger bahsettigim seyleri okumadiniz herhalde, birincisi deterministik degil, ikincisi bir alet, yazilimi bitiremez. Sonucta komutlari, promptlari veren bir yazilimci.GitHub CoPilot açık iken herhangi bildiğiniz dili açın ve basit çaplı bir ne bileyim webse routing frameworku yazın değilse başka bir framework yazın sonra kod yazmaya devam edin sonra görün CoPilotu
Mevcut durumda bile oldukça iyi kod yazabilen ve var olan kodları analiz ederek yeni özellikler ekleyebilen, hata giderebilen sayısız yüksek performanslı model var.
Selamlar, YKS'den yeni çıkmış bir öğrenci olarak hangi mesleği seçeceğimi bilmiyorum. Sene boyun yazılım mühendisliği istedim ama rehber hocalarım bu sektörün yapay zeka ile 5-10 yıl içinde biteceğini, işsiz kalacağımı söyledi. Başka hangi meslek sevdiğimi bilmiyorum ve yazılımı da %10 istiyorsam %90'ı para içindi. Sizce yazılım sektöründe istihdam azalır mı? Ve hangi mesleğin geleceği vardır?
Model collapse, generatif modellerde karşılaşılabilen bir problemdir ve önlemenin de birçok yolu vardır. Train dataset'ini genişletmek (çeşitlendirmek), loss fonksiyonu optimizasyonu, tonla regularizasyon tekniği ve temiz bir troubleshooting sonrası nokta atışı model iyileştirmeleri gibi. Bu eylemler şu anda yoğun olarak insan eliyle gerçekleştirilse de çok yakın bir gelecekte AI'ın kendisi tarafından yerine getirilmeye adaydırlar. AGI muhabbetlerinin döndüğü bir dönemde yukarıda saydığım optimizasyonlar çocuk oyuncağı.- O kodlari insan yazmali. AI kendi kendine feedback loop olusturur ya da sentetik datadan beslenirse sacmaliyor. ( Hem de agir sacmaliyor ) -> Model collapse - Wikipedia
Proprietary/closed-source yazılımları aktif olarak geliştiren birçok şirket mevcut open-source modelleri fine-tuning sonrası hem geliştirmede hem de prodüksiyonda aktif olarak kullanıyor zaten. Eşi benzeri olmayan kısmını ise detaylandırmak gerekli. Minimum miktarda data'nın bulunduğu bir durumdan bahsettiğinizi varsayıyorum. Proje eğer NLP, görsel veya ses işleme alanlarındaysa data augmentation işine girilebilir ve AI bunun âlâsını yapar. Sınıflandırma üzerine ise Naive Bayes veya Decision Trees algoritmaları kullanılabilir, ikisi de düşük veri miktarıyla hiç de fena olmayan sonuçlar verir. Kod yazan bir AI modelinden bahsediyorsak; Ridge, Lasso, ElasticNet, Bayesian gibi overfitting engelleme amaçlı sıkça kullanılan regresyon modelleri iyi çalışacaktır. Amaca uygun olarak hangi algoritma ile devam edilmesi gerektiği AI kararına bırakılabilecek bir konudur.- Bahsi gecen kod bloklarinin, piyasadaki problemlere cozum uretebilecek minvalde olmasi gerekiyor. Esi benzeri olmayan, kritik ve open-source olmayan bir projeyi AI'a gunumuz bilgisayar mimarisi degismedigi muddetce kimse teslim etmez cunku train datasinda yok.
Train dataset'ini genişletmek (çeşitlendirmek), loss fonksiyonu optimizasyonu, tonla regularizasyon tekniği ve temiz bir troubleshooting sonrası nokta atışı model iyileştirmeleri gibi.
Eşi benzeri olmayan kısmını ise detaylandırmak gerekli. Minimum miktarda data'nın bulunduğu bir durumdan bahsettiğinizi varsayıyorum.
Karşı çıktığım fikir, yazılım=syntax anlayışıyla işleri fazla basite indirgeyerek kod yazabilen modellerin yazılım sektörünü bitireceğini düşünmek.
MAD konusu gerçekten de problem. Tam olarak overfitting sınıfına da girmiyor. Bu noktada çözüm yolları doğal veri miktarını artırmak veya model kompleksitesini düşürmek. Belirli bir çaptaki modellerde bu problemi aşmak için şimdilik doğal veri artırımı gerekli görünüyor.Konu disina cikmak istemeden bahsedeyim, train datasini yine sentetik olarak cesitlendirerek bu problem cozulebilir durmuyor. [2307.01850] Self-Consuming Generative Models Go MAD
Gelecek bir AI atılımında yüksek potansiyel vadediyor. Elbette ki quantum noice noktası mevcut durumda bir problem ([2303.09491] Challenges and Opportunities in Quantum Machine Learning) ama QML alanında sürekli geliştirilmekte olan çözüm yollarıyla performans istenen düzeye getirilebilir ([2312.03057] Advantage of Quantum Machine Learning from General Computational Advantages). Burada günümüze kadar geliştirilen ML algoritmalarında önceki makalede örneklendirildiği gibi bazı gerekli değişiklikler ve yenilikler mühim. Aslına bakarsanız son AI atılımında yeterince gündeme getirilmese de QML algoritmaları üzerine uzun yıllardır çalışılıyor ve elimizde bir geleceğe sahip olan birçok farklı algoritma var. Bunlardan bazıları quantum noice tehdidini azaltmaya yönelik işlevler taşırken bazıları da Heisenberg çerçevesini QML alanında değerlendiriyor ([2111.14879] Quantum Regression theorem for multi-time correlators : A detailed analysis in the Heisenberg Picture). Bu sayede ortaya yüksek doğruluk oranına sahip farklı QML modelleri çıkabiliyor ([2009.01235] Quantum Discriminator for Binary Classification).Kuantumda da Heisenberg bilinmezligi meselesi var. Silver bullet degil.