14 yaşında, sıfırdan Türkçe yapay zeka modeli geliştirme adımları

Merhaba Technopat ailesi,
Ben Ömer Efe, 14 yaşındayım.

Bu konuyu açmamdaki amaç; yalnızca bir yapay zeka geliştirmek değil, aynı zamanda Türkiye'de bir gencin sıfırdan neler yapabileceğini göstermek. Türkiye'nin kendi dilinde, kendi altyapısıyla, yerli ve bağımsız bir yapay zeka modeli olabilir mi sorusuna cevap aramak istedim. Ve bu soruya kendi imkânlarımla bir cevap üretmeye çalıştım.

Neden bu projeye başladım?​


Bugün kullandığımız GPT, claude, Gemini gibi yapay zekâların hepsi yabancı şirketlere ait. Ben de “neden biz de kendi Türkçe yapay zekâmızı yapmayalım?” dedim. Hazır modelleri alıp kullanmak yerine, sıfırdan kendi verimi toplayıp işledim ve modelimi eğittim. Ne bir laboratuvarım vardı ne de güçlü sunucularım. Sadece 400GB boş alanı olan bir dizüstü bilgisayarım ve çok büyük bir hayalim vardı.

Neler yaptım?​


  • Huggingface gibi kaynaklardan 110GB'tan fazla Türkçe veri indirdim.
  • Bu verileri temizledim, doğruladım ve parçalara ayırdım.
  • Python ile script hazırlayarak tüm süreci otomatikleştirdim.
  • Verileri işlerken log tuttum, zaman damgaları, kaynak URL'leri gibi detaylara kadar her şeyi belgeledim.
  • Daha sonra elimdeki verinin bir kısmı ile küçük bir model eğittim
  • Eğitim sırasında, veriyi indirme, veriyi işleme kısımları için kendi bilgisayarımı günlerce açık tutmak zorunda kaldım. Sıcaklıklar, donmalar, hatalar yaşadım ama devam ettim.

Zorluklar​


  • Güçlü donanımım yoktu. Eğitim çok yavaş oldu.
  • Model saçma cevaplar verdi bunun sebebi ise küçük bir model oluşturmamdı çok büyük veriler ile eğitemedim.
  • Sunucu bulamadım, ücretsiz platformlarla uğraştım ama çoğu ya sınır koydu ya da destek vermedi.

Elimde ne var?​


  • Kendi ellerimle indirdiğim ve işlediğim temiz Türkçe veri seti.
  • Eğitim logları, ekran görüntüleri ve Python scripti.
  • Tamamen sıfırdan eğitilmiş küçük ama yerli bir Türkçe dil modeli.

Neden bu konuyu açtım?​


Ben bu modeli “süper cevaplar versin” diye değil, bir hayal gerçekleşebilsin diye geliştirdim. Belki şu an GPT-4 kadar değil ama bu yolun başı. Eğer sesimi duyurabilirsem, belki bu alanla ilgilenen diğer gençler için de bir umut olur.
Destek almak, öneri duymak, yol gösterecek insanlar bulmak ve en önemlisi “bu ülkede teknoloji üretilebilir” demek için buradayım.

Log dosyaları veri indirmek için Python dosyası ve Türkçe model için:

 

Dosya Ekleri

  • Ekran görüntüsü 2025-05-03 095734.png
    Ekran görüntüsü 2025-05-03 095734.png
    158,3 KB · Görüntüleme: 112
  • Ekran görüntüsü 2025-04-27 100735.png
    Ekran görüntüsü 2025-04-27 100735.png
    26,4 KB · Görüntüleme: 114
  • Ekran görüntüsü 2025-05-01 231155.png
    Ekran görüntüsü 2025-05-01 231155.png
    163,3 KB · Görüntüleme: 111
Son düzenleyen: Moderatör:
Kardeşim merhaba, yaşına göre çok başarılı bir iş yaptığını söyleyebilirim. Özellikle script kodunu yazarken gösterdiğin özen bile bu proje için nasıl bir disiplinle ilerlediğini ortaya koymuş. Tebrik ediyorum seni.

Üretkenlikten asla vazgeçme. Bu arada derslerini de sakın aksatma lütfen. Sana bir ağabeyin olarak verebileceğim tavsiye budur. Seni ileride büyük yerlerde görmek isteriz.

Kendine iyi bak, yardıma ihtiyacın olan her alanda da bana buradan ulaşabilirsin. Elimden geleni yaparım.
 
Kardeşim merhaba, yaşına göre çok başarılı bir iş yaptığını söyleyebilirim. Özellikle script kodunu yazarken gösterdiğin özen bile bu proje için nasıl bir disiplinle ilerlediğini ortaya koymuş. Tebrik ediyorum seni.

Üretkenlikten asla vazgeçme. Bu arada derslerini de sakın aksatma lütfen. Sana bir ağabeyin olarak verebileceğim tavsiye budur. Seni ileride büyük yerlerde görmek isteriz.

Kendine iyi bak, yardıma ihtiyacın olan her alanda da bana buradan ulaşabilirsin. Elimden geleni yaparım.
çok teşekkür ederim güzel sözlerin ve desteğin için. Ders konusu ise bu proje ile ilgilendiğim en verimli zaman hafta sonlari oluyor cuma akşamından başlayıp pazar gününe kadar kullandığım oluyor modeli eğitmek için pazartesi günleri de dahil ettigim olmuştur. Yardım teklifin için de ayrıca minnettarım bir gün gerçekten ihtiyacım olursa çekinmeden yazacağım.
 
Model config dosyana baktım da modelin aşırı küçük bir model, 12 MB'lik bir modelin dil konusunda herhangi bir şey yapabilmesini beklemek yanlış olur açıkçası.
Modeldeki katman sayısı (n_layer) çok düşük, 3 katman ile model büyük olsa bile çok bir şey yapamazsın, modelin çok sığ. Katman sayısını en azından 8-16 civarına çıkar.
Model genişliğin (n_embd) de çok küçük, katman sayısını 16'ya çıkarsan bile model hala çok küçük kalıyor. GPT2 küçün bir model olmasına rağmen 768 genişliğinde bir model.

Bir de GPT2 mimarisini kullanıyorsun, bu mimari çok eski ve MLP yapısı biraz garip.
Normalde MLP'lerde bir Linear katmanı ile girdi genişletilip aktivasyon fonksiyonuna girer ve daha sonra tekrar bir Linear katmanı ile geri sıkıştırılır.
GPT2 ise Linear katmanları yerine Conv1D kullanıyor ve genişletip sıkıştırmak yerine tam tersi olarak sıkıştırıp geri genişletiyor. Bu pek iyi değil açıkçası.

Log'lara göre CPU kullanıyorsun, ekran kartı bulursan kesinlikle ekran kartı kullanmanı öneririm.
Ama RX 580 / GTX 1660 Ti gibi eski bir şey de olmasın, yeni nesil işlemciler ile aynı performansı veriyor bu eski ekran kartları ve 16 bit destekleri yok.
RTX 3060 Ti 12 GB ekran kartı giriş seviyesi için uygun ama çok fazla bir şey de bekleme bu karttan.

Ekran kartı kullanırsan mixed precision kullanmanı öneririrm, config dosyanda mixed precision'a dair bir şey yok.
CPU'lar doğru düzgün 16 bit desteklemediği için CPU'larda pek önemli değil ama GPU'larda kesinlikle kullan, 2 kat performans artışı sağlıyor.
Mixed precision veri tipi olarak FP16 veya BF16 kullanabilirsin. LLM'ler için BF16 öneririm.
FP16 daha doğru sonuçlar veriyor ama çok küçük veya çok büyük sayıları kullanamazsın, NaN sonucu alırsın.
LLM'ler için doğru sonuçtan ziyade, çok büyük ve çok küçük sayıları kullanabilmek daha iyi.

Ek not olarak GPU'larda FP16 desteği RTX serisi ve RX Vega serisinde veya daha yeni kartlarda var.
BF16 ise RTX 3000 ve RX 7000 serisinde veya daha yeni kartlarda var.

Model veri tipi için ise (torch_dtype) FP16 kesinlikle kullanma, ya hata alırsın ya da model patlar.
BF16 kullanabilirsin ama çok fazla sıfıra yuvarlama sorunlarıyla karşılaşırsın.
FP32 (float32) model veri tipi için en iyi tip. Şu anda zaten FP32 kullanıyorsun zaten.

Optimizer olarak (optimizer_used) AdamW kullanıyorsun, bellekten (GPU için VRAM, CPU için RAM) tasarruf etmek istersen Adafactor kullanabilirsin.
Transformers'in Adafactor optimizeri yerine PyTorch'un Adafactor optimizerini kullan ama, PyTorch'un Adafactor kodu daha doğru çalışıyor.

Ek olarak beleş sunucu olarak Google Colab veya Kaggle kullanabilsin ama buradaki GPU'ların BF16 desteği yok, FP16 desteği var.
Intel Devcloud da Intel GPU Max 1100 ekran kartına sahip sunucuya ücretsiz olarak erişim sağlıyor, Nvidia yerine Intel kullanırım diyorsan buraya da bakabilirsin. Intel GPU Max 1100 ekran kartının BF16 desteği de var.

Konu bütünlüğü açışından Github linkindeki config dosyasını buraya ekliyorum:
JSON:
{
  "activation_function": "gelu_new",
  "architectures": [
    "GPT2LMHeadModel"
  ],
  "attn_pdrop": 0.1,
  "bos_token_id": 0,
  "embd_pdrop": 0.1,
  "eos_token_id": 1,
  "initializer_range": 0.02,
  "language": "turkish",
  "layer_norm_epsilon": 1e-05,
  "model_creator": "Turkish AI Team",
  "model_type": "gpt2",
  "n_ctx": 64,
  "n_embd": 128,
  "n_head": 4,
  "n_inner": 384,
  "n_layer": 3,
  "n_positions": 128,
  "optimizer_used": "AdamW",
  "pad_token_id": 3,
  "reorder_and_upcast_attn": false,
  "resid_pdrop": 0.1,
  "scale_attn_by_inverse_layer_idx": false,
  "scale_attn_weights": true,
  "summary_activation": null,
  "summary_first_dropout": 0.1,
  "summary_proj_to_labels": true,
  "summary_type": "cls_index",
  "summary_use_proj": true,
  "torch_dtype": "float32",
  "transformers_version": "4.51.3",
  "turkish_optimized": true,
  "use_cache": false,
  "vocab_size": 16000
}
 
Son düzenleme:
Model config dosyana baktım da modelin aşırı küçük bir model, 12 MB'lik bir modelin dil konusunda herhangi bir şey yapabilmesini beklemek yanlış olur açıkçası.
Modeldeki katman sayısı (n_layer) çok düşük, 3 katman ile model büyük olsa bile çok bir şey yapamazsın, modelin çok sığ. Katman sayısını en azından 8-16 civarına çıkar.
Model genişliğin (n_embd) de çok küçük, katman sayısını 16'ya çıkarsan bile model hala çok küçük kalıyor. GPT2 küçün bir model olmasına rağmen 768 genişliğinde bir model.

Bir de GPT2 mimarisini kullanıyorsun, bu mimari çok eski ve MLP yapısı biraz garip.
Normalde MLP'lerde bir Linear katmanı ile girdi genişletilip aktivasyon fonksiyonuna girer ve daha sonra tekrar bir Linear katmanı ile geri sıkıştırılır.
GPT2 ise Linear katmanları yerine Conv1D kullanıyor ve genişletip sıkıştırmak yerine tam tersi olarak sıkıştırıp geri genişletiyor. Bu pek iyi değil açıkçası.

Log'lara göre CPU kullanıyorsun, ekran kartı bulursan kesinlikle ekran kartı kullanmanı öneririm.
Ama RX 580 / GTX 1660 Ti gibi eski bir şey de olmasın, yeni nesil işlemciler ile aynı performansı veriyor bu eski ekran kartları ve 16 bit destekleri yok.
RTX 3060 Ti 12 GB ekran kartı giriş seviyesi için uygun ama çok fazla bir şey de bekleme bu karttan.

Ekran kartı kullanırsan mixed precision kullanmanı öneririrm, config dosyanda mixed precision'a dair bir şey yok.
CPU'lar doğru düzgün 16 bit desteklemediği için CPU'larda pek önemli değil ama GPU'larda kesinlikle kullan, 2 kat performans artışı sağlıyor.
Mixed precision veri tipi olarak FP16 veya BF16 kullanabilirsin. LLM'ler için BF16 öneririm.
FP16 daha doğru sonuçlar veriyor ama çok küçük veya çok büyük sayıları kullanamazsın, NaN sonucu alırsın.
LLM'ler için doğru sonuçtan ziyade, çok büyük ve çok küçük sayıları kullanabilmek daha iyi.

Ek not olarak GPU'larda FP16 desteği RTX serisi ve RX Vega serisinde veya daha yeni kartlarda var.
BF16 ise RTX 3000 ve RX 7000 serisinde veya daha yeni kartlarda var.

Model veri tipi için ise (torch_dtype) FP16 kesinlikle kullanma, ya hata alırsın ya da model patlar.
BF16 kullanabilirsin ama çok fazla sıfıra yuvarlama sorunlarıyla karşılaşırsın.
FP32 (float32) model veri tipi için en iyi tip. Şu anda zaten FP32 kullanıyorsun zaten.

Optimizer olarak (optimizer_used) AdamW kullanıyorsun, bellekten (GPU için VRAM, CPU için RAM) tasarruf etmek istersen Adafactor kullanabilirsin.
Transformers'in Adafactor optimizeri yerine PyTorch'un Adafactor optimizerini kullan ama, PyTorch'un Adafactor kodu daha doğru çalışıyor.

Ek olarak beleş sunucu olarak Google Colab veya Kaggle kullanabilsin ama buradaki GPU'ların BF16 desteği yok, FP16 desteği var.
Intel Devcloud da Intel GPU Max 1100 ekran kartına sahip sunucuya ücretsiz olarak erişim sağlıyor, Nvidia yerine Intel kullanırım diyorsan buraya da bakabilirsin. Intel GPU Max 1100 ekran kartının BF16 desteği de var.

Konu bütünlüğü açışından Github linkindeki config dosyasını buraya ekliyorum:
JSON:
{
  "activation_function": "gelu_new",
  "architectures": [
    "GPT2LMHeadModel"
  ],
  "attn_pdrop": 0.1,
  "bos_token_id": 0,
  "embd_pdrop": 0.1,
  "eos_token_id": 1,
  "initializer_range": 0.02,
  "language": "turkish",
  "layer_norm_epsilon": 1e-05,
  "model_creator": "Turkish AI Team",
  "model_type": "gpt2",
  "n_ctx": 64,
  "n_embd": 128,
  "n_head": 4,
  "n_inner": 384,
  "n_layer": 3,
  "n_positions": 128,
  "optimizer_used": "AdamW",
  "pad_token_id": 3,
  "reorder_and_upcast_attn": false,
  "resid_pdrop": 0.1,
  "scale_attn_by_inverse_layer_idx": false,
  "scale_attn_weights": true,
  "summary_activation": null,
  "summary_first_dropout": 0.1,
  "summary_proj_to_labels": true,
  "summary_type": "cls_index",
  "summary_use_proj": true,
  "torch_dtype": "float32",
  "transformers_version": "4.51.3",
  "turkish_optimized": true,
  "use_cache": false,
  "vocab_size": 16000
}
Böyle detaylı ve açıklayıcı yazdığın için gerçekten çok teşekkür ederim. Bu kadar teknik detayı açık açık yazman benim için çok değerli çünkü ben bu işi öğrenmeye çalışıyorum.

Modelin küçük olduğunu ben de fark etmiştim ama bu kadar teknik farkların bu kadar etkili olduğunu senin yorumunla daha iyi anladım. Evet, şu an güçlü bir ekran kartım ya da sunucum yok, o yüzden CPU ile uğraşıyorum ve sadece CPU olması işimi çok zorlaştırıyor GPU olmaması daha büyük modeller çıkarmak için yetmiyor. GPU olsaydı emin olki daha büyük model yapabilirdim. Ancak gerçekten sadece CPU ile yapmam büyük modeller çıkarmam için çok fazla zamanımı alacağını söylemem lazım
 
Model Config dosyana baktım da modelin aşırı küçük bir model, 12 MB'lik bir modelin dil konusunda herhangi bir şey yapabilmesini beklemek yanlış olur açıkçası.
Modeldeki katman sayısı (n_layer) çok düşük, 3 katman ile model büyük olsa bile çok bir şey yapamazsın, modelin çok sığ. Katman sayısını en azından 8-16 civarına çıkar.
Model genişliğin (n_embd) de çok küçük, katman sayısını 16'ya çıkarsan bile model hala çok küçük kalıyor. GPT2 küçün bir model olmasına rağmen 768 genişliğinde bir model.

Bir de GPT2 mimarisini kullanıyorsun, bu mimari çok eski ve mlp yapısı biraz garip.
Normalde Mlp'lerde bir linear katmanı ile girdi genişletilip aktivasyon fonksiyonuna girer ve daha sonra tekrar bir linear katmanı ile geri sıkıştırılır.
GPT2 ise linear katmanları yerine conv1D kullanıyor ve genişletip sıkıştırmak yerine tam tersi olarak sıkıştırıp geri genişletiyor. Bu pek iyi değil açıkçası.

Log'lara göre CPU kullanıyorsun, ekran kartı bulursan kesinlikle ekran kartı kullanmanı öneririm.
Ama RX 580 / GTX 1660 Ti gibi eski bir şey de olmasın, yeni nesil işlemciler ile aynı performansı veriyor bu eski ekran kartları ve 16 bit destekleri yok.
RTX 3060 Ti 12 GB ekran kartı giriş seviyesi için uygun ama çok fazla bir şey de bekleme bu karttan.

Ekran kartı kullanırsan mixed Precision kullanmanı öneririrm, Config dosyanda mixed Precision'a dair bir şey yok.
CPU'lar doğru düzgün 16 bit desteklemediği için CPU'larda pek önemli değil ama GPU'larda kesinlikle kullan, 2 kat performans artışı sağlıyor.
Mixed Precision veri tipi olarak F/P16 veya BF16 kullanabilirsin. Llm'ler için BF16 öneririm.
F/P16 daha doğru sonuçlar veriyor ama çok küçük veya çok büyük sayıları kullanamazsın, nan sonucu alırsın.
Llm'ler için doğru sonuçtan ziyade, çok büyük ve çok küçük sayıları kullanabilmek daha iyi.

Ek not olarak GPU'larda F/P16 desteği RTX serisi ve RX Vega serisinde veya daha yeni kartlarda var.
BF16 ise RTX 3000 ve RX 7000 serisinde veya daha yeni kartlarda var.

Model veri tipi için ise (torch_dtype) F/P16 kesinlikle kullanma, ya hata alırsın ya da model patlar.
BF16 kullanabilirsin ama çok fazla sıfıra yuvarlama sorunlarıyla karşılaşırsın.
F/P32 (float32) model veri tipi için en iyi tip. Şu anda zaten F/P32 kullanıyorsun zaten.

Optimizer olarak (optimizer_used) adamw kullanıyorsun, bellekten (GPU için VRAM, CPU için RAM) tasarruf etmek istersen adafactor kullanabilirsin.
Transformers'in adafactor optimizeri yerine Pytorch'un adafactor optimizerini kullan ama, Pytorch'un adafactor kodu daha doğru çalışıyor.

Ek olarak beleş sunucu olarak Google colab veya kaggle kullanabilsin ama buradaki GPU'ların BF16 desteği yok, F/P16 desteği var.
Intel devcloud da Intel GPU Max 1100 ekran kartına sahip sunucuya ücretsiz olarak erişim sağlıyor, NVIDIA yerine Intel kullanırım diyorsan buraya da bakabilirsin. Intel GPU Max 1100 ekran kartının BF16 desteği de var.

Konu bütünlüğü açışından GitHub linkindeki Config dosyasını buraya ekliyorum:
JSON:
{
 "activation_function": "gelu_new",
 "architectures": [
 "GPT2LMHeadModel"
 ],
 "attn_pdrop": 0.1,
 "bos_token_id": 0,
 "embd_pdrop": 0.1,
 "eos_token_id": 1,
 "initializer_range": 0.02,
 "language": "turkish",
 "layer_norm_epsilon": 1e-05,
 "model_creator": "Turkish AI Team",
 "model_type": "gpt2",
 "n_ctx": 64,
 "n_embd": 128,
 "n_head": 4,
 "n_inner": 384,
 "n_layer": 3,
 "n_positions": 128,
 "optimizer_used": "AdamW",
 "pad_token_id": 3,
 "reorder_and_upcast_attn": false,
 "resid_pdrop": 0.1,
 "scale_attn_by_inverse_layer_idx": false,
 "scale_attn_weights": true,
 "summary_activation": null,
 "summary_first_dropout": 0.1,
 "summary_proj_to_labels": true,
 "summary_type": "cls_index",
 "summary_use_proj": true,
 "torch_dtype": "float32",
 "transformers_version": "4.51.3",
 "turkish_optimized": true,
 "use_cache": false,
 "vocab_size": 16000.
}

Merhaba.
Bu konuda hiç rehber hazırladın mı?

Şahsen ben bu tür bir rehbere ihtiyacım var. Coder değilim ama kendi model dosyasını eğitmek ve sonra mini model dosyalarını birleştirmek isteyenler için iyi olabilir.

Diğer topic de bir tıp fakültesi arkadaş da kendi model dosyasını veya AI sunu geliştirme k istiyor. Evet yüksek VRAM ihtiyacı var ama zaman içinde o minikler birleştire bilinir diye düşünüyorum.
 
@taklaxbr Intel Devcloud kullanabilirsin. Eğitim kısmında ücretsiz Intel GPU Max 1100 erişimi var. RTX 3090 / RX 7900 XTX civarında bir GPU bu ve 48 GB VRAM'e sahip:


1746379316823.png


Notebooks sayfasında da eğitim için hazırlanmış hazır notebooklar var:

Merhaba.
Bu konuda hiç rehber hazırladın mı?

Makale yazmayı pek sevmem, bu konu hakkında rehber hazırlamadım. Öylesine denk geldiğim için bu konuya yazayım dedim açıkçası.


... ama zaman içinde o minikler birleştirebilinir diye düşünüyorum.

Minik modelleri birleştirmek zor, eğitirken diğer modellerden bağımsız eğitmek sorun olur.
Encoder Decoder tarzı bir şey yaparsanız ayrı ayrı iki model eğitebilirsiniz anca.
 
Son düzenleme:
Merhaba! Proje nasıl gidiyor? Şahsen uzun zamandır aklımda olan bir yapayzeka model fikri vardı seninle paylaşmak istedim. Yakın zamanda internette ABD'deki bir adamın ChatGPT kullanarak finans yatırımları yaptığını ve bundan %20'ye yakın karlılık elde ettiğini görmüştüm, bunu Gemini, ChatGPT ile yapmayı denediğimde sonuç hep hüsran oldu çünkü Türk borsası'na günümüz AI'ları alışkın değil ve bende düşündüm fine tuning ile Gemini'ye Türk borsasıyla alakalı veri setlerini yükledim ve çok daha tutarlı sonuçlar vermeye başladı. Bunu gördükten sonra kendi modelimi geliştirmeye çalıştım ama bazı nedenlerden ötürü veri setlerini birleştiremeden çeşitli nedenlerden ötürü projeden vazgeçtim ve şimdi görüyorum ki aynı yaş skalasında olduğumu gördüğüm sende benimle benzer bir ideale koşuyorsun senden tek isteğim bu idealini gerek kendin için gerek geleceğin için devam ettir inanıyorum ki başarılı olacaksın.
 
Merhaba! Proje nasıl gidiyor? Şahsen uzun zamandır aklımda olan bir yapayzeka model fikri vardı seninle paylaşmak istedim. Yakın zamanda internette ABD'deki bir adamın ChatGPT kullanarak finans yatırımları yaptığını ve bundan %20'ye yakın karlılık elde ettiğini görmüştüm, bunu Gemini, ChatGPT ile yapmayı denediğimde sonuç hep hüsran oldu çünkü Türk borsası'na günümüz AI'ları alışkın değil ve bende düşündüm fine tuning ile Gemini'ye Türk borsasıyla alakalı veri setlerini yükledim ve çok daha tutarlı sonuçlar vermeye başladı. Bunu gördükten sonra kendi modelimi geliştirmeye çalıştım ama bazı nedenlerden ötürü veri setlerini birleştiremeden çeşitli nedenlerden ötürü projeden vazgeçtim ve şimdi görüyorum ki aynı yaş skalasında olduğumu gördüğüm sende benimle benzer bir ideale koşuyorsun senden tek isteğim bu idealini gerek kendin için gerek geleceğin için devam ettir inanıyorum ki başarılı olacaksın.

Local bir yapay zeka olmasına gerek yok diyorsan, OpenAI ile fine-tuning'te yapabilirsin.
 
Merhaba fine tuningde fiyatlar biraz pahalıydı o yüzden onu tercih etmedim şu an bert-base-multilingual-cased'ı eğitiyorum.

Aşağı yukarı ne yapmaya çalıştığını anladım fakat o işte çok uzun süre yürümez, tüm platformları banlarlar sonra :D
 

Technopat Haberler

Yeni konular

Geri
Yukarı