OpenAI(ChatGPT) açık kaynaklı modelini tanıttı!

Qwen 3-Coder benim sisteme bayağı yük bindiriyor burada donanımsal limitasyonlara takılıyorum maalesef o sebeple uzun zamandır 2.5-Coder kullanıyordum, şimdi GPT-OSS'a geçtim Devstral da yine aynı problemle kullanamıyorum, çok yavaş.
 
GPT-OSS için de aynı durumu ben diyeceğim. Öbür modellerde problem yaşamazken GPT-OSS da hep bir sıkıntı hep bir problem. Ayarlarınız nedir? Hangi sağlayıcı üstünden çağrıyorsunuz?
 
Ollama ve Open WebUI üzerinde kullanıyorum. O kadar ayar denedim, yine en iyisi UI tarafında varsayılanda bırakmak oldu, Ollama'da KEEP_ALIVE 1 yaptım ve OLLAMA_FLASH_ATTENTION değeri 0 olarak ayarlı. Ollama'yı portable olarak kullanıyorum ben, böyle bir yapınız varsa bat dosyasını da paylaşabilirim.
 
Dediğiniz gibi ben de bir varsayılanla tekrar deneyim dedim evet, varsayılan çok daha iyi çalışıyor.
Bazı modeller Open WebUI tarafında önceden optimize edilmiş olarak geliyor, o sebeple ayar yapınca sistem karışıyor ama bazı modellerde de örneğin Gemma gibi ayar yapmak ciddi boost sağlıyor. LM Studio tarafında da GPT-OSS varmış ama denemedim, GGUF bence Ollama kadar stabil değil.
 
Katılıyorum sizlere, güzel bir sohbetti. Söylediklerinizi bir inceleyeleceğim
 
@Zakramoreas

Nasıl bir optimizasyon yapmışlar bilmiyorum ama LM Studio üzerinde model 5x hızıyla falan çalışıyor bende. Ayrıca Qwen 3 Coder da aynı şekilde. Ollama devri kapanmış galiba. Deneyin isterseniz siz de.
 
Sizle konuştuktan sonra birkaç deneme daha yaptım Qwen3 Coder 30B 131k context Q4_K_M'de 150t/s elde ettim. Akabinde gpt oss içinde 60t/s gördüm. Uzun süredir yanlış kullanıyormuşum LLM stüdyoyu sizler de test edebilirsiniz.

Bugün Codex CLI ile OSS'u bir daha denemeyi düşünüyorum.
 
Son düzenleme:
Bu siteyi kullanmak için çerezler gereklidir. Siteyi kullanmaya devam etmek için çerezleri kabul etmelisiniz. Daha Fazlasını Öğren.…