LM Studio

LM Studio 0.4.2

Sürüm 2

MLX ile Paralel İstekler Tanıtılıyor! 🎉
mlx-engine 1.0.0'da sürekli toplu işleme desteği eklendi.
Şu anda bu özellik yalnızca metin tabanlıdır, VLM desteği üzerinde çalışılmaktadır.
Eklenti listelerindeki kaydırma hatası düzeltildi.
Sohbet girişinde rol ve ekleme düğmeleri görüntülendiğinde oluşan duyarlı düzen hatası düzeltildi.
Mesaj dosyası ekleri için yeni stil eklendi.

Sürüm 1

Qwen3-Coder-Next'in desteklenmeyen bir jinja şablonu güvenli filtresi nedeniyle hata vermesine neden olan bir hata düzeltildi.
Ekli bir konuşmayı silmenin bazen dosya ile ilgili uygulama işlemlerinin yeniden başlatılana kadar başarısız olmasına neden olan bir hata düzeltildi.
'visionAdapter' okunurken null özelliklerini okuyamama hatası düzeltildi.
Bazı etkileşimli lms komutlarındaki seçili seçeneklerin doğru şekilde renklendirilmemesine neden olan bir hata düzeltildi.
lms sohbetinde büyük yapıştırmaların yeni satır biçimlendirmesini korumamasına neden olan bir hata düzeltildi.
Açık Yanıtlar

Açık Yanıtlar, LLM'leri sağlayıcıdan bağımsız olarak çağırmayı sağlamak üzere tasarlanmış açık kaynaklı bir spesifikasyon ve ekosistemdir. LLM'lerle etkileşim kurmak, sonuçları akış halinde işlemek ve model sağlayıcısından tamamen bağımsız olarak ajan tabanlı iş akışları oluşturmak için birleşik bir deneyim sağlayan paylaşılan bir şema ve araç katmanı tanımlar. Bu araç katmanı, modelin nerede bulunduğuna bakılmaksızın gerçek dünya ajan tabanlı iş akışlarının tutarlı bir şekilde çalışmasını sağlar.

LM Studio'da Açık Yanıtlar
Ekim ayında, OpenAI'nin /v1/responses API'si için bir uyumluluk uç noktası oluşturmuştuk. Bugün, /v1/responses uç noktamızı Açık Yanıtlar spesifikasyonuyla uyumlu hale getirerek Açık Yanıtlar desteği ekliyoruz. Bu, /v1/responses'ı kullanmaya devam etmenizi ve Açık Yanıtlar uyumluluğu için getirilen yeni özelliklerden yararlanmanızı sağlayacaktır.

Daha fazlası için: Open Responses with local models via LM Studio
Sürüm 1

Google'ın FunctionGemma'sı için destek (270 MB).
Sürüm 2

GLM 4.5 araç çağrısı desteği.
[MLX] GLM-4.1V'nin görüntüleri tanımamasına neden olan istem şablonu hatası düzeltildi.
olmOCR-2 desteği.
Önceden indirilmiş bir model için bazen İndir düğmesinin görünmeye devam etmesine neden olan hata düzeltildi.

Sürüm 1

Base64 görüntülerinin OpenAI uyumlu /v1/responses uç noktasına aktarılması desteği.
Ayrıntılar için OpenAI Platform adresine bakın.
Flash Attention artık Vulkan ve Metal llama.cpp motorları için varsayılan olarak etkin.
Dahili dosya okuma hatası nedeniyle OpenAI uyumlu /v1/responses uç noktası "previous_response_not_found" hatası düzeltildi.
Güncelleme bildiriminin bazen yeniden tetiklenip kapanmasına neden olan hata düzeltildi.
"Bu sohbet için model seçilmedi ve sonKullanılmışModel kaydedilmedi. Lütfen seçin" hatası düzeltildi "bir model" hatası.
Aynı modelin ek varyantlarının indirilmesinin bazen doğru şekilde iç içe yerleştirilmediği durumlar düzeltildi.
Sürüm 2 (18 Ekim 2025'te güncellendi)

[MLX] ValueError düzeltildi: Qwen3 VL Thinking modelleri için görüntü özellikleri ve görüntü belirteçleri eşleşmiyor.
Modeller aranırken ara sıra oluşan kullanıcı arayüzü çökmesi düzeltildi.

Sürüm 1

/v1/chat/completions API'sinde Qwen 3 Coder için araç çağrısını etkileyen akış modu hatası düzeltildi (hata #1071).
[Vulkan] Modellerin iGPU'lara yüklenmediği bir hata düzeltildi (çalışma zamanı güncellemesi gerektirir) (hata #1048).
/v1/responses API uç noktasında geliştirici rolü için uyumluluk desteği eklendi. Şimdilik, geliştirici mesajları dahili olarak sistem mesajları olarak işleniyor (hata #1064).
Akış sunucusu, lms günlük akışıyla model günlükleri (giriş ve çıkış), yerel bağlam menüleri ve hata düzeltmeleri.
Geri
Yukarı