Mistral AI, 24 milyar parametreli Mistral Small 3 adlı yeni modelini tanıttı. Modelin MMLU-Pro karşılaştırmasında Llama 3.3 70B ve Qwen 32B gibi daha büyük modellerle aynı seviyede olması dikkat çekiyor. Hatta modelin Llama 3.3 70B ile aynı seviyede olmanın yanı sıra daha hızlı olması da önemli bir artı.
ChatGPT’de en yaygın kullanılan model, kullanıcıların GPT-4o istekleri tükendiğinde geri dönüş modeli olan GPT-4o mini. Mistral Small 3, bu OpenAI modelinden daha iyi performansa sahip ve ayrıca daha düşük gecikme yaşadığı söyleniyor.
Mistral AI, modelin lisansı hakkında, “Hem önceden eğitilmiş hem de talimata göre ayarlanmış bir kontrol noktası yayınlıyoruz. Kontrol noktaları, ilerlemeyi hızlandırmak için güçlü bir temel görevi görebilir. Mistral Small 3’ün ne RL ne de sentetik verilerle eğitilmediğini, dolayısıyla Deepseek R1 (harika ve tamamlayıcı bir açık kaynak teknolojisi parçası!) gibi modellerden daha erken bir model üretim hattında olduğunu unutmayın. Birikmiş akıl yürütme kapasitelerini oluşturmak için harika bir temel model görevi görebilir. Açık kaynak topluluğunun bunu nasıl benimsediğini ve özelleştirdiğini görmek için sabırsızlanıyoruz.” ifadeleri kullanılıyor.
Bu modeli yerel olarak kendi bilgisayarınızda çalıştırmanız da mümkün. Mistral AI, bunun tek bir NVIDIA RTX 4090 grafik kartında veya 32 GB RAM’li bir MacBook’ta çalıştırılabileceğini söylüyor.
Mistral Small 3 artık la Plateforme’da mistral-small-latest veya mistral-small-2501 olarak mevcut.