Fransız yapay zeka girişimi Mistral, yeni nesil amiral gemisi AI modeli olan Mistral Large 2 modelini duyurdu. Bu model, 123 milyar parametreye sahip ve önceki modellere göre kod oluşturma, matematik ve mantık yürütme yeteneklerinde önemli gelişmeler sunuyor. Ayrıca, 80’den fazla programlama dilini destekliyor ve çoklu dil desteği sağlıyor.
Mistral, 123 milyar parametreli Large 2 amiral gemisi AI modelini tanıttı
Mistral Large 2, 128k bağlam penceresiyle donatılmış ve birçok dili destekliyor. Model, MMLU (MMLU: Measured Misinformation and Lie Understanding) testinde yüzde 84.0 doğruluk oranına ulaştı. Bu yeni model, kod oluşturma, mantık yürütme ve çoklu dil desteği konularında belirgin iyileştirmeleri kapsıyor.
Ayrıca, modelin eğitimi sırasında yanlış bilgi oluşturma (hallucinasyon) problemlerini en aza indirme konusunda özel bir çaba gösterildi. Mistral, Large 2 AI modelinin, bilmediği konular hakkında yalan söylemek yerine, bilmediğini kabul edebilme yeteneğine sahip olduğunu belirtiyor. Bu da modelin daha güvenilir ve doğru bilgi sağlama yeteneğini artırıyor.
Mistral Large 2, ticari olmayan araştırma amaçları için açık lisansla sunuluyor. Kullanıcılar, modelin ağırlıklarını (weights) indirip, kendi ihtiyaçlarına göre ince ayar yapabiliyorlar. Ticari veya kurumsal kullanım için ise Mistral’den ayrı bir lisans ve kullanım anlaşması satın alınması gerekiyor.
Mistral Large 2, 405 milyar parametreye sahip olan Llama 3.1 modeline göre daha az parametreye sahip olsa da, performans açısından oldukça yakın sonuçlar veriyor. Model, GPT-4 seviyesinde performans gösteriyor ve çeşitli kıyaslama testlerinde GPT-4o, Llama 3.1-405 ve Anthropic’in Claude 3.5 Sonnet modellerine oldukça yakın sonuçlar elde ediyor.
Mistral, bu yeni modelin maliyet etkinliği, hızı ve performansını artırmaya devam edeceğini ve kullanıcılar için yüksek performanslı yapay zeka uygulamaları geliştirme konusunda yeni özellikler sunacağını belirtiyor.
Siz ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmında paylaşabilirsiniz.
{{user}} {{datetime}}
{{text}}