Meta, Connect 2024 etkinliği kapsamında yapay zeka modeli Llama 3.2’yi görücüye çıkardı. Çok modlu yeteneklere sahip yapay zeka; görüntü işleme ve ses algılama gibi yetenekleriyle GPT-4o gibi rakiplerine meydan okuyor.
Meta Llama 3.2 neler vadediyor?
Yeni Llama 3.2 modelleri; hem metinleri hem de görüntüleri anlayabilen 11 milyar ve 90 milyar parametreli versiyonlara sahip. Bu modeller, grafik ve çizelgelerden bilgiler çıkararak veri trendleriyle ilgili soruları yanıtlayabiliyor. Ayrıca görüntülere başlık eklemek için önemli nesneleri ve ayrıntıları tanımlayabiliyor.
Meta ayrıca geliştiriciler ve işletmeler için optimize edilmiş 1 milyar ve 3 milyar parametreli Llama 3.2 modelleri de sundu. Bu modeller, özellikle mesajlaşma platformlarında kişiselleştirilmiş uygulamalar oluşturmak için tasarlandı.
Meta, Llama 3.2’nin görüntü tanıma gibi görevlerde Anthropic ve OpenAI modellerine rakip olduğunu ve diğer diyalogsal yapay zeka sistemlerinden dil anlama kriterlerinde daha iyi performans gösterdiğini iddia ediyor.
Ayrıca Llama 3.2, yanıt verirken insan benzeri sesler sentezleyebiliyor. Dame Judi Dench, John Cena ve Kristen Bell gibi ünlü isimlerin seslerini kullanarak yanıt verebilme yeteneğine de sahip olacak. Bu kapsamda Messenger, Instagram gibi sosyal medya platformlarına yapay zeka sesleri eklenecek.
{{user}} {{datetime}}
{{text}}