Geçtiğimiz yıllarda bilgisayarların verimliliğini artırabilmek için bir çok yeni teknoloji hayatımıza girdi. Hatta bunun en büyük örneklerinden birini laptoplarda direkt olarak etkileşime sokulan RAM ve işlemcilerde gördük. Her ne kadar RAM miktarını değiştiremememiz gibi olumsuz yönleri olsa da bu hamle cihazların performansına direkt olarak etki etti. Şimdiyse benzer bir şeyi NVIDIA ve IBM yapay zeka kapasitesini artırabilmek için GPU’ları SSD’ye bağlayarak deniyor.
Apple, M1 Ultra ile AMD ve NVIDIA’ya çoklu GPU dersi verdi!
NVIDIA ve IBM, yapay zeka darboğazının önüne geçecek
NVIDIA ve IBM, cihazların makine öğrenim kapasitelerini artırmak için ortaya yeni bir teknoloji koyuyor. Sistemlerin GPU’larını yani grafik kartlarını direkt olarak SSD’ye bağlayarak büyük miktarda depolama gerektirecek verilerin akışını hızlandırıp olası darboğazların önüne geçmeyi hedefliyorlar.
Konuyla alakalı ortaya çıkan sızıntılar, Büyük Hızlandırıcı Bellek (BaM) olarak adlandırılan teknolojinin GPU’ları doğrudan yüksek kapasiteli SSD’lere bağlamayı hedeflediğini ve oluşacak darboğazları engellemekle kalmayıp mevcut işlem kapasitesini de (bağlı SSD’lerin kapasitesiyle doğru orantılı) mevcutların çok daha üstüne çıkartacağını söylüyor.
Konuyla ilgili sızıntı haberini paylaşan araştırmacılar şunları söylüyor:
BaM, GPU iş parçacıklarının, hesaplama tarafından belirlendiği üzere, isteğe bağlı olarak küçük miktarlarda veri okumasını veya yazmasını sağlayarak I/O (input-output/giriş-çıkış- G/Ç), trafiği amplifikasyonunu azaltıyor.
Makine öğrenimi veya yapay zeka olarak adlandırdığımız birimler genelde işlemcilerin yani CPU’ların üzerinde geliyor. NVIDIA ve IBM’in burada hedeflediği şey ise bu noktada CPU’lara olan bağımlılığın önüne geçerek GPU’nun gücünü öne çıkarabilmek. Ayrıca yapılan ilk testlerin de oldukça umut vadeden sonuçlar ortaya koyduğu belirtiliyor.
Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi SDN Forum‘da veya yorumlarda bizlerle paylaşmayı unutmayın!
CPU ları SSD ye birleştirince ortaya çıkabilecek veri akış hızı hedefleniyor sanırım. Bunun yapay zeka programlarda oluşabilecek sistem gecikmelerini önleme gibi etkileri bekleniyor. Test edildi mi ?