Yapay zeka devrimi 2023 yılı ortalarında meydana geldi. Bu devrimin bir anda olması ise Nvidia H100 gibi yapay zeka hızlandırıcı GPU’ların popüler hale gelmesini sağladı. Ancak Google’ın bugün açıkladığı verilere bakılırsa işler tersine dönmeye başladı. Özellikle yapay zeka çıktılarında GPU yerine CPU tercih edilmeye başladı.
Google’a göre yapay zekada CPU kullanımı GPU kullanımının önüne geçti
Yapay zeka teknolojisi 2023 ortalarında ChatGPT ile bir anda büyük bir sıçrama ile karşımıza çıktı. Ardı ardına gelen yapay zeka araçları ve büyük şirketlerin milyar dolarlık bütçeleri buraya ayırması tüm dengeleri alt üst etti. Yapay zekanın bu ilk çağında ise Nvidia ve HX100 GPU birimleri öne çıktı. Özellikle OpenAI ve Microsoft yapay zeka sunucularında Nvidia H100 GPU birimlerine yer verdi.
GPU birimleri bugün halen yapay zekanın öğrenim sürecinde çok daha etkili konumda. Ancak şu an yapay zeka sektöründe asıl yükü yapay zeka çıktıları almaya başladı. Bu çıktıların daha sağlıklı ve hızlı olması için ise CPU öne çıkmaya başladı. Google Cloud ürün müdürü Brandon Roya, katıldığı TechFieldDay etkinliğinde CPU’ların yapay zeka teknolojisindeki rolünü anlattı.
GPU yani grafik işlemciler genel olarak işlemcilere göre çok daha fazla çekirdek sayısına sahip. Bu da grafik kartlarının çok daha fazla işi yapabilmesine imkan veriyor. Brandon Roya, yapay zeka eğitim sürecinde bu çoklu görevi aynı anda gerçekleştirme becerisinin önemine vurgu yaptı.
Ancak iş yapay zeka çıktısı almaya gelince grafik kartları işlemcilere göre odaklanma konusunda daha zayıf. İşlemciler çoklu işlemlerde grafik kartları kadar başarılı olmasa da tek bir işleme odaklanmak konusunda çok daha yüksek bir işlem gücüne sahip.
Brandon Ray, özellikle yapay zeka çıktıları için işlem hızının ve verimin çok daha önemli olduğunu aktardı. Grafik kartları işlemin daha optimize ilerlemesini sağlasa da işlem hızında geride kalıyor. Bu anlamda da sektör, yapay zeka çıktıları için yapay zeka destekli işlemcilere yöneldi.
Yapay zeka çıktıları için işlemcilerin yükselişe geçmesinin bir diğer nedeni ise maliyet. Sunucu işlemcileri H100 gibi yapay zeka destekli sunucu GPU birimlerine göre daha ucuz ve ulaşılabilir durumda. Özellikle yapay zeka furyası sonrası Nvidia H100 ve daha üst seviye GPU birimlerine ulaşmak daha da zorlaştı.
Bu anlamda yapay zeka sunucuları daha hızlı sonuçlar almak için yapay zeka işlemcilerini tercih etmeye başladı. Bu tercihin Nvidia’yı koltuğundan edip etmeyeceği de merak konusu. Hali hazırda Intel AVX-512 işlemcileri yapay zeka sunucularında kullanılıyor. Ayrıca Meta yapay zeka işlemcisi için çoktan kollarını sıvadı ve AMD ve Microsoft’un da bu konuya büyük bir yatırım yapma hazırlığında. Ayrıca OpenAI CEO’su Sam Altman’da yapay zeka işlemcisi geliştirmek için 5 ile 7 trilyon dolar gibi devasa bir yatırım toplamaya çalışıyor.
Milyar değil trilyon onlar milyarı 1 dk toplarlar trilyon dediği için insanlara ütopik geldi