Elon Musk’ın xAI’sinin en büyük süper bilgisayarı Colossus, 100.000 adet NVIDIA H100 GPU ile 122 gün sonunda çevrimiçi oldu. Colossus, yakında 50K NVIDIA H200 GPU ile boyutunu iki katına çıkaracak.
Elon Musk’ın girişimi xAI, birkaç gün önce İşçi Bayramı’nda çevrimiçi olan ‘Colossus’ süper bilgisayarı için geliştirmesini nihayet tamamladı. Musk, Colossus’un ‘dünyanın en güçlü yapay zeka eğitim sistemi’ olduğunu ve baştan sona 122 günde tamamlandığını söyledi. Colossus süper bilgisayarı 100.000 NVIDIA H100 veri merkezi GPU’su kullanıyor ve bu da onu bu kadar çok sayıda H100 kullanan en büyük eğitim kümesi yapıyor.
Colossus – Daha da büyüyecek
Elon ayrıca önümüzdeki aylarda Colossus’un Hopper mimarisini kullanan amiral gemisi veri merkezi GPU’su olan 50.000 H200 GPU ile daha yükseltileceğini duyurdu. H200, H100’den önemli ölçüde daha güçlü ve belirli üretken yapay zeka ve HPC’de neredeyse %45 daha yüksek hesaplama performansı sağlıyor.
xAI Colossus projesi Haziran ayında Memphis’te, eğitimi ise Temmuz ayında başladı. Bu sayede Aralık ayına kadar GROK 2’nin yerini alacak olan GROK 3, dünyanın en güçlü yapay zekasını sunmaya hazır hale gelecek. Colossus süper bilgisayarı, sunucusunu xAI’ye kiralayan Oracle ile yapılan anlaşmanın sona ermesinin ardından geldi. Yeni süper küme artık Oracle’ın sağlayabileceğinden daha güçlü ve 50 bin H200 GPU’nun daha eklenmesiyle birkaç ay içinde performans iki katına çıkacak.
H200 neredeyse 61GB daha yüksek bellek ve H100’deki 3.35TB/s’ye kıyasla 4.8TB/s’lik önemli ölçüde daha yüksek bellek bant genişliği sunuyor. Bununla birlikte, teknik özelliklerde bu kadar büyük bir değişiklikle, H200 300W daha fazla güç tüketiyor ve Colossus’taki H100’lerin sıvı soğutma kullandığı gibi sıvı soğutma gerektiriyor.
Şu anda Colossus, 100K NVIDIA GPU’ya ulaşan tek süper bilgisayar, onu 90K GPU ile Google AI ve ardından 80K H100 GPU kullanan popüler OpenAI takip ediyor. Listenin devamında 70K ve 60K GPU ile Meta AI ve Microsoft AI var.