ASUS, 15-17 Ekim tarihleri arasında San Jose Kongre Merkezi’nde gerçekleşen 2024 OCP Global Summit’e katıldı. Sunucu sektöründeki yaklaşık 30 yıllık deneyimiyle ASUS, 2008 yılında önde gelen bulut veri merkezleri için sunucu anakartları tasarımıyla başlayarak bulut hizmeti sağlayıcılarıyla zengin bir iş birliği geçmişine sahip. Anakart uzmanlığındaki güçlü temele dayanan ASUS, geliştirdiği kapsamlı yapay zeka sunucuları serisini zirvede sergileyerek yapay zeka ve veri merkezi teknolojilerini ilerletme konusundaki kararlılığının altını çizdi.
NVIDIA Blackwell ile yapay zekayı ileri taşıma
Yapay zeka inovasyonunu daha da ileriye taşıyan ASUS, üretken yapay zeka kullanım durumlarını karşılamak ve veri merkezi performansında yeni bir çağ başlatmak üzere tasarlanan NVIDIA Blackwell platformuyla oluşturulan çözümlerini sergiledi.
Öncelikle, üst seviyede yıldız bir ürün olan ASUS ESC AI POD, NVIDIA GB200 NVL72 sistemini içeren çığır açıcı bir raf çözümü olarak öne çıkıyor. Bu sistem, 36 NVIDIA Grace CPU’yu ve 72 NVIDIA Blackwell GPU’yu tek bir büyük GPU gibi işlev görecek şekilde NVIDIA NVLink alanında bir raf ölçeğinde bir araya getiriyor. Tek bir ESC AI POD’dan tüm veri merkezine kadar optimum verimlilik için hem sıvıdan havaya hem de sıvıdan sıvıya soğutma seçenekleri sunuluyor. ESC AI POD, trilyon parametreli dil modelleri gibi yoğun kaynak gerektiren uygulamalar için gerçek zamanlı performans sağlayarak büyük dil modeli (LLM) çıkarımını hızlandırmak üzere tasarlandı. Doğal olarak bu yeni nesil raf tipi model, ASUS’a özel yazılım çözümleri, sistem doğrulama metodolojileri ve uzaktan kurulum stratejileri ile desteklenerek yapay zeka gelişimini hızlandırıyor ve her büyüklükteki veri merkezi için hem ölçek büyütme hem de ölçek genişletme olanağı veriyor.
İkinci olarak, NVIDIA GB200 NVL2 platformuna sahip bir 2U sunucu olan ASUS ESC NM2-E1, yüksek bant genişliğinde iletişim sağlayacak şekilde, üretken yapay zeka ve HPC için özel olarak tasarlandı NVIDIA yazılım yığınının tamamını optimize etmek üzere tasarlanan bu ürün, inovasyonu daha da ileriye taşımak isteyen yapay zeka geliştiricileri ve araştırmacıları için olağanüstü bir platform sunuyor.
NVIDIA MGX mimarisi ve NVIDIA H200 Tensor Core GPU’lar ile yapay zeka performansı
ASUS, sekiz adede kadar NVIDIA H200 Tensor Core GPU’yu destekleyen 4U sunucusu ASUS 8000A-E13P’yi de tanıttı. NVIDIA MGX mimarisiyle tamamen uyumlu olan bu ürün, büyük ölçekli kurumsal yapay zeka altyapılarında hızlı dağıtım için tasarlandı . NVIDIA 2-8-5 topolojisi (CPU-GPU-DPU/NIC) ve dört adet yüksek bant genişliğine sahip PCIe NIC ile yapılandırılan bu sistem, doğu-batı trafiğini ve genel sistem performansını artırıyor.
Modüler sunucu mimarisi konulu ASUS 2024 OCP Global Summit oturumu
OCP tarafından geliştirilen ve NVIDIA MGX modüler tasarımını kullanan Veri Merkezi Modüler Donanım Sisteminin (DC-MHS) tanıtımıyla modüler sunucu mimarisinin geleceği 2024 OCP Global Summit’te gerçekleştirilen ASUS oturumunda ele alındı. Oturumda modern veri merkezleri için benzeri görülmemiş esneklik, basitleştirilmiş bakım ve verimli ölçeklenebilirlik sunan bu yenilikçi mimarinin sunucu tasarımını nasıl dönüştürdüğü vurgulandı.
Daha fazlası için teknokroki.com adresini takipte kalın. İçeriklerimizi Bundle, Google News üzerinden de takip edebilir anında haberdar olmak için tarayıcı bildirimlerini açabilirsiniz.