Üretken yapay zeka için Nvidia’nın Grace Hopper Superchip’leri tam üretime giriyor


22-23 Mayıs tarihlerinde GamesBeat Summit 2023’te Los Angeles’taki en iyi oyun liderleriyle bağlantı kurun. Buradan kaydolun.


Nvidia, Nvidia GH200 Grace Hopper Superchip’in karmaşık yapay zeka programlarını çalıştıran sistemlere güç sağlamak için tam üretimde olduğunu duyurdu.

Ayrıca hedeflenen ve yüksek performanslı bilgi işlem (HPC) iş yükleri olan GH200 ile güçlendirilmiş sistemler, artan talebi karşılamaya yardımcı olmak için oluşturulmuş Nvidia’nın en yeni CPU ve GPU mimarilerine (Nvidia Grace, Nvidia Hopper ve Nvidia Ada Lovelace dahil) dayalı 400’den fazla sistem yapılandırmasına katılıyor üretken AI için.

Tayvan’daki Computex ticaret fuarında, Nvidia CEO’su Jensen Huang açıkladı Nvidia NVLink-C2C ara bağlantı teknolojisini kullanarak Arm tabanlı Nvidia Grace CPU ve Hopper GPU mimarilerini bir araya getiren GH200 Grace Hopper Superchip ile ilgili yeni sistemler, iş ortakları ve ek ayrıntılar.

Bu, 900 GB/sn’ye varan toplam bant genişliği veya geleneksel hızlandırılmış sistemlerde bulunan standart PCIe Gen5 şeritlerinden yedi kat daha yüksek bant genişliği sunarak en zorlu üretken AI ve HPC uygulamalarını ele almak için inanılmaz bilgi işlem yeteneği sağlar.

Etkinlik

GamesBeat Zirvesi 2023

Sanal günlük ve isteğe bağlı içeriğimiz için GamesBeat topluluğuna katılın! En son gelişmelerle ilgili güncellemelerini oyun endüstrisindeki en parlak beyinlerden duyacaksınız.

Buradan Kaydolun

Nvidia’da hızlandırılmış bilgi işlemden sorumlu başkan yardımcısı Ian Buck yaptığı açıklamada, “Üretken yapay zeka, işletmeleri hızla dönüştürüyor, yeni fırsatların kilidini açıyor ve sağlık, finans, iş hizmetleri ve daha birçok sektörde keşfi hızlandırıyor” dedi. “Grace Hopper Superchips’in tam üretimde olmasıyla, dünya çapındaki üreticiler yakında işletmelerin benzersiz özel verilerini kullanan üretken yapay zeka uygulamaları oluşturmak ve devreye almak için ihtiyaç duydukları hızlandırılmış altyapıyı sağlayacak.”

Avrupa ve ABD’deki küresel hiper ölçekleyiciler ve süper bilgi işlem merkezleri, GH200 destekli sistemlere erişimi olacak birkaç müşteri arasında yer alıyor.

Buck bir basın toplantısında, “Hepimiz dev yapay zeka modellerinin yapabileceklerinin sevincini yaşıyoruz” dedi.

Yüzlerce hızlandırılmış sistem ve bulut örneği

Tayvanlı üreticiler, Aaeon, Advantech, Aetina, ASRock Rack, Asus, Gigabyte, Ingrasys, Inventec, Pegatron, QCT, Tyan, Wistron ve Wiwynn dahil olmak üzere dünya çapında en son Nvidia teknolojisiyle çalışan sistemler sunan birçok sistem üreticisi arasındadır.

Ek olarak, küresel sunucu üreticileri Cisco, Dell Technologies, Hewlett Packard Enterprise, Lenovo, Supermicro ve bir Atos şirketi olan Eviden, geniş bir Nvidia hızlandırmalı sistem yelpazesi sunar.

Nvidia H100 için bulut iş ortakları arasında Amazon Web Services (AWS), Cirrascale, CoreWeave, Google Cloud, Lambda, Microsoft Azure, Oracle Cloud Infrastructure, Paperspace ve Vultr yer alır.

Nvidia AI platformunun yazılım katmanı olan Nvidia AI Enterprise, üretken AI, bilgisayar görüşü ve konuşma AI dahil olmak üzere üretim AI’sının geliştirilmesini ve dağıtımını kolaylaştırmak için 100’den fazla çerçeve, önceden eğitilmiş model ve geliştirme aracı sunar.

GH200 Superchip’li sistemlerin bu yılın sonlarına doğru piyasaya çıkması bekleniyor.

Nvidia, MGX sunucu özelliklerini açıkladı

Üretken yapay zeka için Nvidia'nın Grace Hopper Superchip'leri tam üretime giriyor
Nvidia MGX

Nvidia, veri merkezlerinin çeşitli hızlandırılmış bilgi işlem ihtiyaçlarını karşılamak için bugün Nvidia’yı tanıttı
Sistem üreticilerine, çok çeşitli AI, yüksek performanslı bilgi işlem ve Omniverse uygulamalarına uyacak şekilde 100’den fazla sunucu varyasyonunu hızlı ve uygun maliyetli bir şekilde oluşturmak için modüler bir referans mimarisi sağlayan MGX sunucu özelliği.

ASRock Rack, ASUS, GIGABYTE, Pegatron, QCT ve Supermicro, geliştirme maliyetlerini dörtte üçe kadar azaltabilen ve geliştirme süresini üçte iki oranında kısaltarak yalnızca altı aya indirebilen MGX’i benimseyecek.

Nvidia’nın GPU ürünlerinden sorumlu başkan yardımcısı Kaustubh Sanghani yaptığı açıklamada, “Kuruluşlar, kendi özel iş ve uygulama ihtiyaçlarını karşılayan veri merkezlerini tasarlarken daha hızlı bilgi işlem seçenekleri arıyor” dedi. “Kuruluşların kurumsal yapay zekayı başlatmasına yardımcı olurken onlara önemli miktarda zaman ve para tasarrufu sağlamak için MGX’i yarattık.”

MGX ile üreticiler, sunucu kasaları için hızlandırılmış bilgi işlem için optimize edilmiş temel bir sistem mimarisiyle başlar ve ardından GPU, DPU ve CPU’larını seçer. Tasarım varyasyonları, HPC, veri bilimi, büyük dil modelleri, uç bilgi işlem, grafik ve video, kurumsal yapay zeka ve tasarım ve simülasyon gibi benzersiz iş yüklerine hitap edebilir.

Yapay zeka eğitimi ve 5G gibi birden çok görev tek bir makinede gerçekleştirilebilirken, gelecekteki donanım nesillerine yapılan yükseltmeler sorunsuz olabilir. Nvidia, MGX’in bulut ve kurumsal veri merkezlerine kolayca entegre edilebileceğini söyledi.

QCT ve Supermicro, Ağustos ayında ortaya çıkan MGX tasarımları ile piyasaya ilk çıkanlar olacak. Supermicro’nun bugün açıklanan ARS-221GL-NR sistemi Nvidia GraceTM CPU Superchip’i içerecek, QCT’nin bugün yine duyurulan S74G-2U sistemi Nvidia GH200 Grace Hopper Superchip’i kullanacak.

Ek olarak SoftBank, Japonya genelinde çok sayıda hiper ölçekli veri merkezini kullanıma sunmayı ve GPU kaynaklarını üretken AI ve 5G uygulamaları arasında dinamik olarak tahsis etmek için MGX’i kullanmayı planlıyor.

SoftBank CEO’su Junichi Miyakawa yaptığı açıklamada, “Üretken yapay zeka iş ve tüketici yaşam tarzlarına nüfuz ederken, doğru altyapıyı doğru maliyetle oluşturmak, ağ operatörlerinin en büyük zorluklarından biridir” dedi. “Nvidia MGX’in bu tür zorlukların üstesinden gelmesini ve çok kullanımlı AI, 5G’ye izin vermesini bekliyoruz.
ve gerçek zamanlı iş yükü gereksinimlerine bağlı olarak daha fazlası.”

MGX, sistem kurucularının mevcut tasarımları yeniden kullanabilmelerini ve pahalı yeniden tasarımlar olmadan yeni nesil ürünleri kolayca benimseyebilmelerini sağlamak için Nvidia ürünleriyle esnek, çok nesilli uyumluluk sunması bakımından Nvidia HGX’ten farklıdır. Buna karşılık HGX, NVLink bağlantılı bir çoklu GPU’ya dayalıdır.
AI ve HPC sistemlerinde en üst noktayı oluşturmak için ölçeklendirmek üzere uyarlanmış süpürgelik.

Nvidia, DGX GH200 Yapay Zeka Süper Bilgisayarını duyurdu

Üretken yapay zeka için Nvidia'nın Grace Hopper Superchip'leri tam üretime giriyor
Nvidia DGX GH200

Nvidia ayrıca, üretici AI dil uygulamaları için dev, yeni nesil modellerin geliştirilmesini sağlamak üzere oluşturulan, Nvidia GH200 Grace Hopper Superchips ve Nvidia NVLink Switch System tarafından desteklenen bir Nvidia DGX süper bilgisayarı olan yeni bir büyük bellekli AI süper bilgisayar sınıfını duyurdu. sistemler ve veri analitiği iş yükleri.

Nvidia DGX GH200’ün paylaşılan bellek alanı, 256 GH200 Superchip’i birleştirmek için NVLink Anahtar Sistemi ile NVLink ara bağlantı teknolojisini kullanır ve bunların tek bir GPU olarak çalışmasına olanak tanır. Bu, 1 exaflop performans ve 144 terabayt paylaşılan bellek sağlar — tek bir Nvidia DGX A100 sisteminden yaklaşık 500 kat daha fazla bellek.

Huang, “Üretken yapay zeka, büyük dil modelleri ve öneri sistemleri, modern ekonominin dijital motorlarıdır” dedi. “DGX GH200 AI süper bilgisayarları, Nvidia’nın en gelişmiş hızlandırılmış
yapay zekanın sınırlarını genişletmek için bilgi işlem ve ağ teknolojileri.”

GH200 süper yongaları, Nvidia NVLink-C2C yonga ara bağlantılarını kullanarak Arm tabanlı bir Nvidia Grace CPU ile bir Nvidia H100 Tensor Core GPU’yu aynı pakette birleştirerek geleneksel bir CPU-GPU PCIe bağlantısı ihtiyacını ortadan kaldırır. Bu, GPU ve CPU arasındaki bant genişliğini en son PCIe teknolojisine kıyasla 7 kat artırır, ara bağlantı güç tüketimini 5 kattan fazla azaltır ve DGX GH200 süper bilgisayarlar için 600 GB Hopper mimarisi GPU yapı taşı sağlar.

DGX GH200, Grace Hopper Superchip’leri bir DGX GH200 sistemindeki tüm GPU’ların tek olarak birlikte çalışmasını sağlayan yeni bir ara bağlantı olan Nvidia NVLink Anahtar Sistemi ile eşleştiren ilk süper bilgisayardır. Önceki nesil sistem, performanstan ödün vermeden yalnızca sekiz GPU’nun NVLink ile tek bir GPU olarak birleştirilmesini sağlıyordu.

DGX GH200 mimarisi, önceki nesle göre 10 kat daha fazla bant genişliği sağlayarak devasa bir yapay zeka süper bilgisayarın gücünü tek bir GPU programlamanın basitliğiyle sunar.

Google Cloud, Meta ve Microsoft, üretici yapay zeka iş yüklerine yönelik yeteneklerini keşfetmek için DGX GH200’e ilk erişim elde etmesi beklenenler arasında yer alıyor. Nvidia ayrıca DGX GH200 tasarımını, altyapıları için daha fazla özelleştirebilmeleri için bulut hizmeti sağlayıcılarına ve diğer hiper ölçekleyicilere bir plan olarak sağlamayı amaçlıyor.

Google Cloud’da Bilgi İşlemden Sorumlu Başkan Yardımcısı Mark Lohmeyer yaptığı açıklamada, “Gelişmiş üretken modeller oluşturmak, yapay zeka altyapısına yenilikçi yaklaşımlar gerektirir” dedi. “Grace Hopper Superchips’in yeni NVLink ölçeği ve paylaşılan belleği, büyük ölçekli yapay zekadaki önemli darboğazları ele alıyor ve Google Cloud ve üretken yapay zeka girişimlerimiz için yeteneklerini keşfetmeyi dört gözle bekliyoruz.”

Nvidia DGX GH200 süper bilgisayarlarının yıl sonuna kadar piyasaya çıkması bekleniyor.

Son olarak Huang, Nvidia Taipei-1 adlı yeni bir süper bilgisayarın yapay zeka ve endüstriyel metaverse uygulamalarının gelişimini ilerletmek için Asya’ya daha hızlandırılmış bilgi işlem kaynakları getireceğini duyurdu.

Taipei-1, Nvidia DGX Cloud AI süper bilgi işlem hizmetinin erişimini 64 ile bölgeye genişletecek
DGX H100 AI süper bilgisayarlar. Sistem aynı zamanda yerelleştirmeyi hızlandırmak için 64 Nvidia OVX sistemini içerecektir.
her ölçekte verimli hızlandırılmış bilgi işlemi desteklemek için araştırma ve geliştirme ve Nvidia ağı.
Nvidia’nın sahibi olduğu ve işlettiği sistemin bu yılın sonlarında devreye girmesi bekleniyor.

Önde gelen Tayvan eğitim ve araştırma enstitüleri, ilerlemek için Taipei-1’e ilk erişenler arasında olacak
sağlık hizmetleri, büyük dil modelleri, iklim bilimi, robotik, akıllı üretim ve endüstriyel dijital
ikizler Ulusal Tayvan Üniversitesi, ilk Taipei-1 projesi olarak büyük dil modeli konuşma öğrenimini incelemeyi planlıyor.

“Ulusal Tayvan Üniversitesi araştırmacıları kendilerini bilimi geniş bir yelpazede ilerletmeye adamıştır.
Asistan Shao-Hua Sun, disiplinler, giderek daha fazla hızlandırılmış bilgi işlem gerektiren bir taahhüt” dedi.
Ulusal Tayvan Üniversitesi Elektrik Mühendisliği Bölümü profesörü, yaptığı açıklamada. “Nvidia Taipei-1 süper bilgisayarı, araştırmacılarımızın, fakültemizin ve öğrencilerimizin birçok sektördeki karmaşık zorlukların üstesinden gelmek için yapay zeka ve dijital ikizlerden yararlanmalarına yardımcı olacak.”

GamesBeat’in inancı oyun endüstrisini ele alırken “tutkunun iş ile buluştuğu yer.” Bu ne anlama gelir? Haberlerin sizin için ne kadar önemli olduğunu anlatmak istiyoruz — sadece bir oyun stüdyosunda karar verici olarak değil, aynı zamanda bir oyun hayranı olarak. İster makalelerimizi okuyun, ister podcast’lerimizi dinleyin, ister videolarımızı izleyin, GamesBeat sektör hakkında bilgi edinmenize ve sektörle etkileşim kurmanın keyfini çıkarmanıza yardımcı olacaktır. Brifinglerimizi keşfedin.


Kaynak : https://venturebeat.com/ai/nvidias-grace-hopper-superchips-for-generative-ai-enter-full-production/

Yorum yapın

SMM Panel PDF Kitap indir