NVIDIA H100 är en avancerad GPU som är speciellt utvecklad för AI, dju­pin­lär­ning och HPC-ap­pli­ka­tio­ner. H100 GPU baseras på den in­no­va­ti­va Hopper-ar­ki­tek­tu­ren och använder kraft­ful­la fjärde ge­ne­ra­tio­nens Tensor Cores för att leverera ex­cep­tio­nell prestanda. Tack vare sin enorma da­torka­pa­ci­tet är NVIDIA:s H100 idealisk för träning av komplexa neurala nätverk, da­tain­ten­si­va moln­ar­bets­be­last­ning­ar och in­veck­la­de HPC-si­mu­le­ring­ar.

Vilka är funk­tio­ner­na hos NVIDIA H100?

NVIDIA H100 erbjuder en ex­cep­tio­nell prestanda baserad på den nya Hopper-ar­ki­tek­tu­ren. Den kom­bi­ne­rar Tensor Core-teknik med en trans­for­mator­mo­tor för att ge mer da­tor­kraft och avsevärt påskynda träningen av AI-modeller. NVIDIA erbjuder H100 GPU i två varianter, H100 SXM och H100 NVL.

De två ver­sio­ner­na skiljer sig åt i form­fak­tor, prestanda, min­nes­band­bredd och an­slut­nings­möj­lig­he­ter. H100 SXM är främst avsedd för an­vänd­ning i servrar med hög densitet och hy­per­sca­le-miljöer. H100 NVL är däremot avsedd för PCIe-kort­plat­ser, vilket gör det enklare att integrera GPU:n i be­fint­li­ga ser­ver­struk­tu­rer. Följande tabell ger en de­tal­je­rad översikt över pre­stan­dae­gen­ska­per­na hos de två NVIDIA H100-va­ri­an­ter­na:

Pre­stan­da­funk­tion NVIDIA H100 SXM NVIDIA H100 NVL
FP64 34 TFLOPS 30 TFLOPS
FP64 Tensor Core 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
TF32 Tensor Core 989 TFLOPS 835 TFLOPS
BFLOAT16 Tensor Core 1 979 TFLOPS 1 671 TFLOPS
FP16 Tensor Core 1 979 TFLOPS 1 671 TFLOPS
FP8 Tensor Core 3 958 TFLOPS 3 341 TFLOPS
INT8 Tensor Core 3 958 TOPS 3 341 TOPS
GPU-minne 80 GB 94 GB
GPU-min­nes­band­bredd 3,35 TB/s 3,9 TB/s
Avkodare 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG
Maximal termisk de­sign­kraft (TDP) 700 W (kon­fi­gu­rer­bar) 350–400 W (kon­fi­gu­rer­bar)
Multi-instance GPU (MIG) Upp till 7 MIG med 10 GB vardera Upp till 7 MIG med 12 GB vardera
Form­fak­tor SXM PCIe med två kort­plat­ser och luft­kyl­ning
Gräns­snitt NVIDIA NVLink 900 GB/s, PCIe Gen5: 120 GB/s NVIDIA NVLink: 600 GB/s, PCIe Gen5 128 GB/s
Ser­ve­ral­ter­na­tiv NVIDIA HGX H100-partner och NVIDIA-cer­ti­fi­e­ra­de system med 4 eller 8 GPU:er, NVIDIA DGX H100 med 8 GPU:er Partner och NVIDIA-cer­ti­fi­e­ra­de system med upp till 8 GPU:er
NVIDIA AI En­ter­pri­se Tillägg In­klu­de­rat
Notis

TFLOPS (TeraFloatingPoint Ope­ra­tionsPerSecond) är en enhet som beskriver datorers be­räk­nings­has­tig­het (flytande decimaler). En TFLOPS motsvarar en biljon be­räk­ning­ar per sekund. Detsamma gäller enheten TOPS (TeraOpe­ra­tionsPerSecond) – med den skill­na­den att här avses hel­tal­be­räk­ning­ar.

Vilka är för­de­lar­na och nack­de­lar­na med NVIDIA H100?

NVIDIA H100 är en av de kraft­ful­las­te GPU:erna på marknaden och har utrustats med ett flertal avan­ce­ra­de tekniker och funk­tio­ner. De vik­ti­gas­te för­de­lar­na med H100 GPU är:

  • Mycket hög da­tor­kraft: H100 erbjuder ena­stå­en­de FP8- och FP16-Tensor Core-prestanda, vilket gör den idealisk för komplexa, da­tain­ten­si­va ar­bets­be­last­ning­ar såsom stora språk­mo­del­ler (LLM). Kom­bi­na­tio­nen av fjärde ge­ne­ra­tio­nens Tensor Cores och trans­for­mator­mo­tor kan avsevärt öka ef­fek­ti­vi­te­ten i AI-ope­ra­tio­ner.
  • NVLink och NVSwitch: NVIDIA H100 stöder fjärde ge­ne­ra­tio­nens NVLink, vilket gör det möjligt att ansluta flera server-GPU:er till varandra med en dub­bel­rik­tad bandbredd på 900 GB/s. Tack vare NVSwitch är det också möjligt att flexibelt skala mot­sva­ran­de kluster.
  • Multi-instance GPU (MIG): GPU:n kan delas upp i upp till sju oberoende GPU-instanser, vilket möjliggör samtidig körning av flera ar­bets­be­last­ning­ar med de­di­ke­ra­de resurser. Detta för­bätt­rar flex­i­bi­li­te­ten och ef­fek­ti­vi­te­ten i delade datormil­jö­er.
  • Kon­fi­den­ti­ell da­ta­be­hand­ling: Tack vare den in­te­gre­ra­de sä­ker­hets­funk­tio­nen skyddas da­ta­kon­fi­den­ti­a­li­te­ten och in­tegri­te­ten under hela ar­bets­be­last­ning­en.
  • HBM3-minne och PCIe Gen5-stöd: Med upp till 94 GB HBM3-minne och en bandbredd på upp till 3,9 TB/s erbjuder NVIDIA H100 en av de mest kraft­ful­la min­nes­lös­ning­ar­na för da­tain­ten­si­va ar­bets­be­last­ning­ar. I kom­bi­na­tion med PCIe Gen5 möjliggör det mycket snabb da­taö­ver­fö­ring.

Detta visar sig dock vara en nackdel, eftersom den höga pre­stan­dan hos NVIDIA H100 också åter­speglas i priset. Beroende på version kostar GPU:erna mellan 25 000 och 35 000 pund. H100-instanser är därför också relativt dyra i moln­mil­jö­er. En annan nackdel är den be­grän­sa­de till­gäng­lig­he­ten. På grund av den höga ef­ter­frå­gan fö­re­kom­mer det alltid le­ve­rans­pro­blem och långa vän­te­ti­der.

Vilka ap­pli­ka­tio­ner passar NVIDIA:s H100 GPU bäst för?

NVIDIA GPU H100 har ut­veck­lats speciellt för be­räk­nings­in­ten­si­va ar­bets­be­last­ning­ar och är särskilt lämplig för krävande AI- och HPC-ap­pli­ka­tio­ner. Följande översikt visar de vik­ti­gas­te an­vänd­nings­om­rå­de­na för H100 GPU:

  • Tränings av stora AI-modeller: Tack vare sin höga da­tor­kraft ac­ce­le­re­rar GPU:n avsevärt mo­dell­trä­ning­en av komplexa neurala nätverk och stora språk­mo­del­ler som GPT eller LLaMA.
  • AI-inferens i realtid: H100 kan köra för­trä­na­de AI-modeller med högsta hastighet, vilket är en fördel inom områden som tal­be­ar­bet­ning och bil­di­gen­kän­ning.
  • Moln och da­ta­cen­ter: GPU:er utgör grunden för många GPU-servrar genom att till­han­da­hål­la den da­tor­kraft som krävs för komplexa ar­bets­be­last­ning­ar.
  • Hög­pre­ste­ran­de da­ta­be­hand­ling (HPC): Ve­ten­skap­li­ga be­räk­ning­ar och si­mu­le­ring­ar drar nytta av den höga FP64-pre­stan­dan hos H100-gra­fik­pro­ces­so­rer­na.
  • Generativ AI: NVIDIA:s H100 är idealisk för text-, bild- och vi­deo­ge­ne­re­ring med AI-modeller. GPU:n möjliggör snabb och effektiv be­ar­bet­ning av stora da­ta­mäng­der som krävs för generativ AI.
  • Da­taa­na­lys: Hopper-GPU:er stöder företag i olika branscher – såsom logistik och finans – i att ta fram precisa prognoser och för­ut­sä­gel­ser från stora da­ta­mäng­der.

Vilka är de möjliga al­ter­na­ti­ven till H100 GPU?

Även om NVIDIA H100 är en av de mest kraft­ful­la GPU:erna för AI och HPC, kan al­ter­na­ti­va lösningar finnas till­gäng­li­ga beroende på an­vänd­nings­fall och budget. Till exempel på grund av högre kost­nads­ef­fek­ti­vi­tet. Möjliga al­ter­na­tiv in­klu­de­rar bland annat:

  • NVIDIA A100: Fö­re­gång­ar­mo­del­len erbjuder också stabil prestanda för AI-träning, inferens och HPC, men är billigare.
  • NVIDIA A30: A30 kom­bi­ne­rar hög prestanda med ett över­kom­ligt pris.
  • NVIDIA H200: H200 är en något för­bätt­rad version av NVIDIA H100, som har ännu högre min­nes­band­bredd.
  • Intel Gaudi 3: AI-ac­ce­le­ra­torn levererar hög prestanda för AI-inferens.
Notis

Vi pre­sen­te­rar de gra­fik­kort som används mest för när­va­ran­de mer de­tal­je­rat i vår artikel där vi jämför server-GPU:er.

Gå till huvudmeny