Hopper GPU:er re­pre­sen­te­rar NVIDIAs senaste ge­ne­ra­tion av hög­pre­ste­ran­de gra­fik­pro­ces­so­rer, spe­ci­al­bygg­da för AI och hög­pre­ste­ran­de da­ta­be­hand­ling (HPC). De har en ban­bry­tan­de ar­ki­tek­tur med avan­ce­ra­de Tensor Cores och in­te­gre­rar flera in­no­va­ti­va tekniker för att leverera maximal ef­fek­ti­vi­tet. Hopper GPU:er är idealiska för ett brett spektrum av ar­bets­be­last­ning­ar och stöder AI-inferens, deep learning-träning, generativ AI och mycket mer.

Hur ser den ar­ki­tek­to­nis­ka ut­form­ning­en av NVIDIA:s Hopper-GPU:er ut?

Namnet “Hopper GPU” kommer från Hopper-ar­ki­tek­tu­ren, som är den GPU-mikro­ar­ki­tek­tur som utgör grunden för hög­pre­ste­ran­de gra­fik­pro­ces­so­rer och är optimerad för AI-ar­bets­be­last­ning­ar och HPC-ap­pli­ka­tio­ner. Hopper GPU:er till­ver­kas av TSMC med hjälp av 4-na­no­me­ter­pro­ces­sen och har över 80 miljarder tran­sis­to­rer, vilket gör dem till några av de mest avan­ce­ra­de gra­fik­kor­ten på marknaden.

Med Hopper-ar­ki­tek­tu­ren kom­bi­ne­rar NVIDIA den senaste ge­ne­ra­tio­nen av Tensor Cores med fem ban­bry­tan­de in­no­va­tio­ner: trans­for­mator­mo­tor, NVLink/NVSwitch/NVLink-swit­ch­sy­stem, kon­fi­den­ti­ell da­ta­be­hand­ling, andra ge­ne­ra­tio­nens multi-instance GPU:er (MIG:er) och DPX-in­struk­tio­ner. Dessa tekniker gör det möjligt för Hopper-GPU:er att uppnå upp till 30 gånger snabbare AI-inferens jämfört med fö­re­gå­en­de ge­ne­ra­tion (baserat på NVIDIA:s Megatron 530B-chatbot – världens mest om­fat­tan­de ge­ne­ra­ti­va språk­mo­dell).

Vilka är de in­no­va­ti­va funk­tio­ner­na hos Hopper-gra­fik­pro­ces­so­rer?

Hopper-GPU:er har flera nya funk­tio­ner som bidrar till att förbättra prestanda, ef­fek­ti­vi­tet och skal­bar­het. Nedan pre­sen­te­rar vi de vik­ti­gas­te in­no­va­tio­ner­na:

  • Trans­for­ma­tor-motor: Med hjälp av trans­for­ma­tor-motorn kan Hopper-GPU:er träna AI-modeller upp till nio gånger snabbare. För in­fe­rens­upp­gif­ter inom området språk­mo­del­ler uppnår GPU:erna upp till 30 gånger snabbare ac­ce­le­ra­tion än fö­re­gå­en­de ge­ne­ra­tion.
  • NVLink-swit­ch­sy­stem: Den fjärde ge­ne­ra­tio­nen av NVLink levererar en dub­bel­rik­tad GPU-bandbredd på 900 GB/s, medan NVSwitch sä­ker­stäl­ler bättre skal­bar­het för H200-kluster. Detta sä­ker­stäl­ler att AI-modeller med biljoner pa­ra­met­rar kan bearbetas effektivt.
  • Kon­fi­den­ti­ell da­ta­be­hand­ling: Hopper-ar­ki­tek­tu­ren sä­ker­stäl­ler att dina data, AI-modeller och al­go­rit­mer också skyddas under be­ar­bet­ning­en.
  • Multi-instance GPU (MIG) 2.0: Den andra ge­ne­ra­tio­nen av MIG-teknik gör det möjligt att dela upp en enda Hopper-GPU i upp till sju isolerade instanser. Detta gör att flera personer kan bearbeta olika ar­bets­be­last­ning­ar samtidigt utan att störa varandra.
  • DPX-in­struk­tio­ner: DPX-in­struk­tio­ner gör det möjligt att beräkna dynamiskt pro­gram­me­ra­de al­go­rit­mer upp till sju gånger snabbare än med GPU:er med Ampere-ar­ki­tek­tu­ren.

Vilka an­vänd­nings­om­rå­den är Hopper GPU:er lämpliga för?

NVIDIA-gra­fik­pro­ces­so­rer baserade på Hopper-ar­ki­tek­tu­ren är utformade för ett brett spektrum av hög­pre­ste­ran­de ar­bets­be­last­ning­ar. De hu­vud­sak­li­ga an­vänd­nings­om­rå­de­na för Hopper-gra­fik­pro­ces­so­rer är: ¬

  • In­fe­rens­upp­gif­ter: GPU:erna är bland de branschle­dan­de lös­ning­ar­na för produktiv an­vänd­ning av AI-inferens. Oavsett om det gäller re­kom­men­da­tions­sy­stem inom e-handel, medicinsk di­a­gnostik eller re­al­tids­pro­gno­ser för autonom körning, kan Hopper GPU:er bearbeta enorma mängder data snabbt och effektivt.
  • Generativ AI: De avan­ce­ra­de GPU:erna till­han­da­hål­ler den nöd­vän­di­ga da­tor­kraf­ten för att träna och köra verktyg med generativ AI. Pa­ral­lell­be­ar­bet­ning möjliggör ef­fek­ti­va­re be­räk­ning­ar för kreativa uppgifter som text-, bild- och vi­deo­ge­ne­re­ring.
  • Deep learning-träning: Med sin höga da­tor­kraft är Hopper-GPU:er idealiska för träning av stora neurala nätverk. Hopper-ar­ki­tek­tu­ren förkortar trä­nings­ti­der­na för AI-modeller avsevärt.
  • Kon­ver­sa­tions-AI: Hopper-GPU:er är op­ti­me­ra­de för naturlig språk­be­hand­ling (NLP) och är idealiska för AI-drivna språk­sy­stem, såsom virtuella as­si­sten­ter och AI-chatt­bot­tar. De påskyndar be­ar­bet­ning­en av stora AI-modeller och sä­ker­stäl­ler responsiv in­ter­ak­tion som kan in­te­gre­ras sömlöst i af­färs­pro­ces­ser, såsom support.
  • Da­taa­na­lys och big data: Hopper-GPU:er hanterar enorma da­ta­mäng­der med hög hastighet och ac­ce­le­re­rar komplexa be­räk­ning­ar genom massiv pa­ral­lell­be­ar­bet­ning. Detta gör det möjligt för företag att utvärdera big data snabbare för att göra prognoser och vidta rätt åtgärder.
  • Vetenskap och forskning: Eftersom GPU:erna är utformade för HPC-ap­pli­ka­tio­ner är de idealiska för mycket komplexa si­mu­le­ring­ar och be­räk­ning­ar. Hopper GPU:er används till exempel inom astro­fy­sik, kli­mat­mo­del­le­ring och be­räk­nings­ke­mi.

Aktuella modeller från NVIDIA

Med lan­se­ring­en av NVIDIA H100 och NVIDIA H200 har det ame­ri­kans­ka företaget in­tro­du­ce­rat två Hopper-GPU:er på marknaden. NVIDIA A30 är däremot fort­fa­ran­de baserad på den tidigare Ampere-ar­ki­tek­tu­ren. Tekniskt sett är H200 inte en helt ny modell utan snarare en för­bätt­rad version av H100. Följande översikt belyser de vik­ti­gas­te skill­na­der­na mellan dessa två GPU:er:

  • Minne och bandbredd: Medan NVIDIA H100 är utrustad med ett 80 GB HBM3-minne, har H200 GPU ett HBM3e-minne med en kapacitet på 141 GB. H200 ligger också klart i framkant när det gäller min­nes­band­bredd med 4,8 TB/s jämfört med 2 TB/s för H100.
  • Prestanda för AI-inferens: I jäm­fö­rel­se ger NVIDIA H200 dubbelt så hög in­fe­rens­pre­stan­da för modeller som LLaMA 2-70 B. Detta möjliggör inte bara snabbare be­ar­bet­ning, utan också effektiv skalning.
  • HPC-ap­pli­ka­tio­ner och ve­ten­skap­lig da­ta­be­hand­ling: H100 erbjuder redan en först­klas­sig prestanda för komplexa be­räk­ning­ar, som H200 över­träf­far. In­fe­rens­has­tig­he­ten är upp till dubbelt så hög och HPC-pre­stan­dan cirka 20 procent högre.
Gå till huvudmeny