NVIDIA GB200 NVL72 ustanawia nowy rekord STAC-AI w inferencji LLM dla handlu finansowego, zapewniając do 3,2x wydajności w porównaniu do architektury Hopper. (Read More)NVIDIA GB200 NVL72 ustanawia nowy rekord STAC-AI w inferencji LLM dla handlu finansowego, zapewniając do 3,2x wydajności w porównaniu do architektury Hopper. (Read More)

NVIDIA Blackwell rozbija benchmark AI w finansach z 3,2-krotnym wzrostem prędkości

2026/03/06 02:17
3 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem [email protected]

NVIDIA Blackwell osiąga przełomowe wyniki w testach AI dla finansów z 3,2-krotnym wzrostem prędkości

Iris Coleman 05 mar 2026 18:17

GB200 NVL72 firmy NVIDIA ustanawia nowy rekord STAC-AI w zakresie wnioskowania LLM w handlu finansowym, zapewniając do 3,2-krotnie wyższą wydajność w porównaniu z architekturą Hopper.

NVIDIA Blackwell osiąga przełomowe wyniki w testach AI dla finansów z 3,2-krotnym wzrostem prędkości

Architektura Blackwell firmy NVIDIA właśnie opublikowała najszybsze w historii wyniki w teście porównawczym STAC-AI dla wnioskowania LLM w finansach, przy czym GB200 NVL72 zapewnia do 3,2-krotną poprawę wydajności pojedynczego GPU w porównaniu z poprzednią generacją Hopper. Wyniki z 5 marca 2026 mają znaczenie dla firm handlowych dążących do uzyskania przewagi alfa z analizy danych nieustrukturyzowanych.

Strategic Technology Analysis Center, które testuje obciążenia technologii finansowych od ponad 15 lat, przetestowało Blackwell w rzeczywistych scenariuszach przy użyciu dokumentów EDGAR 10-K — gęstych raportów rocznych, które fundusze ilościowe analizują w poszukiwaniu sygnałów inwestycyjnych. Uruchamiając modele Llama 3.1 firmy Meta, GB200 NVL72 osiągnął 37 480 słów na sekundę w przypadku finansowych podpowiedzi średniej długości, w porównaniu z 8 237 WPS dla systemów podwójnych GH200.

Surowe liczby mówią same za siebie

Na modelu Llama 3.1 8B z danymi EDGAR4, Blackwell przetworzył 224 żądania na sekundę w porównaniu z 51,5 RPS dla Hopper — 4,3-krotna poprawa na poziomie systemu. Różnica powiększyła się w zadaniach wymagających większej mocy obliczeniowej: model 70B parametrów na długich dokumentach EDGAR5 odnotował wzrost przepustowości z 41,4 WPS do 150 WPS.

Co umożliwia te osiągnięcia? Nowy format kwantyzacji NVFP4 firmy NVIDIA, ekskluzywny dla Blackwell, kompresuje modele do mniejszych śladów pamięci bez utraty dokładności. Hopper korzystał z kwantyzacji FP8; skok architektoniczny do czterobiowej precyzji w Blackwell odblokowuje różnicę przepustowości.

Wydajność interaktywna ma znaczenie dla handlu

Przetwarzanie wsadowe to jedno. Decyzje handlowe w czasie rzeczywistym wymagają szybkich odpowiedzi. Tutaj Blackwell utrzymał niższe czasy reakcji (analogiczne do czasu do pierwszego tokenu) i lepsze opóźnienie międzysłowne, nawet gdy był przesuwany w kierunku maksymalnej przepustowości. Przy dopasowanych poziomach wykorzystania, GB200 NVL72 konsekwentnie przewyższał GH200 pod względem metryk responsywności w większości scenariuszy testowych.

Dla biur handlowych przeprowadzających analizę nastrojów na podstawie rozmów o zarobkach lub analizujących najświeższe wiadomości, ta przewaga opóźnienia przekłada się bezpośrednio na szybsze podejmowanie decyzji. Test porównawczy wyraźnie przetestował pełny potok wnioskowania, w tym tokenizację — pracę, której rzeczywiste wdrożenia nie mogą pominąć.

Kontekst rynkowy

Akcje NVIDIA notowane były po 181,41 USD 5 marca, wzrost o 1,1% tego dnia, przy kapitalizacji rynkowej firmy wynoszącej 4,42 biliona USD. Architektura Blackwell, ogłoszona na GTC 2024, została zaprojektowana specjalnie dla obciążeń generatywnej AI. CEO Jensen Huang przedstawił ją jako napędzającą "nową rewolucję przemysłową", a te wyniki testów porównawczych dostarczają konkretnych dowodów na to twierdzenie w sektorze finansowym.

Superczip GB200 Grace Blackwell łączy dwa GPU B200 z procesorem Grace CPU, zawierając przeprojektowane rdzenie AI Tensor Cores i piątą generację NVLink do skalowania do 576 GPU. Wcześniejsze wyniki MLPerf wykazały 2,2-krotne zwiększenie treningu na Llama 3.1 405B; te liczby STAC-AI potwierdzają, że podobne korzyści rozciągają się na wnioskowanie.

Hopper wciąż aktualny

Warto zauważyć: trzyletnia architektura Hopper opublikowała godne szacunku liczby. Firmy handlowe z istniejącymi wdrożeniami GH200 nie stają się przestarzałe z dnia na dzień. Ale dla nowych budów lub firm, w których szybkość wnioskowania bezpośrednio wpływa na zwroty, ekonomia Blackwell wygląda atrakcyjnie — NVIDIA twierdzi, że ma do 25-krotną redukcję kosztów operacyjnych wnioskowania LLM w porównaniu z poprzednimi generacjami.

Pełne raporty STAC, w tym szczegółowe metryki trybu interaktywnego dla różnych wskaźników przybycia, są dostępne za pośrednictwem oficjalnych kanałów STAC. Instytucje finansowe oceniające aktualizacje infrastruktury AI mają teraz zaudytowane dane stron trzecich do informowania decyzji zakupowych.

Źródło obrazu: Shutterstock
  • nvidia
  • blackwell
  • wnioskowanie ai
  • handel finansowy
  • llm
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z [email protected] w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.