Gigantul de cipuri NVIDIA se pregătește să dezvăluie un nou procesor puternic de inteligență artificială conceput pentru a accelera modul în care chatbot-urile și alte instrumente AI generează răspunsuri, putând face ca sistemele actuale precum ChatGPT să pară lente în comparație.
Noua platformă, care se așteaptă să debuteze la conferința anuală pentru dezvoltatori GTC a NVIDIA, este optimizată pentru inferența AI, etapa în care modelele antrenate produc răspunsuri la solicitările utilizatorilor. Spre deosebire de GPU-urile tradiționale construite pentru a gestiona atât antrenamentul, cât și inferența, procesorul viitor se concentrează în mod specific pe furnizarea de răspunsuri mai rapid și mai eficient.
Produsul, dacă va fi lansat, va marca primul rezultat tangibil al acordului din decembrie care a adus fondatorii Groq în cadrul companiei, a cărei companie este specializată în hardware de procesare AI de mare viteză.
La sfârșitul anului trecut, NVIDIA ar fi cheltuit aproximativ 20 de miliarde de dolari pentru a licenția tehnologia de la startup-ul de cipuri Groq și pentru a recruta personal cheie, inclusiv CEO-ul său. Aproximativ în același timp, CEO-ul NVIDIA, Jensen Huang, le-a spus angajaților: "Plănuim să integrăm procesoarele cu latență redusă ale Groq în arhitectura fabricii AI NVIDIA, extinzând platforma pentru a deservi o gamă și mai largă de sarcini de inferență AI și în timp real."
Acum, noul cip de inferență este de așteptat să gestioneze interogări AI complexe la viteză mare, OpenAI și alți clienți de frunte fiind probabil să îl adopte, conform The Wall Street Journal. Raportul său a arătat, de asemenea, că noul cip ar putea gestiona aproape 10% din volumul de inferență al OpenAI.
Cipul în stil Groq va utiliza SRAM, spun sursele
În timpul unui apel recent privind veniturile, CEO-ul NVIDIA a sugerat că mai multe produse noi vor fi dezvăluite la evenimentul GTC viitor, adesea descris ca "Super Bowl-ul AI". El a remarcat: "Am câteva idei grozave pe care aș dori să le împărtășesc cu voi la GTC."
Majoritatea analiștilor sunt de acord că cipul în stil Groq ar putea face parte din gamă. Ei au afirmat, de asemenea, că designul său ar putea lumina modul în care NVIDIA urmărește să abordeze constrângerile de memorie în calculul de inferență. Astfel de platforme funcționează de obicei pe memorie cu lățime de bandă mare (HBM). Cu toate acestea, HBM a fost dificil de aprovizionat în ultima vreme.
Persoanele din interior au afirmat că firma plănuiește să folosească SRAM în cip în loc de RAM-ul dinamic asociat cu HBM. În mod ideal, SRAM este mai accesibil și poate îmbunătăți performanța sarcinilor de raționament AI.
Dacă cipul va fi dezvăluit, ar putea fi un mare pas înainte pentru compania de cipuri și modelele antrenate prin AI. Cu toate acestea, vorbind despre posibila sa lansare, Sid Sheth, fondatorul și CEO-ul d-Matrix, a aruncat o umbră asupra dezvoltării sale. El a remarcat că, deși NVIDIA rămâne liderul clar în antrenamentul AI, inferența reprezintă un peisaj foarte diferit. El a împărtășit: "Dezvoltatorii se pot întoarce la concurenți alții decât NVIDIA, deoarece rularea modelelor AI finalizate nu necesită același tip de programare ca antrenarea lor."
Cu toate acestea, alți giganți tehnologici avansează, de asemenea, calculul de inferență. Meta a dezvăluit în această săptămână patru procesoare adaptate pentru inferență, determinând un investitor din Silicon Valley să spună că industria ar putea intra într-o fază non-"dominată de NVIDIA".
Cu toate acestea, mai recent, June Paik, directorul executiv al FuriosaAI, un rival NVIDIA, comentând asupra beneficiului calculului de inferență ușor de implementat, a avertizat că majoritatea centrelor de date nu pot acomoda cele mai recente GPU-uri răcite cu lichid.
Cu toate acestea, în ciuda îngrijorărilor sale, analiștii Bank of America se așteaptă ca sarcinile de inferență să reprezinte 75% din cheltuielile centrelor de date AI până în 2030, când piața va ajunge la aproximativ 1,2 trilioane de dolari, în creștere de la aproximativ 50% anul trecut. Ben Bajarin, un analist tehnologic la Creative Strategies, a afirmat, de asemenea, că centrele de date ale viitorului nu se vor conforma unui model universal, anticipând că companiile vor adopta abordări diferite pentru dezvoltarea cipurilor și a instalațiilor.
NVIDIA se așteaptă să lanseze cipurile Vera Rubin mai târziu în 2026
NVIDIA a lansat, de asemenea, recent cipurile sale AI de generație următoare, cipurile AI Vera Rubin, anticipând că creșterea platformelor AI de raționament, cum ar fi DeepSeek, va alimenta o cerere și mai mare de calcul. A susținut că cipurile vor ajuta la antrenarea modelelor AI mai mari și vor furniza rezultate mai sofisticate către o bază de utilizatori mai largă.
Conform lui Huang, Rubin va ajunge, de asemenea, pe piață în a doua jumătate a anului 2026, cu o versiune "ultra" de înaltă performanță care va veni în 2027.
El a explicat, de asemenea, că un singur sistem Rubin ar combina 576 de GPU-uri individuale într-un singur cip. În prezent, cipul Blackwell al NVIDIA grupează 72 de GPU-uri în sistemul său NVL72, ceea ce înseamnă că Rubin va avea o memorie mai avansată.
Sursă: https://www.cryptopolitan.com/nvidias-chip-could-make-chatgpt-look-slow/


