Luni, Nvidia dezvăluit cipul de miez tensor Blackwell B200 — cel mai puternic GPU cu un singur cip al companiei, cu 208 miliarde de tranzistori — despre care Nvidia susține că poate reduce costurile de operare ale inferenței AI (cum ar fi funcționarea ChatGPT) și consumul de energie de până la 25 de ori față de H100. Compania a dezvăluit și GB200, un „supercip” care combină două cipuri B200 și un procesor Grace pentru și mai multă performanță.
Vestea a venit ca parte a conferinței anuale GTC a Nvidia, care are loc săptămâna aceasta la Centrul de Convenții din San Jose. CEO-ul Nvidia, Jensen Huang, a livrat keynote Luni după-amiază. „Avem nevoie de GPU-uri mai mari”, a spus Huang în timpul discursului său. Platforma Blackwell va permite formarea modelelor AI cu un trilion de parametri care vor face ca modelele AI generative de astăzi să pară rudimentare în comparație, a spus el. Pentru referință, GPT-3 de la OpenAI, lansat în 2020, a inclus 175 de miliarde de parametri. Numărul de parametri este un indicator aproximativ al complexității modelului AI.
Nvidia a numit arhitectura Blackwell după David Harold Blackwell, un matematician specializat în teoria jocurilor și statistică și a fost primul savant de culoare inclus în Academia Națională de Științe. Platforma introduce șase tehnologii pentru calcularea accelerată, inclusiv un Transformer Engine de a doua generație, NVLink de a cincea generație, RAS Engine, capabilități AI securizate și un motor de decompresie pentru interogări accelerate de baze de date.
Comentarii recente