Joi, mai multe companii tehnologice importante, inclusiv Google, Intel, Microsoft, Meta, AMD, Hewlett-Packard Enterprise, Cisco și Broadcom, au anunțat formarea Ultra Accelerator Link (UALink) Promoter Group pentru a dezvolta un nou standard de interconectare pentru AI. cipuri acceleratoare din centrele de date. Grupul își propune să creeze o alternativă la proprietatea Nvidia NVLink tehnologia de interconectare, care conectează mai multe servere care alimentează aplicațiile AI de astăzi, cum ar fi ChatGPT.
Inima care bate a AI zilelor noastre se află în GPU-uri, care poate efectua un număr masiv de înmulțiri de matrice – necesare pentru rularea arhitecturii rețelei neuronale – în paralel. Dar un GPU adesea nu este suficient pentru sistemele AI complexe. NVLink poate conecta mai multe cipuri acceleratoare AI într-un server sau pe mai multe servere. Aceste interconexiuni permit transferul mai rapid de date și comunicarea între acceleratoare, permițându-le să lucreze împreună mai eficient la sarcini complexe, cum ar fi antrenarea modelelor mari de IA.
Această conexiune este o parte cheie a oricărui sistem modern de centru de date AI și oricine controlează standardul de legătură poate dicta în mod eficient ce hardware vor folosi companiile de tehnologie. În acest sens, grupul UALink încearcă să stabilească un standard deschis care să permită mai multor companii să contribuie și să dezvolte progrese hardware AI în loc să fie blocate în ecosistemul proprietar al Nvidia. Această abordare este similară cu alte standarde deschise, cum ar fi Calculează legătura rapidă (CXL) — creat de Intel în 2019 — care oferă conexiuni de mare viteză, de mare capacitate între procesoare și dispozitive sau memorie în centrele de date.
Comentarii recente