Joi, platforma de găzduire AI Hugging Face depăşit 1 milion de liste de modele AI pentru prima dată, marcând o piatră de hotar în domeniul în expansiune rapidă al învățării automate. Un model AI este un program de calculator (folosind adesea o rețea neuronală) antrenat pe date pentru a îndeplini sarcini specifice sau a face predicții. Platforma, care a început ca o aplicație chatbot în 2016, înainte de a pivota pentru a deveni un hub open source pentru modelele AI în 2020, găzduiește acum o gamă largă de instrumente pentru dezvoltatori și cercetători.
Domeniul de învățare automată reprezintă o lume mult mai mare decât modelele mari de limbă (LLM) precum cele care alimentează ChatGPT. Într-o postare pe X, CEO-ul Hugging Face, Clément Delangue a scris despre modul în care compania sa găzduiește multe modele AI de profil, cum ar fi „Llama, Gemma, Phi, Flux, Mistral, Starcoder, Qwen, Stable diffusion, Grok, Whisper, Olmo, Command, Zephyr, OpenELM, Jamba, Yi”, dar și „999.984 alții”.
Motivul pentru care, spune Delangue, provine din personalizare. „Spre deosebire de eroarea „modelul 1 pentru a-i guverna pe toți”,” a scris el, „modele mai mici, specializate și personalizate optimizate pentru cazul dvs. de utilizare, domeniul dvs., limba, hardware-ul și, în general, constrângerile dvs. sunt mai bune. De fapt. , ceva despre care puțini oameni își dau seama este că există aproape la fel de multe modele pe Hugging Face care sunt private doar unei singure organizații – pentru ca companiile să construiască AI în mod privat, în special pentru cazurile lor de utilizare.”
Comentarii recente