Un robot ilustrat care ține un steag francez.

Mărește / O ilustrație a unui robot care ține un steag francez, reflectând la figurat creșterea IA în Franța din cauza lui Mistral. Este greu să desenezi o imagine a unui LLM, așa că un robot va trebui să facă. (credit: Getty Images)

Luni, Mistral AI a anunţat un nou model de limbaj AI numit Mixtral 8x7B, un model „amestec de experți” (MoE) cu greutăți deschise care se pare că se potrivește cu adevărat cu OpenAI GPT-3.5 în performanță — o realizare care a fost revendicată de alții în trecut, dar care este luată în serios de cei grei AI, cum ar fi OpenAI Andrej Karpathy și Jim Fan. Aceasta înseamnă că suntem mai aproape de a avea un asistent AI la nivel ChatGPT-3.5 care poate rula liber și local pe dispozitivele noastre, având în vedere implementarea corectă.

Mistral, cu sediul la Paris și fondată de Arthur Mensch, Guillaume Lampe și Timothée Lacroix, a cunoscut recent o creștere rapidă a spațiului AI. A fost repede strângerea de capital de risc pentru a deveni un fel de anti-OpenAI francez, susținând modele mai mici cu performanțe atrăgătoare. Cel mai important, modelele lui Mistral rulează local cu greutăți deschise care pot fi descărcate și utilizate cu mai puține restricții decât modelele AI închise de la OpenAI, Anthropic sau Google. (În acest context, „greutățile” sunt fișierele computerizate care reprezintă o rețea neuronală antrenată.)

Mixtral 8x7B poate procesa o fereastră de context de 32K token și funcționează în franceză, germană, spaniolă, italiană și engleză. Funcționează la fel ca ChatGPT, deoarece poate ajuta la sarcini de compoziție, poate analiza date, depana software-ul și scrie programe. Mistral susține că o depășește mult mai mare pe Meta LLaMA 2 70B (parametru 70 miliarde) model de limbaj mare și că se potrivește sau depășește GPT-3.5 al OpenAI pe anumite benchmark-uri, așa cum se vede în graficul de mai jos.

Citiți 6 paragrafe rămase | Comentarii

Chat Icon
×