Formă de undă abstractă multicoloră

Mărește (credit: Getty Images)

Luni a debutat OpenAI GPT-4o (o pentru „omni”), un nou model AI major care poate conversa în mod aparent folosind vorbirea în timp real, citind indicii emoționale și răspunzând la input-ul vizual. Funcționează mai rapid decât cel mai bun model anterior al OpenAI, GPT-4 Turboși va fi gratuit pentru utilizatorii ChatGPT și disponibil ca serviciu prin API, care va fi lansat în următoarele câteva săptămâni, spune OpenAI.

OpenAI a dezvăluit noile capacități de conversație audio și de înțelegere a vederii într-un YouTube transmitere live intitulat „OpenAI Spring Update”, prezentat de CTO OpenAI Mira Murati și de angajații Mark Chen și Barret Zoph, care a inclus demonstrații live ale GPT-4o în acțiune.

OpenAI susține că GPT-4o răspunde la intrările audio în aproximativ 320 de milisecunde în medie, ceea ce este similar timpilor de răspuns uman în conversație, potrivit unui studiu 2009, și mult mai scurt decât întârzierea tipică de 2-3 secunde experimentată cu modelele anterioare. Cu GPT-4o, OpenAI spune că a antrenat un model AI nou-nouț, de la capăt la capăt, folosind text, viziune și audio, astfel încât toate intrările și ieșirile „să fie procesate de aceeași rețea neuronală”.

Citiți 11 paragrafe rămase | Comentarii

×