Formă de undă abstractă multicoloră

Mărește (credit: Getty Images)

Luni a debutat OpenAI GPT-4o (o pentru „omni”), un nou model AI major care poate conversa în mod aparent folosind vorbirea în timp real, citind indicii emoționale și răspunzând la input-ul vizual. Funcționează mai rapid decât cel mai bun model anterior al OpenAI, GPT-4 Turboși va fi gratuit pentru utilizatorii ChatGPT și disponibil ca serviciu prin API, care va fi lansat în următoarele câteva săptămâni, spune OpenAI.

OpenAI a dezvăluit noile capacități de conversație audio și de înțelegere a vederii într-un YouTube transmitere live intitulat „OpenAI Spring Update”, prezentat de CTO OpenAI Mira Murati și de angajații Mark Chen și Barret Zoph, care a inclus demonstrații live ale GPT-4o în acțiune.

OpenAI susține că GPT-4o răspunde la intrările audio în aproximativ 320 de milisecunde în medie, ceea ce este similar timpilor de răspuns uman în conversație, potrivit unui studiu 2009, și mult mai scurt decât întârzierea tipică de 2-3 secunde experimentată cu modelele anterioare. Cu GPT-4o, OpenAI spune că a antrenat un model AI nou-nouț, de la capăt la capăt, folosind text, viziune și audio, astfel încât toate intrările și ieșirile „să fie procesate de aceeași rețea neuronală”.

Citiți 11 paragrafe rămase | Comentarii

Chat Icon
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.

×