Un videoclip cu demonstrația Proiectului Astra la conferința Google I/O din Mountain View pe 14 mai 2024.

Mărește / Un videoclip cu demonstrația Proiectului Astra la conferința Google I/O din Mountain View pe 14 mai 2024. (credit: Google)

La doar o zi după ce a dezvăluit OpenAI GPT-4ope care îl prezintă ca fiind capabil să înțeleagă ce se întâmplă într-un flux video și să discute despre acesta, a anunțat Google Proiectul Astra, un prototip de cercetare care are capacități similare de înțelegere video. Acesta a fost anunțat de CEO-ul Google DeepMind, Demis Hassabis, marți, la conferința Google I/O din Mountain View, California.

Hassabis a numit-o pe Astra „un agent universal de ajutor în viața de zi cu zi”. În timpul unei demonstrații, modelul de cercetare și-a arătat capacitățile prin identificarea obiectelor producătoare de sunet, furnizarea de aliterații creative, explicarea codului pe un monitor și localizarea elementelor nelocate. Asistentul AI și-a arătat potențialul și în dispozitivele portabile, cum ar fi ochelarii inteligenți, unde ar putea analiza diagrame, sugera îmbunătățiri și genera răspunsuri pline de spirit la solicitările vizuale.

Google spune că Astra folosește camera și microfonul de pe dispozitivul unui utilizator pentru a oferi asistență în viața de zi cu zi. Prin procesarea și codificarea continuă a cadrelor video și a intrărilor de vorbire, Astra creează o cronologie a evenimentelor și memorează în cache informațiile pentru o reamintire rapidă. Compania spune că acest lucru permite AI să identifice obiecte, să răspundă la întrebări și să-și amintească lucruri pe care le-a văzut și care nu mai sunt în cadrul camerei.

Citiți 14 paragrafe rămase | Comentarii

×