În 2017, opt cercetători de învățare automată de la Google au lansat o lucrare de cercetare inovatoare numită Atenția este tot ce aveți nevoiecare a introdus Transformator Arhitectură AI care stă la baza aproape tuturor modelelor AI generative de profil înalt de astăzi.

Transformerul a făcut posibilă o componentă cheie a boom-ului modern al inteligenței artificiale prin traducerea (sau transformarea, dacă doriți) bucăți de date de intrare numite „jetoane” într-o altă formă dorită de ieșire folosind o rețea neuronală. Variații ale modelelor de limbaj de putere arhitecturii Transformer cum ar fi GPT-4o (şi ChatGPT), modele de sinteză audio care rulează Google NotebookLM și OpenAI Modul vocal avansatmodele de sinteză video ca Sorași modele de sinteză de imagini precum Mijlocul călătoriei.

La TED AI 2024 în octombrie, unul dintre cei opt cercetători, Jakob Uszkoreit, a vorbit cu Ars Technica despre dezvoltarea transformatoarelor, lucrările timpurii ale Google privind modelele de limbaj mari și despre noua aventura în calculul biologic.

Citiți articolul integral

Comentarii

Chat Icon
×