O conversație de două ore cu un inteligenţă artificială Modelul (AI) este tot ce este nevoie pentru a realiza o replică exactă a personalității cuiva, au descoperit cercetătorii.
Într-un nou studiu publicat pe 15 noiembrie în baza de date preprint arXivcercetătorii de la Google și Universitatea Stanford au creat „agenți de simulare” – în esență, replici AI – a 1.052 de persoane pe baza interviurilor de două ore cu fiecare participant. Aceste interviuri au fost folosite pentru a antrena un model AI generativ conceput pentru a imita comportamentul uman.
Pentru a evalua acuratețea replicilor AI, fiecare participant a finalizat două runde de teste de personalitate, sondaje sociale și jocuri de logică și a fost rugat să repete procesul două săptămâni mai târziu. Când replicile AI au fost supuse acelorași teste, ele au corelat răspunsurile omologilor lor umani cu o acuratețe de 85%.
Lucrarea a propus că modelele de inteligență artificială care emulează comportamentul uman ar putea fi utile într-o varietate de scenarii de cercetare, cum ar fi evaluarea eficienței politicilor de sănătate publică, înțelegerea răspunsurilor la lansările de produse sau chiar modelarea reacțiilor la evenimente societale majore care altfel ar putea fi prea costisitoare. , dificil sau complex din punct de vedere etic de studiat cu participanți umani.
„Simularea cu scop general a atitudinilor și comportamentului uman – în care fiecare persoană simulată se poate implica într-o serie de contexte sociale, politice sau informaționale – ar putea permite unui laborator pentru cercetători să testeze un set larg de intervenții și teorii”, au scris cercetătorii în hârtia. Simulările ar putea ajuta, de asemenea, să piloteze noi intervenții publice, să dezvolte teorii privind interacțiunile cauzale și contextuale și să ne sporească înțelegerea modului în care instituțiile și rețelele influențează oamenii, au adăugat ei.
Pentru a crea agenții de simulare, cercetătorii au realizat interviuri aprofundate care au acoperit poveștile de viață ale participanților, valorile și opiniile cu privire la problemele societale. Acest lucru a permis AI să capteze nuanțe pe care sondajele tipice sau datele demografice le-ar putea pierde, au explicat cercetătorii. Cel mai important, structura acestor interviuri le-a oferit cercetătorilor libertatea de a evidenția ceea ce au considerat cel mai important pentru ei personal.
Oamenii de știință au folosit aceste interviuri pentru a genera modele AI personalizate care ar putea prezice modul în care indivizii ar putea răspunde la întrebările din sondaj, experimente sociale și jocuri comportamentale. Aceasta a inclus răspunsuri la Ancheta socială generalăun instrument bine stabilit pentru măsurarea atitudinilor și comportamentelor sociale; Inventarul celor cinci mari personalități; și jocuri economice, cum ar fi jocul dictatorului şi jocul de încredere.
Deși agenții AI și-au reflectat îndeaproape omologii umani în multe domenii, precizia lor a variat în funcție de sarcini. Au avut rezultate deosebit de bune în replicarea răspunsurilor la sondajele de personalitate și determinarea atitudinilor sociale, dar au fost mai puțin precise în prezicerea comportamentelor în jocurile interactive care implică luarea de decizii economice. Cercetătorii au explicat că AI se luptă de obicei cu sarcini care implică dinamica socială și nuanța contextuală.
De asemenea, au recunoscut potențialul ca tehnologia să fie abuzată. AI și „deepfake„Tehnologiile sunt deja existente folosit de actori rău intenționați pentru a înșelauzurpare identitatea, abuzarea și manipularea altor persoane online. Agenții de simulare pot fi, de asemenea, utilizați greșit, au spus cercetătorii.
Cu toate acestea, ei au spus că tehnologia ne-ar putea permite să studiem aspecte ale comportamentului uman în moduri care anterior erau impracticabile, oferind un mediu de testare extrem de controlat, fără provocările etice, logistice sau interpersonale ale lucrului cu oamenii.
Într-o declarație către MIT Technology Reviewautor principal al studiului Parcul Joon Sungun doctorand în informatică la Stanford, a spus: „Dacă poți avea o grămadă de „voi” mici să alerge și să ia efectiv deciziile pe care le-ai fi luat – cred că, în cele din urmă, acesta este viitorul.”
Comentarii recente