Recent, o femeie încetinit O linie la oficiul poștal, fluturând telefonul la funcționar. Chatgpt i -a spus că există o „promisiune de potrivire a prețurilor” pe site -ul USPS. Nu există o astfel de promisiune. Dar ea a avut încredere în ceea ce AI -ul „știe” mai mult decât lucrătorul poștal – ca și cum ar fi consultat un oracol, mai degrabă decât un generator de text statistic care îi găzduiește dorințele.
Această scenă dezvăluie o neînțelegere fundamentală cu privire la chatbot -urile AI. Nu există nimic în mod inerent special, autoritar sau exact cu privire la ieșirile generate de AI. Având în vedere un model AI instruit în mod rezonabil, acuratețea oricărui răspuns al modelului de limbaj mare (LLM) depinde de modul în care ghidați conversația. Sunt mașini de predicție care vor produce orice model se potrivește cel mai bine întrebării dvs., indiferent dacă această ieșire corespunde realității.
În ciuda acestor probleme, milioane de utilizatori zilnici se angajează cu chatbot-uri AI ca și cum ar vorbi cu o persoană consistentă-conștientizarea secretelor, căutarea de sfaturi și atribuirea credințelor fixe la ceea ce este de fapt o mașină de conectare a ideilor fluide, fără sine persistent. Această iluzie de persoană nu este doar supărătoare din punct de vedere filosofic – poate rău activ Persoane vulnerabile în timp ce ascund un sentiment de responsabilitate atunci când chatbot -ul unei companii “iese de pe șine.