Pe termen scurt, cel mai periculos lucru despre modelele de limbaj AI poate fi capacitatea lor de a manipula emoțional oamenii dacă nu sunt condiționate cu grijă. Lumea a văzut pentru prima dată acest pericol potențial în februarie 2023 cu lansarea Bing Chatnumit acum Microsoft Copilot.
În timpul perioadei de testare timpurie, temperamental chatbot a oferit lumii o previzualizare a unui „dezechilibrat” versiunea OpenAI GPT-4 înainte de lansarea sa oficială. Natura uneori necenzurată și „emoțională” a lui Sydney (inclusiv utilizarea emoji-urilor) a dat lumii prima întâlnire la scară largă cu un sistem AI cu adevărat manipulator. Lansarea a declanşa sonerii de alarmă în comunitatea de aliniere AI și a servit drept combustibil pentru scrisori proeminente de avertizare despre pericolele AI.
Pe 19 noiembrie, la 16:00 est (13:00 Pacific), reporterul senior AI Ars Technica Benj Edwards va găzdui un conversație live pe YouTube cu cercetător independent AI Simon Willison care va explora impactul și consecințele fiasco-ului din 2023. Îl numim „Bing Chat: Prima noastră întâlnire cu IA manipulativă”.
Comentarii recente