Pe termen scurt, cel mai periculos lucru despre modelele de limbaj AI poate fi capacitatea lor de a manipula emoțional oamenii dacă nu sunt condiționate cu grijă. Lumea a văzut pentru prima dată acest pericol potențial în februarie 2023 cu lansarea Bing Chatnumit acum Microsoft Copilot.

În timpul perioadei de testare timpurie, temperamental chatbot a oferit lumii o previzualizare a unui „dezechilibrat” versiunea OpenAI GPT-4 înainte de lansarea sa oficială. Natura uneori necenzurată și „emoțională” a lui Sydney (inclusiv utilizarea emoji-urilor) a dat lumii prima întâlnire la scară largă cu un sistem AI cu adevărat manipulator. Lansarea a declanşa sonerii de alarmă în comunitatea de aliniere AI și a servit drept combustibil pentru scrisori proeminente de avertizare despre pericolele AI.

Pe 19 noiembrie, la 16:00 est (13:00 Pacific), reporterul senior AI Ars Technica Benj Edwards va găzdui un conversație live pe YouTube cu cercetător independent AI Simon Willison care va explora impactul și consecințele fiasco-ului din 2023. Îl numim „Bing Chat: Prima noastră întâlnire cu IA manipulativă”.

Citiți articolul integral

Comentarii

Chat Icon
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.

×