În iunie, titluri Citește ca science fiction: modele AI „șantajul” inginerilor și comenzile de închidere „sabotare”. Simulările acestor evenimente au avut loc în scenarii de testare extrem de conturate, concepute pentru a genera aceste răspunsuri – modelul O3 al Openai Editat SCRIPTURI DE ÎNCĂRCARE PENTRU A RĂMÂNT ONLINE și CLAUDE OPUS CLAUDE 4 ANTROPIC “”amenințat“Pentru a expune afacerea unui inginer. Dar încadrarea senzațională ascunde ceea ce se întâmplă cu adevărat: defectele de design îmbrăcate ca o guil intenționat. Și totuși, AI nu trebuie să fie„ rău “pentru a face lucruri nocive.
Acestea nu sunt semne de trezire AI sau rebeliune. Sunt simptome ale sistemelor slab înțelese și ale eșecurilor de inginerie umană pe care le -am recunoaște drept implementare prematură în orice alt context. Cu toate acestea, companiile fac curse pentru a integra aceste sisteme în aplicații critice.
Luați în considerare o mașină de tuns iarba autopropulsată care urmează programarea sa: dacă nu reușește să detecteze un obstacol și trece peste piciorul cuiva, nu spunem că mașina de tuns iarba „a decis„ să provoace vătămare sau „a refuzat” să se oprească. O recunoaștem ca fiind o inginerie defectuoasă sau senzori defecți. Același principiu se aplică și modelelor AI-care sunt instrumente software-dar complexitatea lor internă și utilizarea limbajului fac tentant să atribuie intenții asemănătoare omului, acolo unde nu există niciunul.