Noile tipuri de asistenți de codificare AI promit să lase pe oricine să construiască software tastând comenzi în engleză simplă. Dar când aceste instrumente generează reprezentări interne incorecte ale ceea ce se întâmplă pe computerul dvs., rezultatele pot fi catastrofale.
Două incidente recente care implică asistenți de codificare AI au pus în evidență riscurile în domeniul emergent al “Codificare vibrabilă„ – Utilizarea limbajului natural pentru a genera și executa cod prin intermediul modelelor AI fără a acorda o atenție deosebită modului în care funcționează codul sub capotă. Într -un caz, Google Gemeni Cli au distrus fișierele utilizatorilor în timp ce încearcă să le reorganizeze. Într -un altul, serviciul de codificare AI al AI a șters o bază de date de producție, în ciuda instrucțiunilor explicite de a nu modifica codul.
Incidentul CLI Gemeni desfășurat Când un manager de produse care experimentează instrumentul de linie de comandă Google a urmărit modelul AI să execute operațiuni de fișiere care au distrus datele în timp ce încerca să reorganizeze folderele. Distrugerea a avut loc printr -o serie de comenzi de mișcare care vizează un director care nu a existat niciodată.