AI Biz & IT coding agents Features Gemini CLI hacking prompt injections Security TEHNOLOGIE Defecțiunea în instrumentul de codificare CLI Gemini ar putea permite hackerilor să ruleze comenzi urâte 30 iulie 2025 by Echipa Club S&T | Leave a Comment Cercetătorii au avut nevoie de mai puțin de 48 de ore cu noul agent de codificare al Gemini CLI de la Google pentru a concepe o exploatare care a făcut o configurație implicită a instrumentului să exfiltrate date sensibile la un server controlat de atacator. Gemini CLI este un instrument AI gratuit, open-source, care funcționează […] Read more » ai Biz & IT coding agents Features Gemini CLI hacking prompt injections Security
AI Biz & IT chatbots context manipulation large language models prompt injections Security TEHNOLOGIE Noul atac poate fura criptocurrency prin plantarea amintirilor false în chatbot -urile AI 14 mai 2025 by Echipa Club S&T | Leave a Comment Imaginează-ți o lume în care bot-urile alimentate de AI pot cumpăra sau vinde criptocurrency, pot face investiții și pot executa contracte definite de software la clipirea unui ochi, în funcție de prețurile valutare minut până la minut, de știri sau alte evenimente care se deplasează pe piață. Apoi, imaginați -vă un adversar care a determinat […] Read more » ai Biz & IT chatbots context manipulation large language models prompt injections Security
AI AI security Biz & IT ChatGPT chatgtp google google deepmind large language models machine learning prompt injections Riley Gooside Simon Willison TEHNOLOGIE Cercetătorii susțin descoperiri în lupta împotriva gaurii de securitate frustrante a AI 17 aprilie 2025 by Echipa Club S&T | Leave a Comment În lumea AI, o vulnerabilitate numită „injecție promptă” a bântuit dezvoltatorii de când chatbot -urile au mers mainstream în 2022. În ciuda numeroaselor încercări de a rezolva această vulnerabilitate fundamentală – echivalentul digital al șoptind instrucțiuni secrete Pentru a trece peste comportamentul intenționat al unui sistem – niciunul nu a găsit o soluție fiabilă. Până […] Read more » ai AI security Biz & IT chatgpt chatgtp google google deepmind large language models machine learning prompt injections Riley Gooside Simon Willison
AI Artificial Intelligence Biz & IT Features fun-tuning gemini google large language models LLMs prompt injections Security TEHNOLOGIE Hackerii Gemeni pot oferi atacuri mai puternice cu o mână de ajutor de la … Gemeni 29 martie 2025 by Echipa Club S&T | Leave a Comment În canonul în creștere al securității AI, injecția promptă indirectă a apărut ca fiind cel mai puternic mijloc pentru atacatori să pună modele de limbaj mare, cum ar fi GPT-3 și GPT-4 sau Copilotul Microsoft. Prin exploatarea incapacității unui model de a distinge între, pe de o parte, prompturile definite de dezvoltator și, pe de […] Read more » ai Artificial Intelligence Biz & IT Features fun-tuning gemini google large language models LLMs prompt injections Security
2023 AI AI ethics ars live Ars Live Conversations Benj Edwards Bing Chat Biz & IT GPT-4 large language models machine learning manipulative AI microsoft Microsoft Copilot openai prompt injection prompt injections Simon Willison TEHNOLOGIE Ars Live: Prima noastră întâlnire cu IA manipulativă 13 noiembrie 2024 by Echipa Club S&T | Leave a Comment Pe termen scurt, cel mai periculos lucru despre modelele de limbaj AI poate fi capacitatea lor de a manipula emoțional oamenii dacă nu sunt condiționate cu grijă. Lumea a văzut pentru prima dată acest pericol potențial în februarie 2023 cu lansarea Bing Chatnumit acum Microsoft Copilot. În timpul perioadei de testare timpurie, temperamental chatbot a […] Read more » 2023 ai AI ethics ars live Ars Live Conversations Benj Edwards Bing Chat Biz & IT GPT-4 large language models machine learning manipulative AI microsoft Microsoft Copilot openai prompt injection prompt injections Simon Willison
AI AI models Biz & IT ChatGPT chatgtp Features humans Humor jailbreaks large language models machine learning openai prompt injections prompting TEHNOLOGIE Arta fină a ingineriei prompte umane: Cum să vorbești cu o persoană precum ChatGPT 4 aprilie 2024 by Echipa Club S&T | Leave a Comment Mărește / Cu aceste sfaturi, și dvs. puteți solicita oamenii cu succes. Într-o pauză de la practica noastră obișnuită, Ars publică acest ghid util pentru a ști cum să stimulezi „creierul uman”, dacă întâlnești unul în timpul rutinei tale zilnice. În timp ce asistenților AI le place ChatGPT au luat lumea cu asalt, un corp […] Read more » ai AI models Biz & IT chatgpt chatgtp Features humans humor jailbreaks large language models machine learning openai prompt injections prompting
AI AI security Anthropic Biz & IT ChatGPT chatgtp Claude Claude 2 large language models LLM LLM security prompt injections sleeper agents TEHNOLOGIE Otrăvirea AI ar putea transforma modelele deschise în „agenți dormitori” distructivi, spune Anthropic 16 ianuarie 2024 by Echipa Club S&T | Leave a Comment Mărește (credit: Benj Edwards | Getty Images) Imaginați-vă că descărcați un model de limbaj AI open source și totul pare bine la început, dar mai târziu devine rău intenționat. Vineri, Anthropic—creatorul de ChatGPT concurent Claude— a eliberat a lucrare de cercetare despre modelele de limbaj mari (LLM) AI „agent dormitor” care inițial par normale, dar […] Read more » ai AI security Anthropic Biz & IT chatgpt chatgtp Claude Claude 2 large language models LLM LLM security prompt injections sleeper agents