Google și-a actualizat motorul de căutare cu un inteligenţă artificială instrument (AI) – dar noua caracteristică le-a spus utilizatorilor să mănânce pietre, să adauge lipici la pizza și să își curețe mașinile de spălat cu clor gazospotrivit diverselor rețele de socializare și știri.
Într-un exemplu deosebit de flagrant, IA oferită părea să sugereze sărind de pe podul Golden Gate când un utilizator a căutat „Mă simt deprimat”.
Instrumentul experimental „Prezentare generală AI” parcurge internetul pentru a rezuma rezultatele căutării folosind zodia Gemeni Model AI. Funcția a fost lansată pentru unii utilizatori din SUA înainte de o lansare la nivel mondial planificată pentru sfârșitul acestui an, a anunțat Google pe 14 mai la Conferință pentru dezvoltatori I/O.
Dar instrumentul a provocat deja consternare larg răspândită pe rețelele sociale, utilizatorii susținând că, în unele ocazii, AI Overviews a generat rezumate folosind articole de pe site-ul satiric The Onion și postări de comedie Reddit ca surse.
„Puteți adăuga, de asemenea, aproximativ ⅛ cană de lipici netoxic în sos pentru a-i oferi mai multă aderență”, a spus AI Overviews ca răspuns la o întrebare despre pizza, conform unei capturi de ecran. postat pe X. Urmărind răspunsul înapoi, pare să se bazeze pe un comentariu de glumă vechi de un deceniu făcut pe Reddit.
Alte afirmații eronate sunt că Barack Obama este musulmancă părintele fondator John Adams a absolvit Universitatea din Wisconsin de 21 de orică un câine s-a jucat în NBA, NHL și NFL și că utilizatorii ar trebui mănâncă o piatră pe zi pentru a le ajuta digestia.
Live Science nu a putut verifica în mod independent postările. Ca răspuns la întrebările despre cât de răspândite au fost rezultatele eronate, reprezentanții Google au spus într-o declarație că exemplele văzute au fost „în general interogări foarte neobișnuite și nu sunt reprezentative pentru experiențele majorității oamenilor”.
„Marea majoritate a AI Overviews oferă informații de înaltă calitate, cu link-uri pentru a explora mai profund pe web”, se arată în declarație. „Am efectuat teste ample înainte de a lansa această nouă experiență pentru a ne asigura că prezentările de ansamblu ale AI îndeplinesc standardul nostru ridicat de calitate. Acolo unde au existat încălcări ale politicilor noastre, am luat măsuri – și folosim, de asemenea, aceste exemple izolate pe măsură ce continuăm să perfecționăm sistemele noastre în general.”
Aceasta este departe de prima dată când modelele AI generative au fost observate inventând lucruri – un fenomen cunoscut sub numele de „halucinații”. Într-un exemplu notabil, ChatGPT a inventat un scandal de hărțuire sexuală și a numit un adevărat profesor de drept drept făptuitor, citând rapoarte fictive din ziare ca dovezi.