O imagine generată de AI creată folosind Stable Diffusion 3 a unei fete întinsă în iarbă.

Mărește / O imagine generată de AI creată folosind Stable Diffusion 3 a unei fete întinsă în iarbă. (credit: HorneyMetalBeing)

Miercuri, Stability AI a lansat greutăți pentru Difuziune stabilă 3 Mediu, un model de sinteză de imagini AI care transformă solicitările de text în imagini generate de AI. Cu toate acestea, sosirea sa a fost ridiculizată online, deoarece generează imagini cu oameni într-un mod care pare a fi un pas înapoi față de alte modele de sinteză de imagini de ultimă generație, cum ar fi Mijlocul călătoriei sau DIN-E 3. Ca rezultat, poate produce cu ușurință abominații vizuale sălbatice incorecte din punct de vedere anatomic.

Un thread pe Reddit, intitulat „Această lansare ar trebui să fie o glumă? [SD3-2B],” detaliază eșecurile spectaculoase ale SD3 Medium la redarea oamenilor, în special a membrelor umane precum mâinile și picioarele. Un alt subiect, intitulat „De ce SD3 este atât de rău în a genera fete întinse pe iarbă?„ arată probleme similare, dar pentru întregul corp uman.

Mâinile au reprezentat în mod tradițional o provocare pentru generatorii de imagini AI din cauza lipsei de exemple bune în seturile de date de antrenament timpuriu, dar mai recent, mai multe modele de sinteză a imaginii părea să fi depășit problema. În acest sens, SD3 pare a fi un pas uriaș înapoi pentru pasionații de sinteză a imaginilor care se adună pe Reddit – mai ales în comparație cu versiunile recente de Stabilitate precum SD XL Turbo in noiembrie.

Citiți 10 paragrafe rămase | Comentarii

×