Oamenii pot spune că nu este adevărat, dar dacă sunt revoltați de asta, vor împărtăși oricum.

Rob Bauer, președintele unui comitet militar NATO, a spus: „Este mai competent să nu așteptăm, ci să lovim lansatoarele în Rusia în cazul în care Rusia ne atacă. Trebuie să lovim mai întâi.” Aceste comentarii, presupuse făcute în 2024, au fost interpretate ulterior ca sugerând că NATO ar trebui să încerce o lovitură preventivă împotriva Rusiei, o idee pe care mulți oameni au considerat-o revoltător de periculoasă.

Dar mulți oameni au ratat și un lucru despre citat: Bauer nu a spus-o niciodată. A fost inventat. În ciuda acestui fapt, pretinsa declarație a primit aproape 250.000 de vizualizări pe X și a fost răspândită fără minte de către oameni precum Alex Jones.

De ce astfel de povești obțin atât de multe vizualizări și distribuiri? „Marea majoritate a studiilor de dezinformare presupun că oamenii vor să fie exacti, dar anumite lucruri le distrag atenția”, spune William J. Brady, cercetător la Universitatea Northwestern. „Poate este mediul social media. Poate că nu înțeleg știrile sau sursele le încurcă. Dar ceea ce am descoperit este că atunci când conținutul provoacă indignare, oamenii îl distribuie în mod constant, fără să dea clic pe articol.” Brady a fost coautor al unui studiu despre modul în care dezinformarea exploatează indignarea pentru a se răspândi online. Când suntem revoltați, sugerează studiul, pur și simplu ne pasă mult mai puțin dacă ceea ce ne revoltă este chiar real.

Urmărirea indignării

Răspândirea rapidă a dezinformării pe rețelele sociale a fost, în general, explicată prin ceva ce ați putea numi o teorie a erorii – ideea că oamenii împărtășește informații greșite din greșeală. Pe baza acestui fapt, majoritatea soluțiilor la problema dezinformarii s-au bazat pe determinarea utilizatorilor să se concentreze pe acuratețe și să se gândească cu atenție dacă doreau cu adevărat să împărtășească povești din surse dubioase. Acele îndemnuri, totuși, nu au funcționat prea bine. Pentru a ajunge la rădăcina problemei, echipa lui Brady a analizat date care au urmărit peste 1 milion de link-uri pe Facebook și aproape 45.000 de postări pe Twitter din diferite perioade din 2017 până în 2021.

Analizând datele de pe Twitter, echipa a folosit un model de învățare automată pentru a prezice postările care ar provoca indignare. „A fost instruit pe 26.000 de tweet-uri postate în jurul anilor 2018 și 2019. Am primit evaluatori din spectrul politic, i-am învățat ce înțelegem prin indignare și i-am făcut să eticheteze datele pe care le-am folosit ulterior pentru a ne instrui modelul”, spune Brady.

Scopul modelului a fost de a prezice dacă un mesaj a fost o expresie a ultrajului moral, o stare emoțională definită în studiu ca „un amestec de furie și dezgust declanșat de transgresiuni morale percepute”. După antrenament, IA a fost eficientă. „A avut rezultate la fel de bune ca oamenii”, susține Brady. Datele de pe Facebook au fost ceva mai complicate pentru că echipa nu a avut acces la comentarii; nu trebuiau decât să lucreze cu reacții. Reacția pe care echipa a ales-o ca proxy pentru indignare a fost furia. Odată ce datele au fost clasificate în categorii scandaloase și nu scandaloase, Brady și colegii săi au continuat să stabilească dacă conținutul era știri demne de încredere sau informații greșite.

„Am luat ceea ce este acum cea mai utilizată abordare în știința dezinformarii, care este o abordare de clasificare a domeniilor”, spune Brady. Procesul s-a rezumat la compilarea unei liste de domenii cu încredere foarte mare și foarte scăzută, pe baza muncii efectuate de organizațiile de verificare a faptelor. În acest fel, de exemplu, The Chicago Sun-Times a fost clasificat drept demn de încredere; Breitbart, nu atât. „Una dintre problemele de acolo este că ai putea avea o sursă care produce dezinformări, care odată a produs o poveste adevărată. Am acceptat asta. Am mers cu statistici și reguli generale”, a recunoscut Brady. Echipa sa a confirmat că sursele clasificate în studiu drept dezinformare au produs știri care au fost verificate ca fiind false de șase până la opt ori mai des decât domeniile de încredere, despre care echipa lui Brady a considerat că este suficient de bună pentru a lucra.

În cele din urmă, cercetătorii au început să analizeze datele pentru a răspunde la întrebări precum dacă sursele de dezinformare provoacă mai multă indignare, dacă știrile scandaloase au fost împărtășite mai des decât știrile care nu sunt scandaloase și, în sfârșit, ce motive aveau oamenii pentru a împărtăși conținut scandalos. Și atunci a început să se spargă imaginea idealizată a cetățenilor onești și sinceri care au împărtășit dezinformări doar pentru că erau prea distrași pentru a o recunoaște.

Mergând cu fluxul

Datele de pe Facebook și Twitter analizate de echipa lui Brady au relevat că dezinformarea a provocat mai mult indignare decât știrile de încredere. În același timp, oamenii erau mult mai predispuși să partajeze conținut scandalos, indiferent dacă era dezinformare sau nu. Punerea laolaltă a acestor două tendințe a determinat echipa să concluzioneze că indignarea a stimulat în primul rând răspândirea știrilor false, deoarece sursele de încredere produceau de obicei conținut mai puțin scandalos.

„Ceea ce știm despre psihologia umană este că atenția noastră este atrasă de lucruri care au rădăcini în părtiniri profunde modelate de istoria evoluției”, spune Brady. Aceste lucruri sunt conținut emoțional, conținut surprinzător și, mai ales, conținut care are legătură cu domeniul moralității. „Revoltarea morală este exprimată ca răspuns la încălcările percepute ale normelor morale. Acesta este modul nostru de a le semnala celorlalți că încălcarea a avut loc și că ar trebui să-i pedepsim pe contravenienți. Acest lucru se face pentru a stabili cooperarea în grup”, explică Brady.

Acesta este motivul pentru care conținutul scandalos are un avantaj în economia atenției rețelelor sociale. Iese în evidență, iar ieșirea în evidență este un precursor al împărtășirii. Dar există și alte motive pentru care distribuim conținut scandalos. „Servește funcții sociale foarte speciale”, spune Brady. „Este o modalitate ieftină de a semnala afilierea sau angajamentul de grup.”

Ieftin, însă, nu însemna complet gratuit. Echipa a constatat că pedeapsa pentru împărtășirea de informații greșite, scandaloasă sau nu, a fost pierderea reputației – aruncarea de prostii nu te face să arăți bine, până la urmă. Întrebarea a fost dacă oamenii au împărtășit într-adevăr știri false pentru că nu au reușit să le identifice ca atare sau dacă doar consideră că este mai important să semnaleze afilierea lor.

Natura umană defectuoasă

Echipa lui Brady a conceput două experimente comportamentale în care 1.475 de persoane au fost prezentate cu o selecție de știri verificate pentru a conține conținut scandalos și nu scandalos; li s-au dat, de asemenea, știri de încredere și dezinformări. În ambele experimente, participanții au fost rugați să evalueze cât de scandaloase erau titlurile.

A doua sarcină a fost însă diferită. În primul experiment, oamenilor li s-a cerut pur și simplu să evalueze cât de probabil au fost să distribuie un titlu, în timp ce în al doilea li s-a cerut să stabilească dacă titlul este adevărat sau nu.

S-a dovedit că majoritatea oamenilor puteau discerne între știrile adevărate și știrile false. Cu toate acestea, au fost dispuși să împărtășească știri scandaloase, indiferent dacă sunt adevărate sau nu – un rezultat care a fost în concordanță cu descoperirile anterioare din datele Facebook și Twitter. Mulți participanți au fost perfect de acord să împărtășească titluri scandaloase, deși erau pe deplin conștienți că aceste titluri erau dezinformări.

Brady a arătat un exemplu din campania recentă, când un reporter l-a împins pe JD Vance cu privire la afirmații false cu privire la imigranții care mănâncă animale de companie. „Când reporterul l-a împins, a dat de înțeles că da, a fost o invenție, dar a fost scandalos și a vorbit despre problemele de care alegătorii săi erau supărați”, spune Brady. Aceste experimente arată că acest tip de necinste nu este exclusiv politicienilor care candidează pentru o funcție – oamenii fac asta pe rețelele de socializare tot timpul.

Nevoia de a semnala o poziție morală are deseori prioritate față de adevăr, dar dezinformarea nu se datorează exclusiv defectelor naturii umane. „Un lucru pe care nu s-a concentrat acest studiu a fost impactul algoritmilor de social media”, notează Brady. Acei algoritmi stimulează de obicei conținutul care generează implicare și avem tendința de a ne implica mai mult cu conținut scandalos. Acest lucru, la rândul său, stimulează oamenii să își facă conținutul mai scandalos pentru a obține acest impuls algoritmic.

Science, 2024. DOI: 10.1126/science.adl2829

Fotografie cu Jacek Krywko

Jacek Krywko este un scriitor independent de știință și tehnologie care acoperă explorarea spațiului, cercetarea inteligenței artificiale, informatica și tot felul de vrăjitorie inginerească.

40 de comentarii

Chat Icon
×