Contenuto
Se capiamo come si diffonde la disinformazione, forse possiamo contribuire a frenarne la trasmissione.
Quando si tratta di vere notizie false, il tipo di disinformazione che la Russia ha schierato durante le elezioni del 2016, “diventare virale” non è solo una metafora.
Utilizzando gli strumenti per modellare la diffusione delle malattie infettive, i ricercatori sul rischio informatico della Stanford Engineering stanno analizzando la diffusione di notizie false come se fosse un ceppo di Ebola. “Vogliamo trovare il modo più efficace per tagliare le catene di trasmissione, correggere le informazioni se possibile ed educare gli obiettivi più vulnerabili”.
I ricercatori hanno adattato un modello per comprendere le malattie che possono infettare una persona più di una volta. Guarda quante persone sono “suscettibili” alla malattia – o in questo caso, probabilmente credono a una notizia falsa. Guarda anche a quanti ne sono stati esposti, e quanti sono effettivamente “infetti” e credono alla storia; e quante persone probabilmente diffonderanno una notizia falsa.
Proprio come un virus, i ricercatori affermano che nel tempo essere esposti a più ceppi di notizie false può indebolire la resistenza di una persona e renderla sempre più suscettibile. Più volte una persona è esposta a una notizia falsa, soprattutto se proviene da una fonte influente, più è probabile che venga persuasa o infettata.
Cosa lo fa diffondere più velocemente?
La cosiddetta “legge di potere” dei social media, un modello ben documentato nei social network, sostiene che i messaggi si replicano più rapidamente se sono rivolti a un numero relativamente piccolo di persone influenti con un ampio seguito.
I ricercatori stanno anche esaminando l’efficacia relativa dei troll rispetto ai robot. Trammell afferma che i bot, che sono programmi automatizzati che si mascherano da persone, tendono ad essere particolarmente adatti per diffondere un numero enorme di messaggi altamente emotivi con poco contenuto informativo. Pensa qui a un messaggio con l’immagine di Hillary Clinton dietro le sbarre e le parole “Lock Her Up!” Quel tipo di messaggio si diffonderà rapidamente all’interno delle camere dell’eco popolate da coloro che già concordano con il sentimento di base. I robot hanno un notevole potere di infiammare le persone che la pensano già allo stesso modo, sebbene possano essere più facili da individuare e bloccare rispetto ai troll.
Al contrario, i troll sono tipicamente persone reali che diffondono storie e meme provocatori. I troll possono essere più bravi a persuadere le persone meno convinte e che desiderano maggiori informazioni.
Che tipo di persone sono più suscettibili?
Paté-Cornell e Trammell affermano che ci sono prove considerevoli che gli anziani, i giovani e le persone meno istruite sono particolarmente suscettibili alle fake news. Ma nel senso più ampio sono i partigiani agli estremi politici, siano essi liberali o conservatori, che sono più propensi a credere a una storia falsa in parte a causa del pregiudizio di conferma – la tendenza in tutti noi a credere a storie che rafforzano le nostre convinzioni – e il più forti sono queste convinzioni, più la persona sente fortemente l’attrazione del pregiudizio di conferma.
È possibile l’inoculazione?
I ricercatori che, proprio come il crimine ordinario, la disinformazione non scomparirà mai. Ma imparando come viene propagato attraverso i social media, i ricercatori dicono che è possibile reagire. Le piattaforme di social media potrebbero diventare molto più veloci nell’individuare contenuti sospetti. Potrebbero quindi allegare avvertenze – una forma di inoculazione – oppure potrebbero metterne in quarantena una parte maggiore.La sfida, dicono, è che la protezione ha dei costi: costi finanziari, nonché una ridotta convenienza e limitazioni alla libertà di espressione. I pericoli delle fake news dovrebbero essere analizzati come un rischio di gestione strategica simile a come abbiamo tradizionalmente analizzato i rischi posti dagli attacchi informatici volti a disabilitare le infrastrutture critiche. “È una questione di come possiamo gestire al meglio le nostre risorse al fine di ridurre al minimo il rischio”, afferma. “Quanto sei disposto a spendere e quale livello di rischio siamo disposti ad accettare?”
Cosa si può fare per proteggersi?
Purtroppo uno dei “difetti” di internet è proprio quello di rendere accessibile il pensiero e la parola di tutti. Per lo stesso motivo è molto facile imbattersi in notizie false scritte chissà per quale motivo.
Una delle precauzioni che si possono prendere per difendersi da questo problema è il rivolgersi solo da fonti autorevoli quali testate giornalistiche importanti e famose le quali difficilmente diffondono fake news in quanto è loro premura informare in modo sicuro il lettore.
Per questo motivo sono molti i siti nati negli ultimi anni con lo scopo di aggirare il fenomeno delle notizie false. Uno di questi è l’appena nato www.newsflash24.it creato proprio con lo scopo di filtrare le notizie provenienti da varie fonti sia sul web che non, e riportarle sotto forma di articoli sul sito internet e consultabili da chiunque in modo del tutto gratuito.
Un’altra buona abitudine che si può prendere per non imbattersi in notizie che potrebbero farci prendere decisioni sbagliate nella nostra vita è quella di evitare di informarsi sui social network. Queste piattaforme infatti sono alla portata di tutti e le più semplici da utilizzare e per questo motivo le persone possono diffondere con estrema facilità notizie false facendo così del male alla collettività e in certi casi un crimine vero e proprio.
Cosa riserva il futuro?
Le fake news sono già un problema di sicurezza nazionale. Si prevede che l’intelligenza artificiale darà il turbo alle fake news negli anni a venire. L’intelligenza artificiale renderà molto più facile indirizzare le persone con notizie false o video falsi – video che sembrano reali ma sono stati fabbricati in tutto o in parte – che sono finemente adattati a ciò che è probabile che uno spettatore suscettibile accetti e forse diffonda. L’intelligenza artificiale potrebbe anche semplificare la creazione di eserciti di bot più influenti che sembrano condividere il background sociale, la città natale, gli interessi personali o le convinzioni religiose di un bersaglio. Tali tipi di iper-targeting renderebbero i messaggi molto più persuasivi. L’intelligenza artificiale mostra anche un grande potenziale per contrastare questo flagello identificando contenuti falsi in tutte le forme, ma solo il tempo dirà chi prevarrà in questa corsa agli armamenti della nuova era.