Uno studio sostiene che l’algoritmo di YouTube privilegia le fake news

Lo studio condotto da Mozilla riporta al centro dell’opinione pubblica il tema delle fake news e del ruolo delle piattaforme digitali nella loro diffusione

Youtube consiglia ai suoi utenti fake news? 

Un’affermazione forte e che farà sicuramente discutere nei prossimi giorni. Questo però, è quanto emerge da una ricerca condotta da Mozilla, che si è servita di un campione statistico composto da circa 37 mila utenti. Lo studio si è avvalso di un’estensione del famoso browser per la navigazione su internet in cui agli utenti veniva richiesto di segnalare tutti i video consigliati dall’algoritmo in cui ritenevano fossero presenti contenuti disinformativi e che istigavano all’odio.

E il risultato per Youtube è stato tutt’altro che confortante. 

Una rivelazione sorprendente per certi versi, in quanto Google negli ultimi tempi, consapevole del problema, aveva annunciato diversi aggiornamenti per mettere fine a questa criticità. Ed è anche per questo motivo che per Mozilla l’unica soluzione possibile, attestato il fallimento della compagnia di Mountain View nel mettere un freno alle fake news, è quello di rendere pubblico l’algoritmo utilizzato. Troppe le segnalazioni ricevute, anche se diventa qui doveroso ricordare nuovamente l’esiguità numerica del campione statistico scelto. Resta però il fatto che gli utenti hanno più volte segnalato a Mozilla come molti di questi video “fake” consigliati dall’algoritmo, riguardavano principalmente e notizie politiche e relative al Covid. Significativo inoltre, come viene riportato dallo studio, che circa il 60 per cento dei contenuti incriminati, provengono da nazioni quali Brasile, Francia e Germania. Nel commentare i risultati di questa ricerca l’autrice Brandi Geurkink ha spiegato che lo scopo era quello di “era esplorare le storie degli utenti di una ‘caduta nel tunnel’ di YouTube, e francamente sono state confermate”.

Non è naturalmente tardata ad arrivare la risposta di Google, rilasciata dalla portavoce della testata TechCrunch. La donna ha in primo luogo spiegato come l’algoritmo di Youtube è stato ideato per mettere in contatto i consumatori con i contenuti che più hanno dimostrato di apprezzare, ricordando come ogni giorno, soltanto sulla homepage del sito, vengono proposti oltre 200 milioni di video. E l’attenzione dell’azienda, dichiara la portavoce di Google, per evitare la diffusione di video e contenuti disinformativi resta sempre altissima, in quanto viene considerata una priorità per il gruppo posseduto da Alphabet. Ed è per questo che solo “nell’ultimo anno abbiamo introdotto oltre 30 diverse modifiche per ridurre i consigli sui contenuti dannosi. Grazie a questo cambiamento, il consumo di contenuti limite che deriva dalle nostre raccomandazioni è ora notevolmente inferiore all’1%”. Una percentuale che sembra smentire lo studio condotto da Mozilla, che pur servendosi di un campione di persone abbastanza esiguo, non può comunque non far riflettere. Anche perchè la pandemia e le relative polemiche e controversie sulle vaccinazioni, hanno aggravato sensibilmente il problema delle fake news. Anche Amazon, per lo stesso motivo, era finito al centro delle critiche dopo uno studio in cui veniva affermato che il suo algoritmo tendeva a privilegiare libri riguardanti tematiche “complottiste” e divisive.

Leggi anche: Nella scuola stanno per mancare gli studenti, 200.000 alunni in meno e record di chiusure nella primaria

Leggi anche: Al G20 di Venezia si è discusso di un accordo tra le nazioni per prevenire le future pandemie

L’impressione dunque, è che l’avvento del Covid, abbia nuovamente riacceso i riflettori sul tema delle fake news. Bisognerà però capire fino a che punto i colossi tecnologici prenderanno atto di questa situazione, andando oltre le semplici dichiarazioni di circostanza. Impossibile ad esempio non constatare che spesso sono proprio questa tipologia di video a diventare virali e dunque, a generare ulteriori introiti e audience per queste piattaforme.

Impostazioni privacy