Non importa quanto rigoglioso o verde possa essere questo giardino, il responsabile della salute globale di YouTube ammette che spesso ha bisogno di essere curato.
“Come eliminiamo ed estraiamo le cattive informazioni? Si chiede. Ma anche (…) Come piantiamo i semi e garantiamo che le persone ricevano le informazioni giuste e di alta qualità?”
Per le aziende di social media, queste domande sono diventate domande frequenti e la loro importanza è aumentata man mano che il numero di piattaforme si moltiplica e le persone iniziano a trascorrere sempre più tempo online.
Ora, non è raro scoprire informazioni false quasi ad ogni passaggio sullo schermo.
Un articolo pubblicato nel 2022 in Bollettino dell'Organizzazione Mondiale della Sanità hanno esaminato 31 studi sulla prevalenza della disinformazione. L’analisi ha rilevato disinformazione relativa ai vaccini fino al 51% dei post sui social media, fino al 28,8% dei contenuti relativi al COVID-19 e fino al 60% dei post relativi alla pandemia.
Si stima che circa il 20-30% dei video di YouTube sulle malattie infettive emergenti contengano anche informazioni imprecise o fuorvianti.
Le conseguenze possono essere dannose o addirittura fatali.
Uno studio del Council of Canadian Academies (CAC) pubblicato nel 2023 suggerisce che la disinformazione sul solo COVID-19 ha contribuito a più di 2.800 morti in Canada e ad almeno 300 milioni di dollari in visite ospedaliere e in terapia intensiva.
Resilienza dei diffusori di disinformazione
Graham ha affermato in un'intervista che le piattaforme prendono sul serio i rischi. “Siamo sempre preoccupati per tutto ciò che potrebbe causare danni”, ha aggiunto.
Questa preoccupazione spesso porta le piattaforme a rimuovere tutto ciò che viola le loro politiche sui contenuti.
Ad esempio, YouTube ha vietato i contenuti che negano l'esistenza di determinate condizioni mediche o contraddicono le linee guida delle autorità sanitarie per la prevenzione e il trattamento.
Gli esempi inclusi nella sua politica contro la disinformazione sanitaria mostrano che l’azienda rimuove i post che promuovono trementina, benzina e cherosene come cura per determinate condizioni perché queste sostanze causano la morte. L’ivermectina, usata per trattare i vermi parassiti negli animali e nell’uomo, e l’idrossiclorochina, un farmaco antimalarico, non possono essere promossi come trattamento per Covid-19.
Quando si tratta di vaccini, YouTube vieta i video che sostengono che i vaccini causino il cancro o la paralisi.
Meta Platforms, la società madre di Facebook e Instagram, ha rifiutato di commentare questo articolo e TikTok non ha risposto a una richiesta della Canadian Press, ma in generale queste società hanno politiche simili a quelle di YouTube.
Tuttavia, Timothy Caulfield, professore dell’Università di Alberta specializzato in diritto e politica sanitaria, continua a individuare disinformazione medica sulle piattaforme. Recentemente, ha chiesto ai suoi studenti di cercare contenuti relativi alle cellule staminali e sono subito apparsi molti post che promuovevano trattamenti non provati.
Tuttavia, simpatizza con alcune delle sfide che le aziende tecnologiche devono affrontare, considerando la lotta contro la disinformazione sanitaria come un gioco di “colpisci la talpa”.
Secondo lui gli editori di notizie false stanno mostrando una certa resilienza e sono ampiamente determinati a continuare a trovare modi per aggirare le politiche repressive perché i loro post possono aumentare i loro profitti o diffondere un marchio o un’ideologia.
“Possono aggirare le politiche di moderazione, ma ciò dimostra che non risolveremo questo problema con un unico strumento”, ha affermato Caulfield. “Questa sarà una battaglia continua.”
Nella sua politica contro le informazioni fuorvianti pubblicate sul suo sito web, Meta riconosce le difficoltà, affermando che “ciò che è vero un minuto potrebbe non essere vero il minuto successivo”.
“Le persone hanno anche diversi livelli di informazione sul mondo che li circonda e possono credere che qualcosa sia vero quando non lo è”, afferma la politica.
Nel tentativo di rimanere aggiornato su tutto, Meta si affida a esperti indipendenti per valutare la veridicità dei contenuti e se è probabile che contribuiscano direttamente a danni imminenti prima di rimuoverli. Anche le organizzazioni di controllo dei fatti di terze parti sono coinvolte nella revisione e nella valutazione dell'accuratezza dei loro contenuti più popolari.
Su YouTube, i dipendenti, inclusi alcuni che formano un “ufficio di intelligence”, vengono utilizzati per monitorare post e notizie per individuare tendenze che potrebbero dover essere mitigate, insieme al software di apprendimento automatico, che secondo l’azienda è adatto a individuare le tendenze della disinformazione. . .
Il ruolo degli operatori sanitari
Una parte della responsabilità ricade anche sugli operatori sanitari e sulle organizzazioni di fiducia, le cui piattaforme di contenuti presentano raccomandazioni per facilitare agli utenti la ricerca di informazioni affidabili.
Ad esempio, YouTube ha collaborato con organizzazioni come University Health Network e Center for Addiction and Mental Health (CAMH) di Toronto.
CAMH gestisce un canale YouTube in cui i professionisti medici spiegano di tutto, dalla schizofrenia ai disturbi alimentari. I finanziamenti per la produzione provengono da YouTube, ma le risorse dell'organizzazione vengono utilizzate per la scrittura dei contenuti e la valutazione clinica, ha detto in una e-mail la portavoce del CAMH Hayley Clark.
Graham lo considera un buon esempio di come la professione sanitaria “incontra le persone dove sono”, che secondo lui è “il modo in cui combattiamo la disinformazione”.
“(Informazioni affidabili) devono essere a portata di mano delle persone in modo che possano conversare a cena, in modo che possano avere più potere quando si siedono sul loro divano”, ha detto.
Ma quando si tratta di altre organizzazioni e medici, “non possiamo presumere che tutti abbiano la capacità di farlo”, afferma Heidi Turek, professore associato presso l'Università della British Columbia, la cui ricerca si concentra sugli effetti dei nuovi media. Tecnologie.
A queste organizzazioni piace trovare il tempo per diffondere informazioni affidabili, ma in un settore sanitario a corto di tempo e denaro, c’è sempre un altro paziente da aiutare.
“Alcune organizzazioni sanitarie potrebbero dire: ‘Bene, l’abbiamo fatto’
In alcuni casi, i medici “lo fanno anche dai loro studi… perché pensano che sia utile”, ma questo li espone a nuovi rischi come attacchi online e talvolta anche minacce di morte.
“Alcune persone non vogliono affatto andare in questi posti perché vedono cosa succede ad altre persone”, ha detto.
L'importanza dell'istruzione
Per combattere meglio la disinformazione medica, vuole che le piattaforme agiscano in modo più responsabile, perché spesso notano che i loro algoritmi mettono i contenuti problematici in primo piano nelle notizie dei social media.
Tuttavia, lei e Caulfield concordano sul fatto che la disinformazione sanitaria richiede un approccio partecipativo.
“Le piattaforme hanno un'enorme responsabilità. Diventano come servizi pubblici e conosciamo l'impatto che hanno sul discorso pubblico e sulla polarizzazione”, ha affermato Caulfield. “Ma dobbiamo anche insegnare il pensiero critico”.
Può iniziare a scuola, dove gli studenti possono imparare a identificare fonti affidabili e individuare quando qualcosa potrebbe non andare bene: lezioni ascoltate in Finlandia che iniziano all’asilo.
Indipendentemente da quando e come avrà luogo tale educazione, ha affermato che la conclusione è che “dobbiamo fornire ai cittadini gli strumenti per discernere la disinformazione”.