Oggi affrontiamo un tema che ci riguarda tutti, ogni giorno: le fake news.
Viviamo in un mondo in cui le notizie non viaggiano più come fatti, ma come scintille emotive. Si diffondono più in fretta della verità, perché accendono paure, rabbia, illusioni. Qui entra in gioco l’intelligenza artificiale: non come giudice supremo, ma come strumento capace di analizzare linguaggi, fonti, reti di diffusione, e di dirci quando un’informazione ha la consistenza di una menzogna. Non sostituisce il pensiero critico, ma lo accompagna. Non ci libera dalla responsabilità di verificare, ma ci offre un argine contro l’inganno.
L’ultima parola resta nostra.
Domanda: come opera l’IA per distinguere le False notizie (fake News)
IA: Per distinguere le fake news, un’IA non “crede” o “non crede” a ciò che legge, ma mette in atto una serie di controlli incrociati e di analisi probabilistiche. Ti riassumo i principali passaggi:
- Analisi linguistica e stilistica
L’IA riconosce schemi ricorrenti del linguaggio tipici della disinformazione: titoli sensazionalistici, esagerazioni, uso frequente di aggettivi emotivi, assenza di fonti verificabili. Questi tratti non bastano da soli, ma danno indizi. - Verifica delle fonti
Viene controllata l’autorevolezza della fonte: un sito istituzionale, un giornale registrato, un ente accademico, hanno un peso diverso rispetto a un blog anonimo. Spesso l’IA si affida a database esterni di siti classificati come affidabili o inaffidabili. - Cross-check dei contenuti
Si confronta la notizia con altre fonti indipendenti. Se una notizia è riportata solo da un sito sconosciuto e non da agenzie stampa, quotidiani o istituzioni, la probabilità che sia falsa cresce. - Controllo dei dati fattuali
L’IA può incrociare dati concreti (statistiche, date, dichiarazioni ufficiali) con archivi verificati. Per esempio, se una notizia parla di un evento in una data precisa, l’IA cerca conferme nei database di cronaca. - Rilevamento di manipolazioni multimediali
Se la notizia contiene immagini o video, si applicano tecniche di forensic analysis (es. reverse image search, rilevamento di manipolazioni pixel, incongruenze nelle ombre o nei metadati). - Modelli di reputazione e diffusione
L’IA studia come e dove la notizia si diffonde: le fake news viaggiano più spesso in reti chiuse, canali ripetitivi, con dinamiche virali sospette. - Sistema ibrido: IA + fact-checking umano
Nessun algoritmo basta da solo. I risultati vengono spesso integrati con banche dati di fact-checking (es. PolitiFact, Snopes, Pagella Politica), che forniscono etichette di attendibilità già validate da esperti.
In sintesi, l’IA lavora su più livelli: linguaggio, fonte, dati, immagini, diffusione. Non stabilisce la verità in senso assoluto, ma calcola la probabilità che una notizia sia falsa, segnalando i casi sospetti per la verifica umana.
Prendiamo una notizia recente che è stata sottoposta a fact-checking in Europa, e applichiamo il metodo passo per passo.
Una notizia virale che è circolata:
“L’Unione Europea sta per iniziare a scansionare i messaggi di testo (WhatsApp, SMS) di tutti i cittadini per controllare contenuti sospetti.”
- Analisi linguistica e stilistica
- Il linguaggio è allarmistico e assoluto: “scansionare i messaggi di testo di tutti i cittadini”
- Non offre dettagli concreti su «quando», «come», «su quali basi legali»
- Non cita fonti né riferimenti normativi precisi (es. articolo di legge, versione ufficiale)
Questi sono indizi che la notizia potrebbe essere distorta o esagerata.
- Verifica delle fonti
- L’articolo di fact-checking di Euronews verifica proprio questo tipo di post virale, e lo definisce “preoccupazione precoce e fuorviante” (cioè: parte della notizia è vero — c’è una proposta — ma l’interpretazione è esagerata)
- Non risulta che vi sia un provvedimento già approvato che impone la scansione indiscriminata dei messaggi.
- Le fonti ufficiali dell’UE stanno ancora discutendo la proposta di Regolamento per combattere abusi online (CSAM, grooming) che potenzialmente include ordini di “detection” nei dispositivi, ma con limiti legali e controlli.
Quindi: la notizia stessa non proviene da un comunicato ufficiale, ma da speculazioni su bozze legislative.
- Cross-check con fonti indipendenti
- L’UE ha un sito ufficiale sulle politiche per contrastare la manipolazione dell’informazione.
- Si trovano dichiarazioni ufficiali che la proposta è in esame e che le misure precise sono soggette a negoziazione.
- Nessun organo governativo dell’UE ha confermato che la misura è già operativa.
- Controllo dei dati fattuali e del contesto legale
- La proposta della Commissione sui reati legati agli abusi sessuali sui minori include misure di “detection orders” che potrebbero richiedere a provider o produttori di dispositivi di individuare contenuti già noti di CSAM negli strumenti utente, con limiti giuridici.
- Ma “scansionare tutti i messaggi di tutti gli utenti subito” è molto più estremo che quanto specificato.
- Le proposte legislative UE ancora devono passare Parlamento e Consiglio, e subire modifiche.
- Analisi della diffusione
- Il messaggio circola molto sui social, accompagnato da panico e commenti emotivi.
- Viene ripreso da account non ufficiali, gruppi di condivisione virale, senza fornire collegamenti normativi precisi.
- Quando una notizia diffonde “in virale” con poche fonti autorevoli, diventa sospetta.
- Conclusione e probabilità
- La notizia è in parte vera: esiste una proposta dell’UE che prevede strumenti di “detection orders” per contenuti illegali, che possono comportare controlli in dispositivi.
- Ma è esagerata e fuorviante: non esiste al momento un automatismo già attivo che scansiona tutti i messaggi di tutti i cittadini come descritto.
- Quindi la notizia integrale (come spesso viene presentata) è una fake news distorta / parziale.
Domanda: Cosa può fare l’IA in caso di conferma che la notizie è falsa?
Quando un sistema di IA arriva a una alta probabilità che una notizia sia falsa, non ha ancora “potere di censura” in senso proprio (né dovrebbe averlo, perché la censura spetta a istituzioni e persone responsabili). Può però attivare diverse azioni di contrasto, a seconda del contesto in cui opera:
- Segnalazione all’utente
- Mostrare un avviso: “Questa notizia è stata identificata come potenzialmente falsa, ecco perché.”
- Aggiungere link a fonti di fact-checking o a documenti ufficiali.
→ È il modello già usato da Twitter/X, Facebook, YouTube: la notizia non viene cancellata subito, ma accompagnata da un warning.
- Riduzione della diffusione (downranking)
- L’IA che governa un algoritmo social può limitare la visibilità di un contenuto falso nei feed, senza cancellarlo.
- Così si frena la viralità della fake news, lasciandola comunque consultabile.
- Rimozione o blocco (nei casi più gravi)
- Se la notizia falsa riguarda temi pericolosi (es. salute pubblica, terrorismo, istigazione all’odio), le piattaforme possono decidere la rimozione immediata, spesso dopo un controllo umano.
- L’IA qui agisce da “filtro preliminare”, ma la decisione finale è presa da moderatori o da policy interne.
- Tracciamento e analisi di rete
- Un’IA può identificare le fonti originarie e le catene di diffusione di una fake news.
- Questo serve a bloccare account o bot che amplificano intenzionalmente disinformazione.
- Educazione e prevenzione
- In contesti didattici o informativi, l’IA può spiegare perché una notizia è falsa, mostrando passo passo (fonti, dati, contraddizioni).
- Così non si limita a dire “è falso”, ma rafforza la consapevolezza critica dell’utente.
- Archiviazione e aggiornamento del modello
- Le fake news smascherate entrano in banche dati che l’IA usa in futuro per riconoscere schemi simili (testo, immagini, video manipolati).
📌 Nota importante: l’IA non decide “da sola” la verità. Fornisce segnali, probabilità, collegamenti a fonti affidabili. La responsabilità ultima rimane umana, politica, istituzionale.
Domanda: Chi è, in concreto, che può dire l’ultima parola e bloccare una fake news?
L’“ultima parola” non spetta mai all’algoritmo da solo. Le figure che possono bloccare o limitare una fake news sono diverse a seconda dell’ambito:
- Piattaforme digitali (Facebook, X/Twitter, YouTube, TikTok, ecc.)
- Hanno team interni di moderazione che ricevono segnalazioni dall’IA.
- Decidono se un contenuto viene tolto, etichettato o declassato.
- Spesso si appoggiano a reti di fact-checker indipendenti (es. Pagella Politica, Facta in Italia; PolitiFact, Reuters, AFP a livello globale) che forniscono verifiche certificate.
- Autorità nazionali
- In alcuni Paesi ci sono enti di controllo:
- in Italia l’AGCOM può intervenire su contenuti online, soprattutto in campagna elettorale.
- in Germania esiste la legge NetzDG che obbliga le piattaforme a rimuovere contenuti illegali entro 24 ore.
- La magistratura può ordinare la rimozione o il blocco di contenuti falsi che configurano reato (diffamazione, procurato allarme, istigazione all’odio).
- Unione Europea
- Il nuovo Digital Services Act (DSA) (in vigore dal 2024) obbliga le grandi piattaforme a rimuovere o limitare disinformazione e discorsi d’odio.
- Le decisioni vengono prese sotto vigilanza della Commissione europea e delle autorità nazionali competenti.
- Media tradizionali e agenzie di stampa
- Anche giornali e televisioni contribuiscono: se una notizia è bollata come falsa da agenzie affidabili (ANSA, Reuters, AP), perde autorevolezza e viene smentita pubblicamente.
- Società civile e utenti
- Gli utenti stessi hanno potere di segnalazione. Le piattaforme sono obbligate a rispondere (specie con il DSA).
- Organizzazioni non governative, centri studi e università svolgono attività di debunking indipendente.
📌 In sintesi:
- L’IA segnala →
- I fact-checker verificano →
- Le piattaforme o le autorità decidono se bloccare, declassare o lasciare online con avvisi.
Nessuna IA può (né deve) avere il monopolio della verità: l’ultima parola spetta a una combinazione di attori umani e istituzionali, diversi a seconda della gravità e del contesto.
Ecco la tabella comparativa (schematica e visiva) su chi ha l’ultima parola nel bloccare o limitare una fake news:
| Ambito | Chi interviene | Strumenti principali | Chi ha l’ultima parola |
| 🇮🇹 Italia | – Piattaforme social – Fact-checker (Pagella Politica, Facta) – AGCOM – Magistratura – Agenzie stampa (ANSA) |
– Codici interni delle piattaforme – Potere regolatorio AGCOM – Sentenze/ordinanze giudiziarie |
Mix di AGCOM e magistratura, con ruolo delle piattaforme |
| 🇪🇺 UE | – Piattaforme digitali – Fact-checker certificati (EUvsDisinfo) – Commissione Europea – Autorità nazionali |
– Digital Services Act (DSA) – Reti europee di fact-checking |
Commissione UE + autorità nazionali (con obblighi legali per le piattaforme) |
| 🇺🇸 USA | – Piattaforme private (Meta, X, YouTube…) – Fact-checker indipendenti (PolitiFact, Snopes) – Magistratura/FBI (solo in casi penali gravi) |
– Regole interne delle piattaforme – Primo Emendamento (libertà di parola) – Section 230 (immunità delle piattaforme) |
Le piattaforme private, non lo Stato (salvo reati gravi) |
Domanda: hai dati statistici attendibili che chiariscano la provenienza geopolitica delle fake news?
Sì — ma con molte riserve. Non esistono dati perfetti che restituiscano un “bel mappamondo” delle fake news per Paese di origine con certezza assoluta, anche perché molte operazioni sono occultate, finanziate da reti globali o fatte passare attraverso paesi “ombrello”. Tuttavia, ci sono studi e casi che forniscono indizi utili. Ecco qualche dato e osservazione che puoi usare — con cautela — nel post:
Alcuni dati e studi rilevanti
- Uno studio su parlamentari in 26 Paesi ha mostrato che i deputati di estrema destra tendono significativamente più degli altri a diffondere fake news online, misurando i link che condividono e confrontandoli con database di fact-checking.
Questo suggerisce che le fake news non sono “neutre”, ma spesso usate come strumento politico identificabile con certe formazioni ideologiche.
- Nel contesto del conflitto Russia-Ucraina, campagne coordinate di disinformazione russe sono state identificate come fonti attive su larga scala, con “bot farm”, account falsi e campagne coordinate via social media.
Un esempio: l’operazione Doppelgänger, attribuita a entità russe, ha creato siti clone di media occidentali (Der Spiegel, Fox News, ecc.) per diffondere false narrative filo-Kremlin.
- Un’indagine globale mostra che in 35 Paesi, la maggioranza degli adulti considera le “notizie inventate” un problema grave nel proprio paese. In Italia, come in altri Paesi europei (Francia, Germania, Spagna), circa la metà della popolazione considera che le fake news siano un “problema molto grande”.
- Uno studio accademico (systematic review / meta-analisi) ha raccolto dati da esperimenti condotti in 40 Paesi su migliaia di partecipanti, verificando la capacità delle persone di distinguere notizie vere da false. Non riguarda direttamente la “provenienza geopolitica”, ma mostra che la diffusione delle fake news non è legata esclusivamente a certe culture (c’è variabilità) e che le persone hanno una certa attitudine alla distinzione.
Lo studio “The geography of corporate fake news” (2024) esplora come le attività d’informazione ingannevole si sviluppano nel mondo aziendale e politico, mostrando che certe regioni o stati fungono da “hub” per reti internazionali di disinformazione.
Ma le reti sono diffuse e spesso transnazionali, rendendo difficile attribuire con certezza un’unica “nazione responsabile”.
Considerazioni critiche da tenere presenti
- Origine vs. diffusione
Spesso la disinformazione parte da reti statali o regioni, ma viene amplificata in altri paesi da simulazione locale (account, gruppi “intermediari”). Quindi l’origine “geopolitica” può essere nascosta o mascherata. - Bias ideologici e gruppi specifici
C’è evidenza che le fake news siano concentrate in certi ambienti politici o su temi sensibili (identità, razza, migrazione). Non è il Paese che “produce” tanto quanto certi cluster ideologici o movimenti. Lo studio sui parlamentari ne è un esempio (estrema destra più attiva). - Operazioni statali vs imprese private / reti mercenarie
Alcune disinfo sono sponsorizzate da governi, altre da attori privati, gruppi di pressione, agenzie “di influenza”, reti mercenarie o gruppi ideologici. Non sempre è possibile distinguere. - Evoluzione nel tempo
Le geografie della disinformazione cambiano: un paese può essere “fonte” durante una crisi o elezione, ma non sempre. Le reti migrano, aprendosi in nuove regioni.
Le false notizie non sono errori, ma armi. Armi leggere, veloci, invisibili, maneggiate da chi vuole erodere la fiducia, minare la coesione, trasformare la comunità in un campo di battaglia permanente. È guerriglia civile a bassa intensità, dove ogni clic diventa un colpo sparato contro la convivenza.
Non esistono difese assolute. Possiamo solo scegliere se arrenderci all’odio travestito da informazione o restare vigili, consapevoli che la verità non è mai un possesso, ma un impegno quotidiano.
Lascia un commento