Fake News e AI: Perché la Disinformazione Sorpassa la Verità

l'articolo appartiene alla categoria:

pubblicato il:

 

Le fake news costituiscono un’aberrazione comunicativa e un fenomeno semantico complesso, progettato per generare un clima tensivo. Queste notizie, nel tempo, si manifestano come slogan politici, populisti e post-veritieri, funzionando come armi dialettico-retoriche capaci di influenzare la costruzione dell’opinione pubblica.

Successivamente alle elezioni presidenziali statunitensi del 2016, durante le quali Donald Trump emerse come vincitore, Allcott e Gentzkow hanno investigato sulle modalità con cui un vasto flusso di notizie false sia giunto a milioni di utenti tramite social network. Tale dinamica è stata ulteriormente esacerbata dallo scandalo legato a Cambridge Analytica nel 2017. Sebbene la quantità di informazioni diffuse abbia indubbiamente contribuito al risultato, è stata la concezione strutturale di queste notizie a fungere da catalizzatore centrale per una diffusione così invasiva ed efficace.

La disinformazione non è un fenomeno esclusivo di Internet; la propaganda esiste sin dalle origini della società umana (Jowett, O’Donnell, 2018). Tuttavia, il contesto digitale ha radicalmente mutato la relazione tra velocità, personalizzazione e automatizzazione.

Si è passati da una semplice trasmissione dell’informazione a un ambiente algoritmico che seleziona, ordina e gerarchizza i contenuti, influenzando la società. In questo contesto, l’intelligenza artificiale funge da elemento centrale, rappresentando il cuore invisibile dell’ecosistema comunicativo.

Fake news e AI: l’ambiente algoritmico che gerarchizza l’informazione

Spesso l’A.I. è percepita come un’entità antropomorfa capace di prendere decisioni. Tuttavia, essa opera tramite modelli matematici che apprendono da enormi quantità di dati (Norvig, 2021). È fondamentale considerare, dal punto di vista sociologico, l’effetto sistemico delle sue applicazioni.

Modelli, dati e conseguenze sociali

Gli algoritmi di raccomandazione non producono solamente contenuti, ma generano visibilità, che nella società digitale equivale a potere simbolico. Come osserva Gillespie (2018), le piattaforme non sono spazi neutrali: fungono da “custodi” organizzando ciò che è visibile e ciò che resta ai margini. Gli algoritmi tendono a privilegiare contenuti che generano interazione.

In prima istanza, i sistemi non distinguono tra vero e falso: ottimizzano l’engagement, e contenuti polarizzanti, emotivamente intensi o scandalistici tendono a generare maggiore coinvolgimento (Tufekci, 2015). La disinformazione, quindi, non è premiata per la sua falsità, ma per la sua efficacia nell’economia dell’attenzione.

AI come architettura della visibilità e potere simbolico

La visibilità diventa una risorsa scarsa e, di conseguenza, un capitale. In un contesto informativo sovrabbondante, ciò che emerge non è sempre ciò che è più accurato, ma ciò che è in grado di attivare reazioni, commenti e condivisioni. La questione si sposta così dalla verità come criterio alla performance comunicativa come metrica.

Piattaforme come “custodi” dell’attenzione

Le piattaforme organizzano l’esperienza informativa tramite gerarchie opache e dinamiche adattive. Gli utenti non incontrano semplicemente notizie, ma selezioni che rispondono a obiettivi di permanenza e coinvolgimento. Il contenuto falso può risultare competitivo poiché spesso è costruito per essere più urgente e memorabile.

Così, la domanda sociologica si sposta non solo su “chi produce il falso”, ma su “quale architettura rende il falso vantaggioso”. L’AI, quindi, agisce come un acceleratore di attenzione, redistribuendo le informazioni secondo incentivi economici.

Perché il falso si diffonde: fake news e AI tra emozioni e ripetizione

La ricerca condotta da Vosoughi, Roy e Aral ha dimostrato che le notizie false si diffondono più rapidamente rispetto a quelle vere (Vosoughi, Roy & Aral, 2018). Questi dati rivelano dinamiche complesse: le fake news tendono a contenere elementi di novità, sorpresa e indignazione, attivando emozioni forti che aumentano la probabilità di condivisione.

Dalla viralità ai bias cognitivi

Questo fenomeno si collega all’“illusory truth effect”: la ripetizione aumenta la percezione di veridicità (Dechêne et al., 2010). Quando l’A.I. amplifica esposizioni e riproposizioni, rinforza meccanismi cognitivi già esistenti, ponendo la questione su come la tecnologia interagisce con vulnerabilità cognitive.

Negli ultimi anni, la situazione si è complicata. Se inizialmente l’AI si limitava a moltiplicare contenuti esistenti, oggi genera autonomamente testi, immagini, video e audio. I deepfake costituiscono un esempio significativo, evidenziando rischi per la democrazia e la sicurezza pubblica derivanti dalla creazione di contenuti audiovisivi estremamente realistici.

Produzione automatizzata e deepfake

In parallelo, l’introduzione di modelli linguistici di grandi dimensioni consente l’emissione di articoli, commenti e narrazioni plausibili in quantità industriale. Questi sistemi possono generare testi privi di comprensione semantica, portando a considerare l’impatto qualitativo della disinformazione, ora accessibile a chiunque.

Spazio pubblico frammentato: bolle, piattaforme e potere asimmetrico

Habermas (1989) descriveva lo spazio pubblico come area di confronto razionale tra cittadini. Oggi, tuttavia, la sfera pubblica digitale appare parcellizzata in micro-spazi personalizzati, definiti da Pariser (2011) come “filter bubble”. Ogni utente riceve informazioni modellate sulle proprie preferenze precedenti.

Filter bubble e cristallizzazione della polarizzazione

La disinformazione in queste bolle trova terreno fertile, non sottoposta a verifica collettiva, riconoscendosi come una verità condivisa. Qui, gli algoritmi non creano polarizzazione, ma la cristallizzano.

È fondamentale considerare la struttura economica delle piattaforme: Zuboff (2019) ha definito “capitalismo della sorveglianza”, esponendo un modello di monetizzazione dei dati comportamentali. In questo ciclo, la qualità epistemica dell’informazione diventa secondaria.

Trasparenza, dati e asimmetria informativa

La concentrazione di potere nelle mani di poche piattaforme crea un’asimmetria informativa senza precedenti. Lazer et al. (2018) sottolineano che la lotta alla disinformazione richiede accesso ai dati e trasparenza algoritmica, elementi spesso opachi.

Tecnologia, norma e cultura: risposte a fake news e AI

Da un punto di vista tecnologico, si stanno sviluppando strumenti di fact-checking automatizzato e rilevamento dei deepfake. Tuttavia, ogni nuovo strumento incontra tecniche manipolative emergenti. Sul piano normativo, l’Unione Europea ha adottato il Digital Services Act (European Commission, 2025), che richiede trasparenza e responsabilità alle grandi piattaforme.

Media literacy e nodo epistemologico

Infine, dal punto di vista culturale, Mihailidis e Thevenin (2013) segnalano l’importanza della media literacy come competenza cruciale per la cittadinanza. Senza un pubblico in grado di interpretare criticamente le informazioni, nessuna norma potrà risultare efficace.

La questione fondamentale del rapporto tra fake news e A.I. è di natura epistemologica. Non si tratta solo della presenza del falso, ma dell’erosione dei criteri condivisi di verità. McIntyre (2018) ha definito “post-verità” un contesto in cui i fatti oggettivi influenzano meno l’opinione pubblica rispetto a fattori emozionali.

Conclusioni

Il rapporto tra fake news e A.I. rappresenta un processo di reciproca influenza evolutiva. Ogni innovazione tecnologica modifica le modalità di disinformazione, e ogni forma nuova di disinformazione stimola risposte tecnologiche e normative. Ridurre il problema a una mera “culpa della tecnologia” risulta ingenuo e semplicistico.

L’A.I. amplifica dinamiche sociali pregresse, come polarizzazione e sfiducia istituzionale. La sfida non consiste unicamente nel migliorare gli algoritmi, ma nel ripensare l’architettura della comunicazione pubblica, interrogandosi su chi controlla le informazioni, su quali incentivi economici regolano le piattaforme e su quale educazione critica è impartita alle nuove generazioni. In definitiva, la lotta alla disinformazione è una questione di responsabilità collettiva in un ecosistema comunicativo in cui l’umano e l’artificiale si fondono.

Bibliografia

Allcott, H., & Gentzkow, M. (2017). Social media and fake news in the 2016 Election. Journal of Economic Perspectives, 31(2), 211–236.

Bender, E. M., Gebru, T., McMillan-Major, A., Shmitchell, S. (2021). On the dangers of stochastic parrots. FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency.

Chesney, R., & Citron, D. (2019). Deep Fakes: a looming crisis for privacy, democracy, and national security, 107 California Law Review, 1753–1819.

Davenport T. H., & Beck J. C. (2002). Attention economy: understanding the new currency of business, Harvard Business School Press: Boston.

European Commission (2025). Digital Services Act: keeping us safe online.

Gillespie, T. (2018). Custodians of the internet; platforms, content moderation, and the hidden decisions that shape social media. Yale University Press: New Haven.

Habermas, J. (1989). The structural transformation of the public sphere. MIT Press: Cambridge.

Jowett, G., & O’Donnell, V. (2018). Propaganda & persuasion. Sage: New York.

Lazer, D. et al. (2018). The Science of fake news: Addressing fake news requires a multidisciplinary effort. Science, 359.

McIntyre, L. (2018). Post-Truth. MIT Press; Cambridge.

Mihailidis, P., & Thevenin, B. (2013). Media literacy as a core competency of engaged citizenship in Participatory Democracy. American Behavioral Scientist 57(11):1611-1622.

Pariser, E. (2011). The filter bubble: what the internet is hiding from you. Penguin: London.

Norvig, P. (2021). Artificial Intelligence: A Modern Approach. Pearson: London.

Tufekci, Z. (2015). Algorithmic harms beyond facebook and google. Colorado Technology Law Journal, 13, 203-218.

Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146-1151.

Wardle, C., & Derakhshan, H. (2017). Information disorder: toward an interdisciplinary framework for research and policymaking. Council of Europe.

Zuboff, S. (2019). The age of surveillance capitalism: the fight for a human future at the new frontier of power. PublicAffairs: New York.

Condividi sui social:

Articoli popolari

Altro nella categoria
Related

AI Act nell’ombra del Digital Omnibus: chi sopporta il peso dell’incertezza?

  Il Digital Omnibus sull’AI emerge in un momento cruciale...

Insegnare Oggi: Sfide e Passioni nell’Educazione

Competenza, empatia e responsabilità Essere insegnanti oggi implica esercitare una...

AI Innovativa: La Soluzione per Fermare il Furto di Credenziali

Introduzione: quando l’AI intelligente diventa vulnerabile Recenti scoperte nel campo...

La Preside e la Gabbia del Modello Caivano: Un Racconto di Speranza e Resilienza

“La Preside” e il modello Caivano L’intervento Da La Repubblica Napoli,...