AGI - Trump in versione "Re", "Papa", "Jedi", o mentre passeggia con un pinguino tra i ghiacci della Groenlandia: immagini create o rilanciate dalla Casa Bianca nelle ultime settimane e pensate per dominare il feed di piattaforme social. Immagini fatte per far ridere, far arrabbiare, far parlare, spostando la conversazione dal merito delle decisioni al terreno della guerra culturale per meme.
Il Guardian ha messo in fila una decina di esempi recenti pubblicati o rilanciati da canali legati alla Casa Bianca e li ha ricondotti a un'etichetta che sta circolando sempre di più: "slopaganda", propaganda costruita con "slop" generato dall'intelligenza artificiale, un flusso di contenuti usa-e-getta, economici, replicabili, spesso volutamente grossolani, che puntano a saturare l'attenzione e imporre un punto di vista. La parola nasce in ambito accademico: nel paper "Slopaganda: The interaction between propaganda and generative AI", firmato da Micha Klincewicz, Mark Alfano e Amir Ebrahimi Fard e pubblicato nel 2025, il fenomeno viene descritto come l'incontro tra propaganda - intesa come comunicazione orientata a influenzare opinioni e comportamenti in campo politico - e "AI slop", la massa di contenuti indesiderati generati in modo automatico.
Slopaganda e la nuova strategia comunicativa
La tesi è che, con i modelli generativi, la propaganda non deve più essere per forza elegante o credibile: diventa un'operazione di contesto, una "modellazione" dell'ambiente informativo, dove contano cosa circola, con quale frequenza e con che tonalità emotiva. In questo schema, la slopaganda non coincide con le fake news: può includere falsi, caricature e persino deepfake, e trova forza nella scala e nella ripetizione, perché l'attenzione dura poco e i feed premiano ciò che provoca reazioni. L'obiettivo, per chi fa comunicazione politica a qualunque livello, diventa fissare immagini e associazioni mentali, spingere la polarizzazione e usare anche il cinismo come leva, dentro l'ambiguità del formato meme che, per la sua natura ironica e irriverente, offre sempre una via d'uscita.
Il caso Trump: slopaganda nella comunicazione istituzionale
Il caso Trump è utile perché mostra la slopaganda quando arriva al centro della comunicazione istituzionale: qui non si parla di una "troll farm" che prova a infilare un contenuto in una community specifica ma di un registro che, adottato dall'alto, ottiene un effetto di legittimazione e moltiplicazione social. Secondo il Guardian questa estetica è una scelta perseguita con convinzione: l'immagine generata dall'IA funziona come 'un colpo secco' mentre l'utente scrolla perché riduce complessità e riflessioni. Ma non solo. Come nel caso di Trump, arriva a imporre l'agenda perché costringe avversari e media a inseguire e commentare ogni visual, anziché discuterne i contenuti politici.
Gli slopagandist e l'ottimizzazione per l'algoritmo
Un secondo tassello arriva dal racconto degli "slopagandist", creator che fanno politica a basso costo e con alta frequenza di pubblicazione: The Verge, per esempio, cita il caso di Nick Shirley per descrivere un modello sempre più diffuso, fatto di contenuti incendiari, spesso poco verificati, ottimizzati per l'algoritmo, con clip e post pensati per produrre mobilitazione emotiva e identitaria. In questi casi l'IA non è sempre visibile come immagine generata, e il meccanismo resta simile: l'informazione viene trattata come materia prima per engagement e 'reactions'. Il paper aggiunge che la slopaganda cresce più facilmente quando l'ecosistema è già pieno di uno "slop" non politico, cioè quando è attiva una produzione industriale e massiccia di contenuti artificiali che abbassa la qualità media e rende più difficile distinguere fonti, intenzioni e valore informativo. In prospettiva, il rischio è una politica sempre più dipendente da contenuti a costo molto basso ma grande impatto mediatico e sociale, capaci di moltiplicarsi a grande velocità tra web e media. Chi controlla un canale di distribuzione o una rete di amplificazione, infine, può saturare l'attenzione con molte variazioni dello stesso messaggio, testarle in tempo reale e adattarle a nicchie diverse: anche quando il contenuto è palesemente forzato può trascinare il dibattito in una direzione ritenuta utile.
Contromisure e governance dell'informazione
Le contromisure discusse tra ricerca e policy si muovono su tre piani: trasparenza e provenienza (etichette e tracciabilità), regole delle piattaforme (freni alla viralità, downranking), responsabilità dei soggetti istituzionali (linee guida e disclosure quando canali ufficiali usano contenuti artificiali). Il nodo resta la governance dell'informazione: nell'era dei contenuti quasi gratuiti, la propaganda non ha bisogno di qualità per essere efficace, le basta essere ovunque. E con l'avanzare dei modelli IA contenere la slopaganda sarà sempre più complesso.