Perché i social stanno implodendo?

Le dinamiche di un modello di business arrivato al collasso.

I social non sono strumenti neutri

Tendiamo a pensare ai social media come a strumenti neutri, canali attraverso cui le persone comunicano, le aziende trovano clienti, le idee circolano. Non lo sono mai stati. Sono infrastrutture private costruite con obiettivi commerciali precisi, esposte a pressioni politiche crescenti, e governate da una concentrazione di potere che non ha precedenti nella storia delle comunicazioni di massa. Capire perché i social stanno cambiando in modo così rapido e profondo significa capire queste forze, non separatamente, ma nel modo in cui si combinano e si amplificano a vicenda.

Interessi degli azionisti vs interessi degli utenti

Quello che sta accadendo non è un incidente. Non è il risultato di qualche decisione sbagliata presa da qualche manager nel posto sbagliato al momento sbagliato. È il prodotto prevedibile di dinamiche strutturali che erano già presenti fin dall’inizio, e che stanno semplicemente arrivando a maturazione tutte insieme, nello stesso periodo, sulle stesse piattaforme che milioni di persone usano ogni giorno per costruire la propria presenza digitale e, in molti casi, il proprio reddito.

Il quadro generale di questa trasformazione è descritto nella nostra analisi sulla crisi dei social classici e la migrazione in corso. Qui entriamo nelle cause strutturali: perché sta succedendo, chi lo guida, e perché è difficile un’inversione.

Concentrazione proprietaria

Chi controlla i principali social network oggi

Cinque aziende controllano le piattaforme su cui si svolge la quasi totalità della vita digitale pubblica. Meta gestisce Facebook, Instagram, WhatsApp e Threads. Alphabet controlla YouTube. Microsoft possiede LinkedIn. ByteDance controlla TikTok. X Corp, dopo l’acquisizione da parte di Elon Musk nel 2022, ha ridefinito radicalmente la piattaforma precedentemente nota come Twitter.

Perché la concentrazione cambia le regole del gioco

Questa concentrazione ha una conseguenza diretta che spesso viene sottovalutata: le piattaforme non sono prodotti statici. Sono organismi che evolvono in funzione degli obiettivi del loro proprietario, e quegli obiettivi cambiano nel tempo, a volte gradualmente, a volte in modo decisamente brusco.

Facebook del 2012, quello che spingeva la reach organica per far crescere il numero di pagine attive, non è lo stesso Facebook del 2024, che ha ridotto sistematicamente quella reach per spingere verso l’advertising a pagamento. Twitter del 2020, non le sue politiche di moderazione relativamente consolidate, non è lo stesso X di Jack Dorsey del 2020, che ha ridotto il personale dedicato alla moderazione di oltre il 70% e ha modificato le policy in modo radicale in pochi mesi. Instagram del 2015, cronologico, visivo, costruito attorno alla fotografia, non è lo stesso Instagram del 2024, che privilegia i Reel, penalizza le immagini statiche e usa algoritmi di distribuzione che cambiano ogni trimestre.

Il punto non è che queste piattaforme siano peggiorate in senso assoluto. Il punto è che sono cambiate in modo non concordato con i propri utenti, seguendo logiche interne che rispondono agli obiettivi del proprietario, non alle esigenze di chi ci costruisce sopra un business. E quando il proprietario cambia, come è accaduto con Twitter, questo processo di ridefinizione può essere ancora più rapido e radicale.

Duopolio pubblicitario e dipendenza da Meta e Google

C’è un aspetto di questa concentrazione che vale la pena sottolineare esplicitamente perché spesso passa in secondo piano: la concentrazione proprietaria non riguarda solo le singole piattaforme, ma l’intera infrastruttura pubblicitaria che le alimenta. Meta e Google controllano insieme la quota dominante del mercato pubblicitario digitale globale . Questo significa che anche chi decide di diversificare la propria presenza su più piattaforme spesso si trova comunque a dipendere dallo stesso ecosistema pubblicitario per raggiungere il proprio pubblico. La diversificazione di superficie nasconde una dipendenza di fondo che è difficile da eliminare senza uscire completamente dal sistema dei social classici.

Il problema non è che i proprietari siano necessariamente in malafede, è strutturale: una piattaforma privata non ha obblighi nei confronti dei propri utenti. Ha obblighi nei confronti dei propri azionisti. E questi due insiemi di interessi divergono sistematicamente nel momento in cui la piattaforma matura, smette di crescere in utenti e deve trovare nuovi modi per estrarre valore da quelli esistenti.

Pressione regolatoria

Cos’è il Digital Services Act

L’Unione Europea ha approvato il Digital Services Act, entrato in vigore nella sua forma completa nel 2024. Il DSA impone alle piattaforme con oltre 45 milioni di utenti mensili nell’UE obblighi significativi in materia di moderazione dei contenuti, trasparenza algoritmica, protezione dei minori e gestione dei rischi sistemici. Le sanzioni per non conformità possono arrivare al 6% del fatturato globale annuo, una cifra che per Meta o Google si traduce in miliardi di euro.

Moderazione automatica e aumento degli errori

Le piattaforme hanno risposto al DSA in modi diversi, ma quasi tutte con un aumento della complessità delle proprie policy interne. Più regole significa più automazione nella moderazione, e più automazione significa più errori, contenuti rimossi per interpretazioni algoritmiche di regole scritte in modo vago, creator penalizzati per comportamenti che non capiscono di aver messo in atto: e che si fa quando si arriva fino alla sospesione o addirittura alla cancellazione di account per violazioni non meglio definite? Il DSA ha anche imposto obblighi di trasparenza sugli algoritmi di raccomandazione che le piattaforme hanno soddisfatto in modo spesso formale, pubblicando documenti tecnici che pochi utenti sono in grado di leggere e interpretare.

Negli Stati Uniti il dibattito regolatorio è più frammentato ma non meno rilevante. Diversi stati hanno approvato o stanno discutendo leggi sulla moderazione dei contenuti, sulla protezione dei minori, sull’obbligo di trasparenza algoritmica. Il Congresso federale discute da anni di una riforma del Section 230, la norma che protegge le piattaforme dalla responsabilità per i contenuti degli utenti, e qualsiasi modifica di quella norma cambierebbe radicalmente gli incentivi delle piattaforme nel gestire i contenuti. Alcune proposte legislative andrebbero nella direzione di una maggiore responsabilità delle piattaforme, il che spingerebbe verso moderazione più aggressiva. Altre andrebbero nella direzione opposta, limitando la capacità delle piattaforme di rimuovere contenuti, il che potrebbe peggiorare la qualità degli ambienti per chi vuole usarli in modo professionale.

Al di fuori di USA e UE, la regolamentazione assume forme ancora più variabili. Paesi come il Regno Unito, l’Australia, l’India e il Brasile hanno adottato o stanno adottando quadri normativi propri, spesso con requisiti che confliggono tra loro. Una piattaforma globale che deve rispettare contemporaneamente il DSA europeo, le leggi australiane sulla sicurezza online, i requisiti indiani di localizzazione dei dati e le pressioni brasiliane sulla moderazione dei contenuti politici si trova in una situazione di complessità normativa crescente, e la risposta più semplice a questa complessità è aumentare l’automazione e abbassare la soglia di tolleranza per i contenuti ambigui.

Il risultato per chi fa business sui social è un ambiente normativo in rapida evoluzione, in cui le piattaforme cambiano le proprie policy non solo per ragioni commerciali ma anche per adeguarsi a obblighi legali che variano di paese in paese e con cadenza talvolta trimestrale. La prevedibilità, già scarsa, diminuisce così ulteriormente. E la cosa più difficile da gestire non è la regola in sé, quanto il fatto che la regola cambi prima che sia possibile adattarsi alla versione precedente.

Conflitti geopolitici

Il caso TikTok negli Stati Uniti

Il caso TikTok negli Stati Uniti ha reso visibile una dinamica che era già presente ma meno evidente: le piattaforme sono diventate terreno di scontro tra stati, e gli utenti, i creators, le aziende, i professionisti che ci costruiscono sopra il loro lavoro, pagano le conseguenze di conflitti che non li riguardano direttamente e sui quali non hanno voce in capitolo.

Nel gennaio 2025, a seguito di una legge approvata dal Congresso americano, TikTok è stata temporaneamente inaccessibile negli Stati Uniti. La piattaforma è di proprietà di ByteDance, azienda cinese, e la legge imponeva la cessione della piattaforma a un acquirente non cinese entro una scadenza precisa, sulla base di preoccupazioni relative alla sicurezza nazionale e alla possibile raccolta di dati degli utenti americani da parte del governo cinese. Per alcune ore, decine di milioni di utenti americani, tra cui creator che avevano costruito business da milioni di dollari sulla piattaforma, si sono trovati senza accesso. La piattaforma è tornata disponibile temporaneamente grazie a un intervento dell’amministrazione Trump, ma l’incertezza sul suo futuro negli USA rimane irrisolta.

Questo caso ha reso concreta una categoria di rischio che molti consideravano teorica: una piattaforma può diventare inaccessibile, temporaneamente o permanentemente, non perché abbia problemi tecnici o commerciali, ma perché è diventata una pedina in un conflitto geopolitico più grande. E quando questo accade, non c’è niente che l’utente possa fare: non può negoziare, non può ricorrere, non può proteggere quello che ha costruito. Esattamente l’equivalente di quanto succede in un vero conflitto armato: il singolo scompare.

Blocco e censura delle piattaforme nel mondo

Non si tratta di un caso isolato nel panorama globale. Piattaforme occidentali come Facebook, Instagram, Twitter e YouTube sono bloccate in Cina e in Russia. Telegram è stata oggetto di pressioni (in primis l’arresto in Francia del suo fondatore) e blocchi in diversi paesi europei. Le pressioni dei governi sulle piattaforme per rimuovere contenuti, fornire dati degli utenti o modificare le proprie policy sono documentate, in crescita e spesso non rese pubbliche. Alcune di queste pressioni avvengono attraverso canali formali, richieste legali, ordinanze dei tribunali, altre attraverso canali informali che le piattaforme raramente discutono pubblicamente.

La dimensione geopolitica introduce una variabile di rischio che è quasi impossibile da gestire e prevedere a livello individuale. Non si può sapere in anticipo se la piattaforma su cui si sta costruendo la propria presenza diventerà oggetto di un contenzioso diplomatico, di una legge restrittiva, di una decisione di ban da parte di un governo. Si può solo prendere atto che questo rischio esiste, si è già materializzato, e che non esistono garanzie perché ciò non accada di nuovo, su TikTok o qualsiasi altra piattaforma con esposizione geopolitica significativa.

Oltre a questo, non sono da escludere un sistema di controllo e filtraggio delle informazioni ritenute legittime dalle piattaforme, magari su pressione di governi o istituzioni, in caso di degenerazione della situazione geopolitica globale, o semplicemente nel caso in cui esse siano conflittuali con quanto ritenuto pubblicabile. Confine che negli ultimi mesi sembra dipendere sempre più dalla soggettività.

Cos’è l’Enshittification?

C’è un meccanismo economico di fondo che spiega gran parte di quello che sta succedendo, ed è abbastanza semplice da descrivere anche se le sue conseguenze sono complesse e pervasive.

Come funzionavano le piattaforme?

Le piattaforme social hanno attraversato una fase di crescita aggressiva in cui il loro obiettivo primario era aumentare il numero di utenti attivi. In quella fase, la reach organica era alta, deliberatamente alta, con servizi e contenuti spesso fruibili in modo gratuito o quasi, perché le piattaforme avevano interesse a far sì che i contenuti circolassero e che gli utenti si iscrivessero, che le pagine crescessero, che i creator fossero soddisfatti e continuassero a produrre contenuti che attirassero nuovi utenti ancora. Il contenuto dei creator era, di fatto, il prodotto con cui le piattaforme acquisivano utenti. I creator erano fornitori strategici, e venivano trattati come tali.

Perché la reach organica cala nel tempo

Quando la crescita si stabilizza, quando il mercato degli utenti è saturo, quando quasi tutti quelli che potrebbero usare una piattaforma la usano già e non possono quasi più farne a meno, questo incentivo cambia radicalmente. La piattaforma non ha più bisogno di attrarre nuovi utenti con la promessa di visibilità organica. Ha bisogno di estrarre più valore dagli utenti esistenti. E il modo più diretto per farlo è ridurre la visibilità organica e vendere quella visibilità attraverso l’advertising, trasformando i creator da fornitori strategici a potenziali clienti pubblicitari, rendendo il proprio servizio a pagamento anche per chi dalla propria attività produce valore per la piattaforma stessa. Fenomeno noto con il colorito termine di Enshittification.

Questo è esattamente quello che ha fatto Facebook con le sue pagine tra il 2012 e il 2018, riducendo la reach organica media dal 16% a meno del 2% nel giro di pochi anni. È quello che Instagram ha fatto con i profili business negli anni successivi. È quello che X sta facendo con la subscription e il sistema di monetizzazione basato sulla verifica a pagamento. È quello che YouTube ha fatto irrigidendo i requisiti per l’accesso alla monetizzazione, spingendo i creator più piccoli verso una soglia che molti non riescono a raggiungere.

Dalla crescita all’estrazione di valore

Il passaggio dalla crescita alla maturità porta con sé anche un altro cambiamento che riguarda i formati che meglio sostengono il mantenimento della soglia dell’attenzione a livelli tali da fruire il contenuto, subirne gli effetti (dopaminici) e cercare immediatamente la ripetizione di tale dinamica. Così le piattaforme mature tendono a privilegiare i formati che generano più tempo di permanenza, video, feed infiniti, contenuti puramente intrattenitivi, a scapito dei formati che erano stati all’origine del loro successo. Instagram ha sacrificato la fotografia per i Reel. X ha progressivamente penalizzato i link esterni perché portavano gli utenti fuori dalla piattaforma. LinkedIn ha introdotto un algoritmo che privilegia i post che generano interazione emotiva rispetto a quelli che condividono contenuti professionali di valore. Ogni cambiamento di formato invalida competenze costruite nel tempo e richiede un reinvestimento che non tutti possono o vogliono fare.

Il risultato pratico è che il costo per raggiungere il proprio pubblico, un pubblico che spesso si è costruito con lavoro, costanza e investimento in tempo e denaro, aumenta sistematicamente e in modo strutturale, ricordiamoci, non per dinamiche incontrollabili o mistiche, ma per decisioni prese dai consigli di amministrazione, quindi non come conseguenza di una temporanea crisi, ma come funzionamento standard di un sistema che ha esaurito la sua fase di crescita e si sta ottimizzando per l’estrazione di valore monetario dall’utenza business che ne ha fatto la fortuna.

L’utente tra incudine e martello

Se trattassimo queste dinamiche come un problema esclusivo di chi utilizza i social media come strumento di lavoro, ignoreremmo l’elemento centrale dell’intera struttura: il pubblico.

Ciò che accade ai creator, coloro che tengono in vita le piattaforme attraverso produzione continua di contenuti, non resta confinato al lato produttivo. Si riflette direttamente sull’esperienza di chi consuma quei contenuti. La crescente pressione competitiva, la necessità di mantenere visibilità in ambienti algoritmici instabili, la dipendenza da metriche di engagement sempre più aggressive, generano un’offerta comunicativa progettata per colpire, stimolare, trattenere. Questa offerta non è neutra. È costruita per attivare dinamiche emotive e psicologiche profonde, spesso ignorate per l’utente stesso. Meccanismi di urgenza, polarizzazione, conflitto, promessa implicita di riconoscimento o appartenenza diventano strumenti sistematici di cattura dell’attenzione.

Disagio da social e affaticamento cognitivo

In una fase iniziale, tale dinamica poteva risultare invisibile o comunque tollerabile. Con il tempo, tuttavia, l’intensificazione di questi stimoli ha prodotto un effetto cumulativo: affaticamento cognitivo, saturazione emotiva, percezione di manipolazione. Il cosiddetto “disagio da social” non è un fenomeno isolato, ma l’esito strutturale di un sistema progettato per massimizzare permanenza e reazioni.

A questo quadro si aggiungono le interferenze politiche e le pressioni governative sulle piattaforme, che alimentano un’ulteriore frattura di fiducia. L’utente che utilizza i social anche come fonte informativa percepisce sempre più chiaramente la presenza di interessi economici e geopolitici che non coincidono con il proprio. La sensazione di trovarsi all’interno di un mercato dell’informazione dominato da attori privati o statali, orientati a logiche di potere e non di tutela dell’utente, contribuisce a rafforzare la disaffezione.

Effetto cumulativo

Presi singolarmente, ciascuno di questi fattori sarebbe gestibile. La pressione regolatoria cambia le policy, ma ci si adatta. Il cambio di proprietà altera gli equilibri, ma si trova un nuovo punto di stabilità. La monetizzazione aggressiva aumenta i costi, ma si lavora sull’efficienza. Il rischio geopolitico esiste, ma fino a quando non si materializza rimane una preoccupazione astratta, la manipolazione delle informazioni è evidente, ma gli stessi social contribuiscono a questa presa di coscienza. Il problema è che questi fattori non agiscono separatamente. Agiscono insieme, si amplificano a vicenda, e producono un ambiente che molti utenti percepiscono come fondamentalmente ostile, non per una singola ragione chiara e identificabile, ma per la stratificazione di ragioni che si sovrappongono senza lasciare spazio a una risposta lineare o strategicamente strutturabile.

Un creator che subisce una sospensione ingiustificata mentre la reach organica è già calata del 60%, mentre la piattaforma sta cambiando le proprie policy per adeguarsi al DSA, mentre il formato che aveva imparato a usare bene viene depriorizzato dall’algoritmo a favore di uno nuovo, e allo stesso tempo vede l’utenza di un dato paese scomparire dopo un ban della piattaforma nel paese medesimo, non sta affrontando un problema. Sta affrontando cinque problemi simultanei che si moltiplicano tra loro e che richiedono risposte diverse: alcune tecniche, alcune strategiche, altre impossibili da dare perché dipendono da decisioni di diverso ordine di grandezza.

Perché la migrazione diventa una risposta adattiva

Questo effetto cumulativo produce qualcosa che va oltre la frustrazione dei singoli episodi: produce una perdita cronica di fiducia nel sistema. E la perdita di fiducia è difficile da recuperare, perché non risponde a correzioni puntuali. Una piattaforma può migliorare un algoritmo, chiarire una policy, ripristinare un account sospeso per errore, ma se l’utente ha già perso la fiducia di fondo nella stabilità e nella prevedibilità dell’ambiente, queste correzioni non bastano a invertire la tendenza. Il risultato non è soltanto la migrazione professionale dei creator verso nuove piattaforme. È una progressiva erosione del rapporto di fiducia tra infrastruttura digitale e individuo. Ed è qui che il discorso cambia livello: non parliamo solo di strategie di business, ma di architettura dell’esperienza pubblica e di sovranità informativa. Quando il disagio diventa sistemico, la migrazione passa dall’essere un capriccio e diventa una risposta adattiva, e tale risposta arriva quando restare è più rischioso che andarsene.