Fai una donazione

Questo sito è autofinanziato. L'aumento dei costi ci costringe a chiedere un piccolo aiuto ai lettori. CHI NON HA O NON VUOLE USARE UNA CARTA DI CREDITO può comunque cliccare su "donate" e nella pagina successiva è presente (in alto) l'IBAN per un bonifico diretto________________________________

Amount
Print Friendly, PDF & Email

unblogdirivoluzionari.png

La censura invisibile

Meta, algoritmi segreti e il monopolio privato della verità

di Mario Sommella

shutterstock 2560957567 1.jpgNon ti vietano di parlare: ti rendono invisibile. Il caso Barbero è solo l’ennesimo segnale di una democrazia digitale in ostaggio, dove poche multinazionali decidono cosa può diventare coscienza collettiva e cosa deve sparire dal dibattito pubblico

.C’è una frase che mi torna in mente ogni volta che vedo queste scene: non stanno censurando un contenuto, stanno censurando la sua traiettoria. Non è il “cosa” che dà fastidio, è il “quanto” e il “come” quel contenuto riesce a circolare.

E il caso Barbero – qualunque sia la lettura politica che ognuno di noi può dare al merito del referendum – è la fotografia perfetta di un problema enorme: la libertà di parola nell’epoca dei social è diventata una libertà condizionata, concessa in affitto da piattaforme private che decidono, in modo opaco, chi merita visibilità e chi deve sparire dal campo visivo collettivo.

Qui non siamo davanti a una disputa tra “vero” e “falso”. Siamo davanti a qualcosa di più sottile e più pericoloso: la trasformazione del dibattito pubblico in un rubinetto. Un rubinetto che non controlliamo noi. E nemmeno lo Stato. Lo controllano pochi colossi multinazionali, proprietari dell’infrastruttura della conversazione.

 

La censura del XXI secolo non ti zittisce: ti raffredda

La censura classica aveva un volto brutale: il divieto, il sequestro, la repressione. Quella contemporanea è più elegante e più subdola: non ti impedisce di parlare, ti impedisce di essere ascoltato.

Ti lascia pubblicare, ti lascia condividere, ti lascia perfino illudere di essere libero. Poi però entra in scena l’algoritmo, che lavora come un portiere di discoteca.

Non ti dice “sei proibito”. Ti dice: “puoi entrare, ma resti in corridoio”.

E nel corridoio non ti vede nessuno.

La cosa gravissima è che questa riduzione della visibilità viene spesso rivestita di un linguaggio moralmente rassicurante: “sicurezza”, “integrità”, “fact checking”, “informazioni false”, “contenuto sensibile”. Ma quando non c’è una smentita chiara, quando non c’è una contestazione puntuale, quando non c’è un contraddittorio trasparente, quel marchio diventa una clava narrativa. Un’etichetta che non informa: declassa.

E attenzione: nel mondo delle piattaforme, declassare significa censurare, perché il potere non è più nella parola, è nella sua distribuzione.

 

Il monopolio della visibilità è un monopolio politico

Il punto, allora, non è Barbero. Il punto siamo noi. Il punto è il meccanismo.

Quando una piattaforma privata può stabilire che un contenuto è “troppo virale” e quindi va raffreddato, sta dicendo una cosa precisa: “La vostra opinione vale finché non diventa un fatto sociale”.

Finché resti piccolo, tollerabile, confinato, sei innocuo.

Quando cresci, quando diventi massa critica, quando scavalchi la soglia di allarme, diventi “rischio”.

E qui si apre il vero scandalo democratico: una società privata decide cosa diventa rilevante nella sfera pubblica.

È come se in una piazza reale qualcuno alzasse e abbassasse un vetro invisibile sopra la folla, rendendo alcune voci amplificate e altre mute. Tu parli, ma l’aria non vibra. Le persone ti guardano, ma non sentono nulla.

Questo è potere mediatico. E dove c’è potere mediatico, c’è potere politico.

Non serve essere complottisti. Basta guardare come funziona il mercato dell’attenzione: ciò che vediamo non è “la realtà”, è un menù. E il cuoco non siamo noi.

 

L’algoritmo non è neutrale: è proprietà privata

Ci hanno venduto per anni una favola: “la tecnologia è neutrale, dipende da come la usi”.

No. Questa è una mezza verità, e le mezze verità sono spesso le bugie più efficaci.

L’algoritmo non è neutrale perché non nasce nel vuoto. È progettato con obiettivi precisi. E gli obiettivi sono quasi sempre questi:

I) aumentare il tempo di permanenza

II) massimizzare l’engagement

III) vendere pubblicità

IV) profilare gli utenti

V) ridurre i rischi legali e reputazionali dell’azienda

Questo significa che l’informazione non viene premiata perché è vera o utile. Viene premiata se funziona dentro il modello di business.

E quando un contenuto politico “funziona troppo” in una direzione non gradita, può diventare improvvisamente “problema”. Non perché sia falso: perché è incontrollabile.

E qui arriviamo al nodo: la democrazia non può dipendere da un codice segreto scritto da una corporation.

Perché quel codice è legge senza Parlamento. È giudice senza processo. È polizia senza uniforme.

 

Il fact checking come arma impropria

Io non sono contro la verifica delle notizie. Chiunque abbia un minimo di onestà intellettuale sa che la disinformazione esiste, e che può fare danni enormi.

Ma proprio per questo, il fact checking deve essere una cosa limpida, rigorosa, verificabile, discussa.

Non può diventare una nebulosa “valutazione di criticità” che coincide magicamente con la perdita di visibilità.

Perché in quel caso smette di essere verifica e diventa gestione del consenso.

E la gestione del consenso non è un servizio: è politica. Solo che la fanno soggetti privati, senza controllo democratico, con strumenti invisibili.

Il risultato è una perversione: invece di educare alla complessità, si “raffredda” la complessità. Invece di alzare il livello, si taglia la circolazione. Invece di costruire cittadinanza, si costruisce obbedienza algoritmica.

La nuova censura è economica: chi paga parla meglio

C’è un altro aspetto che raramente viene detto con la durezza necessaria: nelle piattaforme commerciali, la libertà è proporzionale al budget.

Chi ha potere economico può comprare visibilità, sponsorizzazioni, campagne, posizionamenti.

Chi non ce l’ha, è in balia dell’algoritmo.

E l’algoritmo, essendo progettato per monetizzare, tende a premiare chi già possiede ed investe risorse, strutture, strumenti, reti. In pratica: riproduce nel digitale la stessa diseguaglianza del mondo reale, ma con una cattiveria in più, perché lo fa presentandosi come “meritocrazia del contenuto”.

No: è mercato dell’attenzione. E come ogni mercato, produce oligarchie.

 

La democrazia non vive senza conflitto visibile

C’è un punto che per me è decisivo. La democrazia non è un salotto dove ci si parla educatamente. La democrazia è un campo vivo, pieno di attriti, divergenze, conflitti, contraddizioni.

Quando quel conflitto viene sterilizzato, “moderato”, abbassato di intensità, noi perdiamo qualcosa di essenziale: la possibilità di vedere che esistono alternative.

Se la piattaforma decide che una voce è “troppo influente”, e la nasconde, la società non ha più un confronto: ha solo una scenografia. Un teatro dove i personaggi possono muoversi, ma solo entro i limiti segnati dal regista.

E il regista non è eletto da nessuno.

 

L’ecosistema tossico: dipendenza, ansia, fragilità

Qui il problema non è solo politico. È anche psicologico e culturale.

Le piattaforme non sono solo canali: sono ambienti. E gli ambienti ci formano. Ci educano. Ci modellano.

L’architettura dell’attenzione non è innocente. È costruita per creare abitudine, stimolo continuo, ricompensa intermittente: scorrimento infinito, notifiche, dopamina, competizione emotiva.

Questa non è semplicemente “comunicazione moderna”. È ingegneria del comportamento.

E quando una generazione cresce dentro un ambiente progettato per catturare la mente, non siamo più davanti a un problema di informazione. Siamo davanti a un problema di libertà interiore.

L’algoritmo non controlla solo cosa vediamo. Controlla come reagiamo. E quindi, indirettamente, controlla anche chi diventiamo.

Non a caso, l’Unione Europea ha aperto indagini su Meta proprio per il tema della tutela dei minori e per la possibile relazione tra design algoritmico e danni alla salute mentale.

 

L’Europa e il paradosso delle regole senza sovranità

L’Europa prova a reagire. Ci prova con norme, regolamenti, principi.

Il Digital Services Act nasce anche per imporre obblighi e responsabilità alle grandi piattaforme, in particolare sulle dinamiche sistemiche: rischio sociale, trasparenza, mitigazione dei danni. E la Commissione ha già dimostrato che vuole usare la leva regolatoria, con procedimenti e controlli.

Ma c’è un problema enorme: regolare non basta se sei dipendente.

Se l’infrastruttura è di altri, se il cloud è di altri, se gli standard sono di altri, se la cultura digitale dominante è di altri, tu puoi anche scrivere la regola migliore del mondo… ma poi continui a vivere nella casa dell’altro.

Questa è la trappola: l’Europa tenta l’etica, ma vive nella subalternità tecnologica.

E allora la domanda diventa brutale: vogliamo davvero difendere la libertà digitale o vogliamo soltanto amministrare la dipendenza?

 

La risposta non è solo una legge: è un cambio di proprietà

Qui io penso che serva una posizione netta, senza tremori:

non possiamo lasciare la sfera pubblica in mano a soggetti privati che rispondono solo ai loro interessi.

Se i social sono la piazza del nostro tempo, allora devono diventare infrastruttura democratica. Non per “statizzarli” nel senso burocratico e verticale. Ma per trasformarli in beni comuni digitali.

Una piazza non può avere un padrone.

Una piazza può avere regole, certo. Ma le regole devono essere pubbliche, trasparenti, contestabili. Devono poter essere discusse dalla comunità.

Invece oggi la piazza ha un proprietario, e quel proprietario cambia regole quando vuole.

E spesso, guarda caso, le cambia in modi che rafforzano il proprio potere.

 

La soluzione: piattaforme autonome, federate, controllabili dagli utenti

La vera risposta non è lamentarsi. La vera risposta è costruire alternative.

Perché finché restiamo prigionieri di queste piattaforme, avremo sempre lo stesso ricatto: “se vuoi parlare al mondo, devi passare da noi”.

Io non ci sto. E non ci dobbiamo stare.

Servono spazi digitali che funzionino con logiche diverse:

I) proprietà diffusa e cooperativa, non concentrata

II) algoritmi trasparenti o disattivabili, non segreti e obbligatori

III) moderazione con regole pubbliche, non con decisioni invisibili

IV) portabilità reale dei contenuti e delle reti, non recinti proprietari

V) interoperabilità, per evitare che una singola azienda diventi Stato

In pratica: bisogna rompere il monopolio della visibilità.

E questo significa spingere verso un ecosistema federato, pluralista, dove nessuno può spegnere una voce con un click.

Non è utopia. È l’unico modo per evitare che la democrazia diventi un algoritmo.

 

La libertà digitale non è un optional: è una questione costituzionale

Quando una piattaforma decide cosa è “troppo virale”, sta decidendo cosa può diventare coscienza collettiva.

Non è un dettaglio. È un tema enorme, storico.

Perché un popolo che non controlla i propri canali di comunicazione è un popolo vulnerabile. Manipolabile. Addestrabile.

E nel momento in cui le grandi piattaforme diventano l’unico spazio di informazione, intrattenimento, relazioni, politica, cultura… allora si crea una nuova forma di dipendenza strutturale.

Non dipendiamo più solo dal lavoro, dal prezzo dell’energia, dal debito. Dipendiamo dalla visibilità concessa da un algoritmo.

Questo è il punto in cui una società deve svegliarsi.

 

Non è paranoia: è realismo politico

Qualcuno dirà: “stai esagerando, è solo un social”.

No. È l’infrastruttura dove si forma il senso comune.

E il senso comune, nella storia, è sempre stato terreno di conquista.

Oggi, però, la conquista non avviene con la propaganda gridata. Avviene con il controllo del flusso.

Con il filtro.

Con il ranking.

Con la riduzione di portata.

Con la punizione invisibile.

Ed è per questo che io chiamo questa cosa col suo nome: censura privata di massa.

Non nel senso rozzo del divieto. Nel senso moderno della disattivazione sociale.

 

Se vogliamo essere liberi, dobbiamo essere proprietari

E allora chiudo così, senza giri di parole: finché la nostra voce passa dentro i tubi di qualcun altro, la nostra libertà è parziale.

La libertà piena nasce quando controlli la tua infrastruttura.

E questa è una scelta politica, non tecnica.

O restiamo consumatori dentro piattaforme altrui, accettando che qualcuno decida per noi cosa merita attenzione.

Oppure costruiamo un nuovo spazio pubblico digitale, dove la visibilità non sia un premio aziendale, ma un diritto sociale.

Perché oggi la vera posta in gioco non è “cosa pensiamo”.

È se ci è concesso di farlo diventare pensiero condiviso.

E quando la condivisione viene governata dall’interesse privato, la democrazia è in ostaggio.

Io non accetto questa gabbia dorata.

E penso che sia arrivato il momento di dirlo forte: non vogliamo padroni della piazza.

Vogliamo una piazza nostra.

 

Proposta concreta: come costruire davvero una piazza digitale nostra

Denunciare è necessario, ma non basta. Se vogliamo spezzare il monopolio della visibilità dobbiamo smettere di vivere dentro recinti proprietari e iniziare a costruire un ecosistema alternativo, credibile, praticabile, sostenibile. Non una fuga romantica. Un progetto politico e tecnico insieme.

Ecco alcune linee operative, concrete, che si possono attivare anche in Italia, a più livelli, senza aspettare miracoli dall’alto.

I) Federare invece di centralizzare

La parola chiave è federazione: tante piazze collegate tra loro, non una sola piazza di proprietà privata. Reti dove comunità, associazioni, sindacati, giornali indipendenti, movimenti civici possano aprire i propri spazi comunicativi, interoperabili e comunicanti, senza dipendere da un’unica “porta”.

II) Proprietà cooperativa e governance democratica

Una piattaforma alternativa non deve essere “di qualcuno”, deve essere di chi la usa. Cooperative digitali, fondazioni, consorzi civici: forme in cui la proprietà e le decisioni siano distribuite e verificabili. Se il potere si concentra, la piattaforma torna a essere un problema, anche se “buona”.

III) Algoritmi trasparenti e selezionabili

Il feed non deve essere una lotteria segreta. Deve essere un meccanismo comprensibile e, soprattutto, modificabile dall’utente. Ordine cronologico come opzione stabile, filtri dichiarati, ranking spiegabile. Se non puoi capire come ti vedono gli altri, non sei libero: sei gestito.

IV) Tracciabilità dei contenuti e contesto, non etichette punitive

La disinformazione si combatte con strumenti che aggiungono contesto, non con strumenti che affossano in silenzio. Se un contenuto è contestato, deve esserci una motivazione pubblica, accessibile, verificabile, con possibilità di replica e revisione. Non un bollino che diventa un ergastolo di visibilità.

V) Interoperabilità e portabilità: uscire senza perdere la vita sociale

Oggi il vero ricatto è questo: se te ne vai, perdi la rete di contatti, la comunità, il lavoro politico costruito. L’alternativa deve garantire migrazione facile, esportazione dei dati, compatibilità tra servizi. Se cambiare piazza significa ricominciare da zero, nessuno lo farà.

VI) Infrastrutture locali e server controllati da soggetti pubblici o comunitari

Non basta l’app: servono infrastrutture. Server su territorio europeo, gestione trasparente, affidabilità, continuità. Comuni, regioni, università, consorzi civici possono ospitare e sostenere nodi di rete come bene pubblico, esattamente come si sostiene una biblioteca o un teatro.

VII) Educazione al discernimento digitale come politica strutturale

Qui c’è un punto che vale più di mille slogan: senza alfabetizzazione critica, anche la migliore piattaforma verrà invasa dalla manipolazione. Serve una formazione pubblica e permanente: scuole, corsi civici, progetti territoriali, biblioteche, spazi sociali. Il discernimento è un diritto collettivo.

VIII) Sostegno economico all’informazione indipendente fuori dal ricatto della pubblicità

Se l’unico modo per campare è inseguire il click, si torna sotto l’impero dell’engagement. Serve un modello diverso: abbonamenti equi, microfinanziamento, fondi pubblici trasparenti, sostegno a cooperative editoriali e media di comunità. Se l’informazione è un bene democratico, va sostenuta come tale.

IX) Un’autorità pubblica di garanzia sulla visibilità politica nei periodi sensibili

Se i social sono la piazza, allora nelle fasi cruciali (referendum, elezioni, crisi sociali) serve una vigilanza democratica reale sui meccanismi di amplificazione o soppressione. Non per controllare i contenuti, ma per impedire che pochi privati alterino il campo del confronto.

X) Un patto civile: “dove pubblichiamo conta quanto cosa diciamo”

La politica deve smettere di trattare i social proprietari come se fossero neutrali. Ogni movimento, associazione, sindacato, realtà culturale dovrebbe porsi una regola: presidiare gli spazi commerciali quanto basta, ma investire energie vere nello spostamento progressivo verso spazi liberi e comunitari. Perché non basta la parola giusta, se la piazza non è tua.

Questa non è una fantasia: è una necessità storica. Se non ricostruiamo l’infrastruttura della comunicazione, continueremo a fare opposizione dentro la casa del padrone, con il padrone che decide quando farci parlare e quando spegnere la luce.

E allora sì, la risposta al caso Barbero diventa una risposta a tutto il sistema: il problema non è un video penalizzato. Il problema è una società che ha delegato la propria voce a chi vive vendendo attenzione.

Se vogliamo essere liberi, dobbiamo tornare proprietari del nostro spazio pubblico. Non domani. Ora.


Note e riferimenti essenziali
I) Commissione Europea, indagine su Meta per tutela minori, salute mentale e obblighi DSA:
https://www.theguardian.com/technology/article/2024/may/16/eu-investigates-facebook-owner-meta-over-child-safety-and-mental-health-concerns
II) Digital Services Act e obblighi per le grandi piattaforme (rischi sistemici, trasparenza, responsabilità):
https://www.reuters.com/technology/eu-designates-xnxx-very-large-online-platform-under-digital-services-act-2024-07-10/
III) Scelte di policy e mutazioni del sistema di fact checking su Meta (dibattito e impatto sulla moderazione):
https://www.theverge.com/2025/1/7/24338062/facebook-instagram-threads-meta-abandon-fact-checking
Pin It

Add comment

Submit