Bruxelles, 15 ottobre 2025. Doveva essere il giorno della decisione, quello in cui il Parlamento europeo avrebbe dato il via libera definitivo al Chat Control, il regolamento che promette di contrastare la pedopornografia online attraverso la scansione automatica delle comunicazioni private.
E invece, il voto si è fermato. Niente maggioranza. Un rinvio — a dicembre 2025 — per cercare un accordo su una delle questioni più divisive e simboliche della nostra epoca: il confine sottile tra sicurezza e libertà.
Dietro la sigla tecnica “Chat Control” si nasconde un progetto ambizioso, presentato per la prima volta nel maggio 2022 dalla commissaria europea agli Affari Interni Ylva Johansson, con un intento dichiaratamente nobile: proteggere i minori dagli abusi e smantellare le reti criminali che diffondono materiale pedopornografico.
Ma è davvero questo il modo giusto per farlo?
È davvero necessario — o è l’ennesima illusione tecnologica che confonde la prevenzione del crimine con la sorveglianza di massa?
Il regolamento prevede che tutte le principali piattaforme di comunicazione — WhatsApp, Signal, Telegram, Messenger, ma anche i servizi di email e di cloud — possano essere obbligate a monitorare automaticamente i messaggi degli utenti, compresi quelli protetti da crittografia end-to-end.
Tradotto: nessuna conversazione sarebbe più completamente privata.
Le immagini, i video e persino i testi verrebbero passati al setaccio da algoritmi addestrati a riconoscere contenuti o comportamenti “sospetti”. In caso di segnalazione, i dati finirebbero nelle mani delle autorità competenti o di enti privati autorizzati.
Il principio, in teoria, sembra inattaccabile: difendere i più vulnerabili. Ma la domanda che inquieta l’Europa è un’altra: può la protezione dei minori giustificare la fine della riservatezza per tutti?
Il problema, come hanno sottolineato giuristi, informatici e difensori dei diritti civili, è che il Chat Control rischia di minare uno dei pilastri giuridici dell’Unione Europea: la Carta dei Diritti Fondamentali, in particolare gli articoli 7 (diritto al rispetto della vita privata e familiare) e 8 (protezione dei dati personali).
Non a caso, diversi Stati membri — Germania, Austria, Paesi Bassi, Polonia e Finlandia — si sono schierati contro il testo, ritenendo che l’obbligo di scansione delle chat cifrate rappresenti una violazione sistematica dei diritti dei cittadini.
La Germania, in particolare, ha parlato apertamente di “sorveglianza di massa preventiva”. E non è sola. L’EDPS (European Data Protection Supervisor), cioè il garante europeo per la privacy, ha espresso “seri dubbi sulla compatibilità del progetto con i principi di proporzionalità e necessità”.
Parole pesanti, che hanno costretto Bruxelles a rallentare.
Non è una questione di “pro o contro la sicurezza”. È la consapevolezza che non si può sacrificare la libertà sull’altare del controllo, anche quando la causa appare giusta.
Il Chat Control nasce da un’idea che, a prima vista, sembra moderna e salvifica: delegare alla tecnologia il compito di proteggerci.
Ma gli algoritmi non comprendono il contesto, non distinguono il male reale dall’ambiguità linguistica, non sanno leggere le sfumature dell’umano. Rischiano di segnalare conversazioni innocenti, immagini private scambiate tra adulti consenzienti o contenuti artistici interpretati come “rischiosi”.
L’errore umano è sostituito dall’errore automatico. E l’effetto collaterale è un mondo più controllato, ma non necessariamente più sicuro.
Gli esperti di cybersecurity lo dicono da anni: indebolire la crittografia per monitorare tutti significa aprire una porta che non si potrà più richiudere.
Se una chat può essere letta da un algoritmo, allora può esserlo anche da un hacker, da un governo autoritario, da un’azienda senza scrupoli. È il prezzo del “controllo benevolo”: una sicurezza apparente che ci espone a vulnerabilità più grandi.
Ma allora, è proprio necessario il Chat Control?
La risposta è no.
Per contrastare la pedopornografia esistono già strumenti efficaci e mirati, senza dover mettere sotto osservazione l’intera popolazione digitale.
Le forze di polizia, le procure, e la stessa Europol dispongono da anni di sistemi di tracciamento mirato, di cooperazione internazionale e di banche dati specializzate per individuare e perseguire i criminali reali, non gli utenti comuni.
Il vero problema, semmai, è la mancanza di risorse e personale, non di strumenti.
Piuttosto che finanziare software di sorveglianza, si potrebbero potenziare le unità investigative sui crimini informatici, rafforzare la collaborazione con i provider in modo mirato e circoscritto, e promuovere una cultura digitale della prevenzione: educare bambini, genitori ed insegnanti a riconoscere i pericoli della rete.
Un lavoro più lento, meno spettacolare, ma infinitamente più umano e duraturo.
Viviamo già in un mondo dove tutto è tracciato: gli acquisti, i movimenti, le ricerche, le preferenze. Ogni click racconta qualcosa di noi, ogni conversazione lascia un’ombra digitale.
Il Chat Control rischia di normalizzare questo stato di sorveglianza, presentandolo come “protezione”.
E il passo successivo è culturale: abituarci a essere controllati, e smettere di percepirlo come una violazione.
Non è un caso se molti osservatori paragonano la logica del Chat Control a quella del “Patriot Act” americano post 11 settembre: un provvedimento emergenziale che, nel tempo, ha esteso il controllo statale su milioni di cittadini.
La storia insegna che ogni misura di sicurezza tende a diventare permanente.
E una volta accettata la sorveglianza “per i minori”, chi impedirà di applicarla domani “per la sicurezza nazionale”, “per la salute pubblica”, o “contro la disinformazione”?
Il rinvio del voto è, in realtà, una pausa di coscienza collettiva.
L’Europa deve decidere che tipo di civiltà vuole essere: quella della fiducia o quella del sospetto.
Vuole proteggere i cittadini o prevenire tutto a costo di trasformare la libertà in un algoritmo di sorveglianza?
Il compromesso che si discuterà a dicembre servirà, probabilmente, solo a diluire il linguaggio, non a risolvere la contraddizione di fondo: non si può garantire libertà controllando ogni parola.
Eppure, una via esiste: quella della trasparenza, della formazione, della cooperazione e della fiducia nelle istituzioni.
Perché la protezione dei minori non ha bisogno di spiare tutti: ha bisogno di una società che non chiuda gli occhi, di genitori consapevoli, di educatori presenti, di risorse vere e di leggi applicate con intelligenza.
Un algoritmo non salverà nessuno, se dietro di esso non c’è una comunità vigile e solidale.
A dicembre si tornerà a votare. E forse il Chat Control passerà, magari in forma attenuata, con nuovi nomi e qualche garanzia in più. Ma la sostanza non cambierà: un sistema capace di entrare nelle nostre vite private nel nome di una sicurezza che, per definizione, non sarà mai completa.
Saremo più sicuri?
O semplicemente più controllati?
La differenza, come sempre, sta nella fiducia.
E la fiducia non si impone con un algoritmo.
Il Chat Control non è solo una legge. È un simbolo. È la linea di confine tra la democrazia della fiducia e la società della paura.
E se il prezzo per sentirci protetti è rinunciare alla libertà di comunicare senza essere osservati, allora la domanda che dovremmo farci non è “quanto siamo disposti a cedere”, ma chi, in futuro, controllerà chi ci controlla.
Forse non abbiamo bisogno di nuove regole per osservare di più.
Abbiamo bisogno di imparare — come cittadini e come società — a capire, a educare, a prevenire.
Perché la libertà, una volta ceduta, non si recupera con un aggiornamento di sistema.





