Al Club Nautico Gaeta si parte senza giri di parole. L’IA è ovunque: non magia, ma tecnica — quella spinta umana a superare i limiti — che diventa tecnologia quando si fa strumento. “La tecnologia la spegni; la tecnica no.” È la chiave del primo intervento: un filo che unisce Aristotele, Prometeo e le reti neurali post-2017, capaci non solo di calcolo ma di associazione, riconoscimento, generazione (testo, immagini, suono).
Cosa cambia davvero
-
Salto di paradigma. Dalla calcolatrice alla macchina che usa strumenti: quando serve, l’IA “chiama” risorse esterne (come faremmo noi con una calcolatrice o un motore di ricerca) e integra i risultati nel linguaggio.
-
Linguaggio come spazio. Le parole diventano punti in uno spazio matematico: le distanze codificano significati. Ecco perché “sembra capire”.
-
Multimodalità. Voce, testo, immagini, video: i modelli recenti incrociano canali e affrontano compiti creativi (fino a risolvere rebus o imitare stili).
Eppure, ammettono i relatori: “Sappiamo progettarla, non sempre spiegarla.” L’opacità dei modelli apre il capitolo fiducia.
Informazione, verità, fiducia
Nel giornalismo l’IA è leva e rischio insieme. Leva, perché smonta pdf bancari, compara fonti, evidenzia clausole, accelera ricerche complesse. Rischio, perché allucinazioni e bias amplificano errori e narrazioni tossiche. Morale praticissima: trasparenza d’uso, cross-check, metadati, disclosure degli strumenti. Senza, il mestiere si sbriciola nel “copia-incolla aumentato”.
AI Act, legge nazionale e diritto di sapere
La seconda parte del dibattito entra nel vivo: diritto all’informazione sui dati che ci riguardano e consenso informato per trattamenti automatizzati. Si citano esempi di lunga data (come i sistemi fiscali) e si sottolinea una promessa: “Dovranno comunicarlo.”
Si parla anche di ciò che l’AI Act non copre — l’impiego bellico — e della necessità di non essere ingenui: l’IA è anche potere geopolitico.
Trasparenza nella PA
Arriva il richiamo alla trasparenza amministrativa: pubblicare processi, dataset, log delle decisioni algoritmiche. Non solo stipendi e delibere: come e con quali modelli si decide. È un pezzo di democrazia sostanziale.
“Antropocentrica” non è una parola d’ordinanza: significa vietare usi insostenibili e sorvegliare i rischi alti (discriminazione per genere, disabilità, razza, religione, orientamento, opinioni).
Se l’algoritmo clinico non distingue tra corpi e storie, la cura diventa ingiusta. È etica fatta di protocolli, dataset bilanciati, audit indipendenti, tracciabilità.
Professioni: si può usare l’IA, ma va dichiarata
Giornalisti, avvocati, editori, PA, aziende: il principio è unico.
-
Ammesso l’uso, obbligatoria la disclosure.
-
Vietata la spazzatura spacciata per scienza o diritto.
Un caso citato: condanna per lite temeraria contro un legale che ha presentato giurisprudenza “inventata” dall’IA senza controllo umano né trasparenza. Messaggio chiaro: l’umano risponde.
Sul lavoro, se l’azienda usa IA per valutazioni/controlli, lo dichiara ex-ante. La foglia di fico della “proprietà industriale” non può oscurare i diritti del lavoratore.
Qui la sala si scalda. Risorse UE? Tante. Formazione? Poca. Progetti? Spesso dispersi. Eppure gli esempi virtuosi non mancano (hub scolastici, traduzione di testi antichi con IA, laboratori). La tesi è semplice: l’alfabetizzazione digitale è la misura della nostra libertà futura.
E i cellulari in classe?
Domanda dal pubblico sul provvedimento che limita i telefoni a scuola. La risposta è equilibrata: non è una crociata anti-tech, è una regola anti-distrazione. Gli strumenti didattici restano in campo; l’obiettivo è insegnare uso responsabile. Bandire o idolatrare gli smartphone è ugualmente sterile: serve pedagogia, non altari né roghi.
Emergono esperienze concrete: profili bloccati, procedure opache, iter tortuosi con le piattaforme. La proposta è spiccia e civile: denunciare, protocollare, generare “dati di realtà”. Senza tracce formali, le policy restano soffiate nel vento. E vale pure per la cybersicurezza: l’IA è anche strumento del crimine organizzato; servono competenze, risorse, cooperazione.
Passa un’idea concreta di politica industriale. Se detieni tecnologia, la regoli meglio; se la importi, rincorri. L’appello è a non ripetere gli errori: unire umanisti e ingegneri, ricerca pubblica, impresa, scuola. Il ricordo di Adriano Olivetti non è nostalgia: è un promemoria su visione e coraggio.
Otto righe da portare a casa
-
L’IA automatizza pezzi di pensiero: potente, ma non onnisciente.
-
Opaca per natura: servono audit, metriche, limiti chiari.
-
Nel giornalismo vince la trasparenza: fonti, controlli, disclosure.
-
Nella PA: apertura dei processi algoritmici e responsabilità.
-
In sanità e lavoro: equità, spiegabilità, consenso informato.
-
A scuola: didattica prima dei device; regole, non feticci.
-
Come cittadini: partecipare alle consultazioni, pretendere diritti.
-
Come Paese: investire in competenze ibride e ricerca.
L’IA non è un oracolo né un demone. È specchio: riflette ciò che immettiamo — competenza o pigrizia, etica o cinismo.
La rotta, a Gaeta, l’abbiamo detta così: conoscenza, regole, responsabilità. Il resto è vento a favore.





