(AGENPARL) – mar 24 settembre 2024 *L’intelligenza artificiale nella PA. Il convegno nazionale della Scuola
Umbra di Amministrazione Pubblica. Zangrillo (ministro PA): “Un confronto
multidisciplinare che fa progredire il dibattito sull’innovazione nel
nostro paese” *
(aun) – Perugia 24 set. 024 – Il convegno “IA nella PA: sfide e opportunità
dell’intelligenza artificiale per la Pubblica Amministrazione di domani”,
organizzato dalla Scuola Umbra di Amministrazione Pubblica e tenutosi
martedì 24 settembre a Villa Umbra, ha affrontato le complesse questioni
tecnologiche ed etiche che la Pubblica Amministrazione deve saper cogliere
per ripensare il futuro.
L’evento, parte del ciclo di incontri “Formare per Innovare”, ha esplorato
le implicazioni giuridiche, amministrative ed etiche dell’introduzione
dell’IA nel settore pubblico. “L’intelligenza artificiale è già tra noi –
ha dichiarato Paolo Zangrillo, ministro per la pubblica amministrazione,
nel suo videomessaggio ai partecipanti –. Siamo secondi al mondo
nell’applicazione di strumenti di IA nei servizi pubblici e primi tra i
paesi che hanno proposto progetti per futuri sviluppi. L’introduzione di
queste tecnologie ci sta permettendo di ridurre la burocrazia e migliorare
l’efficienza dei servizi ai cittadini. Tuttavia, al centro di tutto rimane
il capitale umano. La priorità è formare i dipendenti pubblici affinché
possano affrontare queste innovazioni con competenza e fiducia. In questo
senso, la Scuola Umbra di Amministrazione Pubblica è un prezioso alleato
nella diffusione della conoscenza e delle competenze necessarie. Senza
un’adeguata preparazione del personale, rischiamo che l’innovazione non
porti i risultati desiderati.”
Marco Magarini Montenero, amministratore unico della Scuola, ha aggiunto:
“La nostra missione non è solo formare, ma anche anticipare le sfide
future. Dobbiamo essere in grado di captare i segnali del cambiamento e
trasmettere queste conoscenze ai dipendenti pubblici, ai dirigenti e ai
leader delle nostre istituzioni. Dietro ogni tecnologia, infatti, c’è una
visione strategica, e la nostra strategia è chiara: fornire ai dipendenti
pubblici non solo strumenti tecnici, ma anche la capacità di adottare e
adattare queste tecnologie con saggezza e responsabilità. Questo non
significa solo sapere come utilizzare l’intelligenza artificiale, ma anche
comprendere le sue implicazioni etiche e sociali, anticipando i rischi e
massimizzando le opportunità. L’IA è un’opportunità straordinaria per
migliorare i servizi pubblici, ma senza una visione chiara e una
preparazione adeguata, rischiamo di perdere il controllo del processo.”
Il convegno, coordinato da Corrado Giustozzi, esperto di sicurezza
informatica e IA, e Lorenzo Allegrucci, vicepresidente dell’associazione
ItaliaOggi, si è articolato in due panel tematici.
Nel primo, “IA e PA: aspetti strategici”, Mario Nobile, direttore generale
dell’Agenzia per l’Italia Digitale (AgID), ha sottolineato l’importanza
storica dell’intelligenza artificiale, osservando come tecnologie simili
siano già in uso dagli anni Sessanta e come la loro evoluzione stia ora
entrando in una fase di crescita esponenziale. “Il nostro obiettivo
principale è comprendere come e dove possiamo declinare le applicazioni
dell’intelligenza artificiale all’interno della PA, identificando quei
settori strategici dove queste tecnologie possono creare un vero vantaggio
per le nostre comunità. Dobbiamo sfruttare queste opportunità per
migliorare l’efficienza dei servizi pubblici, ma al contempo dobbiamo farlo
con un approccio etico e sostenibile.”
Stefania Stefanelli, professoressa associata di diritto privato
all’Università degli Studi di Perugia, ha affrontato l’AI Act europeo,
descrivendo un approccio prudente, ma evidenziando l’uso di IA in settori
sensibili, come la violenza familiare. “L’intelligenza artificiale, così
come è regolata dall’AI Act europeo recentemente approvato, rappresenta un
progresso fondamentale per la società. Tuttavia, è essenziale capire come
mettere a sistema le sue applicazioni più sofisticate, come ad esempio
negli ambiti della giustizia e della protezione delle persone. Queste
tecnologie possono fare molto, ma la loro gestione deve essere oculata,
poiché un uso non controllato potrebbe avere effetti dannosi”.
Sauro Angeletti, direttore dell’ufficio per l’innovazione amministrativa e
la formazione del Dipartimento Funzione Pubblica, ha posto l’accento sulla
necessità di formazione specifica per il personale della PA, ribadendo
l’importanza di non lasciare l’IA nelle sole mani di esperti tecnici.
“Siamo già in ritardo su questo fronte. L’introduzione dell’intelligenza
artificiale nella PA non può essere lasciata nelle mani dei cosiddetti
‘smanettoni’. Ogni dipendente deve avere le competenze necessarie per
operare con questi nuovi strumenti. Altrimenti, ci ritroveremo a
fronteggiare una burocrazia difensiva e una resistenza al cambiamento che
potrebbe compromettere i benefici che queste tecnologie possono portare. La
formazione deve essere interdisciplinare e di alta qualità, perché solo
così possiamo garantire una transizione fluida verso l’era digitale.”
Anna Corrado, magistrata del TAR Lombardia, ha discusso la difficoltà della
PA nel tenere il passo con l’automazione rispetto al settore privato,
sottolineando la necessità di contemperare l’uso delle nuove tecnologie con
il principio della sorveglianza umana e delle responsabilità
amministrative. “La Pubblica Amministrazione, rispetto al settore privato,
incontra più difficoltà nell’adottare nuove tecnologie. Tuttavia, sono
convinta che, con il tempo, riuscirà a trasformare le sue procedure in
funzione delle nuove tecnologie. Il problema principale rimane la
formazione del personale, che spesso è in ritardo rispetto alle
innovazioni. Dovremo bilanciare l’automazione con la necessità di mantenere
sempre un controllo umano sulle decisioni automatizzate, assicurando che la
responsabilità amministrativa non venga mai meno.”
Eugenio Albamonte, pubblico ministero specializzato in crimini informatici
e cyberterrorismo, ha evidenziato come l’intelligenza artificiale possa
trovare applicazione anche nelle indagini sulla criminalità informatica:
“Lo scenario attuale vede conflitti a bassa intensità e difficili da
attribuire, spesso provenienti da contesti ibridi nazionali e
internazionali. Le nostre banche dati, spesso gestite da aziende private,
rappresentano una vulnerabilità importante. Tuttavia, strumenti di IA, come
i trojan, permettono di intercettare conversazioni online e scritte,
mettendo le attività investigative allo stesso livello di quelle criminali.
Questi strumenti ci permettono di affrontare le minacce digitali con un
approccio più rapido e mirato, ma dobbiamo essere consapevoli che anche i
criminali utilizzano le stesse tecnologie. Pertanto, è una sfida continua
che richiede aggiornamenti costanti sia nelle tecnologie sia nelle
competenze di chi le utilizza.”
Nel pomeriggio, il secondo panel denominato “IA e PA: aspetti tecnologici,
etici e giuridici” ha ospitato gli interventi di: Stefano Quintarelli
(imprenditore del digitale fondatore di Rialto Ventures), che ha
approfondito la storia e lo sviluppo applicativo negli ultimi decenni dei
sistemi algoritmici che hanno generato i sistemi di intelligenza
artificiale. Successivamente, Giuseppe Corasaniti (professore ordinario di
informatica giuridica, Università Mercatorum) e Federica Fedorczyk
(postdoctoral researcher in diritto presso la New York University), hanno
delineato i confini giuridici e i rischi connessi alle attuali applicazioni
dell’intelligenza artificiale. Vittorio Calaprice (rappresentanza in Italia
della Commissione Europea) sviluppato ulteriormente e un approfondimento
specifico sull’etica dell’intelligenza artificiale da parte di Nicola Donti
(filosofo e formatore in comunicazione). Spazio, poi, al panorama sulle
applicazioni già operative nelle pubbliche amministrazioni a cura di Gianni
Dominici (amministratore delegato Forum PA).
next post