Abilitare i vantaggi e la governance dell’Intelligenza Artificiale, usare correttamente i metadati per favorire l’integrazione tra fonti dati molto diverse, dotare l’azienda di una “stele di Rosetta” (un linguaggio comune, magari tramite Business Glossary) per far dialogare i diversi attori coinvolti nella gestione del patrimonio informativo, investire in observability e continuity per rimediare rapidamente alle eventuali anomalie.
Complessità, responsabilità, collaborazione: queste le parole chiave nelle due recenti edizioni del Data Management Summit 2024 a Roma e Pavia. L’evento, promosso da Irion, ha riunito la community dei data leader sulle sfide più calde del business e della compliance, come DORA, ESG e IA. È emersa la necessità di avere data owner e data steward motivati a rendere le persone responsabili, diffondere cultura e mantenere alto il livello di manutenzione dei dati e metadati per non farli diventare velocemente obsoleti.
In rilievo anche l’invito a ragionare (ancor prima che lo imponga l’entrata in vigore dell’AI Act) sulla classificazione dei sistemi di Intelligenza Artificiale presenti o in via di sviluppo in azienda, per poterli mappare in funzione del rischio e abilitare l’AI Governance. È stato fatto anche riferimento alla norma ISO 42001 come sistema di gestione per l’IA, con il suo portato di controlli tecnici, ruoli, responsabilità, pulizia dei dati, validazione e verifica degli algoritmi e del loro impatto. E per quanto riguarda la Pubblica amministrazione – di cui si è discusso nell’edizione romana – è stata messa in primo piano nel dibattito “la necessità di curare le ontologie, come approccio indispensabile per poter restituire servizi più efficienti ai cittadini, in cambio dei loro dati” come ha sottolineato Mario Vellella, Principal Domain Advisor di Irion.
Qualità dei dati e IA: la situazione
Al DMS si è parlato anche di qualità dei dati esterni, tema di recente affrontato da BancoBPM con Irion al Polimi; su questo fronte si sottolinea l’importanza non solo di riceverli in modo uniforme, ma anche dell’omogeneità di calcolo (ad esempio, lo stesso tipo di approssimazione) anche perché, una volta presi in carico, fanno a tutti gli effetti parte del patrimonio informativo interno.
In buona parte delle grandi organizzazioni (soprattutto al di fuori del settore finance, dove è obbligatorio affrontare certe materie per compliance) tipicamente il controllo della qualità dei dati è sparso tra numerosi ambiti, uffici e sistemi informativi, anche molto differenti tra loro: la ricerca nazionale su Data Quality e AI, realizzata dal Politecnico di Milano con Irion, ha mostrato che in Italia 3 aziende su 4 non sono pronte e la mancanza di qualità dei dati rappresenta anche una perdita economica. “Spesso in azienda esistono controlli non registrati, non mappati nei sistemi: ecco perché è diventato urgente semplificare la gestione della Data Quality e del presidio di Data Governance, con un’unica architettura flessibile. Serve una convergenza tra questi due mondi, per avere una vista centralizzata” ha sottolineato Enrico Galimberti, Presales Manager di Irion, durante la tavola rotonda sul Data Management e l’Intelligenza Artificiale. L’approccio adottato da Irion è la “margherita”: il modello hub & spoke, con nodo di governo centrale che contiene gli esiti dei controlli sui dati e “petali” periferici, ovvero i laboratori che li svolgono effettivamente.
Creare controlli con l’IA: -60% del tempo
Quanto all’Intelligenza Artificiale, Irion ha proposto la sua visione di architettura aperta, che mette a disposizione le capability per usare qualsiasi modello di machine learning (ad esempio, tramite i Python engine integrati nativamente in Irion EDM) così l’utente può decidere quale motore di IA generativa usare. Flessibilità a supporto del miglioramento continuo.
“L’IA dentro Irion serve anche a risparmiare fino al 60% del tempo per la creazione dei controlli, perché riduce la parte manuale e operativa. E nelle istituzioni finanziarie, dove è obbligatorio verbalizzare (pensiamo alle ispezioni dei regolatori: ho visto il tuo processo, spiegami quali sono i tuoi controlli) l’IA generativa è fantastica, perché in pochi secondi puoi descriverne migliaia” ha aggiunto Galimberti.
La sfida dei metadati: una mappa fondamentale
I tavoli di confronto hanno evidenziato problemi storici del Data Management, come la necessità di identificare golden source e di tenere aggiornati i dati e metadati presenti nei sistemi, cosa difficile da fare in modo completamente automatico. Spesso la maggior parte dell’effort è nella fase iniziale di impianto e poi si rischia l’obsolescenza, soprattutto per i metadati di business.
“Avere una buona mappatura metadati è come avere una cartina dell’azienda. Nel momento in cui c’è un processo di cambiamento, posso sapere esattamente dove impatta e intervenire in modo più efficace” ha evidenziato durante il DMS Pavia Egle Romagnolli, Head of Marketing di Irion. “I metadati sono la chiave essenziale per gestire il dato stesso”.
Scopri come le aziende risolvono ogni esigenza di Data Management