Nell’era della trasformazione digitale, i dati sono diventati il bene più prezioso per le aziende di ogni settore. La capacità di raccogliere, elaborare, analizzare e, soprattutto, governare queste informazioni è ormai il fulcro di ogni strategia di successo. Tuttavia, un recente studio condotto da Denodo in collaborazione con IKN Italy ha rivelato un quadro preoccupante per il panorama aziendale italiano: una percentuale significativa di imprese manca ancora di una gestione strutturata e di figure dedicate alla governance dei dati. Questa lacuna non è solo un problema operativo, ma una vera e propria barriera alla piena realizzazione del potenziale data-driven, ponendo le aziende di fronte a sfide complesse che vanno dalla scarsa qualità dei dati alla difficoltà di generare insight tempestivi e affidabili. Questo articolo si propone di esplorare in profondità le sfide emerse da questa ricerca, analizzando l’impatto della carenza di Chief Data Officer, la disconnessione tra business e IT, e le implicazioni di una scarsa qualità dei dati. Approfondiremo le soluzioni emergenti, dalla virtualizzazione dei dati alle architetture più avanzate come Data Fabric e Data Mesh, e il ruolo trasformativo delle tecnologie cloud e dell’intelligenza artificiale. L’obiettivo è delineare un percorso chiaro per le imprese italiane verso una gestione dei dati più agile, sicura e orientata al valore, fondamentale per competere in un mercato sempre più dinamico e data-centrico, dove la velocità di decisione e la pertinenza delle informazioni possono determinare il successo o il fallimento aziendale. Comprendere queste dinamiche è il primo passo per costruire un futuro in cui il dato non sia solo un accumulo, ma un vero e proprio motore strategico.
Il Panorama Italiano e la Crisi della Data Governance: Un’Analisi Profonda
La ricerca Denodo ha messo in luce una realtà in cui, in Italia, ben il 29% delle aziende non ha ancora una persona che si occupi specificamente della governance dei dati. Un dato allarmante, che riflette una percezione ancora acerba del dato come asset strategico fondamentale. Solo meno di due aziende su dieci (il 19%) possono vantare un Chief Data Officer (CDO) nel proprio organico, mentre nella maggior parte dei casi (26%) la funzione di governance è delegata al Chief Information Officer (CIO), figura sì affine ma con un focus primario sull’infrastruttura tecnologica piuttosto che sulla valorizzazione strategica del dato. Questa delega può portare a una gestione insufficiente, poiché il CIO è spesso oberato da compiti legati all’operatività IT e potrebbe non avere la visione o le competenze specifiche per affrontare le complesse sfide della governance dei dati, che includono aspetti legali, etici, di qualità e di strategia aziendale. La mancanza di un ruolo dedicato e ben definito espone le imprese a una serie di rischi significativi, tra cui inefficienze operative, costi nascosti dovuti a dati non affidabili, difficoltà nell’aderire a normative sempre più stringenti come il GDPR, e soprattutto, una sostanziale incapacità di trarre il massimo valore dalle immense quantità di dati generate quotidianamente. In un’economia globale sempre più competitiva e data-driven, non disporre di una governance dei dati robusta e proattiva significa condannarsi a una posizione di svantaggio competitivo. Le decisioni aziendali, dalla definizione delle strategie di marketing all’ottimizzazione della supply chain, dalla personalizzazione dell’esperienza cliente alla mitigazione dei rischi finanziari, dipendono intrinsecamente dalla qualità, accessibilità e integrità dei dati. Senza una guida chiara e una struttura organizzativa che ne supporti la gestione, i dati rimangono isolati in silos, la loro qualità degrada, e la loro potenziale intelligenza rimane inespressa, trasformandosi da opportunità a fardello. Questa situazione evidenzia non solo una lacuna operativa, ma una vera e propria crisi strategica che le imprese italiane devono affrontare con urgenza per rimanere rilevanti e innovative nel panorama digitale contemporaneo, dove il volume, la velocità, la varietà e la veridicità dei dati (le cosiddette ‘4 V’ del Big Data) continuano a crescere esponenzialmente, rendendo la governance più complessa ma anche più critica che mai.
La Disconnessione tra Business e IT: Ostacoli alla Valorizzazione dei Dati
Uno degli aspetti più critici evidenziati dalla ricerca Denodo è la profonda disconnessione che persiste tra le esigenze del Business e le capacità dell’IT in merito alla gestione e fornitura dei dati. Il 23% delle aziende italiane lamenta lunghi tempi di attesa per il business prima di avere a disposizione i dati richiesti, mentre il 19% soffre della dispersione e isolamento dei dati all’interno delle diverse strutture aziendali. Questi numeri non sono semplici statistiche, ma manifestazioni di un problema sistemico che frena l’agilità operativa e strategica delle imprese. Il business, spinto dalla necessità di reagire rapidamente alle dinamiche di mercato, di personalizzare l’offerta ai clienti e di ottimizzare i processi, richiede un accesso facile, veloce e autonomo a informazioni affidabili. L’IT, d’altro canto, si trova spesso a gestire infrastrutture complesse e legacy, con risorse limitate e vincoli tecnologici che rendono ardua la rapida erogazione di dati puliti e integrati. Questa frizione genera un circolo vizioso: il business, frustrato dai ritardi, ricorre a soluzioni ‘ombra’ (shadow IT), creando propri dataset e analisi che spesso mancano di rigore, coerenza e governabilità, aumentando la frammentazione e la complessità complessiva. I dati rimangono intrappolati in silos dipartimentali – che siano fogli Excel, database locali o sistemi applicativi specifici – rendendo quasi impossibile una visione unica e olistica del cliente o dell’operazione aziendale. La mancanza di un unico punto di accesso e di una semantica condivisa trasforma la ricerca di informazioni rilevanti in una vera e propria caccia al tesoro, consumando tempo prezioso e minando la fiducia nei dati stessi. Questa inefficienza non si traduce solo in costi operativi maggiori, ma anche in decisioni subottimali, perdita di opportunità di mercato e una scarsa capacità di innovare. La disconnessione tra chi genera i dati e chi li deve utilizzare strategica non è un mero problema tecnico, ma una sfida organizzativa e culturale che richiede un riallineamento degli obiettivi e una ridefinizione dei ruoli, con l’IT che da erogatore di infrastrutture diventa facilitatore e abilitatore di intelligenza aziendale, e il business che sviluppa una maggiore consapevolezza sulle fonti e sulla qualità dei dati che utilizza per le proprie analisi.
Il Ruolo Strategico del Chief Data Officer: Architetto della Trasformazione Data-Driven
La scarsa presenza di un Chief Data Officer (CDO), rilevata nel 19% delle aziende italiane, è uno dei segnali più evidenti di un approccio non ancora maturo alla gestione dei dati. Mentre il 26% delle aziende affida questo compito al CIO, è fondamentale comprendere che, sebbene ci siano sovrapposizioni, il ruolo del CDO è distinto e complementare, ma soprattutto *indispensabile* per navigare l’era data-driven. Il CIO si concentra tradizionalmente sull’infrastruttura tecnologica, la connettività, la sicurezza dei sistemi e l’efficienza operativa dell’IT. Il CDO, invece, ha come mandato primario la massimizzazione del valore dei dati come asset strategico aziendale. Questo significa definire la strategia dei dati, stabilire le politiche di governance (dalla qualità alla privacy, dalla sicurezza all’etica), promuovere la cultura data-driven, e abilitare l’innovazione attraverso l’analisi e l’utilizzo intelligente delle informazioni. Il CDO è l’architetto che costruisce il ponte tra la tecnologia e gli obiettivi di business, assicurando che i dati siano non solo accessibili ma anche affidabili, conformi e pronti per essere trasformati in insight azionabili. Le sue responsabilità spaziano dalla creazione di un catalogo dati aziendale alla supervisione dei progetti di integrazione, dalla definizione di KPI per la qualità dei dati alla gestione del ciclo di vita completo delle informazioni. Non è un ruolo puramente tecnico, ma richiede una combinazione unica di visione strategica, profonda comprensione del business, capacità di leadership e una solida conoscenza delle tecnologie abilitanti. Un CDO efficace lavora trasversalmente all’organizzazione, collaborando con tutte le funzioni per identificare nuove opportunità basate sui dati e per risolvere le sfide legate alla loro gestione. La sua presenza è cruciale per superare la disconnessione tra business e IT, fungendo da catalizzatore per un approccio olistico ai dati che permea ogni livello decisionale dell’azienda. Investire in un CDO significa investire nella propria capacità di prendere decisioni più informate, di ottimizzare le operazioni, di innovare prodotti e servizi e di costruire un vantaggio competitivo duraturo in un mercato in continua evoluzione, dove la rapidità e la precisione dell’informazione sono chiavi di volta. Il CDO non è un lusso, ma una necessità strategica per qualsiasi azienda che aspiri a essere veramente data-driven.
La Qualità dei Dati come Pilar Fondamentale: Impatti e Strategie
La ricerca Denodo ha rivelato che l’84% delle aziende ritiene che la varietà delle fonti di dati influisca negativamente sulla qualità dell’analisi. Questo dato è emblematico di una sfida centrale: la scarsa qualità dei dati non è un problema tecnico isolato, ma un ostacolo strategico che mina la fiducia, rallenta le operazioni e compromette le decisioni a tutti i livelli. La qualità dei dati non si limita all’accuratezza, ma è un concetto multidimensionale che comprende: completezza (tutte le informazioni necessarie sono presenti?), consistenza (i dati sono uniformi tra le diverse fonti?), validità (i dati rispettano i formati e i valori predefiniti?), tempestività (i dati sono aggiornati?), unicità (non ci sono duplicati?), e integrità (le relazioni tra i dati sono corrette?). Quando uno o più di questi aspetti vengono meno, le conseguenze si fanno sentire in ogni ambito aziendale. Si pensi a un CRM con indirizzi clienti duplicati o errati: le campagne di marketing diventano inefficaci, le comunicazioni falliscono, la customer experience ne risente e la reputazione aziendale può essere compromessa. Nei processi operativi, dati di inventario imprecisi possono portare a stock eccessivi o a rotture di stock, generando inefficienze e perdite. A livello strategico, previsioni di vendita basate su dati storici inaffidabili possono condurre a decisioni di produzione o di investimento errate, con ripercussioni finanziarie significative. I settori maggiormente colpiti, secondo la ricerca, sono proprio quelli legati ai clienti (25%), alle operazioni aziendali (24%) e alle vendite (20%), aree dove la qualità dei dati è direttamente correlata al forecasting e alla definizione delle strategie di mercato. Per affrontare questa sfida, è essenziale adottare un approccio proattivo alla gestione della qualità dei dati (DQM). Questo include la profilazione dei dati per identificare le criticità, la definizione di regole di validazione, l’implementazione di processi di cleansing e arricchimento, e l’adozione di soluzioni di Master Data Management (MDM) per creare una “fonte unica di verità” per le entità critiche (clienti, prodotti, fornitori). La qualità dei dati non è un progetto una tantum, ma un processo continuo che richiede monitoraggio costante, governance e l’impegno di tutta l’organizzazione. Solo così i dati possono trasformarsi da potenziale fonte di errori a pilastro affidabile per la crescita e l’innovazione aziendale.
La Virtualizzazione dei Dati: Un Ponte verso l’Agilità e la Democratizzazione
Di fronte alle sfide di frammentazione, lunghi tempi di attesa e scarsa qualità dei dati, una soluzione tecnologica sta guadagnando terreno significativo: la virtualizzazione dei dati. La ricerca Denodo evidenzia che ben il 61% delle aziende italiane sta valutando l’adozione di queste tecnologie per risolvere le sfide inerenti all’integrazione e gestione del patrimonio informativo. Ma cos’è esattamente la virtualizzazione dei dati e perché è considerata una soluzione così promettente? In sintesi, la virtualizzazione dei dati crea una vista logica unificata e in tempo reale di tutte le fonti di dati aziendali, indipendentemente dalla loro localizzazione (on-premise, cloud), dal loro formato (strutturato, non strutturato) o dalla loro complessità. Anziché spostare fisicamente i dati in un data warehouse o data lake per integrarli (un processo lento e costoso), la virtualizzazione lascia i dati dove risiedono originariamente e crea un livello di astrazione che li rende accessibili come se fossero in un unico repository. I benefici sono molteplici e profondamente impattanti per le aziende. Primo fra tutti, l’agilità: il business può accedere ai dati richiesti in tempi drasticamente ridotti, superando i lunghi tempi di attesa. In secondo luogo, la democratizzazione: la virtualizzazione facilita un approccio self-service, consentendo agli utenti di business di interrogare e analizzare i dati in autonomia, senza la costante dipendenza dall’IT per la preparazione dei report. La piattaforma di virtualizzazione agisce come un unico punto di accesso, dove i dati possono essere modellati, arricchiti e resi disponibili in formati comprensibili e coerenti per gli utenti finali. Questo contribuisce in modo significativo a migliorare la qualità complessiva dei dati presentati, poiché le regole di trasformazione e governance possono essere applicate centralmente. Inoltre, riducendo la necessità di replicare i dati, si ottengono risparmi sui costi di storage e infrastruttura e si minimizzano i rischi legati alla sicurezza e alla conformità, poiché i dati originali rimangono protetti nelle loro fonti. La virtualizzazione dei dati non è un sostituto dei data warehouse o dei data lake, ma piuttosto un complemento che li rende più efficaci, agendo come una potente interfaccia logica che orchestra l’accesso e l’integrazione di tutte le fonti, comprese quelle residenti in ambienti complessi come il cloud o i sistemi legacy, abilitando un vero e proprio ecosistema data-driven flessibile e responsivo alle esigenze di business in continua evoluzione, e garantendo un più rapido ritorno dell’investimento sulle iniziative legate all’analisi dei dati.
Oltre i Data Lake: L’Evoluzione verso Data Fabric e Data Mesh
Se la virtualizzazione dei dati rappresenta un passo fondamentale verso l’agilità, il panorama delle architetture dati è in continua evoluzione, andando ben oltre i tradizionali Data Warehouse e Data Lake. La ricerca Denodo rileva che l’adozione dei Data Lake non è ancora molto diffusa nelle aziende italiane, con oltre un terzo delle organizzazioni (39%) che non ne possiede uno. Sebbene i Data Lake abbiano promesso grande flessibilità nell’archiviazione di grandi volumi di dati grezzi in formato nativo, spesso si sono trasformati in ‘data swamps’ – paludi di dati non governati, difficili da scoprire e da utilizzare efficacemente. Per superare queste limitazioni e rispondere alla crescente complessità delle fonti dati e alle diverse esigenze degli utenti, stanno emergendo concetti più avanzati come il Data Fabric e il Data Mesh. Il Data Fabric è una piattaforma di gestione dati olistica, un’architettura integrata e intelligente che mira a unificare la gestione dei dati in ambienti eterogenei (on-premise, multi-cloud, edge) attraverso l’automazione, l’AI e il machine learning. Il suo obiettivo è fornire una visione integrata dei dati, facilitando la loro scoperta, l’accesso e la governance, indipendentemente dalla loro posizione fisica. Non è un prodotto, ma un modello architetturale che orchesra diverse tecnologie – inclusa la virtualizzazione dei dati – per creare un ecosistema dati coeso e autogestibile, consentendo alle aziende di gestire i dati in modo più efficiente, scalabile e sicuro. D’altra parte, il Data Mesh rappresenta un cambiamento più radicale, non solo tecnologico ma anche organizzativo e culturale. È un’architettura decentralizzata che tratta i dati come prodotti, assegnando la proprietà dei dati a team di dominio specifici (es. team clienti, team prodotti), che sono responsabili di fornire dati di alta qualità, documentati e facilmente consumabili da altri team. I quattro principi fondamentali del Data Mesh sono: ownership basata sul dominio, dati come prodotto, una piattaforma self-service per i dati e una governance computazionale federata. Questo approccio mira a superare i colli di bottiglia dei team centralizzati di dati e a dare maggiore autonomia ai team di business, accelerando l’innovazione. Sia il Data Fabric che il Data Mesh cercano di risolvere le problematiche di isolamento dei dati e di lentezza nell’accesso evidenziate dalla ricerca Denodo, offrendo framework più agili e scalabili per la gestione del patrimonio informativo in un contesto di dati distribuiti e diversificati. La virtualizzazione dei dati può agire come un componente chiave all’interno di entrambi questi paradigmi, fornendo il livello di astrazione necessario per l’integrazione e l’accesso ai dati in modo coerente e governato, facilitando il passaggio da un approccio monolitico a uno più distribuito e orientato al valore del dato.
Cloud, Intelligenza Artificiale e l’Impatto sulla Gestione dei Dati: Nuove Opportunità e Sfide
L’accelerazione verso il Cloud è un dato di fatto per le aziende italiane, con più di quattro aziende su cinque (84%) che affermano di avere in corso un’iniziativa Cloud. Tuttavia, solo il 29% indica di avere più della metà dei propri dati nel cloud, a conferma che la migrazione è ancora nelle fasi iniziali ma in costante crescita. Il cloud offre vantaggi innegabili per la gestione dei dati: scalabilità illimitata, flessibilità, accesso a servizi gestiti e, soprattutto, a piattaforme di Intelligenza Artificiale (AI) e Machine Learning (ML) di ultima generazione. Queste tecnologie, sempre più integrate nelle offerte cloud, promettono di rivoluzionare l’analisi dei dati, l’automazione dei processi e la generazione di insight. L’AI, in particolare l’IA Generativa, sta catturando l’attenzione per la sua capacità di creare contenuti, ottimizzare la ricerca e persino interagire con i dati in modi nuovi, come suggerito dal concetto di ‘zero click a zero checkout’ nel marketing. Tuttavia, l’entusiasmo per l’AI deve essere bilanciato da un approccio pragmatico, come indicato dal mercato, che ha superato la fase dell’hype. Le aziende devono affrontare rischi concreti, come le ‘hallucinations’ dell’AI (risposte plausibili ma false) e la fragilità della supply chain dei dati che alimentano questi modelli. Qui emerge l’importanza fondamentale della governance dei dati: un’AI è efficace solo se alimentata da dati di alta qualità, governati, sicuri e affidabili. Senza una solida base di dati, l’AI diventa una fonte di rischio anziché di valore, amplificando gli errori e le inefficienze già presenti. Il concetto di ‘Business AI’, promosso da aziende come SAP (citata nell’articolo), sottolinea la necessità di un’AI basata su dati autorevoli, integrata nei processi aziendali esistenti e controllata attraverso meccanismi come i RAG (Retrieval Augmented Generation), che combinano la potenza dei modelli generativi con la precisione di fonti di dati interne verificate. L’interruzione di servizio di AWS (menzionata in contesti simili) serve da monito: la dipendenza dal cloud richiede strategie robuste di resilienza, backup e, possibilmente, un approccio multi-cloud per mitigare i rischi. L’integrazione tra cloud e AI non è solo una tendenza tecnologica, ma una trasformazione strategica che richiede un ripensamento complessivo della gestione dei dati, ponendo la governance e la qualità al centro per sbloccare il vero potenziale innovativo di queste tecnologie e trasformare i dati in un motore di crescita sostenibile e sicuro.
Il Self-Service dei Dati e la Cultura Data-Driven: Verso l’Autonomia e l’Innovazione
La spinta verso una maggiore agilità e facilità nel percorso che porta i dati a chi li deve analizzare è un’esigenza chiara emersa dalla ricerca Denodo, con una forte richiesta di poter lavorare in autonomia e sviluppare un approccio self-service all’analisi e al consumo dei dati. Sebbene il self-service dei dati sia ormai una realtà consolidata, la ricerca rivela che nella maggior parte dei casi (65%) l’IT mantiene comunque un ruolo di supervisione importante, e solo il 19% delle aziende adotta un self-service completo dove il business opera in piena autonomia. Questa cautela è comprensibile: concedere piena autonomia senza adeguati guardrail può portare a caos, incoerenze e rischi di sicurezza. Tuttavia, un self-service efficace è la chiave per democratizzare l’accesso ai dati e accelerare il processo decisionale. Per realizzare un vero self-service dei dati, è necessario dotare gli utenti di business non solo degli strumenti giusti (piattaforme di Business Intelligence intuitive, interfacce di virtualizzazione dati user-friendly, data cataloghi per la scoperta dei dati), ma anche delle competenze e della cultura necessarie per utilizzarli in modo responsabile e significativo. La formazione sulla data literacy è cruciale: gli utenti devono comprendere le fonti dei dati, le loro definizioni, le metriche e le implicazioni della loro analisi. L’IT, in questo scenario, si evolve da “gatekeeper” a “abilitatore”, fornendo l’infrastruttura, gli strumenti e la governance che permettono al business di esplorare i dati in sicurezza. Questo passaggio richiede una trasformazione culturale che permea l’intera organizzazione, promuovendo una cultura data-driven. Non si tratta solo di avere accesso ai dati, ma di incorporare l’analisi dei dati in ogni processo decisionale, dalla strategia all’operatività quotidiana. Ciò implica un impegno da parte della leadership, la creazione di un linguaggio comune sui dati, la promozione di una mentalità curiosa e analitica, e il riconoscimento dei “data champions” all’interno dei team di business. Quando il self-service è ben implementato, si traduce in una maggiore velocità nell’ottenere insight, una riduzione del backlog di richieste all’IT, una maggiore capacità di innovazione e, in ultima analisi, un empowerment dei dipendenti che possono contribuire attivamente al valore aziendale basandosi su evidenze concrete. Il self-service non è l’assenza di governance, ma una governance che abilita l’autonomia, trasformando la complessità dei dati in un vantaggio competitivo a disposizione di tutti.
Strategie per un Futuro Data-Driven Sostenibile: Le Lezioni per le Imprese Italiane
Le sfide delineate dalla ricerca Denodo, dalla carenza di Chief Data Officer alla disconnessione tra Business e IT, fino alla scarsa qualità dei dati e alla complessità delle architetture, delineano un quadro in cui le imprese italiane hanno un cammino significativo da percorrere per raggiungere una piena maturità data-driven. Tuttavia, proprio in queste sfide risiedono le maggiori opportunità di crescita e innovazione. Per costruire un futuro data-driven sostenibile e resiliente, le imprese italiane devono adottare un approccio strategico e olistico, che non si limiti a implementazioni tecnologiche puntuali, ma che coinvolga persone, processi e cultura. Ecco le strategie chiave: 1. Prioritizzare la Leadership e l’Organizzazione dei Dati: È imperativo investire nella creazione di un ruolo di Chief Data Officer o di una funzione dedicata alla governance dei dati, garantendo che questa figura abbia il supporto esecutivo e l’autorità necessaria per guidare il cambiamento. Il CDO deve essere il catalizzatore che unifica la visione dei dati tra Business e IT. 2. Adottare Tecnologie Abilitanti e Architetture Moderne: La virtualizzazione dei dati rappresenta un ponte essenziale per l’agilità e la democratizzazione dell’accesso. Guardare oltre, verso architetture come Data Fabric e Data Mesh, può offrire soluzioni a lungo termine per la scalabilità e la gestione di ecosistemi dati complessi e distribuiti, specialmente in contesti multi-cloud. L’adozione strategica del cloud, con attenzione alla sicurezza e alla sovranità dei dati, è fondamentale per accedere a risorse scalabili e a strumenti avanzati di AI/ML. 3. Investire nella Qualità e nella Governance dei Dati: Implementare programmi robusti di Data Quality e definire un framework di governance chiaro e condiviso è il fondamento su cui costruire qualsiasi iniziativa data-driven. Senza dati affidabili, qualsiasi analisi o modello AI è destinato a fallire. 4. Promuovere una Cultura Data-Driven e la Data Literacy: L’empowerment degli utenti di business attraverso il self-service è cruciale, ma deve essere accompagnato da programmi di formazione (data literacy) che sviluppino le competenze necessarie per interpretare e utilizzare i dati in modo critico. La cultura aziendale deve valorizzare il dato come risorsa decisionale. 5. Rafforzare Sicurezza e Conformità: In un mondo di crescenti minacce informatiche e normative sulla privacy (GDPR in primis), la sicurezza e la conformità dei dati devono essere integrate in ogni fase del ciclo di vita dei dati. Le interruzioni di servizio di grandi provider cloud (come AWS) ci ricordano l’importanza di piani di contingenza robusti. Le aziende italiane hanno il potenziale per trasformare le loro sfide attuali in vantaggi competitivi. L’era della Data-Driven Transformation richiede che le decisioni siano guidate dagli insight, e questo, come sottolineato da Gabriele Obino di Denodo, richiede una democratizzazione dell’accesso ai dati, garantendo al contempo sicurezza e governance. La mission di Denodo, e l’auspicio per tutte le imprese, è poter concentrarsi sui propri obiettivi di business e sul valore per i clienti, senza le preoccupazioni legate alla gestione intrinseca dei dati. Solo così, accedendo immediatamente e facilmente a tutti i dati necessari, indipendentemente dalla loro localizzazione o complessità, le imprese potranno prosperare in un futuro che è già qui.



