2. Digitalizzazione
Da qualche tempo e sempre più spesso la
parola digitalizzazione è entrata
prepotentemente nelle nostre case e
soprattutto è diventata un lessico di uso
comune.
Digitalizzare significa trasformare i fenomeni ed
eventi che di per sé sono analogici in digit cioè
in cifre o meglio in numeri.
3. Digital Transformation
La trasformazione digitale o Digital Transformation ha come primario ed immediato
risvolto la generazione di dati raccolti attraverso il processo di digitalizzazione della
realtà allo scopo di creare un modello della stessa in grado di rappresentarne il
comportamento e l’evoluzione temporale. Questo modello viene identificato con il
nome Digital Twin, nome che bene ne coglie l’essenza in quanto come un gemello in
carne ed ossa ne ricalca l’aspetto esteriore ma anche e soprattutto i comportamenti
4. Digital Transformation & Big Data
Tanto più accurato dovrà essere il modello da
creare tanto più preciso dovrà essere il
sistema di campionamento da utilizzare per
raccogliere i dati essenziali a ricostruire
digitalmente la realtà e tanto più la realtà è
complessa tanti più dati si dovranno
raccogliere per descriverla ed essere così in
grado di elaborare previsioni sulla sua
evoluzione temporale.
5. Big Data
Una definizione molto interessante di cosa sono i Big
Data è stata esposta da Alexander Jaimes (ricercatore
presso Yahoo! Research), che durante una conferenza in
Italia ha affermato “i dati siamo noi”.
6. Cosa sono allora i Big Data ?
Big Data è un termine usato per descrivere
una collezione di dati, enorme in
dimensione, ma che cresce
esponenzialmente nel tempo.
In breve questi dati sono così grandi e
complessi che i tradizionali tools di gestione
non sono in grado di memorizzarli né tanto
meno processarli efficientemente.
7. Quanti sono ?
Da una analisi condotte dal Cefriel (Centro di innovazione digitale fondato dal
Politecnico di Milano) e da IBM, emerge che ogni giorno vengono generati circa
3 quintiglioni di byte (1018 byte) una quantità enorme mai vista fino ad oggi, ma
quello che impressiona di più è che il 90% dei dati oggi disponibili sono stati
generati negli ultimi 2/3 anni.
8. Le 5V dei Big Data
Benché manchi un’origine e una definizione
univoca del termine Big Data, il Data
Warehousing Institute (TDWI) ha proposto
nel 2010 un modello generalmente accettato,
detto “delle 3V”, che evidenzia le
caratteristiche peculiari dei Big Data: Volume,
Varietà e Velocità. Questo paradigma
originale rimane valido ancora oggi ed è
diventato delle 5V arricchendosi di due
ulteriori V: Veridicità e Variabilità.
9. NoSQL
NoSQL sta per “Not Only SQL” e questo sottolinea che la tecnologia NoSQL
non è del tutto incompatibile con SQL (Structured Query Language), anzi, in
alcuni casi è possibile utilizzare lo stesso linguaggio SQL per interrogare i
database NoSQL.
Quello che cambia è il modello di memorizzazione dei dati.
11. Big Data una enorme opportunità
Questa smisurata quantità di dati raccolti rappresenta un enorme valore per le
aziende, tuttavia come si può ben capire i soli dati non sono sufficienti a creare
valore, è necessario applicare ad essi algoritmi in grado di trasformare i dati raccolti
in informazioni.
12. Data driven decision
Il vantaggio competitivo delle aziende si gioca oggi sulla capacità di investire su
queste tecnologie e dunque diventare Data Driven Decision Making Companies
cioè realtà in cui le strategie di business, l’ottimizzazione dei processi e dei prodotti,
vengono valutate tenendo conto delle “proposte” generate dagli algoritmi.
13. Alcuni esempi
Effetti importanti si possono vedere per esempio nella gestione dei processi
produttivi ove la presenza di sistemi IIOT in grado di acquisire grandi quantità di
dati in tempo reale sull’andamento del processo e sulla qualità dei prodotti, se
affiancati da algoritmi di AI, possono prevedere in anticipo eventuali problemi ed
evitare fermi di produzione per guasti ai macchinari.
Oppure ancora sulla gestione del servizio di assistenza clienti affiancando Big Data e
tecnologie in grado di elaborare il linguaggio naturale per leggere e valutare le
risposte dei clienti.
14. Quanto ci costa un byte ?
Tutta questa nuvola di servizi e di dati non
sono una entità impalpabile ed astratta, ma
una realtà fatta di hardware e software,
dunque una infrastruttura interconnessa
costituita da milioni di dispositivi accesi 24
ore su 24 ore, 365 giorni all’anno, che per
funzionare ha ovviamente bisogno di essere
connessa alla rete elettrica e dunque
consuma energia.
15. I data center e le emissioni di gas serra
Il ricercatore svedese Anders Andrae in una
sua ricerca afferma che senza un elevato
livello di efficienza energetica e l’impiego
crescente di tecnologie pulite, l’intero settore
mondiale dell’ICT potrebbe consumare da
solo il 20% dell’energia elettrica su scala
globale, generando il 5,5% delle emissioni
nocive di diossido di carbonio (CO2) già entro
il 2025, stimando un incremento nella
domanda di energia elettrica di 2-300TWh
annue, fino a 3000 TWh entro lo stesso anno.
16. Digital transformation pro & cons
Se la digital trasformation da un lato fa bene
all’ambiente - recenti studi mostrano che
utilizzando sistemi di intelligenza artificiale in
settori come agricoltura, trasporti, energia e
gestione idrica si potrebbero ridurre del 4%
le emissioni di gas serra a livello mondiale
entro il 2030 - dall’altro richiede tanta
energia per funzionare.
Questa è dunque una sfida globale che
richiede di mettere in campo molte nuove
tecnologie per l’efficientamento energetico
17. Una sfida globale
Varie soluzioni sono state adottate,
dall’utilizzo esclusivo di fonti energetiche
completamente rinnovabili, all’utilizzo
dell’intelligenza artificiale, al raffreddamento
ad acqua fredda del mare adottata da Google
nella sua sede in Finlandia, oppure si è dato
avvio a progetti ancora più sperimentali
come il progetto Natick di Microsoft che
prevede l’installazione di data center in
fondo al mare per potere sfruttare le basse
temperature dell’ambiente marino.
(foto Google/Connie Zhou)
(foto Microsoft)