5
(20)

Introduzione storica, quarta rivoluzione industriale?

Sono tre le rivoluzioni industriali già avvenute, e stiamo entrando nella quarta. La prima si colloca circa nella seconda metà del ‘700, ed è caratterizzata dall’introduzione della tecnologia del motore a vapore e dal processo di meccanizzazione. Il motore a vapore è una delle prime tecnologie di uso generale (general-purpose), ovvero con la capacità di influenzare l’intera economia grazie ai molteplici ambiti d’uso. Anche l’elettricità, che ha caratterizzato la seconda rivoluzione industriale nel 1870, e l’informatica e l’elettronica della terza rivoluzione industriale, nel 1970.

Per comprendere la portata della quarta rivoluzione industriale è necessario considerare prima uno degli aspetti maggiormente rilevanti delle rivoluzioni industriali: il processo di codificazione della conoscenza. La conoscenza è stata codificata nelle macchine, con l’obiettivo di compiere specifici compiti e sostituire parte del lavoro umano. A sua volta questo fenomeno ha portato alla necessità di sviluppare nuove modalità di organizzazione del lavoro, come le linee di assemblamento e la divisione del lavoro. Per fare un paragone,  il processo produttivo dell’era preindustriale era caratterizzato dalla figura dell’artigiano, che tramite la sua conoscenza (tacita) portava a termine l’intero processo produttivo.

L’esplicitazione della conoscenza tacita nelle macchine ha aumentato l’efficacia e l’efficienza dei processi produttivi, date le maggiori performance delle macchine nel compiere task ripetitivi.

Eccoci arrivati al punto chiave: nella quarta rivoluzione industriale, la codificazione della conoscenza è massima ed automatica.

Tramite tecniche di Machine Learning (una componente dell’Intelligenza Artificiale) le macchine sono in grado di apprendere dall’esperienza passata, codificando automaticamente la conoscenza incorporata nel dato; o tramite tecniche di Reiforcement Learning, le macchine sono capaci di apprendere tramite processi di trial and error (esempi DeepBlue, AlphaGo).

Si supera quindi il paradigma di codificazione della terza rivoluzione industriale in cui set di istruzioni per compiere task, più o meno complessi, erano trasferiti dall’uomo alla macchina.

Le macchine sono adesso in grado di sostituire l’uomo in lavori più intellettuali e complessi, e possono gestire situazioni non codificate adattando i comportamenti in base al contesto (esempi robot Boston Dynamics, IBM Watson, etc.).

La quarta rivoluzione industriale è inoltre caratterizzata dall’integrazione e dalle sinergie di una vasta gamma di tecnologie, quali Intelligenza Artificiale (IA),l’Internet of Things (IoT), i Big Data, la Blockchain (DLT), la Robotica, la Realtà Aumentata e Virtuale (AR/VR/MR), la Manifattura Additiva e Avanzata, il Quantum Computing, ed il Cloud and Edge Computing; anch’esse tecnologie general-purpose che consentono l’integrazione intelligente di macchine, fabbriche e prodotti con possibilità di applicazione in diversi ambiti d’uso in tutte le industrie.

rivoluzione industriale breve introduzione all'industria 4.0

Pillole di tecnologia abilitanti dell’industria 4.0

Il campo dell’Intelligenza Artificiale (AI) nasce nel 1950, ma il suo sviluppo è caratterizzato da diversi hype-cycles con periodi di congelamento degli investimenti e della ricerca (AI winters), causati dalla mancanza di dati e potenza computazionale e dagli alti costi. Nel 2012, il successo nell’applicazione di tecniche AI in alcuni ambiti accademici ed industriali, ottenuta grazie ad hardware e algoritmi più performanti disponibili a costi inferiori, ha riacceso i riflettori sull’intera industria AI. Il termine AI racchiude in sé diverse tecniche, quali le Reti Neurali (ANN/DNN), ed il Machine Learning (ML). Queste differiscono per complessità computazionale e di conseguenza per interpretabilità dei risultati, ma hanno in comune la capacità di astrazione e generalizzazione del dato e la capacità di discernere e predire relazioni complesse dai dati analizzati. La massima utilità dell’AI si ottiene dall’applicazione di queste tecniche su grandi mole di dati, ed ecco che entrano in scena i Big Data.

I Big Data sono database di grandi dimensioni caratterizzati dalle cosiddette 4 v: Volume (in termini di GB, TB), Velocità (frequenza di generazione del dato), Variabilità (tipo di dato, es. testuale o numerico, video, immagine o audio) e Veracità (grado di rappresentatività del dato). Applicando algoritmi sofisticati su grandi mole di dati si ottengono risultati eccezionali in termini di capacità apprendimento e predizione, ne sono una testimonianza i sistemi di traduzione automatica (come ad esempio Google Translator), quelli di riconoscimento vocale (ad esempio Siri o Alexa) e visuale (ad esempio Google Foto o Facebook che ci suggerisce i tag nelle foto) e testuale (ad esempio Google Search), tra le tante applicazioni che ci circondano e sfruttano l’AI.

L’IoT è un network di dispositivi connessi tra loro e alla rete che generano e scambiano dati tramite la presenza una componente fisica, una smart e una connettiva. La componente fisica è la componente nucleare del prodotto, la componente smart permette la generazione e misurazione di attributi rilevanti per l’osservatore (temperatura, locazione, stato del funzionamento, etc.) mentre la connettiva consente lo scambio di dati, sia tra i vari dispositivi sia con la rete (internet/intranet). Un esempio può essere quello della domotica: una serie di dispositivi (termostati, elettrodomestici, serrande, etc.) che genera un flusso e uno scambio continuo di dati con l’obiettivo di rendere la casa intelligente, ad esempio ottimizzando l’uso della corrente. Uno degli usi industriali più frequente è quello della costruzione di sistemi Digital Twin, ovvero gemelli digitali: la creazione di repliche del mondo fisico in ambiente virtuale. L’ambiente fisico confluisce in uno spazio virtuale che è una copia real-time delle caratteristiche e le dinamiche del fisico.

Una varietà di dati ad alta frequenza proviene da diversi sensori/macchinari per dare informazioni circa il corretto funzionamento di tutti gli apparati critici. Allo stesso modo potrebbe essere utile controllare lo stato di una fabbrica manifatturiera, monitorando lo stato dei macchinari e dell’intera supply chain.  Oppure ancora, creando dei Digital Twin e applicando tecniche di AI che consentono di predire quando è necessaria la manutenzione prima che sia troppo tardi, è possibile evitare stati di emergenza dovuti al malfunzionamento improvviso di un macchinario critico.

In questo contesto il dato assume un ruolo centrale, esso necessita di uno spazio sia per la conservazione (Storage) che per la computazione (Computing). A queste necessità rispondono le tecnologie di Cloud Computing, che sfruttando economie di scala consentono l’abbattimento dei costi (esempio costi di manutenzione, di investimento up-front, etc.) e l’aumento della flessibilità e delle performances (scalabilità immediata). L’Edge Computing ha invece lo scopo di portare il computing (la computazione) all’angolo, ovvero vicino a dove il dato è generato, così da evitare l’inefficienza del back-and-forth che si crea quando il dato viene prima inviato al cloud per la computazione per poi essere restituito dopo aver subito le operazioni richieste, diminuendo così i tempi di latenza. Queste tecnologie sono molto utili in un mondo dove l’ammontare di dati generati cresce esponenzialmente, come anche la necessità di monitoraggio real-time.

La Blockchain, o più in generale le Digital Ledger Technologies (DLT), consentono la creazione di una rete di partecipanti (persone, aziende, sensori, etc.) che si scambiano delle informazioni. La tecnologia ha alcune differenze fondamentali rispetto un database tradizionale. Le blockchain garantiscono l’immutabilità del dato, ovvero l’informazione non può essere modificata unilateralmente da uno dei partecipanti. Ogni volta che c’è uno scambio di informazioni si crea una transazione che è riportata su un registro, quest’ultimo è una concatenazione di blocchi di transazioni (da qui il nome block–chain): la modifica illegittima di un blocco (una transazione) andrebbe a spezzare irrimediabilmente la catena. 

Poichè ogni blocco è concatenato all’altro sequenzialmente in modo immutabile è possibile tracciare il dato univocamente, e quindi ricostruire e verificare l’intera catena delle transazioni. Inoltre, le blockchain sono decentralizzate e sicure, poiché non sono possedute in modo esclusivo da un singolo partecipante del network e le transizioni sono crittografate, garantendo la sicurezza e l’affidabilità dell’intero sistema, in quanto anche un eventuale cyberattacco posto in essere su uno dei membri del network blockchain non altererebbe l’intero sistema (no single-point failure).

Da tutte queste caratteristiche si deduce come a differenza di un database, la blockchain possa essere usata per scambiare veri e propri assets, non semplici informazioni. Infatti, uno degli usi più rinomati è quello della criptovaluta del Bitcoin, che è un tipo di Blockchain pubblica poiché chiunque può avere accesso al network a differenza delle private che sono, ad esempio, formate da consorzi di aziende.

Limiti e sfide

Il global risk report 2019 del Word Economic Forum delinea i Cyberisks come uno dei fattori di rischio futuri probabili e ad alto impatto. Casi di aziende bloccate a causa di rasomwares o attacchi hacker sono sempre più comuni, ad esempio i recenti casi Canon, Garmin o Equifax. Di conseguenza, le aziende devono prestare attenzione alle tecnologie utilizzate ed alla alfabetizzazione digitale dei propri dipendenti (ad esempio, riconoscendo i tentativi di Pishing).

Per quanto riguarda l’AI, temi importati sono quelli del bias sistemico e della interpretabilità dei modelli. Ovvero, è emerso come decisioni prese da alcuni modelli di AI discriminavano sistematicamente le persone di colore o di sesso femminile, ad esempio offrendo condizioni di prestito meno vantaggiose (per altri casi di usi errati di AI, vedi AwfulAI su Github). Inoltre, per alcune classi di algoritmi – definiti black box- è difficile capire perché il modello ha preso una specifica decisione. Per questi problemi sono disponibili diverse strategie di mitigazione, come rimuovere completamente le variabili che potrebbero causare discriminazioni. Anche per il problema della explainability ci sono diverse strategie di mitigazione, tutti i principali player nell’industria AI, hanno sviluppato tool diagnostici per verificare se un modello è distorto e per capire perché ha preso una determinata decisione (Explainable AI XAI, per esempio)

Per analizzare il fenomeno da un punto di vista economico invece, occorre ricorrere al concetto di Technological Unemployment (Keynes), ovvero la disoccupazione causata da una nuova tecnologia. In sintesi, ci sono due visioni del fenomeno della digitalizzazione, una più ottimistica ed una più pessimistica. Secondo l’ottimistica le nuove tecnologie creeranno rapidamente nuovi posti di lavoro in compensazione dei lavori persi (compensation effects, ad esempio figura del data scientist, etc.), ed aumenteranno il well-being complessivo con lavori meno ripetitivi, più sicuri e creativi.  La pessimistica, invece, ritiene che nel contesto attuale il numero di lavori persi sarà maggiore di quelli creati. Questa visione è basata sul fatto che il campo di applicazione delle nuove tecnologie ha uno spettro molto più ampio delle precedenti (ad esempio la complessità dei robot della Boston Dynamics, rispetto un braccio meccanico ripete lo stesso movimento) e vanno ad interessare anche lavori intellettuali e complessi.

Per concludere, è evidente come queste tecnologie presentano un grande potenziale non del tutto utilizzato. Ci sono ambiti di applicazione per ogni tecnologia, alcuni dei quali molto “testati” in produzione altri ancora acerbi, siamo comunque ancora all’inizio di questa rivoluzione e la maggior parte del valore dovrà essere ancora sbloccato.

Leggi qui gli altri articoli di questa categoria.

Immagini: www.pixabay.com

Ti è piaciuto l'articolo?

Dacci un voto!

Voto medio: 5 / 5. Numero voti: 20