L’amplificazione dell’intelligenza si riferisce all’uso efficace della tecnologia dell’informazione al fine di aumentare l’intelligenza umana. L’idea non è nuova, fu infatti proposta per la prima volta negli anni Cinquanta e Sessanta da cibernetici e primi pionieri del computer, ma solo negli ultimi tempi si sono concretizzati i presupposti tecnologici necessari a supportarla.

Vi è una certa assonanza con il termine AI (Artificial Intelligence) cioè il progetto di costruire un’intelligenza umana in forma di un sistema tecnologico autonomo come un computer o un robot; ma da questa si discosta nettamente su un obiettivo fondamentale, quello di volersi affiancare, non sostituire, alla intelligenza umana. In quest’ottica vi è una lunga storia di casi di successo, poiché tutte le forme di tecnologia dell’informazione, dall’abaco alla scrittura a Internet, sono state sviluppate fondamentalmente per estendere le capacità di elaborazione delle informazioni della mente umana.

Un percorso virtuoso

Posto un obiettivo così importante ed ambizioso, si pone il problema di individuare un path con dei sotto-obiettivi più semplici e concretamente perseguibili, per poi proseguire nel cercare di mapparli con quella che è la propria realtà aziendale.
Troviamo condivisibile quanto identifica Tibco, sintetizzato nell’immagine che segue:

Tibco Augment Intelligence

Visual Analytics è solitamente lo stage dove si trova la maggior parte delle aziende, in quella che viene chiamata Business Intelligence (BI). Essa ha un’importante funzione di “dipingere” il quadro complessivo e di dettaglio dell’andamento delle variabili importanti per l’organizzazione, e l’indubbio merito di aver contribuito a costruire una primitiva cultura del dato, ma ha anche un grosso limite: che è quello di dare una visione “storica” dell’azienda, ovvero di presentare fatti già accaduti, sicuramente importanti per capire ed imparare qualche insegnamento, ma sui quali è impossibile intervenire rivedendo le proprie decisioni: essi riguardano il passato dell’azienda, anche se solo da pochi minuti!

Predictive Analytics è il primo importante passo successivo, la ricerca all’interno dei propri dati di “modelli” che individuino dei “comportamenti” ripetitivi e che quindi possano essere usati per “prevedere” possibili effetti di una scelta, piuttosto che un’altra. Ecco che allora si può incidere sui risultati futuri della propria organizzazione perché le decisioni di business sono “ponderate” non solo dall’esperienza del management, che rimane naturalmente l’asset più importante, ma anche dall’intelligenza indotta dalla capacità di conoscere profondamente i propri dati, anche, se non soprattutto, quando questi sono molti, moltissimi BigData.

Streaming Analytics è il livello evolutivo più elevato sin qui individuato e realizzato in relazione all’uso dei dati per ottenere migliori risultati di business. Flussi di dati che arrivano o vengono creati in continuo in azienda vengono analizzati e correlati applicando gli stessi modelli costruiti nello stage precedente, ma questa volta per definire delle regole di “ingaggio” che determinino delle azioni automatiche, dove l’azione immediata diventa l’elemento discriminante per ottenere un vantaggio di business, che tradotto in pratica potrebbe significare un ulteriore acquisto da parte di un cliente, il blocco di una transazione fraudolenta, il blocco di un sistema produttivo per prevenire una rottura improvvisa, diminuzione o aumento di prezzi di prodotti in funzione della richiesta, e così via.

Ma il percorso individuato non può semplicemente avere un inizio ed una fine, perché ciò che può essere valido oggi, potrebbe non esserlo più tra una settimana, un mese, un anno, quindi è necessario chiudere il loop, e garantirsi la necessaria reiterazione del percorso.
Ancora una volta ci viene in aiuto la vision di Tibco e della sua Insight Platform, ben sintetizzata dall’immagine che segue:

Tibco Insight Platform

Data access: le fonti dati possono essere molteplici, legacy (Erp, Crm, ..), social (fb, twitter, ..), di produttività individuale (mail, Esn, ..), IoT (misure dai sensori, pochi dati per rilevazione, ma numeri elevato di rilevazioni e di sensori ) e benché tecnicamente non sia difficile garantirne l’accesso pur in uno scenario così diversificato, si pone il problema di evitare fonti duplicate riconducibili allo stesso dato, oltre ad altre questioni più squisitamente tecniche come separare i carichi elaborativi tra sistemi transazionali (quelli cioè che garantiscono le operazioni quotidiane dell’azienda) da quelli orientati all’Analytics. Per questo è utile spesso orientarsi verso soluzioni di gestione BigData;

Wrangle: alcuni dati possono avere un significato criptico, o una forma poco o niente strutturata, è quindi utile la capacità di manipolazione (mai distruttiva dell’originale) per estrarne dei sottoinsiemi di senso. Un banale esempio può essere ricavare tre campi separati (tipo, nome, numero civico) da un unico campo indirizzo che contiene dati come “Via dei Mille, 134” oppure “Piazza Mazzini, 12”;

Analyze: questa è la Visual Analytics;

Model: costruire uno o più modelli è un mix di attività di business (dove voglio maggiormente poter incidere, a quali problemi voglio dare risposta più efficace) e di attività tecnica, dove solitamente interviene la figura del Data Scientist (vedi più avanti) per scrivere concretamente l’algoritmo (solitamente utilizzando il linguaggio statistico R o Python);

Predict: i modelli costruiti sono usati sui dati correnti per ricavarne gli insight ricercati, ovvero è uno dei tre momenti in cui tutto il lavoro precedentemente realizzato viene, come si suol dire, messo in produzione.

Decide: è questo il momento (il secondo) in cui il risultato dei modelli predittivi viene utilizzato per definire le azioni di business più appropriate (campagne di marketing, sconti su determinate categorie di prodotto, restrizioni o allargamento su regole di business, …) o per ricavarne regole da applicare alle azioni automatiche dello Streaming Analytics.

Act: questo è la Streaming Analytics, il terzo momento di utilizzo dei modelli.

Monitor: analizza in tempo reale (o near real time) l’andamento delle attività derivanti dall’uso dei modelli, calcolando i kpi da tenere sott’occhio per una veloce azione di controllo. Evidenzia gli alert emessi dallo Streaming Analytics, dandone una visione complessiva anche in relazione alle azioni correttive attuate, o meno.

I dati la cui generazione è stata influenzata dai modelli predittivi, sono marcati come tali e questo sarà preso in considerazione nel successivo ciclo di elaborazione dei modelli: ciò nella pratica significa non solo un miglior affinamento degli stessi nel tempo, ma soprattutto il loro progressivo adattamento alle mutate situazioni, unica garanzia per mantenerli validi ed efficaci.

Data Scientist

Data Scientist, l’attività pratica (sintesi)

Machine Learning / Predictive Modeling
A partire dall’esigenza, stabilita a priori, di prevedere determinate variabili si provvede a sviluppare appositi modelli basati sugli algoritmi più performanti del momento. L’attività ingloba la fase di concettualizzazione del problema, la scelta di opportune misure di valutazione del modello e il rilascio di un applicativo in R o Python che può essere utilizzato dal cliente per effettuare previsioni dei valori delle variabili.

Simulation / What if analysis
Mentre l’attività Machine Learning / Predictive Modeling si occupa di prevedere, sulla base dei dati passati, cosa succederà nel futuro, l’attività di simulazione consente di descrivere possibili scenari non ancora verificatisi. Più semplicemente, il fine del tool sviluppato non sarà quello di prevedere bensì di capire cosa può succedere se si verificano determinate situazioni. Anche in questo tipo di progetto è previsto il rilascio di un applicativo in R o Python.

Advanced Analytics
Entrambe le attività precedentemente descritte vengono corredate da analisi descrittive avanzate che servono da preziosa sintesi per non esperti i quali, grazie ad esse, potranno capire più in profondità gli insight emersi nelle due precedenti fasi.

Data Product Projects
La consulenza viene fornita anche in una fase più embrionale, quando i bisogni del cliente non sono ancora associati a una delle tre attività sopra descritte.

    • Data Product Design
      L’attività di Data Product Design consiste nel creare un prodotto basato sui dati a partire da esigenze che stanno emergendo ma che ancora non sono state messe a fuoco. In parole semplici, si ha un’esigenza che riguarda una determinata informazione ma non si sa se e quanto sia possibile soddisfarla. In questo caso si tratta di capire se e come è possibile costruire un modello predittivo, uno strumento di analisi what if, una collezione di advanced analytics oppure tutti e tre.

 

  • Data Product Discovery
    A partire dal data lake aziendale o da una collezione di dati in generale, l’attività di Data Product Discovery consiste nell’individuare opportunità latenti nei dati non ancora emerse. L’attività ha un valore strategico che consente all’azienda di essere consapevole di molteplici possibilità presenti in embrione che potranno essere sviluppate quando si riterrà necessario.

La differenza tra Data Product Design e Discovery può essere sintetizzata nel modo seguente:
Design: ho un’esigenza ma non so cosa si può fare per soddisfarla indipendentemente dai dati a disposizione. (Il progetto parte dall’esigenza).
Discovery: ho i dati ma non ho idea di cosa ci si possa fare. (Il progetto parte dai dati).

Fonte: Wikipedia, Tibco, Pietro Marinelli

Richiesta informazioni