Assirm è l’Associazione nata nel 1991 che riunisce le aziende italiane che svolgono Ricerche di Mercato, Sondaggi di Opinione e Ricerca Sociale. 

Assirm organizza numerosi momenti di confronto e approfondimento sui trend, le dinamiche del mercato e i nuovi modelli di ricerca, per fare il punto sull’attualità, dando uno sguardo al futuro. Occasioni di confronto e networking. 

Assirm conferma la centralità del proprio ruolo sociale a supporto delle Imprese e del Sistema Paese, offrendo una proposta formativa di alta qualità, facilmente accessibile e fruibile, pensata per favorire il progresso dei professionisti di oggi e di domani. 

Rimani sempre aggiornato sul mondo delle Ricerche e i suoi protagonisti. 

Il Centro Studi e Formazione Assirm nasce nel dicembre 2005 con lo scopo di sviluppare la cultura professionale della Ricerca di Mercato e Sociale, e di promuoverne l’immagine e il valore presso i committenti e l’opinione pubblica. 


RIFLESSIONI: L’INTELLIGENZA (UMANA) DIETRO I BIG DATA – SECONDA PARTE

17 Marzo 2020

Pubblichiamo in due parti un articolo di Antonio Besana (Docente presso l’Università Cattolica di Milano) sul trattamento dei Big Data al fine di poter fare sviluppare analisi efficaci a supporto della crescita.

(seconda parte)

Ci sono due cautele che possono aiutarci nel percorso di analisi. La prima è la suddivisione dei grandi database in insiemi più piccoli. È infatti più facile analizzare e testare un piccolo dataset e identificare e differenziare i segnali autentici dei rumori spuri, e quindi interpretarne correttamente il significato. La creazione di piccoli dataset da grandi database deve tuttavia essere fatta strategicamente e non casualmente. La seconda è evitare una fiducia cieca ed acritica nei confronti delle correlazioni generate da modelli matematici. L’argomento è stato affrontato nel 2017 da Claude e Longo[2]: “I grandi database sono una grande opportunità per la scienza, e i data analytics sono un rimarchevole nuovo campo di indagine in ambito informatico. L’efficacia di questi strumenti è utilizzata per supportare una sorta di “filosofia” opposta al tradizionale metodo scientifico. Secondo questo punto di vista le correlazioni scoperte attraverso modelli informatici dovrebbero sostituirne la comprensione e guidare le previsioni e l’azione. Di conseguenza non ci sarebbe l’esigenza di trovare un significato scientifico ai fenomeni, ad esempio trovando legami di causa ed effetto, in quanto le regolarità presenti nei grandi database sarebbero sufficienti: con abbastanza dati, i numeri parlano da soli. Così si proclama la “fine della scienza”. […] I grandi database contengono correlazioni arbitrarie. Queste correlazioni appaiono soltanto a causa delle dimensioni e non della natura dei dati. Possono essere trovate in database sufficientemente grandi generati da aggregazioni casuali. E questo implica la presenza di correlazioni spurie. Aggregazioni troppo grandi di informazioni tendono a comportarsi come aggregazioni troppo piccole. Il metodo scientifico può essere arricchito dal computer mining di immensi database, ma non potrà mai essere rimpiazzato da essi”.

Un’ulteriore osservazione riguarda l’operatività nelle strategie di marketing. Ci sono tre criteri che determinano la corretta chiave di lettura dei Big Data:

  1. Interpretabilità: l’informazione deve essere facilmente interpretabile. I Big Data contengono dati non strutturati e informazioni provenienti dai media che spesso non sono interpretabili.
  2. Rilevanza: l’informazione deve essere rilevante. La rilevanza (il segnale) e l’irrilevanza (il rumore di fondo) sono soggettivi e contestuali, e quindi entrambi sono soggetti a processo di interpretazione.
  3. Novità: l’informazione deve contenere qualcosa di nuovo. Nella maggior parte dei contesti di business l’evidenza della rilevanza è determinante. Quando la rilevanza è fondamentale è molto difficile che l’informazione contenga una reale novità.

I dati non parlano da soli, e l’intelligenza artificiale non è in grado – almeno per ora – di autonoma capacità di giudizio. I modelli matematici sono potenti strumenti di analisi ma non sono in grado di dare soluzioni. In una recente intervista Guy Consolmagno, astrofisico direttore della Specola Vaticana, affermava che: “i dati non sono l’informazione perché sono soltanto numeri. L’informazione ci dice da dove vengono questi dati. L’informazione non è la conoscenza, perché la conoscenza è saper mettere le informazioni in un unico contesto per far dialogare tra loro le serie di dati. La conoscenza non è la comprensione. E nessuna di queste cose coincide con la sapienza, e cioè la capacità di vedere e comprendere ciascuna di queste dimensioni e metterle insieme, facendole convogliare in un luogo ancora più profondo”.

Tutto questo ci fa riflettere su un fatto legato alla formazione delle nuove risorse che si occupano e si occuperanno in futuro di ricerche di mercato. L’intelligenza artificiale ad oggi non è in grado di separare segnali e rumori di fondo, e nemmeno di isolare le correlazioni spurie. Si parla spesso di Data Scientist e di Data Analyst come le professioni del futuro. Questo è certamente vero ma non sufficiente. Un ruolo ancora determinante sarà giocato dall’apporto dell’intelligenza umana, un ruolo svolto da quelli che mi piace chiamare i Market Expert, coloro che all’interno delle società di ricerca e delle aziende sono capaci di connettere i dati all’interno del loro contesto, di interpretarli e di comprenderne le implicazioni per generare le strategie.


[2] The Deluge of Spurious Correlations in Big Data – Calude, C.S. & Longo, G. Found Sci, 2017, 22: 595.