di Mario Abis
l‘l’economia della finanza è fatta di misure, a partire dagli indici semplici che sono quelli base delle Borse. Questa economia persiste nella società della complessità, che a sua volta deve ridurre la complessità e misurarla.
Le grandi crisi, quella della guerra in corso ne è un esempio, si basano sulla misurazione della variabilità. Il modello quantitativo e di misurazione della società contemporanea dovrebbe quindi dare certezza e stabilità ai paradigmi decisionali. Ma non è affatto così. Basti pensare all’incertezza con cui aziende e istituzioni gestiscono le montagne di data mining generate nelle migliaia di piattaforme di raccolta informazioni da misurazioni e misurazioni. Sull’utilizzo di questo modello, che dovrebbe sostituire contemporaneamente il marketing operativo e strategico, le aziende sono ferme e tendono a non essere in grado di dare una lettura intelligente di queste informazioni. Uno dei motivi di questa ambiguità risiede nel fatto che la disciplina di base che regola i processi di misurazione, la statistica, è essa stessa ambigua, con modelli instabili e scarsamente controllato in termini di significato. La statistica, che inventa la misurazione come modello socio-economico, è una scienza vecchia di oltre 150 anni (le prime misurazioni dell’opinione pubblica, i sondaggi, avvengono alla fine del 1800) e da allora è cambiata poco. Molta tecnologia applicata, ma la sostanza dell’incertezza, anche matematica, della statistica è sempre la stessa: non è un’unicità che si misura ma un campo di probabilità, un intervallo (quello del campione), un modo arbitrario di che rappresentano insiemi di frequenze (modalità o media) e così via.
La “debolezza”, in termini di verifica del valore di unicità della statistica, è alimentata dalla diffusione dei suoi campi di applicazione e dall’estensione del ruolo di “data governatore”; e in questo si instaurano vere e proprie catene di contraffazione.
Basti pensare all’applicazione statistica ai processi di sperimentazione medico-farmaceutica dove il meccanismo per testare l’affidabilità di un farmaco è distorto: la selezione dei casi di test è casuale e mai governata da un campionamento rappresentativo. Quindi la valutazione dell’affidabilità di un farmaco è del tutto arbitraria. Lo stesso vale per le infinite applicazioni di customer satisfaction in settori sensibili, dalla stessa sanità all’istruzione, dalla logistica ai servizi finanziari. E l’effetto più distorsivo di questa corsa cieca ai dati e alle misurazioni risiede nella costruzione e nell’uso dei cosiddetti algoritmi che indovinano i percorsi per procedure operative progressive che si basano su dati statistici, il più delle volte inaffidabili e non controllabili. E questo è chiaramente distorsivo in molti settori “ricchi”, a cominciare da quello finanziario, dove la seduzione del processo nasconde la falsificazione delle informazioni trattate. Insomma, mentre si sviluppa la nevrosi della misura, contemporaneamente si esprime la debolezza dei fondamenti scientifici: tutto è ambiguo, a cominciare dalla matematica, come argomentava un grande matematico come Longo, e con ciò che la applica, appunto la statistica. E la nostra società della misura si trasforma in una società dell’incertezza.