Home > Senza categoria > Convenzioni, neuroscienze e metriche aziendali

Convenzioni, neuroscienze e metriche aziendali

Niente paura, di queste parole ho appena una vaga idea: il titolo serve per vedere come lo trattano i motori di ricerca. e trae spunto da un bel fim e da una vecchio libro.
Il film è “Margin Call” racconta le drammatiche vicende di una banca in cui un giovanissimo analista analizza dei dati, scopre l’approssimarsi del disastro (siamo nel 2008, tanto per capirsi) e viene chiamato a spiegare la situazione al presidente della banca. Il ragazzo inizia parlando in quelli che ritiene i termini “naturali” cioè quelli che usa tutti i giorni ma il presidente lo interrompe dicendogli: “spiegati! ” il presidente non “capisce” le implicazioni di una alcuni dati usati correntemente da qualsiasi operativo.

Il libro è l’Annuario economico-statistico dell’Italia per l’anno 1853 (Torino, s.i.d). da questo libro estraggo una tabella. O meglio una prototabella.
La trovo una tabella affascinante, intanto perché parla di “italiani” indipendentemente dagli stati ed è affascinante pensare a questa comunità che, in quel momento si riconosceva più in Dante che in qualche politico contemporaneo.
Poi c’è l’entusismante mancanza di dati dello Stato Pontificio evidentemente più interessato alla conta delle anime che della loro distribuzione (forse era anche l’unico stato senza leva militare): il totale comunque al 1850 era di 3.019.359; Monaco al 1849 era 7.627, S.Marino al 1851 era 5.700.
Bon, torniamo a noi; ci sono queste misteriose tre colonne: “rapporto alla popolazione”. Ma di cosa parliamo?

Annuario economico-statistico dell'Italia, 1853

 

Tanto per capirsi propongo la versione contemporanea di come apparirebbe, tanto per dirne uno, il Gran Ducato di Toscana,

Intanto ringraziamo l’uso del punto separatore delle migliaia (migliaja avrebbero detto allora): effettivamente una piccola convenzione che migliora nettamente  la leggibilità.
Poi guardiamo le incidenze percentuali: in effetti le interpretiamo immediatamente: ogni 100 toscani 51 sono maschi e 49 femmine. Veloce e intuitivo.
Intuitivo? Evidentemente non era così allora.Oggi noi dividiamo la parte per il totale. Percentuale = parte/totale*100

I rapporti che usavano erano inversi:  i primi due si calcolano così:
totale/parte
1.761.140/897.939 = 1,98   ogni maschio ci sono 1,98 toscani. neanche la fatica di moltiplicare per 100 (0gni 100 maschi …)
1.761.140/863.201 = 2,04  ogni femmina ci sono 2,06 toscani.
Quindi il glorioso Gran Ducato ha una quota di maschi superata solo dal Ducato di Parma (dobbiamo leggere al contrario! E nei Grigioni che si combinava?)

L’ultimo rapporto per noi è ancora più macchinoso. Lo leggiamo bene “rapporto dei maschi alle femmine”, quindi ci immaginiamo che sia costruito con l’operazione “suggerita” dal titolo. Ma lo suggerisce solo a noi. L’operazione anche qui è inversa:
863miladonne/898mila uomini = 0,96   quest’indice in realtà in demografia viene usato anche oggi, ma non c’è dibattito: lo moltiplichiamo per 100 e quindi lo leggiamo: ogni 100 uomini ci sono 96 donne.

Tutto questo per dire quanto è forte l’effetto delle convenzioni. A noi oggi sembra che il modo “naturale” di descrivere il rapporto maschi/femmine sia l’incidenza sul totale. E invece è uno fra i tanti modi, ed è quello che evidentemente ha avuto la meglio su tutte le altre modalità.
Dato che non sono uno storico della statistica non ho la minima idea ne’ la minima voglia di andare a studiare quando è stato che le percentuali hanno prevalso (di una cosa sono sicuro: i mercanti fiorentini prestavano soldi a un tot percento e si capivano benissimo con i loro debitori).

Ma esiste  qualcosa di “naturale”? Su questo argomento sono ancora più ignorante e posso solo fare affidamento alla mia esperienza personale.
Da una parte io sono ormai talmente immerso in questa “cultura” che reagisco a livello istintivo. Per fare un esempio di questi giorni: se leggo che il tale sindaco è stato eletto con il 60% dei voti e che gli astenuti sono stati il 45% io non devo fare niente in modo cosciente; il risultato del calcolo 0,60*(1-o,45)*100 = 0.33 mi appare in automatico (ovvero: il sindaco e stato votato dal 33 ogni 100 aventi il diritto di scegliere). Per le mie reazioni 0,33 è istantameamente e contemporaneamente equivalente a 33%  e a 1/3 (circa, ok).
Però mi devo rendere conto che sono io. Per molte persone che mi trovo in aula in corsi propedeutici allo sviluppo di carriera dire quello che ho appena scritto genera sguardi allarmati. Con i laureati posso usare passaggi che comprendono le proporzioni (se tanto mi fa tanto, allora …) ma siamo sempre sulla nozione gestita meccanicamente, non è uno l’attivazione di uno strumento cognitivo.

E allora torna in mente quante volte nei report aziendali troviamo metriche particolari: indici dalle sigle misteriose, su cui magari si basa il sistema premiante, il cui oscillare, magari di un decimale, provoca reazioni automatiche, senza che ci sia chiarezza sull’algoritmo che li genera.
Amcora peggio quando troviamo indici o misurazioni che occupano spazio nella reportistica, che tutti saltano perché sono il reperto del passaggio di una qualche società di consulenza che li ha imposti ma la cui rilevanza è poi scomparsa insieme al consulente e al dirigente che aveva sponsorizzato l’operazione.
In aziende sempre più pervase dalla volontà di misurazione troviamo un accumulo di KPI, dashboards, benchmarks, indici di … senza che siano diventati vero fluido informativo. E inversamente in questo profluvio “informativo” cerchi vanamente una misurazione di quello su cui si applicano le decisioni quotidiane.
Si potrebbe dire che c’è lontananza fra metriche e buon senso ma poi ti accorgi che il buon senso è il tuo, chi in azienda ci sta tutto il giorno considera quel determinato frame come “naturale” e pieno di buon senso. Insomma viviamo in tanti micrambienti dove in ognuno si sviluppa un adattamento che li porta a considerare naturali.
Ma in realtà a volte avviene qualcosa di peggio: dato che nessuno più sa come e perché vengono calcolati, da “indicatori” diventano feticci, dei feroci a cui vengono tributati sacrifici di sangue.
Ma qui è bene fermarsi, per ora.

Mentre, per completezza di argomento, non posso esimermi dal consigliare la lettura di Gigerenzer.
Gerd Gigerenzer il cui libro più rappreentativo è “quando i numeri ingannano“  ha innescato una discussione tale che l’editore italiano lo ha pubblicato ma con un’introduzione in cui se ne prendono le distanze. Il succo dell’argomento di Gigerenzer è l’affermazione che le percentuali non sono ben connesse con il nostro sistema cognitivo, tanto è vero che la maggior parte di noi non capisce la teoria delle probabilità se studiata nel modo classico (con le percentuali) ma l’afferra immediatamente se usiamo i numeri “naturali” (oops)
Per spiegarmi copio e più o meno incollo da un blog di Francesca Poggi, filosofa, ben più qualificata di me.

In (quasi) tutti gli esami clinici per l’accertamento di una data patologia esiste la possibilità che risultino
– sia dei falsi positivi (positivi all’esame, ma che non hanno realmente la malattia)
– sia dei falsi negativi (negativi all’esame, ma che, invece, hanno la malattia).
Nella statistica medica la percentuale di soggetti sottoposti ad un esame
– correttamente classificati come positivi è detta sensibilità,
- correttamente valutati come negativi è detta specificità.
Supponiamo di fare il test per l’HIV, e che questo risulti positivo. Premesso che la sensibilità di questo test è 99,9% e la sua specificità è del 99,99%, quante probabilità abbiamo di essere davvero sieropositivi? Il senso comune sembrerebbe suggerir e che ne abbiamo parecchie, intorno al 99,9 % (che è la sensibilità del test).
Supponiamo, però, che il tasso di base dell’HIV (cioè la proporzione delle persone affette da HIV in un dato momento) sia di 1 su 10.000 (ossia che sia affetta da tale patologia 1 persona su 10.000), e, per semplificare l’esposizione, immaginiamo che l’esame sia più accurato di quello che realmente è e che la sensibilità sia del 100%, ossia che non ci siano falsi negativi.
In tal caso, ogni 10.000 individui ci sarà un soggetto affetto dall’HIV il cui test risulterà positivo (avendo noi immaginato che l’esame abbia una sensibilità del 100%). Tra gli altri 9.999 individui non sieropositivi ce ne sarà però un altro che risulterà positivo all’esame, a causa della specificità del 99,99%, ossia dalla presenza di un falso positivo ogni 9.999 esami.
Ciò significa che, ogni 10.000 individui, ci saranno due esiti positivi:
– un individuo effettivamente malato (dato dal tasso di base di 1 su 10.000)
– un falso positivo (dato dalla specificità del 99,99%,).
Ne segue che, se il nostro test è positivo, ciò non significa che abbiamo il 99,99% di probabilità di essere malati, ma il 50%, 1 su 2.

La cura per l’analfabestismo statistico proposta da Gigerenzer è tanto facile, quanto efficace … Consiste semplicemente nel tradurre i dati percentuali in frequenze naturali – proprio come abbiamo fatto con l’esempio del test del HIV: non pensare in termini del 99,99%, bensì di 9.999 su 10.000 e così via…

Ora, c’è da dire che Gigerenzer studia prevalentemente i processi cognitivi dei medici e, quando gli avanza tempo, dei giuristi.

Non proprio un campione significativo degli esseri umani. ma insomma la questione è interessante.

  1. Nessun commento ancora...
  1. Nessun trackback ancora...