L’Osservatore Romano | L’arte d’ interpretare i dati. Un volume mette in luce procedure base della statistica e margini di incertezza.

I dati statistici sono spesso invocati per difendere ipotesi infondate e, persino, per avvalorare ideologie fuorvianti. Gli esseri umani, in ogni caso, amano la sicurezza della causalità. «L’incertezza è l’unica condizione – diceva Eric Fromm – che spinge l’uomo a sviluppare i suoi poteri».

 Carlo Maria Polvani

La statistica è uno strumento matematico adoperato con successo dalle scienze applicate e dalle scienze sociali per analizzare molte osservazioni sperimentali. I dati statistici, però, sono oggigiorno spesso invocati per difendere ipotesi infondate e, persino, per avvalorare ideologie fuorvianti nell’opinione pubblica. Risulta quindi utile riscoprire le procedure basilari utilizzate nelle indagini statistiche, seguendo il professor David Spiegelharter in The art of Statistics. Learning from Data, pubblicato dalla Pelican nel 2019 e disponibile in italiano dal 2020 presso la Einaudi. Si tratta di un piacevole manuale grazie al quale, il ricercatore del Centre for Mathematical Sciences dell’Università di Cambridge propone un corso di statistica brillante e accessibile, in quanto fa ampio uso di esempi limpidi e d’illustrazioni trasparenti.

Si pensi di voler studiare la distribuzione del peso dei neonati. Si incomincerebbe con registrare il peso dei soggetti di tale popolazione. Poi, tracciando un grafico del peso alla nascita rispetto al numero di neonati aventi lo stesso peso, si otterrebbe una curva a campana; da questa, si dedurrebbe il peso medio (3,3 chilogrammi) e la deviazione standard (0,3 chilogrammi), grazie alla quale si evidenzierebbe che i due terzi dei soggetti pesano fra i 3,0 e i 3,6 chilogrammi. Questi rilevamenti, ottenuti grazie alla formalizzazione matematica di osservazioni cliniche, si rivelerebbero utili per valutare se un neonato fosse sottopeso o sovrappeso, in quanto fuori dal margine definito dallo scarto tipo. Ma questa formalizzazione avrebbe comportato delle scelte: alcune ininfluenti al fine delle conclusioni, altre no. Se si fosse usato il peso in libbre invece di chili, la misurazione statistica sarebbe rimasta invariata; ma se si fosse distinto il sesso del neonato, si sarebbe notato che il peso medio delle femminucce è inferiore di 0,15 chilogrammi rispetto ai maschietti, modificando quindi le valutazioni nel caso di una neonata di 2,9 chilogrammi rispetto a quello di un neonato di 2,9 chilogrammi (la prima essendo in normopeso, mentre il secondo in sottopeso).

Pertanto, una trasposizione matematica permette di delucidare i contorni e le sfaccettature di un’osservazione scientifica, ma porta con sé, inevitabilmente, semplificazioni, predisposizioni o, persino, pregiudizi. In ultima istanza, questo si deve al fatto che la traduzione di osservazioni dal mondo reale a quello algebrico, riesce a rappresentare efficacemente e fedelmente alcuni aspetti della realtà, ma non tutta la realtà nella sua complessità. Proprio per questo, in statistica si usa la metodologia denominata Ppdac (acrostico di problem, plan, data, analysis and conclusion).

Uno studio statistico incomincia con una domanda (quanto pesa un neonato alla nascita); poi, va avanti con un piano (andare nei reparti di ostetricia degli ospedali) di raccolta dati (registrare il peso dei neonati) e una analisi dei dati raccolti (la curva di Gauss); e termina con conclusioni (livelli di sottopeso, sovrappeso e normopeso) dalle quali si disegnano altri studi per esplorare ulteriori aspetti della realtà (tener conto del sesso, della settimana di gestazione alla nascita, dei bambini nati in casa eccetera). La metodologia statistica è quindi integrativa e graduale, e nessun studio andrebbe interpretato in forma autoreferenziale e immediata. Ma questo non è tutto. Un’analisi statistica è spesso obbligata a fare ricorso alla «inferenza». Si pensi ai sondaggi elettorali. Si seleziona un campione di elettori per riflettere in termini percentuali la composizione dell’insieme del corpo elettorale secondo categorie demoscopiche (cioè età, sesso, istruzione, reddito, residenza eccetera); poi, si estrapola la tendenza del voto generale a partire da quella rilevata nel campione. Ovviamente, la composizione del campione è di massima importanza per la buona riuscita dell’estrapolazione. Ma anche quando la composizione è stata fatta onestamente e diligentemente (per esempio, tenendo conto persino degli strumenti di indagine utilizzati quali il telefono o internet) e anche quando non entrino in gioco altri fattori (come ad esempio la reticenza dei rispondenti nel divulgare la loro opinione), l’estrapolazione riposa sempre su una inferenza, la quale è un processo probabilistico non deduttivo. Un sondaggio, anche di altissima qualità, 19 volte su 20, non scenderà sotto uno scarto d’errore del 2 per cento, poiché è fondato su una metodologia che, per intenderci, da un sacco contenente 10 milioni di biglie o blu, o rosse, o verdi o gialle, avesse inferito (non dedotto) la percentuale di composizione di tutte le biglie del sacco, avendone estratte solo 1.000.

Ancor più complesso è il caso in cui si voglia esaminare la correlazione fra due variabili come accade comunemente negli studi clinici; si prenda, per esempio, l’assunzione di una pastiglia d’aspirina e l’occorrenza di una ischemia cerebrale. Per testare tale correlazione, sarà necessario avere due gruppi di soggetti sottoposti a un esame a doppio-cieco al fine di evitare aspettative: nel primo gruppo, ogni membro prenderà per un anno una aspirina al giorno e nel secondo (il gruppo di controllo), un placebo. Si cercherà di rendere i due gruppi omogenei (magari chiedendo ai soggetti se in famiglia vi sono dei precedenti casi di ictus); e poi, per scongiurare che si intrufolino fattori che potrebbero falsare i risultati, si ricorrerà alla «randomizzazione» della composizione dei gruppi per mezzo di una selezione casuale che dovrebbe assicurane l’omogeneità (affinché, per esempio, ci sia la stessa percentuale di fumatori nei due gruppi). I risultati saranno poi sottoposti a una analisi matematica di «regressione», che è uno strumento che permette di determinare il livello di correlazione fra le due variabili. Ma di correlazione sempre si tratterà, non di causalità.

Sfortunatamente, nella presentazione dei risultati all’opinione pubblica, si creerà sempre un’impressione di causalità o di non causalità fra le due variabili. In casu, se lo studio indicherà che nei soggetti del primo gruppo, due hanno sofferto un ictus e che in quello del gruppo di controllo, sono stati tre: si potrà dire che, in termini assoluti, chi ha preso l’aspirina ha una incidenza di ictus del 0,002 contro il 0,003 di chi non la prende — il che non sembra un granché — ma, in termini relativi, si potrà dire che chi prende l’aspirina ha visto la sua incidenza di ictus diminuita di un terzo — il che sembra molto più rilevante —. In ogni caso, l’idea che solo di una correlazione si tratta e non di una causalità, tenderà a sfumarsi. Forse, la ragione che rende così elusiva la giusta interpretazione dei dati statistici è d’ordine antropologico o, per lo meno, psicologico: gli esseri umani affidano di buona voglia la loro sorte a probabilità infime — ne è prova la popolarità di cui hanno sempre goduto lotterie e giochi d’azzardo — ma, paradossalmente, assumono a malincuore il peso dell’indeterminazione frutto di probabilità ragionevoli, preferendo la sicurezza della causalità all’indefinitezza della correlazione. Non bisogna sorprendersi se la schiavitù del fato e la prigionia del determinismo sono rimaste imperanti nella storia dell’uomo: «La ricerca della certezza blocca la ricerca del significato. L’incertezza è l’unica condizione che spinge l’uomo a sviluppare i suoi poteri» (Eric Fromm).

Fonte: L’Osservatore Romano, 17 marzo 2023

[Articolo qui riproposto per gentile concessione del direttore del quotidiano pubblicato nella Città del Vaticano]