6 x 9 = 42

“Ho sempre detto che c’era qualcosa di fondamentalmente sbagliato nell’universo…” (Arthur Dent)

Posts Tagged ‘bayesiano’

Il problema non banale dell’incertezza

Posted by scardax su gennaio 24, 2013

Di tutti i concetti scientifici che hanno rivoluzionato il nostro modo di pensare, una posizione sul podio va sicuramente data alla nozione di probabilità, che ci permette di affrontare  l’incertezza con precisi modelli e regole matematiche. In un mondo di infiniti dati e di infinita potenza di calcolo, ci siamo abituati a veder calcolare qualsiasi genere di probabilità: che vinciate al lotto; che i ghiacciai si sciolgano nel prossimo anno; che un candidato vinca le elezioni; che il mondo sarebbe finito nel 2012 (questa era facile: 0).

Nonostante la nostra intuizione su cosa sia la probabilità, però, la sua definizione formale rimane incredibilmente elusiva. Chiediamoci: cosa vuol dire che una moneta ha probabilità 50% di cadere da un lato? Per quanto sembri incredibile, ci sono almeno due modi di intendere la probabilità: frequentista (oggettivo) e Bayesiano (soggettivo). Al di là del problema epistemologico di quale sia, in realtà, la definizione corretta tra le due, la questione diventa incredibilmente seria quando consideriamo l’applicazione della probabilità a problemi pratici di inferenza da campioni di misurazioni multipli. In effetti, le due visioni hanno dato origine a due classi di metodi statistici estremamente diversi che, nel corso del XX Secolo, non hanno mancato di scontrarsi a più riprese.

Cominciamo dal più conosciuto, l’approccio frequentista, che è quello che ancora oggi si insegna prevalentemente nelle scuole secondarie o nei corsi Universitari di base. Secondo questo approccio, una probabilità è la frequenza relativa con cui si avvera un evento se ripetiamo tale esperimento infinite volte. E’ qualcosa di oggettivo, insito nell’esperimento stesso, e che in generale possiamo definire con molta precisione. Se lanciamo una moneta mille volte, ci aspettiamo circa 500 volte di ottenere testa e circa 500 croce. L’approccio frequentista è stato predominante per buona parte del XX Secolo, grazie ad una buona chiarezza espositiva, eleganza, e soprattutto alla semplicità dei suoi metodi di inferenza.

Nonostante questo, in molti casi esso sembra troppo restrittivo rispetto al nostro senso comune: cosa vorrebbe dire in questa ottica, ad esempio, che la probabilità che un politico venga eletto è il 10%? Sicuramente non si tratta di un esperimento ripetibile. In effetti, questa probabilità non è una vera probabilità nel senso frequentista, secondo il quale un esperimento “one-shot” come una elezione ha, tutt’al più, probabilità 1 oppure 0. E’ una probabilità soggettiva, e come tale rientra nel secondo approccio, quello Bayesiano (dal matematico Inglese Thomas Bayes), secondo cui le probabilità non sono altro che una misura soggettiva della nostra incertezza riguardo un evento. Ottenere testa lanciando una moneta ha probabilità 50% perché, soggettivamente, siamo massimamente indecisi sul risultato, mentre nel caso di prima del politico siamo fortemente propensi verso un dato risultato. L’approccio Bayesiano era prevalente all’inizio del XX Secolo (seppur non sotto questo nome), e lo è tornato sul finire, quando la capacità di calcolo necessaria ai suoi conti è diventata disponibile.

Come detto in precedenza, questa problematica potrebbe sembrare puramente formale, ma ha effetti disastrosi quando andiamo ad applicare la probabilità ad un problema statistico (nota: qui è dove il post diventa leggermente più tecnico. Non rinunciate!).

Consideriamo ad esempio il seguente problema: stimare l’altezza media della popolazione italiana a partire dalla misurazione dell’altezza di qualche centinaio di cittadini (supponendo che siano sostanzialmente rappresentativi della popolazione complessiva). L’approccio naif è quello di prendere semplicemente la media delle nostre misurazioni. Purtroppo, avendo noi a disposizione solo un campione della popolazione, il nostro risultato sarà soggetto ad una certa incertezza, ed il problema è proprio quantificare questa incertezza. Domande tipiche sono: quanto può variare il nostro errore? quante altre persone dovrei avere a disposizione per ridurlo? e così via. Pensate all’importanza di tali domande quando ci basiamo su un sondaggio per prendere decisioni importanti oppure quando dobbiamo decidere se (ad esempio) fumare aumenta effettivamente il rischio di malattie mortali, tutti gli altri fattori mantenuti fissi.

Nell’approccio puramente frequentista, l’altezza media reale della popolazione è un dato fisso, costante nel mondo reale, e sul quale non è quindi possibile definire una qualche probabilità. Le nostre misurazioni, invece, sono soggette ad incertezza, e quindi, in un certo senso, casuali. La media delle nostre misurazione ci fornisce una stima del parametro che cerchiamo la quale, quindi, è soggetta ad una distribuzione di probabilità. Cosa vuol dire questo? Supponendo di ripetere diverse volte le nostre misurazioni, otterremmo diverse stime, com’è chiaro se pensate che cambierebbero le persone su cui le calcoliamo. La frequenza con cui ciascuna stima si presenterebbe nel nostro esperimento è proprio la sua probabilità. Ipotizzando una forma di questa distribuzione, possiamo quindi rispondere a diverse domande, ad esempio possiamo calcolare un intervallo che, nel 95% dei casi, conterrà sempre la vera media che stiamo cercando.

Nel paragrafo precedente ho evidenziato “si presenterebbe”. Le critiche all’approccio frequentista (utilizzato, ad esempio, per testare o rigettare ipotesi di correlazioni fra variabili negli studi scientifici) sono molto sottili. Esso si basa sull’astrazione di ripetere idealmente un esperimento che abbiamo effettuato una sola volta, e di inferire conclusioni considerando anche dati che non abbiamo mai osservato (quelli “eventuali” negli altri esperimenti). Questo va contro quello che si chiama principio di massima verosimiglianza, secondo cui i dati in nostro possesso sono gli unici che dovremmo usare, principio che è al cuore dell’approccio Bayesiano.

Se le nostre misurazioni sono quindi l’unica cosa certa su cui possiamo contare, l’incertezza si sposta sulla quantità che vogliamo misurare, ovvero l’altezza media degli Italiani. Se la probabilità è misura di incertezza (e non una misura oggettiva sul mondo), possiamo quantificarla fornendo una distribuzione di probabilità al parametro che cerchiamo, che descriva le nostre credenze sulla probabilità soggettiva di ciascun valore possibile. Il teorema fondamentale dell’approccio Bayesiano (chiamato, appunto, teorema di Bayes) ci permette quindi di miscelare queste nostre credenze con i dati che abbiamo misurato per fonderle in un’unica visione, e darci quindi una nuova forma della distribuzione di probabilità del parametro cercato. Da questa possiamo poi, ad esempio, verificare quale valore è più probabile, quale intervallo lo è al 95%, ecc.

Il vantaggio di tutto questo è che il teorema di Bayes ci dà una maniera unificata e lineare di ragionare sull’incertezza, assente nell’approccio frequentista. La principale critica è data, appunto, dalla soggettività: due persone diverse, con gli stessi dati ma con diverse assunzioni sul parametro alla base, otterrebbero risultati diversi e questo, a prima vista, sembra inaccettabile per una procedura scientifica rigorosa. La risposta Bayesiana è che le nostre assunzioni sono parte integrante dei dati, e che senza una o più assunzioni è impossibile generalizzare. Inoltre, rendere esplicite le assunzioni rende anche più semplice, ad esempio, contestarle. Un secondo problema, forse più grave, è che ora lavorare con la probabilità risultante è molto più difficile, specie nei casi nei quali non possiamo ricavarne una formula chiusa. Problema che non è ben chiaro se la pura potenza di calcolo ha davvero risolto.

Oggi le due classi di metodi coesistono (quasi) pacificamente a seconda di quale siano le esigenze dei ricercatori. Eppure, nella misura in cui l’investigazione scientifica è la generalizzazione a partire dall’osservazione, la probabilità è il cuore pulsante della Scienza e, quindi, rispettosa forse più di ogni altra cosa di studio e comprensione.

P.S.: dite che mi sono allungato troppo? Non vi sento da quaggiù.

Posted in Matematica | Contrassegnato da tag: , , , , , | Leave a Comment »