6 x 9 = 42

“Ho sempre detto che c’era qualcosa di fondamentalmente sbagliato nell’universo…” (Arthur Dent)

Quello che la Scienza ci dice

Posted by scardax su febbraio 7, 2013

E’ cosa nota che compito della scienza è “spiegare la Natura“. Leggermente meno noto è il fatto che, in realtà, il compito di ogni teoria scientifica è duplice: descrivere il mondo; e predirlo. In termini più tecnici, abbiamo le duplici funzioni descrittiveprescrittive. La distinzione sembra a prima vista tanto banale da risultare pedante: infatti, qualsiasi modello che pretenda di descrivere accuratamente un aspetto della realtà sembra non poter fare a meno di permettere di trarne previsioni.

Eppure, questa distinzione così innocente si rivela di importanza cruciale quanto ci inoltriamo nel campo delle scienze sociali, dove spesso entra in campo l’idea di “razionalità”. Qualsiasi materia prenda in considerazione una o più persone deve cominciare la propria analisi dall’idea che le persone stesse sono razionali, ma cosa si intende in pratica con questa affermazione? Sostanzialmente, un agente razionale è un agente coerente, ovvero un agente che, avendo espresso delle particolari preferenze in passato, si suppone mantenerle in un contesto uguale e futuro. La coerenza porta con sé la prevedibilità ma, soprattutto, la possibilità di considerare il comportamento di una persona come teso a massimizzare una qualche funzione di utilità: in effetti, la coerenza, oltre a pochi altri assiomi molto generali, permette di dimostrare che è sempre possibile associare delle utilità a ciascuna situazione in modo che l’agente razionale sembri agire in modo tale da massimizzare tale funzione.

Eppure, è risaputo che, in determinate occasioni, una persona sembri comportarsi in maniera irrazionale, che non è da intendersi nel senso fumoso dato a tale parola nel linguaggio di tutti i giorni, ma nel senso preciso che data persona non sembra rispettare gli assiomi di cui si è parlato prima. Contemporaneamente, sembra inoppugnabile il fatto che qualsiasi teoria decidesse di partire da una base di irrazionalità per dare consigli sarebbe da escludere. Quindi, riflettendo un pochino si giunge alla conclusione che, in determinate circostanze, una teoria economica può essere poco descrittiva ma altamente prescrittiva (ed ovviamente viceversa).

Faccio un esempio concreto prendendolo direttamente da un celebre libro di teoria dei Giochi. Consideriamo due situazioni ipotetiche in cui vi recate ad uno spettacolo teatrale il cui biglietto costi 40 €.

  • Nella situazione (A), avete già comprato un biglietto, ma arrivati al teatro vi accorgete di averlo perso. Dovete quindi scegliere se comprare un secondo biglietto allo stesso prezzo, o tornare a casa.
  • Nella situazione (B), non avete comprato in anticipo il biglietto, ma arrivati a teatro vi accorgete di aver perso i 40 € che avevate messo nel taschino per il suo acquisto. Dovete quindi decidere se procedere all’acquisto con il bancomat o tornare verso casa.

Da un punto di vista prettamente razionale le due scelte sembrano equivalenti: 80 € complessivi e spettacolo visto, o 40 € complessivi e niente spettacolo. Eppure, studi comparati hanno dimostrato una tendenza delle persone a scegliere la seconda opzione nel primo caso e la prima opzione nel secondo. Una teoria più completa che spieghi questo comportamento dovrebbe scartare le assunzioni di coerenza e prendere in considerazione “altri” fattori, o anche l’ordine in cui tali fattori si presentano. Supponendo che questa teoria sappia davvero spiegare alla perfezione la situazione, chiediamoci: seguiremmo mai un consiglio datoci da essa? La risposta, come già accennato prima, pende verso il negativo.

In effetti, si suppone che, se anche gli agenti possono essere irrazionali in dati contesti, sufficientemente informati essi agirebbero in maniera razionale. Ad esempio, la lettura di questo post potrebbe farli ragionare in maniera più razionale si presentasse effettivamente una situazione analoga a quella descritta. Una teoria che faccia prescrizioni in maniera non informata, però, non sembra di grande aiuto.

Una distinzione innocente si è quindi rivelata di fondamentale importanza per la comprensione di alcuni capisaldi dell’Economia. In effetti, risponde in alcuni casi alla domanda: ma se l’uomo non è perfettamente razionale, perché mai continuare a seguire una teoria che lo suppone?

Posted in Economia | Contrassegnato da tag: , , , , , | 3 Comments »

Il problema non banale dell’incertezza

Posted by scardax su gennaio 24, 2013

Di tutti i concetti scientifici che hanno rivoluzionato il nostro modo di pensare, una posizione sul podio va sicuramente data alla nozione di probabilità, che ci permette di affrontare  l’incertezza con precisi modelli e regole matematiche. In un mondo di infiniti dati e di infinita potenza di calcolo, ci siamo abituati a veder calcolare qualsiasi genere di probabilità: che vinciate al lotto; che i ghiacciai si sciolgano nel prossimo anno; che un candidato vinca le elezioni; che il mondo sarebbe finito nel 2012 (questa era facile: 0).

Nonostante la nostra intuizione su cosa sia la probabilità, però, la sua definizione formale rimane incredibilmente elusiva. Chiediamoci: cosa vuol dire che una moneta ha probabilità 50% di cadere da un lato? Per quanto sembri incredibile, ci sono almeno due modi di intendere la probabilità: frequentista (oggettivo) e Bayesiano (soggettivo). Al di là del problema epistemologico di quale sia, in realtà, la definizione corretta tra le due, la questione diventa incredibilmente seria quando consideriamo l’applicazione della probabilità a problemi pratici di inferenza da campioni di misurazioni multipli. In effetti, le due visioni hanno dato origine a due classi di metodi statistici estremamente diversi che, nel corso del XX Secolo, non hanno mancato di scontrarsi a più riprese.

Cominciamo dal più conosciuto, l’approccio frequentista, che è quello che ancora oggi si insegna prevalentemente nelle scuole secondarie o nei corsi Universitari di base. Secondo questo approccio, una probabilità è la frequenza relativa con cui si avvera un evento se ripetiamo tale esperimento infinite volte. E’ qualcosa di oggettivo, insito nell’esperimento stesso, e che in generale possiamo definire con molta precisione. Se lanciamo una moneta mille volte, ci aspettiamo circa 500 volte di ottenere testa e circa 500 croce. L’approccio frequentista è stato predominante per buona parte del XX Secolo, grazie ad una buona chiarezza espositiva, eleganza, e soprattutto alla semplicità dei suoi metodi di inferenza.

Nonostante questo, in molti casi esso sembra troppo restrittivo rispetto al nostro senso comune: cosa vorrebbe dire in questa ottica, ad esempio, che la probabilità che un politico venga eletto è il 10%? Sicuramente non si tratta di un esperimento ripetibile. In effetti, questa probabilità non è una vera probabilità nel senso frequentista, secondo il quale un esperimento “one-shot” come una elezione ha, tutt’al più, probabilità 1 oppure 0. E’ una probabilità soggettiva, e come tale rientra nel secondo approccio, quello Bayesiano (dal matematico Inglese Thomas Bayes), secondo cui le probabilità non sono altro che una misura soggettiva della nostra incertezza riguardo un evento. Ottenere testa lanciando una moneta ha probabilità 50% perché, soggettivamente, siamo massimamente indecisi sul risultato, mentre nel caso di prima del politico siamo fortemente propensi verso un dato risultato. L’approccio Bayesiano era prevalente all’inizio del XX Secolo (seppur non sotto questo nome), e lo è tornato sul finire, quando la capacità di calcolo necessaria ai suoi conti è diventata disponibile.

Come detto in precedenza, questa problematica potrebbe sembrare puramente formale, ma ha effetti disastrosi quando andiamo ad applicare la probabilità ad un problema statistico (nota: qui è dove il post diventa leggermente più tecnico. Non rinunciate!).

Consideriamo ad esempio il seguente problema: stimare l’altezza media della popolazione italiana a partire dalla misurazione dell’altezza di qualche centinaio di cittadini (supponendo che siano sostanzialmente rappresentativi della popolazione complessiva). L’approccio naif è quello di prendere semplicemente la media delle nostre misurazioni. Purtroppo, avendo noi a disposizione solo un campione della popolazione, il nostro risultato sarà soggetto ad una certa incertezza, ed il problema è proprio quantificare questa incertezza. Domande tipiche sono: quanto può variare il nostro errore? quante altre persone dovrei avere a disposizione per ridurlo? e così via. Pensate all’importanza di tali domande quando ci basiamo su un sondaggio per prendere decisioni importanti oppure quando dobbiamo decidere se (ad esempio) fumare aumenta effettivamente il rischio di malattie mortali, tutti gli altri fattori mantenuti fissi.

Nell’approccio puramente frequentista, l’altezza media reale della popolazione è un dato fisso, costante nel mondo reale, e sul quale non è quindi possibile definire una qualche probabilità. Le nostre misurazioni, invece, sono soggette ad incertezza, e quindi, in un certo senso, casuali. La media delle nostre misurazione ci fornisce una stima del parametro che cerchiamo la quale, quindi, è soggetta ad una distribuzione di probabilità. Cosa vuol dire questo? Supponendo di ripetere diverse volte le nostre misurazioni, otterremmo diverse stime, com’è chiaro se pensate che cambierebbero le persone su cui le calcoliamo. La frequenza con cui ciascuna stima si presenterebbe nel nostro esperimento è proprio la sua probabilità. Ipotizzando una forma di questa distribuzione, possiamo quindi rispondere a diverse domande, ad esempio possiamo calcolare un intervallo che, nel 95% dei casi, conterrà sempre la vera media che stiamo cercando.

Nel paragrafo precedente ho evidenziato “si presenterebbe”. Le critiche all’approccio frequentista (utilizzato, ad esempio, per testare o rigettare ipotesi di correlazioni fra variabili negli studi scientifici) sono molto sottili. Esso si basa sull’astrazione di ripetere idealmente un esperimento che abbiamo effettuato una sola volta, e di inferire conclusioni considerando anche dati che non abbiamo mai osservato (quelli “eventuali” negli altri esperimenti). Questo va contro quello che si chiama principio di massima verosimiglianza, secondo cui i dati in nostro possesso sono gli unici che dovremmo usare, principio che è al cuore dell’approccio Bayesiano.

Se le nostre misurazioni sono quindi l’unica cosa certa su cui possiamo contare, l’incertezza si sposta sulla quantità che vogliamo misurare, ovvero l’altezza media degli Italiani. Se la probabilità è misura di incertezza (e non una misura oggettiva sul mondo), possiamo quantificarla fornendo una distribuzione di probabilità al parametro che cerchiamo, che descriva le nostre credenze sulla probabilità soggettiva di ciascun valore possibile. Il teorema fondamentale dell’approccio Bayesiano (chiamato, appunto, teorema di Bayes) ci permette quindi di miscelare queste nostre credenze con i dati che abbiamo misurato per fonderle in un’unica visione, e darci quindi una nuova forma della distribuzione di probabilità del parametro cercato. Da questa possiamo poi, ad esempio, verificare quale valore è più probabile, quale intervallo lo è al 95%, ecc.

Il vantaggio di tutto questo è che il teorema di Bayes ci dà una maniera unificata e lineare di ragionare sull’incertezza, assente nell’approccio frequentista. La principale critica è data, appunto, dalla soggettività: due persone diverse, con gli stessi dati ma con diverse assunzioni sul parametro alla base, otterrebbero risultati diversi e questo, a prima vista, sembra inaccettabile per una procedura scientifica rigorosa. La risposta Bayesiana è che le nostre assunzioni sono parte integrante dei dati, e che senza una o più assunzioni è impossibile generalizzare. Inoltre, rendere esplicite le assunzioni rende anche più semplice, ad esempio, contestarle. Un secondo problema, forse più grave, è che ora lavorare con la probabilità risultante è molto più difficile, specie nei casi nei quali non possiamo ricavarne una formula chiusa. Problema che non è ben chiaro se la pura potenza di calcolo ha davvero risolto.

Oggi le due classi di metodi coesistono (quasi) pacificamente a seconda di quale siano le esigenze dei ricercatori. Eppure, nella misura in cui l’investigazione scientifica è la generalizzazione a partire dall’osservazione, la probabilità è il cuore pulsante della Scienza e, quindi, rispettosa forse più di ogni altra cosa di studio e comprensione.

P.S.: dite che mi sono allungato troppo? Non vi sento da quaggiù.

Posted in Matematica | Contrassegnato da tag: , , , , , | Leave a Comment »

La Tragedia delle Persone (non troppo) Razionali

Posted by scardax su ottobre 22, 2012

In questo blog ci siamo già interessati diverse volte alle tematiche della Teoria dei Giochi: abbiamo visto, tra le altre cose, quanto è complessa la cooperazione fra individui; abbiamo accennato “l’impossibilità” della democrazia; abbiamo scherzato sul populismo della politica. Tutti questi sono ovviamente esempi molto semplificati di problemi più complessi, ma apprezzarne le sfumature ci ha permesso di cogliere brevi rivelazioni su quella che poi è la vita reale. In fondo, comprendere i problemi è il primo passo, forse il maggiore, verso la loro risoluzione.

Vero è che la Teoria dei Giochi in certi casi non riesce a togliersi di dosso la sua patina di “uccello del malaugurio”. Vedersi confermati certi comportamenti egoistici sulla carta sembra a volte quasi peggio che osservare questi comportamenti nella vita reale. In questo senso, nulla è peggiore della cosidetta “tragedia dei beni comuni”, meglio conosciuta con il termine originale “tragedy of the commons”, che è poi una generalizzazione di quanto avevamo visto nel passato sul dilemma del prigioniero. In particolare, considerate una risorsa condivisa da numerose persone. Ciascuna di queste sa che uno sfruttamento intensivo della risorsa porterà al suo completo annichilimento, ma è nel loro interesse individuale portare avanti questo sfruttamento nel breve periodo. La teoria dei giochi ci dice che le persone continueranno a sfruttare la risorsa indipendentemente dal sapere perfettamente bene che questo sarà estremamente dannoso sul lungo periodo.

Come spiega l’economista Ken Binmore, questa è conoscenza popolare intimamente legata alle volte in cui vostra madre ha commentato “immagina se tutti facessero così”. La brutta notizia dell’economia è che, in mancanza di incentivi sufficientemente forti a deviare il proprio comportamento, tutti faranno esattamente così. L’aria delle città si inquinerà, il traffico aumenterà, la foresta Amazzonica scomparirà. E’ compito del legislatore sviluppare meccanismi per salvare tutte queste risorse: affidarsi unicamente al buon senso delle persone è, oltre che stupido, particolarmente dannoso e poco realistico.

Per apprezzare la dimostrazione di tutto ciò, vediamo qui una derivazione del problema originale con cui fu introdotta la tragedia dei beni comuni nel lontano 1968 da Garrett Hardin, esposizione che a mia volta riprendo dal testo Playing for Real del già citato Binmore.

Supponete di essere un matematico particolarmente talentuoso che il caso ha voluto vivere in un piccolo villaggio di campagna, nel quale è presente un terreno di circa un km² su cui pascolano le capre di 10 contadini. La produzione di latte (espressa in secchielli) di ciascuna capra dipende dalla quantità di erba che riesce ad avere per sé  ed in particolare segue una legge esponenziale rispetto alla frazione a di terreno a sua disposizione:

b = e^{1 - \frac{1}{10a}}

Se preferite visualizzarlo graficamente, la produzione di latte fa più o meno così:

Grafico Tragedia dei Beni Comuni

Espresso a parole, ogni capra produce un secchiello di latte avendo a disposizione un decimo di km² su cui pascolare, per poi decrescere fino a non produrre quasi più nulla. Poiché nel villaggio la vostra bravura matematica è piuttosto rinomata, vi viene chiesto di calcolare quante capre dovrebbe avere ciascun pastore per massimizzare la quantità M di latte prodotta complessivamente. Indicando con N questo numero di capre, poiché ciascuna capra avrà a disposizione uno spazio pari a 1/N,  immediatamente vi accorgete che la produzione complessiva è data da:

M = Nb = Ne^{1 - \frac{N}{10}}

Massimizzando tale funzione concludete quindi che sarebbe una buona idea far pascolare 10 capre, corrispondenti a 10 secchielli di latte, ovvero un secchiello ed una capra a testa per i vari contadini. Tutti i contadini annuiscono, ma visto che nessuno concede troppo ascolto ad un matematico, nessuno si cura di stabilire per iscritto niente. Tornati a casa, ciascun pastore scopre un’innata abilità matematica e si accorge che il proprio profitto è dato invece dalla seguente funzione:

m = gb = ge^{1 - \frac{g+G}{10}}

Che assomiglia molto a quella di prima, ma dove ora g sono le proprie capre e G le capre degli altri nove contadini. Ormai i pastori hanno imparato ad ottimizzare una funzione di questo tipo e scoprono quindi che, dato che gli altri pastori hanno già deciso quante capre comprare e G rimane fisso, il problema è lo stesso di prima e la soluzione ottimale è che essi stessi facciano pascolare 10 capre.

Tutti i pastori sono ugualmente bravi in matematica, ed il risultato sono 100 simpatici animali che si spintonano per dodici foglie d’erba, con una produzione complessiva di 0.012 secchielli di latte, che divisi sono 0.0012 secchielli a testa, mentre il resto del secchiello è riempito dal pianto di ciascun pastore che pensa a quanto era migliore la propria vita prima di scoprire le gioie della matematica.

Scherzi a parte, come sempre Wikipedia è un punto di partenza decente per approfondire la conoscenza di questo importantissimo risultato scientifico: http://en.wikipedia.org/wiki/Tragedy_of_the_commons.

Posted in Economia, Teoria dei Giochi | Contrassegnato da tag: , , , , , , , , , , | 4 Comments »

Sull’Infallibilità della Scienza

Posted by scardax su giugno 1, 2012

Mi ricollego ad un post di qualche tempo fa, pubblicato da BadScience, che a sua volta discute un controverso articolo apparso l’estate scorsa sulla rivista Nature Neuroscience, per introdurre un argomento alquanto interessante: quanto è infallibile il metodo scientifico? L’esperienza quotidiana ci insegna che la risposta si pone fra “molto” e “completamente”, e su questo credo saremo tutti d’accordo. Ma quanto oscilla fra questi due estremi?

La paura dell’errore è il vero spettro di ogni disciplina scientifica. Fra le pieghe dell’ortodossia comunemente accettata e nei meandri dell’iperspecializzazione lo Sbaglio, sotto le sue molteplici forme, si può annidare in ogni angolo. E niente, nemmeno il rigore del metodo scientifico, è in grado di escluderlo con certezza assoluta.

La storia della filosofia scientifica (e matematica in particolare) degli ultimi due secoli è stata una lotta incessante fra chi desiderava una scienza di puro rigore, che discendesse da assiomi incontestabili con metodi inconfutabili, chi rivendicava l’intuito al centro di tutto, ed infine la disperata ricerca di un necessario equilibrio. La pura logica dà vita ad una scienza incompleta, ma il puro intuito è quantomento contestabile. Dov’è, quindi, la giusta via di mezzo?

L’universo accademico di oggi è alla ricerca di questo equilibrio in un mondo in cui il numero di pubblicazioni, di ricercatori, di discipline e di interconnessioni è cresciuto a dismisura, un equilibrio tutto costruito con l’utilizzo di poche semplici regole: revisioni indipendenti di ciascun articolo prima della pubblicazione, possibilità continua per esso di essere confutato in seguito, indice di importanza per riviste, tutto al servizio del tentativo di evitare l’errore o, quantomento, arginarlo il prima possibile. Eppure…

Sander Nieuwenhuis e colleghi hanno identificato una grossolana imprecisione di tipo statistico che appare in oltre la metà degli articoli scientifici che hanno considerato in campo neuroscientifico, e che ne inficia seriamente la validità e le conclusioni. Per chi non masticasse l’inglese dell’articolo originale, cercherò di ripetere la sua spiegazione con un esempio più leggero. Supponete di avere inventato una nuovissima ricetta per la vostra pasta al sugo. Per testarla, la proponete ad un gruppo di 100 buongustai romani, 25 dei quali dicono di esserne più soddisfatti rispetto alla ricetta originale. Poichè considerate qualsiasi risultato sopra il 20% statisticamente significativo, avete una prima conclusione da pubblicare sulla vostra rivista di cucina preferita: la vostra ricetta piace di più ai romani.

In seguito proponete la ricetta ad un gruppo di 100 milanesi, 15 dei quali si dicono più soddisfatti. Il risultato è sotto la soglia, quindi ne deducete che non c’è un miglioramento statisticamente rilevante riguardo ai milanesi. A questo punto, l’intuito ci dice che una terza conclusione è che il palato romano ed il palato milanese rispondono differentemente alla vostra ricetta. E questo è anche quanto ci dicono la maggior parte degli articoli passati in rassegna dagli scienziati olandesi, seppur nessuno, almeno credo, parla di ricette di pasta al sugo. Nonostante ciò, questo risultato è errato! Infatti, per motivare questa affermazione, la differenza di apprezzamento tra i due gruppi dovrebbe essere statisticamente significativa a sua volta. Ma, dai numeri che vi ho fornito, questo non sussiste: 25 – 15 = 10%, che è al di sotto della nostra soglia prescelta. Ed è così anche nella metà dei 157 articoli passati in rassegna nei quali questo stesse ipotesi erano vere.

Certo, la statistica è la madre di tutte le confusioni. E nulla, come sottolinea correttamente BadScience, può escludere da parte di alcuni autori una scorrettezza intenzionale pur di essere pubblicati. Eppure, il fatto che addirittura io sia riuscito a spiegarvi l’errore e la sua diffusione sembrerebbero un punto a sfavore dell’infallibilità del metodo scientifico. D’altro canto, il fatto che questo nuovo articolo (che a sua volta potrebbe essere confutato) chiarificatore sia stato pubblicato sembrerebbe un punto ancora maggiore a favore del metodo scientifico stesso.

Quanto ancora può migliorarsi la scienza (e quanto proteggersi dalla disonestà intellettuale)? Quanto lontana è ancora dal suo perfetto equilibrio?

Posted in Matematica, Riflessioni | Contrassegnato da tag: , , , , , , | 1 Comment »

La Matematica dell’Amore

Posted by scardax su gennaio 4, 2012

Nel 1960 il fisico Ungherese Wigner (poi naturalizzato Statunitense) attirò l’attenzione del mondo con il suo articolo sull’«irragionevole efficacia della matematica» nelle scienze naturali, espressione che da allora viene spesso citata parlando del potere della matematica nel modellare i fenomeni che ci circondano. Un potere che, secondo lo stesso Wigner, sconfinava con il miracoloso,  visto come alcuni modelli, formulati inizialmente a partire da pochi aspetti di un problema, riescono poi ad estendersi ben oltre il contesto originario, arrivando a spiegare e confermare altri e sempre più numerosi aspetti dello stesso problema.

A questo si aggiunge poi spesso un secondo, apparente miracolo: il fatto che certe teorie, sviluppate per il solo gusto di esplorare i confini della matematica, riescano poi a trovare una perfetta applicazione nel mondo reale: dalle geometrie non euclidee (utilizzate da Einstein nella sua teoria della relatività), all’algebra di Boole, diventata oggi una delle fondamenta dell’informatica. E proprio dal legame fra modelli matematici e realtà scaturiscono le varie scuole di pensiero della matematica, dal Platonismo (i modelli matematici esistono indipendentemente da noi e dal nostro mondo), al Costruttivismo, per cui esistono solo quelle entità che possiamo effettivamente “costruire”, passando per una miriade di altre idee che lasciamo tranquillamente spiegare a Wikipedia.

Oggi celebriamo questo stesso potere della matematica (ed il 2012, e le 17000 visite che ci ha portato l’anno scorso) in un modo particolare: voglio mostrarvi un esempio umoristico di modellazione matematica, che rubo ad un famoso libro del 1994 sulla teoria del Caos (Nonlinear Dynamics And Chaos). Mi scuso fin da subito con chi non riuscirà a seguire il simbolismo (che si basa solo su concetti base dell’analisi matematica), ma spero che anche questi non si perdano d’animo e riescano comunque a cogliere il succo ironico dell’intero discorso.

Infatti oggi modelleremo… l’amore! O, meglio, modelliamo l’evoluzione del sentimento reciproco di due innamorati, che chiameremo con la solita fantasia che ci contraddistingue, A e B.

Cominciamo da un caso specifico: A è innamorato di B, ma più il suo sentimento cresce, più B si spaventa e fugge. Quando però A si stufa, B ricomincia a sentire dell’attrazione per lui. A invece evolve al contrario: il suo sentimento aumenta quando aumenta quello di B, e viceversa. Vi ricorda qualcosa? Mi spiace. Definiamo due funzioni per modellare i sentimenti reciproci:

A(t) = amore di A per B al tempo t
B(t) = amore di B per A al tempo t

Dove un valore positivo di A(t) significa amore, mentre un valore negativo significa odio. A questo punto, e basandoci sulla nostra descrizione, il modello è estremamente semplice da ricavare:

\dot{A}(t) = \alpha B(t)
\dot{B}(t) = -\beta A(t)

Dove \alpha e \beta vanno scelti in accordo con i particolari amanti che si stanno considerando, e \dot{A} indica la derivata di A rispetto al tempo, seguendo la notazione convenzionale della fisica (la derivata è una sorta di misura del tasso di cambiamento della funzione che si sta considerando). La conclusione qual è? Analizzando il sistema, scopriamo che l’unico risultato possibile è un circolo vizioso di amore ed odio, nel quale i due innamorati vengono ricambiati solo un quarto del tempo, odiandosi a vicenda nel restante 75%. Vi ricorda qualcosa anche questo? La matematica è spietata.

Prima abbiamo parlato della capacità di generalizzare a partire dal modello di partenza. Come si applica in questo caso? Una semplice generalizzazione che può venire in mente analizzando le due equazioni è:

\dot{A}(t) = \alpha A(t) + \beta B(t)
\dot{B}(t) = \gamma A(t) + \delta B(t)

In pratica, ora l’amore di A e B è una combinazione dell’amore di entrambi e non solo dell’amore del partner. Il bello è che questo modello ci permette di identificare numerose tipologie di innamorato, a seconda della scelta dei parametri: qualcuno con a, b > 0 , che Strogatz chiama “eager beaver”, vedrà il suo amore aumentare in proporzione all’amore dell’altro, ma sarà eccitato anche dal proprio stesso sentimento. Al contrario, un “innamorato cauto” (a < 0 e b > 0 ) sarà spaventato dai propri stessi sentimenti.

Come interagiscono fra loro questi innamorati? Bè, sapete benissimo come si concludono tutti questi esercizi: potete scoprirlo voi.🙂

Posted in Fisica Generale | Contrassegnato da tag: , , , , , , , , , , , | 3 Comments »

Farmaci equivalenti: bufala o preziosa risorsa?

Posted by scardax su ottobre 18, 2011

Oggi ci occupiamo nuovamente di informazione in campo medico, discutendo di un argomento che periodicamente torna a far discutere di sè: i farmaci cosiddetti “equivalenti”, spesso conosciuti con il nome originale di farmaci “generici” (nome ritenuto dispregiativo e cambiato da leggi successive nel 2005). Cosa sono? Perchè sono venduti a prezzo minore delle loro controparti? Sono veramente efficaci? Pe rispondere a queste ed altre domande, dobbiamo prima analizzare in dettaglio la vita tipica di un farmaco.

Tutto comincia quando un’azienda farmaceutica sviluppa un prodotto particolarmente efficace e, dopo una serie di test clinici ad ampio spettro che ne confermino le capacità mediche (che potete scoprire con maggior dettaglio su Wikipedia), ne ottiene un brevetto esclusivo per la commercializzazione della durata di vent’anni. A volte questo brevetto può essere ceduto in usufrutto a terzi, o sfruttato dalla stessa compagnia diverse volte, dando vita a quelli che sono conosciuti come farmaci “copia”, spesso fallacemente confusi con gli equivalenti. Scaduti i vent’anni, il brevetto scade ed altre compagnie possono sfruttare il principio attivo ora di dominio pubblico per sviluppare i propri farmaci che, una volta confermati “equivalenti” da test altrettanto rigorosi di quelli per il farmaco originale, sono immessi sul mercato. Avendo risparmiato in ricerca, le aziende possono permettersi per i farmaci equivalenti prezzi minori delle loro controparti originali. In particolare, in Italia è imposto per legge un prezzo ridotto di almeno il 20 % (percentuale che in alcuni casi reali può salire fino al 50 %).

Quanto rigorosi sono i test a cui vengono sottoposti gli equivalenti? Un farmaco equivalente, oltre a dover contenere la stessa quantità di principio attivo dell’originale, deve esibire le stesse modalità di assorbimento da parte dell’organismo, ed avere identiche indicazioni e controindicazioni terapeutiche. Non deve, invece, contenere gli stessi eccipienti (quelle sostanze aggiuntive che vengono insieme al principio attivo).

Nonostante queste assicurazioni, spesso sono i medici stessi a sconsigliare l’assunzione di questo tipo di farmaci, facendo nascere a volte sospetti di “collusioni” con le case farmaceutiche originarie, e sempre frequenti sono le testimonianze di “persone comuni” che, passando al farmaco equivalente, ne scoprono la totale inefficacia (vedi questo articolo da uno dei blog del Fatto Quotidiano e quest’altro dalle pagine del Corriere). Tutte queste testimonianze, però, sono da ritenersi fallate, poichè ad oggi non esiste studio accertato che dimostri un’efficacia minore di uno o più farmaci equivalenti.

Detto questo, esistono oggi alcuni dettagli in Italia che ne inficiano la reputazione. Ad esempio, mentre negli Stati Uniti un farmaco equivalente deve arrivare in commercio riportando in confezione solo la denominazione del principio attivo (ed eventualmente la casa produttrice), in Italia esso può mantenere il marchio commerciale con cui è conosciuto, aumentando spesso l’idea che si stia ricorrendo ad un farmaco “di serie b”. Inoltre, si possono ritrovare sul mercato farmaci equivalenti di importazione che non sono soggetti alle regolamentazione di certificazione Italiana, ma a quelle dei paesi d’origine.

Nonostante questi difetti, il farmaco equivalente è una realtà valida ed in continua crescita, come testimoniato da comunità di divulgazione come equivalente.it, e che permette al cittadino ed al Sistema Sanitario Nazionale un risparmio notevole (quest’ultimo quantificato in diverse centinaia di milioni di euro). Per rispondere al titolo: farmaci equivalenti? Preziosa risorsa.

Posted in Medicina | Contrassegnato da tag: , , , , , | 1 Comment »

Il Dilemma dell’Avventuriero

Posted by scardax su settembre 16, 2011

Ci sono alcune tematiche scientifiche che possiamo solo definire trasversali: si ripropongono un po’ ovunque. Una di queste, forse leggermente meno conosciuta al di fuori del mondo accademico, è il cosidetto dilemma dell’exploration vs. exploitation che, in mancanza di una miglior traduzione italiana, chiameremo qui col nome originale. E’ un dilemma al quale tutti noi, seppur inconsciamente, siamo abituati fin dalla più giovane età, e deriva principalmente dal dover agire in un mondo di cui abbiamo solo un’informazione incompleta. Conoscendo solo una porzione di tutto quello che ci circonda, ad ogni decisione da prendere siamo confrontati con due possibili opzioni:

  1. Selezionare l’azione che, secondo la nostra conoscenza, è la migliore in quella circostanza (exploitation),
  2. Esplorare alternative al momento sconosciute, con la possibilità di un rendimento scostante ed eventuali perdite di tempo e risorse (exploration).

Dobbiamo continuare a lavorare sul progetto fallimentare che ci ha tenuti impegnati nelle ultime settimane? O è ora di abbandonarlo per dedicarsi ad altro? Meglio andare alla spiaggia che conosciamo benissimo? O cercarne un’altra? Esempi del genere riempiono la nostra attività cosciente in ogni istante.

La formulazione del problema in questi termini è relativamente recente, fine degli anni ’80, e si è presentata durante lo studio del multi-armed bandit, che in sostanza è una slot machine con N diverse leve, ciascuna delle quali ha una probabilità diversa di vittoria per il giocatore. Senza conoscere questa probabilità a priori, qual’è la strategia migliore a questo gioco? La soluzione dell’americano Gittins prevedeva il calcolo di determinati indici, detti appunto indici di Gittins, e nonostante il grande numero di assunzioni che dovette fare, contribuì a dare una prima formulazione rigorosa di questo dilemma.

Da allora, lo stesso dilemma è ricomparso sempre più spesso, soprattutto (come ci si potrebbe aspettare) nei campi di ricerca interessati a comportamenti “intelligenti” da parte di robot e agenti software: pensiamo ad un giocatore di Poker che può scegliere di sacrificare parte dei suoi guadagni per apprendere qualcosa sul tipo di gioco dell’avversario, o ad un robot mobile che deve decidere come arrivare da qualche parte senza però conoscere ancora la mappa del luogo in cui si trova. Soluzioni tipiche di questo genere di problemi richiediono generalmente alti livelli di esplorazione iniziali (quanto l’ambiente è ancora altamente incerto), e sempre più exploitation man mano che il mondo diventa più conosciuto.

Eppure, fino ad ora i ricercatori si sono concentrati su situazioni sostanzialmente statiche, nelle quali l’ambiente non cambia o, se cambia, cambia poco. Provate a pensare a quanto è difficile, invece, bilanciare questo dilemma in un universo complesso come quello umano, nel quale le informazioni cambiano (a volte anche rapidamente) e spesso sono anche sbagliate di partenza (pensate ai pregiudizi, alle supposizioni errate ecc.). In effetti, ricercatori che indagano sulle modalità neurologiche di questo bilanciamento stanno scoprendo meccanismi sempre più complessi ed affascinanti che regolano il nostro comportamento di tutti i giorni, rendendoci a tratti più avventurosi, a tratti più cauti.

Come semplice esempio per concludere, pensate alla noia: questa non è altro che un modo per dirvi che state sprecando le vostre risorse in un comportamento che non vi porta nulla, e che invece sarebbe meglio investite per esplorare qualcosa che ancora non conoscete. Riusciremo un giorno ad implementare comportamenti similmente complessi in esseri artificiali?

Posted in Informatica, Varie | Contrassegnato da tag: , , , , | 5 Comments »

L’Universo su uno Spillo

Posted by scardax su marzo 10, 2011

Premettendo che i segreti di Fatima vengono rivelati con più rapidità di quanto io non aggiorni questo blog, oggi vi propongo un simpatico Gedankenexperiment che ho trovato nelle mie letture quotidiane. (Gedankenexperiment, termine che ho usato espressamente per rendere il tutto incredibilmente più pretenzioso, vuol dire “esperimento mentale” in Tedesco. E’ quello che succede dopo che vi fate una canna. No, molte canne.)

Obiettivo dell’esperimento è dimostrare che

Tutta la conoscenza umana puo’ essere raccolta sulla capocchia di uno spillo.

In parte, è simile a quanto avevamo già visto su L’Universo in un Numero. Cominciamo notando come tutto lo scibile umano, dai sonetti ai temi del liceo, è scritto usando poche decine di caratteri: lettere, numeri, spazi… (Se consideriamo anche le lingue ad ideogrammi, più di poche decine, ma il ragionamento rimane uguale). E’ possibile associare a ciascuno di questi caratteri un numero che lo identifichi univocamente, e trasformare qualsiasi testo in un numero (molto) lungo. Ad esempio, limitandoci a lettere senza accenti e seguendo la codifica ASCII, l’inizio di questo articolo puo’ essere riscritto come 080114101…

Ora, prendiamo tutto quanto scritto finora dall’uomo, calcoliamo i numeri corrispondenti, e concateniamoli uno di seguito all’altro. Otteniamo un nuovo numero molto, molto lungo. Per concludere, facciamolo precedere da uno zero e da una virgola. Quindi, supponendo che l’enciclopedia del sapere umano cominci con quest’articolo (i casi della vita), otterremmo:

0, 080114101…

Chiaramente, ad un numero simile possiamo sempre associare una frazione compresa fra 0 ed 1: ad esempio, in questo caso, poco superiore a 2/25. Ad una frazione, a sua volta, possiamo associare un rapporto di distanze.

Siamo finalmente pronti: prendete uno spillo, ed una penna con una punta infinitamente piccola (se la trovate). Tracciate, sulla capocchia dello spillo, un punto infinitamente piccolo (se ci riuscite) a poco più di 2/25 dalla cima rispetto al punto inferiore. Tutto il sapere umano è ora codificato univocamente dal vostro spillo!

(Nonostante tutto, temo avro’ comunque bisogno di un nuovo ripiano per la mia libreria.)

L’esperimento l’ho trovato originariamente, per quanto strano, su un libro di narrativa:  “The Gold Bug Variations” di Richard Powers. Ovviamente, essendo un libro stupendo, non è tradotto in Italiano.

Posted in Varie | Contrassegnato da tag: , , , , , | 6 Comments »

Conosce Abbastanza Chi Sa Come Apprendere

Posted by scardax su ottobre 25, 2010

Nell’ultimo post (scritto, temo, quando “scazzi” faceva solo pensare ad un buffo slang giovanile), abbiamo parlato di istinti, e di come anche l’apprendimento possa essere ricondotto, in ultimissima analisi, ad un istinto incredibilmente sviluppato del genere umano.

In fondo, all’aumentare della complessità di un organismo, va di pari passo un aumento delle sue capacità di apprendimento: mentre il famoso cane di Pavlov sembra poter imparare semplici connessioni causali tramite uno stimolo ripetuto, la capacità dell’uomo di imparare è di dimensioni incomparabilmente maggiori, e gli permette operazioni tanto diverse fra loro quanto quelle di generare una teoria scientifica o di sviluppare una particolare strategia a scacchi.

E’ chiaro come, in questo caso, io stia usando la parola “apprendere” non tanto nel senso scolastico, ovvero “imparare nozioni lette o dette da qualcun altro”, quanto nel senso più generale di generare nuova conoscenza a partire da conoscenza preesistente. Parte dell’apprendimento scolastico puo’ essere considerato un caso particolare di questo senso più ampio, nel quale (almeno in teoria) cerchiamo di far nostro un ragionamento già stabilito e di comprenderne le conclusioni.

Esistono sostanzialmente due tipi di apprendimento: deduzione ed induzione, altrettanto importanti e fra loro complementari, ma la cui distinzione spesso non viene chiarita al punto che spesso essi vengono confusi.

La deduzione è quel processo a cui veniamo abituati durante le lezioni di matematica scolastica: a partire da una serie di assiomi di cui si assume la verità, si cercano di derivare nuovi teoremi e postulati. Questo tipo di ragionamento ha il pregio di essere esatto: una volta accordatici sulla verità degli assiomi, e la correttezza della deduzione, nessuno puo’ dubitare della validità della conclusione. Se accettiamo che “in Estate fa caldo”, e che “adesso è Estate”, non possiamo opporci se poi ci viene detto che “adesso fa caldo”.

Sorvolando per il momento sulla difficoltà di trovare (ed accordarsi) sugli assiomi di base, su cui comunque faremo ritorno fra poco, possiamo comunque notare il grande limite della deduzione: il fatto di dover sempre procedere dal generale verso lo specifico. Avendo a disposizione solo teoremi ed assiomi su rette, non riusciremo mai a dedurre una proprietà su piani, o su volumi. Il confine delle nostre deduzione viene fissato nel momento stesso in cui definiamo l’insieme degli oggetti di cui parlano i nostri assiomi.

L’induzione, invece, è il processo esattamente inverso: da proprietà specifiche cerchiamo di dedurre proprietà più generali. Ci bruciamo due volte toccando una candela, e ne induciamo che il fuoco della candela fa sempre male. Non lo deduciamo, badate bene. Per quante volte una mela cada a terra, non potremo mai dedurre da questi soli fatti che cadrà sempre. Possiamo “indurlo” (in realtà non sono neanche troppo sicuro che si possa dire), oppure possiamo assumere la forza di gravità e dedurre che la mela cadrà. E’ chiaro che, mentre abbiamo perso la certezza delle nostre conclusioni e dobbiamo essere pronti in ogni momento ad ammettere la falsità di alcune di esse, ora il nostro limite risulta essere solo la cautela che poniamo nei nostri salti induttivi. Peraltro, l’unico modo di generare assiomi sembra essere un criterio induttivo.

Per tutti questi motivi, l’induzione appare una forma di ragionamento incredibilmente più potente della deduzione, se ben usata, e ce ne possiamo ben accorgere anche nella difficoltà ad implementarla in maniera automatica. Un robot ben programmato puo’ facilmente dedurre qualcosa da informazioni che già possiede… Ma “indurre” qualcosa? Richiede la capacità di lavorare a diversi livelli di descrizione della realtà, di saper dosare l’audacia delle proprie conclusioni, di poter verificare continuamente quanto si sa, e di cambiare i propri giudizi a seconda di quello che l’evidenza ci presenta. Una sfida incredibilmente più difficile, ma di certo necessaria se vogliamo poter classificare le nostre macchine come “intelligenti”.

Quanto vi interessa l’argomento? [O meglio, mi seguite ancora dopo tutto questo tempo? Battete un colpo!]

Righe conclusive: il titolo è una mia personale variazione sulla famosa frase “They know enough who know how to learn” di Adams. Per l’idea del post, si ringraziano le slides dei corsi del Prof. Rizzi.

Posted in Informatica, Riflessioni | Contrassegnato da tag: , , , , , , | 8 Comments »

L’Istinto che ci Distingue

Posted by scardax su giugno 4, 2010

Per il post di oggi, interessiamoci ad uno dei maggiori dibattiti scientifici dell’ultimo Secolo: potremmo intitolarlo “istinto contro apprendimento“. Ognuno ha la sua (confusa) opinione sull’argomento: si dice che l’uomo abbia superato gli istinti tipici del mondo animale grazie alla sua abilità di imparare dall’ambiente che lo circonda; oppure che l’uomo crede di poter imparare, ma è ancora guidato da soli istinti; o forse siamo 35% istinto e 65% apprendimento… E cosi’ via.

Ma questa opposizione è completamente senza senso ed irrazionale: istinto ed apprendimento non sono due concetti in lotta fra loro, anzi. Quando guardiamo da più vicino, capiamo che, in fondo, la capacità di apprendere non è altro che un ulteriore istinto dell’uomo! E’ questa una delle grandi scoperte scientifiche del Secolo: l’uomo non è un animale con meno istinti della media; quello che ci distingue, non sono altro che ulteriori istinti. Istinti che possiamo poi sviluppare o meno grazie alle influenza che riceviamo dal concepimento fino all’età adulta. Ma, nonostante tutto, istinti: la mente non è una favolosa “tabula rasa” su cui costruire una personalità; è una rampa di lancio, un meltin pot di potenzialità che alla lunga ci caratterizzano per quello che siamo e che diventiamo negli anni.

Nulla rende questo concetto più dell’esempio del linguaggio, lo stesso esempio che grazie al lavoro di Noam Chomsky diede il via a questa “rivoluzione” del nostro modo di vederci. Il linguaggio: quella stessa cosa che sembra renderci umani, l’essenza stessa di quella che è la nostra capacità di apprendere, quello che appare come il cuore del nostro pensiero. Il linguaggio, oggi sappiamo, è un istinto. L’istinto del linguaggio, per dirla con le parole di Steven Pinker. Esiste una sorta di “grammatica universale” all’interno della nostra mente, una serie di regole predefinite che sottostanno ad ogni lingua parlata su questo pianeta: quando un bambino impara la sua lingua madre, non fa altro che recepire una serie di particolarità di ciascun idioma (ad esempio, dove porre l’aggettivo rispetto ad un nome), ed assorbire un vocabolario. Il resto è fatto da dei moduli già tarati del nostro cervello.

A dirla oggi, sembra banale. Solo questo spiega l’incredibile facilità con cui impariamo la nostra lingua madre, nonostante una serie quasi paradossale di regole che nessuno ci spiega. Spiega anche perché la lesione di determinate aree del cervello possano distruggere la nostra capacità di parlare, cosi’ come la nostra capacità di capire quello che ci dicono. Sembra banale, ma non lo è.

Non siete convinti? Andiamo avanti con l’esempio pratico. Derek Bickerton studio’ un caso di lavoratori, fra loro stranieri, portati a lavorare nel diciannovesimo Secolo alle Hawaii. Come sempre succede in queste situazioni, per comunicare fra di loro essi svilupparono un linguaggio incredibilmente semplificato, con poca espressività ma notevole complicazione nel formare concetti: quello che viene oggi chiamato un pidgin. Nella generazione successiva, i bambini vennero esposti a questo pidgin, che interagendo con la grammatica universale a cui abbiamo accennato prima, si trasformo’ in un vero e proprio linguaggio, completo di desinenze, nuovi modi di formare frasi, incredibile versatilità: il creolo.

E questo si è ripetuto in numerosi casi, dalla Sierra Leone alla Papua Nuova Guinea. Non solo: si puo’ verificare anche tra comunità di sordi che comunicano con il linguaggio dei segni, che dalla sua rozza versione generalmente insegnata si tramuta in un linguaggio con tutti i crismi.

Nelle guerre di ideologie che verranno con la continua crescita della nostra comprensione della genetica, riflettere su questi temi diventa di un’importanza fondamentale. L’istinto comandato dai nostri geni è un potenziale: niente grammatica universale, niente linguaggio. Ma quanto la società può’ veramente influire su questi potenziali? Quanto conta la famiglia rispetto alla scuola, rispetto ai gruppi con i quali interagiamo continuamente?

Per approfondire maggiormente il tema dell’istinto del linguaggio, consiglio vivamente il libro del già citato Pinker dallo stesso nome: http://www.anobii.com/books/Listinto_del_linguaggio/9788804453505/013c70e06716726bb9/

Posted in Evoluzionismo, Riflessioni | Contrassegnato da tag: , , , , , , | 4 Comments »