La fugace illusione di un centro di gravità permanente
2015-09-08
(home)

11138618_984982564902841_5036408190458786793_n
La sbianchettata serve a cancellare una trollface. Non voglio inserire meme in questo bellissimo sito, soprattutto se mi fanno tornare indietro al 2010.

 

Siamo tutti giunti, chi prima chi dopo, per questioni anagrafiche o per maggiore o minor interesse nella materia, tutti siamo giunti ad un apparente punto morto cercando di intersecare filosofia pragmatica e politica; e per punto morto, mi riferisco evidentemente a David Hume:

20150628_134103
Il mio personalissimo punto morto

Secondo Hume siamo fasci di impressioni, è impossibile affermare che esista una necessità tra due eventi qualsiasi successivi nel tempo e a dir la verità ha anche una sua propria idea particolare di tempo. È tutto molto bello, ok, ma al contempo è piuttosto sconvolgente, anche perché lui più di altri nel suo tempo ha avviato quel processo enooooorme di revisione critica della filosofia che porterà poi a parlare di Popper, dell'anarco-epistemologo Feyerabend, Taleb Nassim in Robustezza e Fragilità e prima ancora di Heisenberg, Godel... l'imprevedibile si scontra con la nostra ferrea convinzione (una necessità, più che altro) di saper prevedere gli eventi futuri.

Sempre citando Feyerabend, che d'ora in poi diventerà il mio filosofo preferito (si noti la sottile ironia):

E usare la "scienza" per denigrare e magari anche per eliminare tutte le alternative significa usare una reputazione meritata per incoraggiare un dogmatismo contrario allo spirito di coloro che se la sono guadagnata.

Che frase bellissima! È qui contenuta, forse, nel giro di una frase una critica al razzismo scientifico, che pure aveva vissuto avendo passato la sua gioventù e la seconda guerra mondiale in Austria e su diversi fronti, arruolato nell'esercito tedesco. Feyerabend, di fatto, va anche oltre il popperiano "l'assenza di non-senso non implica una verità", dicendo che non soltanto qualsiasi metodo scientifico (considerando tra questi anche il falsificazionismo di Popper) è fondamentalmente inadatto a raggiungere la certezza ma anche che trasgredendo quest'ultimo si possano ottenere molti più vantaggi che attenendosi ai protocolli. Per come me l'ha raccontata un mio conoscente, poi: "la teoria eliocentrica in fondo non è poi così da buttar via, certo altre teorie forniscono approssimazioni più precise mi dirai, ma se noi correggessimo in parte qualsiasi antica e dimenticata teoria para-scientifica potremmo ottenere gli stessi risultati che con le moderne teorie comunque otterremmo".

Non sono del tutto sicuro che F. intendesse dire anche questo, in realtà. Sto aspettando che mi arrivi Contro il metodo, appena lo leggerò probabilmente scriverò qualcosa qui. Ma il mio punto di partenza non era Feyerabend; il punto di partenza era il punto morto di Hume, e l'estrema bravura retorica di chi ci illude di poter prevedere l'imprevedibile.

Come sono arrivato a tutto ciò

Una sera, verso la fine di agosto, ho pensato di darmi da fare per scrivere un giochino in Python in cui gestisci il tuo stato (economicamente, soprattutto, anche se inizialmente non era questo il mio scopo). Seguendo le logiche UNIX di programmazione, ho spezzettato il mio codice in piccole funzioni, in modo tale da rendere più leggibile il codice a me e in modo da, beh, capire meglio da dove escono gli errori. Un file di prova riguardava il settore industriale, le cui meccaniche, a pensarci, sono simili a quelle di un Game Of Life, solo molto più complicate (relativamente parlando) e pertanto con risultati forse un po' più prevedibili e ingestibili.
figure_1

Una funzione permetteva di prevedere l'andamento della singola industria mese dopo mese in base ai dati più recenti. Il modo in cui l'industria guadagna è molto semplice:

[pmath] g = p - (t * s) [/pmath] con [pmath size=8] g = guadagno, t = tasse, s = stipendi [/pmath]

[pmath] g = s * k * random(0,2) [/pmath] con [pmath]k = coefficente di rendimento [/pmath]

[pmath] s = paga * n.lavoratori [/pmath]

[pmath]= (g * tax.rate) / 100 [/pmath]

La previsione, invece (la linea verde che si vede a tratti nel grafico) è una funzione molto scrausa per così dire che serve a prevedere un valore (moderatamente sbagliato, in teoria) dati tre dati dei mesi precedenti. Ciò che fa è: prende i tre valori [pmath] (p, mese) [/pmath] più recenti (chiamiamoli A,B,C), costruisce le rette [pmath] overline{AB} [/pmath] e [pmath] overline{BC} [/pmath] e infine calcola il coefficiente angolare medio [pmath] m_medio [/pmath] tra queste due rette; il punto previsto D sarà quindi:

[pmath] y_D - y_C = m_medio * (x_D - x_C) [/pmath] ovvero

[pmath] y_D = m_medio  + y_C [/pmath] se stabiliamo [pmath] x_n - x_{n-1} = 1 mese [/pmath]

Ebbene, scrivendo questo articolo mi sono accorto di aver sbagliato ad implementare questo stupidissimo metodo di ""previsione"" - le cose non sono mai troppo facili per essere sbagliate. Ora funziona come dovrebbe, ed effettivamente i cigni neri sono molto ridotti ora:

46
47
48
50
72
572

Sono un po' più sicuro del fatto che il programma sta eseguendo esattamente ciò che voglio, per via del fatto che si osservano diversi fenomeni in qualche modo collegati allo sviluppo del GOL o dei Cellular Automata; qua di seguito, quattro esempi di industrie che infine sembrano stabilizzarsi:

999
896
884
864

 Qua invece, continuano ad aumentare di continuo, sfiorando e forse in alcune occasione sforando il tetto dei 10 milioni di ricchezza:

665
349
254
134

Chi avesse un minimo di familiarità con A New Kind of Science di Stephen Wolfram noterà subito che mancano due classificazioni che erano presenti, invece, per i cellular automata in n dimensioni: lo sviluppo casuale e lo sviluppo caotico. In realtà, tre sono i motivi per cui questi mancano: il primo è che, per velocizzare il processo, ho messo il limite di mensilità a 5000 mesi (che ora che ci penso è comunque un sacco di tempo, 416 anni!), e credo che eventuali pattern emergerebbero solo con una maggiore quantità di dati; in secundis, questo processo non è deterministico, cioè, è algoritmico ovviamente ma non deterministico perché chiama in causa la funzione random(), pertanto credo sia meno probabile (ma baso questa convinzione sul nulla cosmico) che si sviluppino fenomeni caotici, se non su grandissima scala; infine, ho inserito un meccanismo che dovrebbe simulare un (molto meccanizzato) ragionamento in caso di crisi o di crescita economica: in caso di 7 mensilità consecutive nelle quali si ha avuto un decremento nella produzione, vengono licenziati due dipendenti (il numero iniziale di dipendenti è casuale, da 1 a 100); se invece c'è una situazione di crescita, nello stesso numero di mensilità viene assunto un nuovo lavoratore. Schematicamente:

[pmath] (lavoratori += 1)   {doubleleftright}   produzione[-7] < produzione[-6] {  } cdots {  } <   produzione[-1] [/pmath]

[pmath] (lavoratori -= 2)   {doubleleftright}   produzione[-7] > produzione[-6] {  } cdots {  } >   produzione[-1] [/pmath]

Una cosa adorabile sarebbe creare una rete neurale che capisca da sola come aggiustare i budget e così, it'd be so lovely ♫.

Ora andrò avanti con questo progetto ed vi inserirò il proletariato (sbav). L'idea è questa: in tempi di crisi si riducono prima gli stipendi e poi il numero di lavoratori; ovviamente, però, ridurre lo stipendio significa demoralizzare in qualche modo il singolo e diminuire il valore di [pmath] k [/pmath], ovvero il coefficiente di rendimento, andando quindi a diminuire la produzione. Non so se sia una cosa molto sensata o realistica (certamente le dinamiche sono molto più complesse di semplici equazioni lineari) e probabilmente è proprio qui che sbaglio, ma mi riprometto di ritornarci su quando ci avrò meditato un po'. Il fatto è che, credo, la forza di una nazione (così come di qualsiasi agglomerato sociale) non risieda nel numero o nella grandezza delle sue aziende ma nei legami, nei rapporti,nelle connessioni che interoperano tra di esse. Ciò, in fondo, è esattamente il meccanismo che sottosta alle reti neurali (o, equivalentemente, ai neuroni del nostro cervello): anche con pochi neuroni, se li si collegano in maniera opportuna si possono compiere azioni complicatissime, che un normale approccio algoritmico invece svolgerebbe molto meno efficacemente e in più tempo.

E così, mi sembra di capire, accade anche nel mondo reale della finanza e dell'economia. L'andamento di un titolo in borsa dipende strettamente dall'idea che ne hanno i vari broker; le decisioni che un industriale prende dipendono strettamente dai comportamenti degli altri industriali; e così via. Un esempio di questo fenomeno particolare, per cui bastano poche persone per mobilitare ingentissime quantità di denaro nel giro di un giorno o meno, potrebbe essere il panic selling, che si è visto, tra l'altro, nel recente quanto ampiamente previsto scoppio della bolla cinese. Anche per questo le previsioni sono del tutto inaffidabili, mancano di questo fattore incognito, lo sottovalutano; fattore, tra l'altro, che nel mondo globalizzato (e quindi iperconnesso, non inteso nella stereotipata accezione da tema scolastico ma nel senso stretto del termine, ricco al suo interno di connessioni) assume un'importanza sempre più preponderante e che problematizza di molto la spinosa questione previsionale.

Questo aspetto caotico della realtà è affascinante a dire il vero. Il caos, che è diverso dalla casualità, viene fuori proprio dalle strettissime connessioni che intercorrono tra più enti; dal caos "semplice" del cellular automata al caos intrinseco dei mercanti finanziari e delle meccaniche sociali, è tutto molto bello secondo me.

Animation._1200_iterations_of_the_'Rule_110'_Automata
via

La politica, essendo strettamente legata all'economia (talvolta anche troppo (non è una critica al socialismo, è una critica ai politici che hanno banche (o Donald Trump) come supporters nelle campagne elettorali.)), deve per forza familiarizzare con queste debolezze intrinseche della previsione finanziaria. Questa è la mia critica al socialismo stretto, ma di fatto è una critica all'intera classe politica di tutti gli stati. È, tra l'altro, qualcosa che nel corso sulla teoria dei giochi su Coursera è stato detto alla prima lezione, che la teoria dei giochi manca, almeno per come viene spiegata a scuola, della componente imprevedibile dell'essere umano.

Stavo pensando, giusto ora: ogni volta che io o qualcuno dice "dobbiamo metterci in testa X" pecchiamo di superbia, crediamo di avere tutte le risposte e crediamo che queste saranno valide ora come sempre. E pensavo anche all'asimmetria del mondo reale: che il fascismo non è il contrario del comunismo, che che se dici che il fascismo è sbagliato ciò non implica che anche il comunismo lo sia, che il comunismo coi suoi 90 milioni di morti sia peggio del fascismo/nazismo e i suoi 10milioni o quel che è. Perché? È esattamente ciò che dicevo qui -

Sono passati otto giorni da quando ho scritto l'ultima frase qui sopra; nel frattempo ho installato Arch-Linux sul mio pc e scoperto il blog di Paul Krugman e - wow! dice qualcosa di simile a quello che avevo appena scritto sulla asimmetria in politica, aggiungendo però:

[...] the parties are not symmetric, and wisdom does not lie somewhere between the extremists on both sides.

e

I often encounter people who assume that I’m just a left-wing version of Stephen Moore. Why do they believe that? Have they actually looked at my analysis and track record? No, they just know that I’m much more critical of the right than of the left, and they assume that this means ipso facto that I’m biased. But what if in modern America the right is much more wrong than the left? Not a possibility they’re willing to contemplate.

Il ché, come scrivevo sempre qui, è motivante ma impossibile da dimostrare completamente e pericoloso se il concetto finisse in mani sbagliate. Purtroppo il prezzo da pagare per essere filosoficamente coerente (logicamente coerente) è quello di non avere altra certezza oltre a quella di non averne oltre a questa; che poi non è verissimo: ho solo le certezze su cose "sbagliate", su cose cioè di scarso interesse per me e di cui probabilmente neanche mi rendo conto, mentre sulle questioni importanti sono sempre pieno di dubbi; e in queste situazioni la mia decisione, che a dir la verità credo sia tutto sommato la più saggia che io possa fare, è mandare tutto a fare in culo e scegliere, la cosa sbagliata magari, ma scegliere... Non me ne intendo di Popper tutto sommato, so qualcosa: è una pecca cui dovrei rimediare. Leggo da un suo testo:

Non riuscivo a concepire alcun comportamento umano che non potesse interpretarsi nei termini dell’una o dell'altra teoria. Era precisamente questo fatto – il fatto che dette teorie erano sempre adeguate e risultavano sempre confermate – ciò che agli occhi dei sostenitori costituiva l'argomento piú valido a loro favore. Cominciai a intravedere che questa loro apparente forza era in realtà il loro elemento di debolezza.

Ed è la cosa meno "motivante" al mondo, perché dice che in pratica più sei convinto di una cosa sulle cose umane più le conferme che hai in merito potrebbero essere "biased" o "non politically correct": uso i termini inglesi perché sono esattamente quelli che Krugman utilizza nell'articolo qui sopra, quelli contro i quali, se il mio inglese è abbastanza buono da aver capito correttamente la sostanza del suo post, egli si scaglia (pur in maniera quasi distaccata). Ma come diavolo fai a coniugare Popper e politica insieme? Ho un'idea sbagliata di politica, troppo sicura delle proprie stesse idee? Ho un'idea sbagliata su Popper, che si fonda solo sulla nozione di falsificabilità e poche altre? Probabilmente, fare politica (almeno politica partitica) significa mettere da parte la ragione e sconfinare in qualcos'altro e parlare e promettere cose non necessariamente impossibili da attuare ma certamente impossibili da promettere.

screenFetch-2015-09-08_23-43-39
Il mio desktop in ArchLinux. Love.