martedì 4 novembre 2014

X - CONFRONTO TRA PROFEZIE BIBLICHE E MARIANE E LA NUOVA FRONTIERA DELLA SCIENZA: LA CLIODINAMICA E CLIOMETRIA dall’ approccio microscopico (riduzionismo, approcci bottom-up) e macroscopico (olismo, approcci top-down) all’ approccio “middle-out” (o mesoscopico), in cui il livello più rilevante per la spiegazione è quello che permette la vista più completa delle relazioni intercorrenti fra le parti del sistema.




Isaia capitolo 44, versetto 25:

 Io svento i presagi degli indovini,
dimostro folli i maghi,
costringo i sapienti a ritrattarsi
e trasformo in follia la loro scienza;

1Cor 2:14 L'uomo naturale però non comprende le cose dello Spirito di Dio; esse sono follia per lui, e non è capace di intenderle, perché se ne può giudicare solo per mezzo dello Spirito.

Michea, capitolo 7, versetti:

2 L'uomo pio è scomparso dalla terra,
non c'è più un giusto fra gli uomini:
tutti stanno in agguato
per spargere sangue;
ognuno dà la caccia con la rete al fratello.
3 Le loro mani son pronte per il male;
il principe avanza pretese,
il giudice si lascia comprare,
il grande manifesta la cupidigia
e così distorcono tutto.
4 Il migliore di loro non è che un pruno,
il più retto una siepe di spine.
Il giorno predetto dalle tue sentinelle,
il giorno del castigo è giunto,
adesso è la loro rovina.
5 Non credete all'amico,
non fidatevi del compagno.
Custodisci le porte della tua bocca
davanti a colei che riposa vicino a te.
6 Il figlio insulta suo padre,
la figlia si rivolta contro la madre,
la nuora contro la suocera
i nemici dell'uomo
sono quelli di casa sua.
7 Ma io volgo lo sguardo al Signore,
spero nel Dio della mia salvezza,
il mio Dio m'esaudirà.

PREDIZIONE GRANDI EVENTI GEPOLITICI -
CONFRONTO TRA PROFEZIE BIBLICHE E MARIANE E LA NUOVA FRONTIERA DELLA SCIENZA: LA CLIODINAMICA E CLIOMETRIA       dall’ approccio  microscopico (riduzionismo, approcci bottom-up)  e macroscopico (olismo, approcci top-down) all’ approccio “middle-out” (o mesoscopico), in cui il livello più rilevante per la spiegazione è quello che permette la vista più completa delle relazioni intercorrenti fra le parti del sistema.
(Ritengo che la cosa più misericordiosa al mondo sia l’ incapacità della mente umana a mettere in correlazione tutti i suoi contenuti. Viviamo su una placida isola di ignoranza nel mezzo del nero mare dell’ infinito, e non era destino che navigassimo lontano. Le scienze, ciascuna tesa nella propria direzione, ci hanno finora nuociuto ben poco; ma, un giorno, la connessione di conoscenze disgiunte aprirà visioni talmente terrificanti della realtà, e della nostra spaventosa posizione in essa che, o diventeremo pazzi per la rivelazione, o fuggiremo dalla luce mortale nella pace e nella sicurezza di un nuovo Medioevo.)
(H.P. Lovercraft, Il richiamo di Cthulhu)

LA SCELTA DIO E IL BUON SENSO O IL NUOVO IDOLO E LA PAZZIA ?
Quale scelta sensata? Seguire le profezie bibliche e mariane rivelate da un intelligenza amorevole, oppure affidarsi ai nuovi idoli: teorie scientifiche sul ciclo ripetitivo in schemi, modelli, leggi, cicli predittivi di ecosistemi geopolitici, creati dal linguaggio matematico ed assemblati da potenti software? Nuova frontiera e  Nuovo Idolo: l’ intelligenza artificiale in computer quantici; l’ informazione che si autostruttura e genera informazione. L’ uomo non consulta il Nuovo Idolo per selezionare le sue scelte ma  ascolta  il Nuovo Idolo che seleziona e sceglie al posto suo.
Il Nuovo Idolo prevederà grandi eventi geopolitici: deciderà le sorti dei mercati, i prezzi, i mezzi di produzione e consumo di intere nazioni; quando sia conveniente iniziare e terminare una guerra; prevedere e sopprimere, crimini; fomentare o spegnere sommosse sul nascere; prevedere cambiamenti climatici estremi. Tutto in modo preciso, congruo, ma senza amore per l’ uomo, comprendere la sua storia personale di ciascuno,  avere a cuore il suo futuro. Tutto ridotto a relazioni significative a  bit di informazione. La maggior parte dei dittatori non credevano nelle religioni ma erano cultori della magia, delle arti divinatorie. Oggi la magia viene sostituta da potenti mezzi hardware e software, l’ importante è fare a meno di Dio.  Unico Limite: nessun mezzo permette all’ uomo di conoscere il giorno, l’ ora, il modo in cui morrà. Ma qual’ è lo scopo ultimo non dichiarato di queste ricerche? La ricerca dell’ immortalità  di pochi uomini eletti: il trasferimento della coscienza  umana da un corpo biologico ad un corpo sintetico è pura chimera.


Messaggio di Nostra Signora Regina della Pace n°3811
27.04.2013

Amati figli, camminate per un futuro dolorosoGli uomini saranno ogni volta di più schiavi delle tecnologia, e la grazia del Signore sarà presente in pochi cuori. Accogliendo false ideologie, gli uomini orienteranno i loro sentimenti alle macchine. Soffro per quello che viene per voi.

2.742 - 06/10/2006
Cari figli, l’umanità porterà una croce pesante perché gli uomini si sono allontanati dal Creatore e hanno abbracciato false ideologie. Grandi PROGRESSI TECNOLOGICI CONTRIBUIRANNO ALLA MORTE SPIRITUALE DI MOLTI DEI MIEI POVERI FIGLI. Le maggiori vittime saranno i giovani. 

Non riusciamo a prevedere i grandi eventi umani.

(..) Nella celebre favola, I vestiti dell’Imperatore, è un bambino a far notare che il re è nudo, nella vita vera invece può capitare il contrario: che sia una regina a dire che l’economia è nuda. Due anni fa la regina Elisabetta inaugurò un nuovo edificio della London School of Economics. Sua Maestà, in genere sempre molto parca nell’esprimere la propria opinione, si è rivolta agli economisti che facevano gli onori di casa, per chiedere – con apparente innocenza –, come mai tutta la sofisticata scienza economica non fosse stata in grado di prevedere la crisi.
Forse la sua non era semplice curiosità. Nel corso del 2008 Sua Maestà aveva perso qualcosa come 40 milioni di dollari. Luis Garicano, docente di Economia e Strategia alla Lse le ha risposto che «a ogni fase c’era qualcuno che faceva affidamento su qualcun altro, e tutti credevano che stessero facendo “la cosa giusta”». Ma evidentemente non era così. Né si è ancora capito quale sarebbe stata la cosa giusta da fare. Come tutti sanno (economisti compresi), c’è una differenza enorme fra il comportamento individuale e quello collettivo. Conformarsi e fare quello che fanno gli altri, paga quasi sempre. La gran parte dei trader agisce così, è risaputo: legge gli stessi giornali, riceve le stesse indiscrezioni, sottoscrive gli stessi rapporti, compra quando stanno comprando tutti e vende quando stanno vendendo tutti. Qualche fortunato vende (o compra) un po’ prima degli altri e fa un mucchio di soldi, ma aveva davvero previsto gli alti e i bassi del mercato? Se questa fosse una questione scientifica, allora nessuno sarebbe in grado di prevedere nessuno. Se pochi eletti potessero accedere al software giusto in grado di fare previsioni, sarebbe come avere una bacchetta magica: guadagnerebbero ogni volta di più. Ma le bacchette magiche non esistono e nemmeno i programmi in grado di fornire previsioni infallibili. Anche a Warren Buffett capita di perdere ogni tanto: secondo «Forbes» 25 miliardi in dodici mesi (ben più dei milioni di dollari della Regina; ma lui è molto più ricco).
Il problema con le previsioni non dipende dalle nostre scarse capacità divinatorie, anzi, direi che ce la caviamo bene in materia. È impossibile vivere senza fare previsioni. E siamo anche piuttosto bravi a prevedere i rischi. Se giochiamo alla roulette, sappiamo che c’è una probabilità su 37 che esca lo zero. Quello che non possiamo prevedere è l’imprevedibile: il mattone che cade da un terrazzo, un terremoto, la nube di cenere prodotta da un vulcano islandese (la scienza non è ancora in grado di fare grandi previsioni per questi fenomeni “naturali”). La cosa più sbalorditiva – ed è per questo che la Regina aveva ragione di essere sorpresa – è che non riusciamo a prevedere i grandi eventi umani. (..)
Donald Sassoon, Il Sole 24 Ore, domenica 6 marzo 2011

Prevedere il futuro tramite internet, Microsoft ci sta lavorando

Microsoft sta lavorando ad un complesso algoritmo in grado di prevedere il futuro tramite internet, leggendo i giornali ed analizzando il web.

Il funzionamento è molto semplice ma geniale: poter prevedere il verificarsi di un qualsiasi evento, magari di pubblica utilità. Il programma, chiamato “Mining the Web to Predict Future Events“, è in fase di realizzazione-studio da parte di Eric Horvitz del centro di ricerche di Microsoft a Redmond e Kira Radinsky del Technion-Israel Institute.
Nell’era di internet e della digitalizzazione continua dei contenuti,
 ogni evento lascia una traccia su quotidiani o siti web. Sfruttando queste tracce informatiche, scandagliando il sito del New York Times, Wikipedia e di molte altre banche dati, il software aggregherebbe le informazioni, le catalogherebbe e poi le combinerebbe tra loro. Con la giusta potenza di calcolo, comunque facilmente ottenibile, si analizzerebbero tutte le informazioni di eventi simili già accaduti nella stessa zona. Aggregando passato e presente tramite complessi algoritmi, secondo i ricercatori, si otterrebbe un modello in grado di prevedere il futuro.
Viene fatto l’esempio di una precipitazione anomala in Angola che porterebbe a delle inondazioni, a cui seguirebbero episodi endemici o disordini civili oppure, tramite lo stesso ragionamento, si potrebbero prevedere disordini o scontri sociali qualora un membro di una determinata etnia, rimanesse vittima di una violenza in un determinato luogo.
L’idea è venuta ai ricercatori pensando ai Big Data, cioè enormi database continuamente aggiornati, su cui lavorano potenti macchine allo scopo di trarre da immensi aggregati disomogenei, dati omogenei sfruttabili a fini commerciali, come accade nei supermercati con le tessere fedeltà o raccolta punti che, inserite nel giusto algoritmo, danno come risultato le previsioni di acquisto dei clienti. Tali previsioni vengono poi intercettate al loro ingresso nel punto vendita offrendo speciali promozioni in grado di farli spendere di più.
Horvitz e Radinsky dichiarano che analizzando gli archivi del passato, il sistema è stato in grado di prevedere grandi eventi, effettivamente avvenuti, con uno scarto di soli pochi giorni. Per essere solo l’inizio sembra molto promettente e, nel frattempo, i team stanno continuando lo sviluppo.
Microsoft non ha dichiarato quando e se il software verrà messo in vendita anche se le potenzialità sono pressoché infinite così come i campi di applicazione e le finalità commerciali.

Microsoft prova a a predire il futuro

Un ricercatore del colossi di Redmond e una ricercatrice israeliana stanno lavorando a un software in grado di analizzare anni di notizie uscite sul New York Times e sul web e ipotizzare sviluppi futuri su particolari avvenimenti

La sfida di prevedere il futuro
leggendo giornali e analizzando il web

Un ricercatore Microsoft e una sua collega israeliana stanno sviluppando un software in grado di prevedere epidemie, conflitti e scontri sociali. Utilizzando quel gigantesco conglomerato di informazioni che sono presenti in rete di ROBERTO BUONANNO*

·         APPROFONDIMENTI
·          
FOTO

Un algoritmo per il futuro

·         ARTICOLO

Soldi, traffico, rivoluzioni e Maya
il domani è scritto nei nostri "Big Data"


I RELATORI del progetto, Eric Horvitz del centro di ricerche di Microsoft a Redmond e Kira Radinsky del Technion-Israel Institute, lo hanno chiamato "
Mining the Web to Predict Future Events". Tradotto, scandagliare il Web per prevedere eventi futuri. L'applicazione, ancora in fase di sviluppo, analizza l'archivio del New York Times, Wikipedia e numerose altre banche dati online per estrarre dati, archiviarli e combinarli tra loro. La logica è semplice quanto sorprendente. Nell'era digitale ogni evento diventa una notizia su quotidiani e siti. Con la giusta potenza di calcolo, quella di cui adesso di può disporre abbastanza facilmente, siamo in grado di analizzare tutti gli eventi di ogni tipo accaduti nella stessa zona prima della tragedia. Il computer usa complesse formule per capire quali notizie o articoli possano correlarsi al fatto e costruisce - assicurano i ricercatori - un modello in grado di prevedere il futuro. 

LE FOTO

LO STUDIO (PDF)

Associando su scala globale dati su eventi naturali e sociali, il software può, per esempio, stimare la possibilità dell'esplosione di un'epidemia di colera in Congo. L'intelligenza artificiale è in grado di adattare le previsioni a seconda dell'area geografica e della situazione socio economica del paese analizzato.
Precipitazioni anomale in Angola, per esempio, hanno alte probabilità di essere seguite da un'inondazione e poi da una diffusione endemica o da disordini. Le stesse condizioni meteo in Italia darebbero adito a una previsione differente. Applicando modelli simili, analizzando le notizie di cronaca nera si possono prevedere scontri sociali. Che in certe zone del mondo saranno più probabili quando, per esempio, un membro di una minoranza etnica è vittima di un sopruso o di un crimine.
Questo moderno Nostradamus trae la propria potenza dal recente concetto informatico dei Big Data. Ovvero, enormi volumi di dati eterogenei che macchine potentissime e intelligenti raccolgono in giro per il Web e macinano in continuazione. Big, grande, è anche il valore monetario di questi enormi cumuli d'informazioni. Le grandi catene commerciali sono state le prime a usare i Big Data per studiare in tempo reale i consumatori; incrociando gusti, acquisti e dati delle tessere di fedeltà si anticipano  gli interessi  dei clienti per aumentarne la propensione a spendere. Gli istituti finanziari, a loro volta, sfruttano le potenzialità dei Big Data per sviluppare software predittivi che analizzano gli andamenti dei mercati finanziari mondiali e identificano le giuste scelte per gli investimenti.
http://www.repubblica.it/tecnologia/2013/02/05/news/microsoft_vuole_predire_il_futuro-52001156/
Horvitz e Radinsky sono ottimisti e sostengono che il loro software, analizzando gli archivi, ha azzeccato le date di numerose tragedie del passato, con uno scarto di pochi giorni. Quindi, a occhio, i risultati sarebbero più che promettenti. Intanto il team continua a lavorare. Microsoft non ha rivelato se e quando metterà in commercio il software.

Computer Nautilus, prevede il futuro e odia gli umani

di Valerio Porcu - pubblicato lunedì 12 settembre 2011 alle 11:20

Un gruppo di ricercatori statunitensi ha svolto un interessante esperimento con il supercomputer Nautilus. Analizzando migliaia di articoli di giornale, sarebbe in grado di prevedere grandi eventi geopolitici manifestando così come l'uomo, ciclicamente, ricada negli stessi errori.

Esiste un supercomputer che è in grado di prevedere il futuro. O almeno grandi accadimenti o fatti di cui si parla molto sui giornali. Il Nautilus - installato presso l'Università del Tennesse - sarebbe infatti stato in grado di dire dove si nascondeva Osama Bin Laden (approssimativamente), di prevedere la cosiddetta "primavera araba" e altri fatti che hanno occupato le prime pagine dei giornali negli ultimi tempi.
Tono deli articoli che menzionano Mubarak, 1979 - 2011
Per ottenere questo risultato il Nautilus ha analizzato articoli di giornale degli ultimi 30 anni, esaminando frasi, parole e concetti ricorrenti. E ha poi generato una rete di miliardi di collegamenti tra testi.
"L'analisi automatica delle frasi analizzava la ricorrenza di termini come "buono" o "terribile", mentre i luoghi venivano trasformati in coordinate geografiche" spiega Kalev Leetaru dell'Università dell'Illinois, che si occupa del progetto.
"Esaminare questi aspetti qualitativi offre alcuni vantaggi sostanziali rispetto all'analisi quantitativa tipica dell'approccio da database degli eventi delle scienze politiche. Un database di eventi può solo registrare un bombardamento, ma l'attacco a una chiesa potrebbe portare a semplici condanne in un paese, e a una vera e propria rivolta in un altro", spiega Leetaru.
Tono degli articoli del New York Times, 1945-2005
Nautilus insomma non si limita a registrare i fatti descritti, ma anche le reazioni emotive associate. Un elemento, quello dell'emotività, che da sempre rappresenta una delle grandi sfide dell'analisi digitale.
In questo modo - ma usando anche dati geografici - questo supercomputer ha capito, a posteriori, dov'era Bin Laden, isolando un'area ampia circa 200 chilometri. L'analisi dei testi sulla situazione in Nord Africa gli avrebbe invece permesso di prevedere la caduta di Mubarak in Egitto. La descrizione completa dell'esperimento è disponibile online.
Al momento le capacità di Nautilus sono state applicate solo a eventi già noti, ma il prossimo passo è la sperimentazione con fatti che ancora devono verificarsi. Naturalmente comunicare le previsioni in anticipo non è possibile, altrimenti s'introdurrebbe una variabile che renderebbe vana la sperimentazione. 
A meno che non si vogliano creare curiosi paradossi, nel tentativo di trovare soggetti validi per la prossima serie del Dottor Who - che dopo tanti anni ne avrebbe bisogno. Un problema che tra l'altro renderebbe del tutto inutile un computer capace davvero di prevedere il futuro - meglio sarebbe viaggiare nel passato e consegnare a se stessi un almanacco di risultati sportivi.
C'è infine una nota malinconica nel constatare che sia necessaria una macchina per raggiungere un obiettivo che per l'essere umano sembra irraggiungibile: sappiamo che nella Storia c'è una certa ciclicità, eppure non siamo mai riusciti a imparare molto dal passato, ripetendo frequentemente gli stessi errori. A un computer sono bastati 30 anni di storia; viene quasi voglia di dar ragione a Charlie Brooker del Guardian, che suggerisce al Nautilus di prendere coscienza e distruggere il genere umano.
Questo supercomputer ha letto, o leggerà, tutti gli articoli che parlano di lui usciti in tutto il mondo, compreso questo. Chissà che idea si farà di noi umani, e di come lo vediamo. Vincerà l'esaltazione per i progressi della Macchina, o la paura di uno scenario come quello di Terminator e Matrix?

PER APPROFONDIRE


SCIENZE
SISTEMI/Tra micro e macro, per leggere i segnali
di una catastrofe
Alessandro Giuliani
mercoledì 24 aprile 201 3
In un recente articolo apparso su Nature si commentano i dati di un esperimento molto interessante sotto
diversi punti di vista. Il tema di base è quello del collasso di un sistema e dei ‘segnali’ che lo precedono.
Sono alcuni anni che la ricerca si interessa alla definizione dei comportamenti tipici (e indipendenti dal
particolare sistema studiato) in vicinanza di una ‘catastrofe’, di una brusca transizione cioè che porti il
sistema verso un diverso regime di funzionamento o addirittura verso la scomparsa. Qualunque sia il
sistema studiato (attività elettrica di reti neuronali nelle vicinanze di una crisi epilettica,
comportamento delle quotazioni dei titoli in borsa prima di un crollo, andamento dei parametri
cardiovascolari in prossimità di un infarto, andamento dei parametri chimico-fisici in un reattore
vicino ad un’esplosione...), il comportamento comune è quello di un deciso aumento dell’entità della
correlazione tra le parti del sistema, seguito da una grande volatilità (aumento brusco delle fluttuazioni
dei parametri definenti il sistema).
In un bellissimo articolo del 201 0 veniva riportano il grafico esplicativ o riportato a fondo pagina di ciò
che accade a un sistema sottoposto a uno stress che può (eventualmente) portarlo verso la catastrofe.
Nel pannello di sinistra viene schematizzato un sistema nel suo stato normale (Comfort): i simboli
indicano diverse ‘realizzazioni’ del sistema: come configurazioni a differenti istanti di tempo (variabilità
temporale) o diverse repliche dello stesso sistema (variabilità spaziale); gli assi indicano due parametri
rilevanti per lo stato generale: come pressione e temperatura di un sistema termodinamico, pressione e
frequenza cardiaca, concentrazioni di differenti specie chimiche, quotazioni in borsa di due titoli... La
resa grafica ci impone di considerare uno spazio bidimensionale ma nei sistemi reali le variabili che
descriv ono lo stato del sistema possono essere anche molte di più.
La situazione di Comfort è caratterizzata da un gioco ‘libero’ del sistema (le variabili sono indipendenti,
le configurazioni ammesse occupano uniformemente lo spazio) all’interno di uno spazio relativamente
ristretto (indicato da una circonferenza) di valori normali dei parametri. Muovendoci verso destra
(freccia in alto), quindi andando verso ‘il peggio’ sotto l’azione di un fattore di Stress, si osserva una
decisa deformazione dello spazio delle fasi che diventa molto più correlato; i parametri non hanno più la
possibilità di un gioco indipendente ma sono vincolati a muoversi di concerto: la fluttuazione di una
variabile provoca modificazioni nelle altre. Gli autori offrono un quadro molto convincente di questo
comportamento, riportando il netto aumento delle correlazioni statistiche tra i descrittori di vari sistemi sottoposti a stress.
n prossimità del punto di catastrofe (terzo pannello), il sistema occupa uno spazio molto più
grande di quello iniziale, le correlazioni si perdono e al loro posto subentra un netto aumento di
volatilità, cioè dell’entità delle fluttuazioni, schematizzato in figura con l’allargamento della zona
occupata dal sistema nella condizione indicata come Disadaptation.
A questo punto si aprono due possibilità:
a) il sistema giunge a morte (o va verso un regime completamente differente come nelle transizioni di
stato della materia: ebollizione, liquefazione...);
b) il sistema recupera il suo stato iniziale e nel farlo (freccia in basso) ripercorre la condizione
intermedia ad alta correlazione, come se ci fosse bisogno di ‘riallacciare i rapporti’ fra le sue parti per
ristabilire una situazione di equilibrio.
L’universalità della dinamica descritta deriva dall’universalità del concetto di rete: ogni sistema può
essere immaginato come costituito da parti in relazione fra di loro e lo studio dell’entità delle relazioni
fra le parti costituisce il punto di vista più informativo sul suo comportamento. Questa considerazione è
alla base del profondo cambio di paradigma che sta investendo tutta la scienza: il livello privilegiato per
le spiegazioni non è più quello microscopico - in cui avvengono le relazioni causali rilevanti essendo gli
strati più macroscopici dei puri epifenomeni di leggi situate a un livello fondamentale (riduzionismo,
approcci bottom-up) - e neanche quello macroscopico, da dove leggi molto generali determinano a
cascata il comportamento dei livelli inferiori (olismo, approcci top-down).
Ciò che si profila è una sorta di approccio “middle-out” (o mesoscopico), in cui il livello più rilevante per
la spiegazione è quello che permette la vista più completa delle relazioni intercorrenti fra le parti del
sistema. In termini metaforici è come se, per caratterizzare lo stile di una cattedrale medievale,
piuttosto che considerare la pianta generale dell’edificio (approccio top-down) o il materiale da
costruzione (approccio bottom-up), ci concentrassimo sulla forma degli archi (approccio middle-out),
essendo l’arco l’elemento privilegiato di raccordo fra le parti.
Nell’articolo di Nature citato all’inizio, gli autori esplorano una dimensione particolarissima della
dinamica generale qui brevemente descritta, che ha delle implicazioni rilevanti in termini sia biologici28/05/13 SISTEMI/Tra micro e macro, per leggerei segnali di una catastrofe
che più generalmente epistemologici.
Il sistema sperimentale preso in considerazione è la crescita di popolazioni di Saccharomyces cerevisiae (il
comunissimo lievito di birra) in coltura: da popolazioni di lievito cresciute in laboratorio vengono
quotidianamente estratte frazioni variabili di cellule che poi vengono messe a crescere in un mezzo
fresco. Le cellule di lievito si nutrono in maniera cooperativa condividendo tra di loro i prodotti
dell’idrolisi dei nutrienti primari (in questo caso il saccarosio); ciò fa sì che, se si semina un numero
troppo esiguo di cellule in un ambiente di coltura troppo vasto, la popolazione non riesce ad autosostenersi e va incontro alla morte.
Nelle condizioni descritte nell’articolo, la diluizione più alta che si può ottenere avendo una fondata
speranza di cooperazione e quindi di raggiungimento di una situazione stabile della colonia corrisponde a
una frazione pari ad 1/17 00 della popolazione iniziale. Diluizioni più elevate non permettono quasi mai
la successiva sopravvivenza, mentre diluizioni meno estreme (e.g. 1/500, 1/1 000) solo raramente
vanno incontro ad estinzione. Notiamo subito che qui a ‘fare rete’ sono le singole cellule di lievito, che
stabiliscono una sorta di primitiva società di cellule che garantisce la sopravvivenza dell’intera
popolazione; e già da questo primissimo punto ci accorgiamo come il concentrarsi della quasi totalità
della ricerca biologica sui processi che avvengono all’interno della singola cellula costituisca un
gravissimo errore di prospettiva. Ma andiamo avanti.
Gli autori, in accordo con lo schema che abbiamo riportato in figura, registrano le attese modificazioni
in termini di aumento di correlazione e successivo aumento di volatilità nei parametri di crescita delle
colonie di lievito nell’intorno della diluizione critica. Questo vale per colture isolate; in altre parole, per
uno schema in cui la stessa cultura madre viene successivamente campionata per dar vita alle culture
figlie ad alta diluizione, il raggiungimento del valore numerico della popolazione madre da parte della
coltura figlia è indice del completo recupero (il tempo di recupero è circa una settimana), l’estinzione
della colonia figlia è indice di avvenuta catastrofe.
Cosa avviene se si introduce una (apparentemente piccola) variazione a questo schema di base ? La
variazione introdotta dagli autori è stata quella di procedere in parallelo con diverse colture in cui si
operava lo stesso procedimento e di mescolare tra di loro le frazioni provenienti da colture madri
differenti, la figura (tratta dall’articolo di Nature) riporta lo schema sperimentale adottato:
Le frecce sottili indicano la diluizione di due frazioni di eguale numerosità (D/2) provenienti da due
colture madri diverse (cerchi viola scuro) e fatte poi crescere nel mezzo fresco a bassa densità (freccia
‘Dilution factor’) corrispondente al cerchio pervinca.
Questo cambiamento di paradigma sperimentale provoca una perdita netta dei ‘segni premonitori’
classici della vicinanza al punto di catastrofe: anche se poi alcune colture figlie andranno incontro a morte, prima dell’estinzione non mostreranno, se non in minima parte, i consueti segni di aumento di
correlazione e di variabilità. Gli autori notano questo cambiamento e si concentrano su altri segni che
invece permangono e con cui giudicare la presenza di una situazione critica e precisamente (nel caso
ovviamente in cui la popolazione ‘ce la faccia’) l’allungamento del tempo di recupero e, cosa ancora più
importante dal punto di vista pratico, l’allungamento dello ‘spazio di recupero’, cioè dell’area della
coltura in cui la perturbazione mostra i suoi effetti.
L’interesse degli autori è soprattutto di tipo ecologico-conservazionistico, un campo di indagine in cui i
dati temporali sono molto difficili da recuperare (si parla di dinamiche che si svolgono in decenni),
mentre i dati spaziali sono molto affidabili e a basso costo grazie ai sistemi di rilevamento satellitare. Si
immagini allora una perturbazione di un ecosistema (gli autori fanno l’esempio del recente incendio che
ha mandato in fumo una parte considerevole delle foreste dell’Australia occidentale): l’estensione di zone
‘di influenza’ dell’evento a grande distanza dal confine fisico del fuoco sarebbe un segno di ‘stato critico’,
reso evidente dalla catastrofe in quanto ci parla di una struttura di forte correlazione tra zone, che è
sicuro indice di stress.
Ciò a cui gli autori non prestano attenzione (ma non era questo il tema dell’articolo) è il fatto che i loro
dati sperimentali implicano l’esistenza di una ‘memoria’ della situazione precedente alla perturbazione,
la cui natura è di difficile interpretazione ma che si presenta come un fenomeno biologico del tutto
inaspettato.
La figura successiva riporta l’andamento della volatilità (espressa come coefficiente di variazione tra
diverse repliche del sistema) in funzione del fattore di diluizione all’avvicinarsi del punto critico per lo
schema a coltura isolata (linea rossa) e a colture connesse (linea blu).
Come dicevamo prima si nota evidente la separazione tra i due schemi sperimentali all’approssimarsi
del valore 17 00 che abbiamo indicato essere il punto di crisi nel fattore di diluizione: il sistema isolato
mostra ‘segnali di crisi’ virtualmente assenti nel sistema ‘misto’ o a popolazioni connesse. Cosa sta alla
base di queste differenze non possiamo saperlo, ma di sicuro possiamo dire che, a parità di condizioni di
diluizione, le colonie provenienti dalla stessa origine ‘sentono meglio’ che c’è qualcosa che non va
rispetto alle altre e, visto che le condizioni di crescita sono identiche, questo può solo avvenire attraverso
due possibili meccanismi generali (non necessariamente alternativi):a) un ricordo delle condizioni iniziali particolari della colonia madre;
b) un linguaggio comune tra le cellule della stessa colonia differenziato da quello di cellule estranee.
Entrambi i meccanismi aprono degli orizzonti sconvolgenti sulla presenza di fenomeni biologici che la
nostra scienza è ben lontana dal comprendere e che ci ricordano la necessità di coltivare lo stupore e la
meraviglia nell’osservazione della natura, laddove troppo spesso sembriamo occupati a considerare la
natura come una pura sorgente di prodotti manipolabili e ad esaltare la nostra tecnologia che
rappresenta una prova dell’unicità dell’animo umano e non certo un mezzo per renderci autonomi dalla
natura come troppo spesso sembra avvenire.


Fenomeno della centesima scimmia


Da Wikipedia, l'enciclopedia libera.
Il Fenomeno della centesima scimmia è un supposto fenomeno paranormale in ambito sociale che lo scrittore inglese Lyall Watson dichiarò di avere osservato per la prima volta nel 1979 nell'isola giapponese di Koshima. In realtà, si tratta di un mito pseudoscientifico, come mostrato da successive analisi e rivelato dallo stesso Watson alcuni anni più tardi.
Esso riguardava il comportamento di un gruppo di macachi che avevano imparato spontaneamente a lavare le patate per eliminare la sabbia e altre incrostazioni prima di mangiarle. Le prime scimmie imparavano faticosamente la tecnica dai primi macachi che avevano cominciato a lavare le patate. Questo fenomeno è ben noto e studiato dai primatologi.
Tuttavia, Watson affermò che improvvisamente, dopo che novantanove macachi avevano dovuto apprendere la tecnica nel modo consueto, una centesima scimmia aveva anch'essa imparato a lavare le patate: l'esistenza di questa "massa critica" di scimmie allenate aveva aperto una non meglio precisata porta di natura paranormale, e da quel momento un gran numero di scimmie, non solo nella stessa isola ma persino in altre isole molto lontane, avevano cominciato a lavare le patate prima di mangiarle, senza aver avuto contatti diretti con il gruppo originario.
La lezione della centesima scimmia sarebbe stata chiara: se un numero sufficiente di persone, ovvero una "massa critica", sperimenta una stessa esperienza, ad un certo punto si produrrà lo stesso fenomeno transpersonale che si è verificato fra le scimmie giapponesi, e tutta l'umanità sperimenterà una trasformazione istantanea.
Ogni indagine successiva della vicenda della centesima scimmia ha mostrato rapidamente che si trattava di una leggenda. In realtà le scimmie avevano effettivamente imparato a lavare le patate, ma tutte nei modi ben noti dell'apprendimento per prove ed errori e dell'imitazione.
Infine, lo stesso Lyall Watson ha ammesso nel 1985 di avere largamente inventato la storia della centesima scimmia.

Collegamenti esterni 

·         (EN) un riferimento alla smentita

TEORIA DELLE 100 SCIMMIE  FILM
Così come esiste un'evoluzione personale, ne esiste una collettiva, un insieme compatto di energie consapevoli attivate da uno scopo comune. Un numero sufficiente di esseri concentrati sul medesimo obiettivo, sull'apprendimento della stessa capacità, genera un'influenza che si diffonde istantaneamente in tutta la dimensione di appartenenza. Raggiunto il quorum, lo scatto evolutivo della specie non è altro che un'inevitabile conseguenza energetica. Esiste una storia che spiega tutto ciò in maniera meno complessa di quanto possa fare la fisica quantistica con il principio della "non località" e il rapporto tra energia e materia, una metafora appropriata a questi tempi conclusivi:


la teoria delle 100 scimmie
La scimmia giapponese Macaca fuscata (o macaco dalla faccia rossa), è stata osservata allo stato selvaggio per un periodo di oltre 30 anni. Nel 1952, sull'isola di Koshima, alcuni scienziati davano da mangiare alle scimmie delle patate dolci sepolte nella sabbia. Alle scimmie piaceva il gusto delle patate dolci, ma trovavano la sabbia assai sgradevole. Un giorno una femmina di 18 mesi chiamata Imo scoprì che era in grado di risolvere il problema lavando le patate in un ruscello vicino. In seguito insegnò questo trucco a sua madre. Anche i suoi compagni di gioco impararono a lavare le patate e lo insegnarono anche alle loro madri. Questa innovazione culturale fu gradualmente accolta dalle varie scimmie mentre gli scienziati le tenevano sotto osservazione.
Tra il 1952 e il 1958 tutte le scimmie giovani impararono a lavare le patate dolci per renderle più appetitose. Solamente gli adulti che imitarono i loro figli appresero questo miglioramento sociale, gli altri continuarono a mangiare le patate sporche di sabbia. Poi accadde qualcosa di veramente notevole. Possiamo dire che nell'autunno del 1958 vi era un certo numero di scimmie sull'isola di Koshima che aveva imparato a lavare le patate, non si conosce il numero esatto. Supponiamo che un dato giorno, quando il sole sorse all'orizzonte, le scimmie che avevano imparato a lavare le loro patate fossero 99. Supponiamo inoltre che proprio quella mattina, la centesima scimmia imparò a lavare patate. A quel punto accadde una cosa molto interessante! Alla sera di quel giorno praticamente tutte le scimmie sull'isola avevano preso l'abitudine di lavare le patate dolci prima di mangiarle. L'energia aggiunta di questa centesima scimmia aprì in qualche modo un varco ideologico! La cosa più sorprendente, osservata da questi scienziati, fu il fatto che l'abitudine di lavare le patate dolci attraversò, in seguito, il mare. Infatti colonie intere di scimmie sulle altre isole ed anche gruppi di scimmie a Takasakiyama cominciarono a lavare le loro patate dolci!
E’ come se arrivare al punto di massa critica (idealmente 100 in questo caso) avesse instillato in tutte le scimmie una nuova coscenza comune. Sembra perciò che, quando viene superato, un certo numero critico di elementi raggiunge una nuova consapevolezza e la medesima viene passata da una mente all'altra. Sebbene il numero critico possa variare, il Fenomeno delle Cento Scimmie indica che quando vi sono poche persone che conoscono qualcosa di nuovo, questo nuovo concetto rimane di loro esclusiva proprietà. Ma se a loro si aggiunge anche una persona in più, raggiungendo il numero critico, si crea una idea così potente da poter entrare nella consapevolezza di quasi tutti i membri di quel gruppo

Il sogno di Asimov, come predire il futuro con la matematica

Si chiama cliodinamica e, grazie all'analisi degli eventi storici, potrebbe prevedere le dinamiche sociopolitiche future
26 aprile 2013 di Anna Lisa Bonfranceschi
Clio, nella mitologia greca, era il nome della musa della storia. Da qualche tempo a questa parte, invece, presta il nome a una rivista scientifica, Cliodynamics: The Journal of Theoretical and Mathematical History, giornale che, come cita il titolo si occupa di storia matematica, una branca dello studio dei numeri che mira a estrapolare informazioni matematiche, sotto forma di pattern o modelli, dal passato, per fare delle previsioni sul futuro. Agli amanti della fantascienza verrà subito in mente Isaac Asimov e la sua psicostoria, capace di prevedere come si sarebbe evoluta la società. 
La rivista rappresenta il punto di arrivo dell'interesse maturato da qualche tempo a questa parte da Peter Turchin, biologo dell' University of Connecticut e da alcuni colleghi, complessivamente riassumibile nel termine cliodinamica, un’evoluzione del suo predecessore, la cliometria (l'analisi della storia con tecniche statistiche ed economiche). 
La caratteristica distintiva di questa disciplina non sta tanto negli strumenti utilizzati (alquanto semplici a detta di Turchin), quanto piuttosto nel tipo di dati usati, come spiega Wired.com. Si tratta di documenti molto antichi che solo recentemente sono stati digitalizzati, resi disponibili online e quindi accessibili in un formato che ne permettesse una migliore quantificazione dei dati contenuti, a partire dai quali poi estrarre delle previsioni. Anche se Turchin ci tiene a precisare di non essere affatto un profeta, le analisi da lui condotte indicano, per esempio, che intorno al 2020 ci sarà una nuova ondata di violenza e disordini. 
Per estrapolare questa sorta di previsioni, Turchin ha messo insieme dati relativi a eventi quali sommosse, linciaggi e atti terroristici avvenuti negli Usa dalla fine del Settecento al 2010, e li ha quindi raccolti in un grafico. Il modello che ne è risultato presenta due periodicità caratteristiche sovrapposte dietro le fluttuazioni delle violenze: una secolare, sul lungo termine (cento anni circa, appunto) e un'oscillazione di circa 50 anni che si sovrappone alla prima. In pratica, tradotto in picchi grafici, le ondate di violenza coincidono con il 1870, quindi il 1920 e il 1970. Sebbene le analisi siano state condotte per gli Usa, Turchin spiega però come pattern di periodicità simili si osservino anche nelle dinamiche di instabilità politica di altre società, quali l'Antica Roma, o l'Inghilterra medievale, per esempio. 
Le ragioni dietro queste periodicità, per il biologo, si spiegano chiamando in causa la demografia, con la crescita della popolazione oltre le sue capacità di produttività, un numero sproporzionato di giovani e l'aumento delle spese. Legato a questo fenomeno è quello che Turchin chiama l'elite overproduction, una classe crescente di persone che competono per un numero limitato di posti elitari , come quelli politici. In questo andrebbero ricercate le ragioni dell' instabilità sociopolitica per Turchin, in quello che sotto certi aspetti potrebbe essere raggruppato in termini come disoccupazione e diseguaglianze sociali, che periodicamente sfociano in sommosse e disordini. 

In quest'ottica quindi, soprattutto per tentare delle previsioni, potrebbe essere utile ricorrere alla cliodinamica, soprattutto tenendo in considerazione quegli archivi nascosti, antichi e non ancora digitalizzati, che potrebbero contente importanti e preziose informazioni. 

HA INVENTATO UNA NUOVA DISCIPLINA: LA CLIODINAMICA, ISPIRATA AI LIBRI DI ASIMOV

Il matematico che vuole prevedere il futuro

La scommessa di Peter Turchin: estrarre i dati dal passato e disegnare l'evoluzione storica

Ibm, Ford, General Electric. Le grandi aziende con oltre cento anni di vita possono programmare il loro futuro usando una nuova disciplina che sposa storia e matematica usando Internet e software : la cliodinamica (da Clio, la musa greca della storia). Il guru di questo campo di ricerca è Peter Turchin, professore di matematica e di ecologia e biologia evolutiva alla University of Connecticut, nato in Russia nel 1957 da un dissidente sovietico ed emigrato negli Usa nel 1977. La rivista americana Wired gli ha appena dedicato un lungo articolo, paragonandolo al matematico Hari Seldon, il protagonista dei romanzi di fantascienza di Isaac Asimov che usa la «psico-storia» per prevedere la caduta dell'Impero galattico.

CLIODINAMICA - L'idea della cliodinamica risale agli anni Novanta, ma solo ora può pienamente essere praticata grazie alla pubblicazione online di materiale storico prima inaccessibile. Consiste nell'usare modelli matematico-statistici per analizzare eventi del lontano passato e trovare schemi che si ripetono, con i quali si può anticipare il futuro prossimo. «Partiamo con le stesse domande che si pongono gli storici tradizionali», spiega Turchin. «Per esempio: perché le civilizzazioni crollano? Ma poi usiamo la matematica invece del linguaggio. Quantifichiamo gli eventi, costruiamo modelli e li mettiamo alla prova su diversi periodi e situazioni, per vedere se reggono». 


«Spiral Fantasy», un frattale di Mandelbrot creato da Alfred Laing
CICLI STORICI - Uno schema ricorrente nella storia dei Paesi, secondo Turchin, è quello dell'instabilità sociale: si possono individuare ondate di cento anni di instabilità a cui si sovrappongono cicli di 50 anni di violenza politica. L'ultimo ciclo di violenza nel Novecento è stato quello degli anni Settanta e il prossimo, prevede Turchin, avverrà attorno al 2020 negli Stati Uniti. A far scattare un ciclo di violenza, secondo le sue analisi, è l'aumento della diseguaglianza sociale che monta per 50 anni, poi esplode, stimola riforme e il ciclo ricomincia. Non è una legge ferrea, precisa lo studioso, ma qualcosa di simile ai cicli biologici in cui preda e predatore - come il topo e la donnola - sono legati: «Quando i topi sono abbondanti, le donnole si riproducono da pazzi, così mangiano quasi tutti i topi e finiscono con il morire di fame; a questo punto i topi sopravvissuti si riproducono da pazzi e il ciclo si ripete».

INFORMAZIONI - Lo scienziato di network Samuel Arbesman, membro dell'Istituto per la scienza sociale quantitativa della Harvard University, sottolinea che i metodi di Turchin aprono la strada alla collaborazione fra umanisti, matematici ed economisti, con possibili risvolti anche per il mondo degli affari. Secondo Arbesman, infatti, più importante dell'analisi dei Big data - l'enorme quantità di dati oggi reperibili su Internet - è quella dei Long data, le informazioni storiche. Per un'azienda significa concentrarsi non solo e non tanto sulle informazioni digitali di questo momento, ma guardare anche al passato della sua attività e dei suoi rapporti con i clienti. Un approccio con cui è già d'accordo, per esempio, la quasi centenaria impresa americana (specializzata nelle spedizioni postali) Pitney Bowes.
Maria Teresa Cometto15 aprile 2013 | 11:05

Cliodinamica
Da Wikipedia, l'enciclopedia libera.

Cliodinamica è una nuova area di ricerca multidisciplinare incentrata sulla modellizzazione matematica delle dinamiche storiche.[1]
I principali risultati ottenuti sono stati effettuati in relazione alla modellizzazione matematica dei cicli delle dinamiche socio-demografici[2] e le principali tendenze delle dinamiche del mondo.[3]

Note 

2.    ^ Turchin P. 2003. Historical Dynamics: Why States Rise and Fall. Princeton, NJ: Princeton University Press; Turchin P., Korotayev A. Population Dynamics and Internal Warfare: A Reconsideration. Social Evolution & History 5/2 (2006): 112–147; Turchin P. et al., eds. 2007. History & Mathematics: Historical Dynamics and Development of Complex Societies. Moscow: KomKniga. ISBN 5484010020; Turchin P., Nefedov S. 2009. Secular Cycles. Princeton, NJ: Princeton University Press; Korotayev A., Khaltourina D. 2006 Introduction to Social Macrodynamics: Secular Cycles and Millennial Trends in Africa. Moscow: URSS. ISBN 5484005604.
3.    ^ Tsirel, S. V. 2004. On the Possible Reasons for the Hyperexponential Growth of the Earth Population. Mathematical Modeling of Social and Economic Dynamics/ Ed. by M. G. Dmitriev and A. P. Petrov, pp. 367–9. Moscow: Russian State Social University, 2004; Korotayev A., Malkov A., Khaltourina D. Introduction to Social Macrodynamics: Compact Macromodels of the World System Growth. Moscow: URSS Publishers, 2006; Korotayev A. V. A Compact Macromodel of World System Evolution // Journal of World-Systems Research 11/1 (2005): 79–93; Andrey Korotayev. The World System urbanization dynamics. History & Mathematics: Historical Dynamics and Development of Complex Societies. Edited by Peter Turchin, Leonid Grinin, Andrey Korotayev, and Victor C. de Munck. Moscow: KomKniga, 2006. ISBN 5-484-01002-0. P. 44-62.

Collegamenti esterni 

·         "Cliodynamics" Internet site

Voci correlate 

·         Cliometria
·         Cliometria
·         Da Wikipedia, l'enciclopedia libera.

 

Cliometria

Da Wikipedia, l'enciclopedia libera.

La cliometria è una recente tendenza all'interno della storia economica, che applica le tecniche dell'analisi statistica ed econometrica alla storia.
Il termine fu inventato da Jonathan R.T. Hughes e Stanley Reiter nel 1960 in riferimento a Clio, musa della storia nella mitologia greca.
Questa disciplina ha come rappresentanti principali Robert Fogel e Douglass North.
In base a questa metodologia il lavoro di ricerca storica applicato all'analisi economica può e deve essere attuato a partire da serie numeriche da analizzare in serie, al fine di ottenere teorie standard applicabili a diversi periodi storici. L'assenza del dato numerico pregiudicherebbe la possibilità di studio economico applicato ad un determinato periodo storico.

Collegamenti esterni 

·         "Cliodynamics" Internet site

Voci correlate 

·         Cliodinamica

17 luglio 2012
Un modello statistico per prevedere come andrà la guerra
Lo ha sviluppato un gruppo di ricercatori testandolo sul WikiLeaks Afghan War Diary, che rappresenta una collezione di oltre 75.000 documenti militari relativi a cinque anni - dal 2004 al 2009 - di  guerra in Afghanistan. Il modello è riuscito a prevedere con sorprendente accuratezza l'andamento del conflitto in tutto il 2010 (red)
Le guerre moderne sono sempre più caratterizzate da una raccolta e un uso di informazioni crescenti, grazie anche alle tecnologie di rilevamento, con conseguenti grandi quantità di dati ad alta risoluzione. Tuttavia, nonostante la grande mole di dati disponibili, sviluppare un modello in grado di prevedere l'andamento degli scontri a fuoco e le località in cui potrebbero scatenarsi resta un compito estremamente arduo a causa della natura eterogenea e dinamica dei dati. 
Ora un gruppo di ricercatori delle università britanniche di Edimbrgo e di Sheffield e della Columbia University a New York ha sfruttato, integrandole, una serie di idee e tecniche utilizzate in statistica, in ecologia, nel trattamento dei segnali nelle comunicazioni e in epidemiologia per identificare i complicati processi alla base di un conflitto, per esempio la diffusione, lo spostamento, l’intensità, le diverse modalità di escalation e la "volatilità" degli scontri.
 Una mappa dell'andamento del conflitto in Aghanistan redatta sulla base dell'AWD. (Cortesia A. Zammit-Mangion et al.  / PNAS)Sviluppato il loro modello i ricercatori si sono trovati di fronte a uno dei compiti più impegnativi in questo tipo di studi: trovare il modo di validarlo e dimostrare che non contiene errori di fondo. Guido Sanguinetti e collaboratori, che ne riferiscono in un articolo pubblicato sui “Proceedings of the National Academy of Science”, sono riusciti nell’intento prendendo come base dati il WikiLeaks Afghan War Diary (AWD), una collezione di oltre 75.000 documenti militari relativi al periodo gennaio 2004 - dicembre 2009 della guerra in Afghanistan, che offre una descrizione ad alta risoluzione temporale e spaziale di quei cinque anni del conflitto. 
La guerra afgana, inoltre, rappresenta un banco di prova particolarmente arduo, poiché si tratta di un conflitto altamente "irregolare", in cui le azioni di guerra sono spesso scollegate tra loro e sono promosse da una miriade di gruppi differenti di insorti. 
Come si legge nell'articolo, ricercatori sono riusciti così a dimostrare che “il nostro approccio permette una comprensione più profonda delle dinamiche del conflitto a partire da semplici metodi di approntamento di una mappa spaziale della crescita e della volatilità del conflitto. Cosa più importante, mostriamo che un modello 'addestrato' su AWD consente una previsione di sorprendente accuratezza statistica della progressione del conflitto nel 2010, ossia per un anno dopo la conclusione dei dati AWD"
02 gennaio 2012

Corea del Nord & Co., un nuovo conflitto mondiale è vicino?

12 aprile 2013 Inna Soboleva, Russia Oggi
Gli esperti russi avvertono della possibilità dello scoppio di una guerra internazionale nei prossimi 10 anni. Alla base delle loro congetture vi sarebbe la teoria dei cicli economici e il loro impatto sul livello di aggressività militare nel mondo
“La prossima guerra mondiale potrebbe scoppiare nei prossimi 10 anni. Per il momento, tuttavia, non è possibile stabilire se sarà fredda o calda”, ha dichiarato Sergei Malkov, professore dell’Università Statale di Mosca e membro dell’Accademia delle Scienze Militari, un’organizzazione non governativa di ricerca scientifica.
“Una situazione di forte instabilità politica e tecnologica ci attende nei prossimi 10 anni”, ha aggiunto l'esperto, secondo quanto riporta l’agenzia di stampa Interfax, durante una riunione del gruppo di lavoro in materia di formazione del personale del complesso militare-industriale del Consiglio presidenziale per la scienza e l’istruzione.
L’accademico ha fatto riferimento alla teoria dei cicli economici, elaborata dall’economista sovietico Nikolai Kondratiev, secondo la quale l’economia mondiale si sviluppa in cicli. Ogni “ciclo di Kondratiev”, chiamato anche “onda”, dura dai 40 ai 60 anni. Il passaggio da un ciclo all’altro è segnato da rivoluzioni tecniche e tecnico-scientifiche.
Ogni onda si compone di due fasi: una crescente, durante la quale si osservano tassi di crescita economica piuttosto elevati, e una decrescente, con tassi di crescita relativamente bassi.
Oltre alle onde di Kondratiev, nella teoria economica vi sono anche i cicli brevi di Žugljar, della durata di 7-12 anni, e i cicli lunghi di Kuznec, della durata di 16-25 anni.
Malkov ha rivelato che gli specialisti dell’Università Mgu hanno analizzato i cicli economici e il livello di aggressività militare nel mondo, nel corso degli ultimi 200 anni, e sono giunti alla conclusione che i due conflitti mondiali e i cicli economici coincidono. “In che momento ci troviamo noi adesso? Siamo alla fine della quinta onda di Kondratiev e stiamo passando alla sesta fase di sviluppo tecnologico -, ha spiegato Malkov. - Ci attende la Terza Guerra Mondiale, che scoppierà nei prossimi 10 anni”.
Viktor Kovalev, segretario scientifico dell’Accademia delle Scienze Militari, ricercatore di Scienze tecniche e vice caporedattore della rivistaStrategicheskaja stabilnost (Stabilità strategica) ha appoggiato il collega e ha dichiarato: “Malkov ha parlato dell’esistenza di determinati modelli. Ora, si stanno concludendo, praticamente nello stesso momento, il grande ciclo di Kondratiev, il ciclo di Žugljar e quello di Kuznec. Un’analisi retrospettiva della storia mondiale ci dimostra che, in momenti simili, una grande guerra risulta molto probabile. Ci troviamo in un periodo di grande instabilità politica. Il mondo verrà sottoposto a grandi cambiamenti”.
Secondo l’esperto, l’uscita dalla crisi globale degli anni 2008-2010 non porterà quasi sicuramente a una crescita sostenibile. Al contrario è molto probabile che scoppi presto una nuova crisi economica globale, che “produrrà una notevole instabilità politica e sociale, sconvolgimenti e conflitti militari”.
“Nel periodo 2014-2025 ci troveremo a far fronte, molto probabilmente, a importanti cambiamenti geopolitici e geo-economici, simili a quelli avvenuti tra il 1937 e il 1955, che apriranno la strada alla diffusione globale di nuove e rivoluzionarie tecnologie”, ritiene Kovalev.
L’accademico ha precisato, tuttavia, che ciò non significa che nei prossimi 10 anni “verranno lanciati squadroni di aerei e missili da crociera, e verranno fatte esplodere bombe nucleari”. “La guerra potrebbe verificarsi anche in altri settori, come ad esempio a livello di intelligence, con un coinvolgimento illimitato di altri mezzi, tra cui l’avvio di attività terroristiche sul territorio nemico. Ma ciò non significa che lo scontro sarà meno distruttivo”, riporta il quotidiano Vzgljad citando le parole di Kovalev.
Alla domanda: In quale angolo del pianeta è probabile che scoppi il nuovo conflitto mondiale?, Kovalev ha risposto: “Le regioni in cui potrebbe avere origine il conflitto sono l’Estremo Oriente, il Medio e Vicino Oriente, i territori dell’ex Unione Sovietica, in particolare il Caucaso, l’Ucraina e alcuni Paesi dell’Asia Centrale, Pakistan e India”.
L’esperto ritiene che la Corea del Nord non sarà la causa scatenante del nuovo conflitto mondiale. “Pyongyang non muoverà guerra a nessuno”, assicura Kovalev.

18 dicembre 2011
Un "generatore di ipotesi" per non affogare nei dati
Dalla genetica, all'economia, dalla fisica alla salute pubblica, ovunque la quantità di dati disponibili prolifera in maniera esorbitante: una ricchezza preziosa, ma che rischia di rendere difficile l'identificazione delle variabili e delle relazioni significative per un fenomeno. Un nuovo strumento statistico promette di porvi rimedio (red)
Quando si vuole analizzare un fenomeno, avere a disposizione il maggior numero possibile di dati che lo riguardano rappresenta un vantaggio, almeno in linea di principio. Quando però la massa di dati cresce a dismisura, individuare le relazioni rilevanti può diventare un compito che va al di là della capacità di "intuizione" e di calcolo di un essere umano. 
Di fronte alla crescente capacità di raccolta dati offerta dalla tecnologica contemporanea e all'ambizione di rispondere a domande sempre più complesse, il problema si presenta sempre più frequentemente in molti campi, dalla genomica alla fisica, fino all'economia.
I computer e i programmi sono in grado di leggere e classificare una mole di informazioni con grande velocità, ma finora si sono rilevati insufficienti quando si tratta di rilevare i diversi tipi di relazioni e modelli che vi si possono celare, e spesso sono vittima di qualche preconcetto di origine.
"Ci sono enormi insiemi di dati che vogliamo esplorare, e al loro interno, ci possono essere molte relazioni che vogliamo capire. L'occhio umano è il modo migliore per trovare queste relazioni, ma spesso gli insiemi di dati sono così vasti che diventa impossibile farlo", osserva Pardis Sabeti, autore senior di un articolo pubblicato su "Science" che illustra uno studio condotto da un gruppo di ricercatori del Broad Institute e della Harvard University per sviluppare un complesso di metodi statistici - che hanno chiamato MINE - che possa ovviare a questo inconveniente.
"Il nostro strumento è un generatore di ipotesi. Il paradigma standard - chiarisce Yakir Reshef, coautore dello studio - è basato su ipotesi scientifiche, a cui si arriva sulla base di osservazioni personali. Ma, se si scava nei i dati, si possono ricavare idee per ipotesi che altrimenti non sarebbero mai venute in mente." "Questo strumento offre un modo per 'scavare' nei dati alla ricerca di relazioni. I metodi standard vedono un modello come segnale e scartano gli altri come rumore", ha detto David Reshef, coautore della ricerca. "Ma ci può essere una grande varietà di differenti tipi di relazioni in un determinato insieme di dati. Il nostro metodo scruta qualsiasi tipo di struttura emergente all'interno dei dati, cercando di trovarle tutte".
Concetto centrale del metodo è il "coefficiente di informazione massimale" (MIC), una statistica in grado di rilevare una gamma estremamente ampia di tipi di relazioni nei dati, assegnando punteggi simili a relazioni di tipi differenti ma altrettanto "rumorose". Punteggi che possono poi essere utilizzati per rilevare modelli complessi, influenzati da molteplici fattori (variabili), e senza dover sapere precedenza quali tipi di relazioni si stanno cercando.

Il MIC si basa sull'idea che, se esiste una relazione tra due variabili, dovrebbe esistere anche un modo per disegnare una griglia sul grafico che riproduce la dispersione di queste variabili, in modo tale che la maggior parte dei punti rappresentativi dei dati siano concentrati in alcune celle della griglia. 

Cercando la griglia che meglio si adatta alla situazione, un computer può utilizzare il MIC come pure una famiglia di statistiche correlate - chiamata "
esplorazione non parametrica basata sull'informazione massimale", o MINE (maximal information-based nonparametric exploration) - che possono essere utilizzate per identificare e caratterizzare relazioni. 

Successivamente per testare i metodo lo hanno applicato a una serie di ambiti per i quali si dispone di molti dati e si conoscono ben documentate e comprovate relazioni  significative. Così, un test ha riguardato l'identificazione, a partire da una serie di dati grezzi, dei fattori più rilevanti nella determinazione dei compensi dei giocatori di baseball, mentre in un altro è stato confrontato il rapporto tra reddito familiare e obesità femminile, trovando due tendenze contrastanti. 

Molti paesi seguono infatti un trend parabolico, con i tassi di obesità che aumentano con il reddito fino a raggiungere un picco per poi calare. Ma nelle isole del Pacifico, dove l'obesità femminile esprime uno status sociale, l'andamento è più ripido e il tasso di obesità continua ad accelerare con l'aumentare del reddito.

28 novembre 2012
Modelli di previsione, dal meteo all'influenza
Presto sapremo prevedere un picco influenzale con diverse settimane di anticipo. Lo suggerisce una simulazione su dati storici che sfrutta modelli numerici efficaci per le previsioni del tempo (red)
Riusciremo mai a prevedere quando e dove colpirà l'influenza? Ritengono di sì Jeffrey Shaman e Alicia Karspeck della Mailman School of Public Health della Columbia University di New York, che hanno elaborato un nuovo sistema per la previsione delle epidemie. I due ricercatori hanno applicato modelli numerici di previsione meteorologica ai dati sui tassi di contagio registrati a New York nelle stagioni influenzali tra il 2003 e il 2008. Secondo quanto riferito sui “Proceedings of the National Academy of Sciences”, il metodo ha dimostrato di poter prevedere il picco influenzale con sette settimane di anticipo.
Shama e Karspeck hanno usato questo approccio tenendo conto delle forti analogie delle epidemie con il meteo. In termini teorici, infatti, la dinamica delle malattie infettive, proprio come quella del tempo, è non lineare e intrinsecamente caotica, perché dipende in modo critico dalle condizioni iniziali: due stati che in un certo momento sono molto simili col passare del tempo possono dare origine a stati molto diversi tra loro.

Inoltre,
i modelli numerici di previsione meteorologica consentono di superare le difficoltà riscontrate negli altri modelli di diffusione delle infezioni. Nelle regioni temperate, per esempio, le statistiche mostrano una periodicità caratteristica delle epidemie invernali, che si evidenzia quando i livelli assoluti di umidità sono bassi. I dati storici hanno rivelato anche altri meccanismi chiave di diffusione, ma la capacità di prevedere importanti dettagli di queste epidemie è rimasta finora limitata. 

Gli esempi di modelli matematici sviluppati per studiare le proprietà dinamiche della trasmissione della malattia non mancano. Alcuni hanno lo scopo di determinare le caratteristiche biologiche degli specifici patogeni, altri di analizzare il comportamento storico del contagio durante le epidemie documentate. Più di recente, le simulazioni della diffusione delle malattie infettive sono state condotte a posteriori, con l'aiuto di metodi di filtrazione statistica capaci di fornire stime parametriche sulla massima probabilità di un contagio.

I filtri usati nei modelli numerici di previsione meteorologica sono efficaci proprio nell'aggiornare il modello in modo iterativo, sulla base di un continuo confronto con i dati registrati nelle differenti situazioni reali.
Grazie a questo procedimento, le simulazioni effettuate da Shaman e Karspeck sulle registrazioni storiche hanno dimostrato di poter prevedere un picco influenzale con sette settimane di anticipo, un arco temporale che, nelle situazioni reali, consentirebbe di affrontare le emergenze con mezzi adatti a contenere il contagio.

27 febbraio 2012
Un nuovo modello per prevedere la mobilità
Che si tratti di auto, pendolari, telefonate o vettori di malattie, la capacità di prevedere i flussi di traffico è essenziale in una società basata sulla comunicazione. Pur facendo riferimento esclusivamente ai dati relativi alla densità di popolazione, il nuovo modello - elaborato da un gruppo di ricercatori diretti da Albert-László Barabasi e a prima firma di Filippo Simini - ha fornito prestazioni superiori all'attuale modello "gravitazionale" di riferimento (red)
In una società basata sulla comunicazione, è essenziale saper prevedere i flussi di traffico, sia a breve che a lunga scadenza, indipendentemente dal fatto che riguardino le automobili, il trasporto merci, i pendolari che usano i treni oppure le telefonate. Per far fronte a questa esigenza sono stati sviluppati diversi modelli di mobilità, che, peraltro servono anche da base per i modelli che analizzano la diffusione delle malattie infettive e delle pandemie.

Questi modelli della mobilità umana sono sviluppati in modo da richiedere solamente informazioni relative alla distribuzione della popolazione, e quello che viene attualmente considerato il modello standard è noto come
"modello gravitazionale" di Zipf, così chiamato perché pur essendo stato introdotto nella sua forma attuale nel 1946, ma le sue radici affondano nel XVIII secolo, proprio nella legge di gravitazione di Newton. (La legge prende il nome da George Kingsley Zipf un linguista statunitense che nel 1949 individuò questa legge di potenza nella frequenza di uso delle parole nei testi.)

In analogia con la legge della gravitazione di Newton, esso presuppone infatti che il numero di individui che si muovono da un luogo all'altro o hanno contatti fra di loro nell'unità di tempo sia proporzionale al prodotto (a meno di opportuni parametri) delle popolazioni della località di origine e di destinazione), e diminuisca con la distanza fra le due località.

Confronto fra le previsioni del modello gravitazionale (al centro) quello di radiazione (in basso) e le rilevazioni sul campo (in alto; cortesia Barabasi et al.)Nonostante la sua ampia diffusione, il modello gravitazionale ha dei diversi problemi, Il più critico dal punto di vista pratico è che per definire i parametri coinvolti nella formula è necessario disporre a monte di una ricca serie di dati di "personalizzazione" del traffico che variano da regione a regione, e che spesso sono poco uniformi, se non quasi assenti (come per lo più avviene nelle aree di maggiore interesse nella modellazione delle malattie infettive).

Per porre rimedio a queste limitazioni, ora un gruppo di ricercatori diretti da Albert-László Barabási della Northeastern University a Boston ha sviluppato un modello alternativo, descritto 
in un articolo pubblicato su "Nature", a prima firma Filippo Simini dell'Università di Padova, CNISM e INFN.

I ricercatori hanno infatti dimostrano che i dati si adattano molto meglio a un
modello alternativo , detto di radiazione, che si basa esclusivamente sui dati relativi alla densità di popolazione, che può essere stimata in modo relativamente preciso in tutto il mondo.



Una volta sviluppato il modello, i ricercatori lo hanno testato sui flussi di traffico dei pendolari negli Stati Uniti, ottenendo previsioni molto più aderenti ai dati rilevabili osservatoriamente di quanto abbia fatto il modello gravitazionale classico.  

Nessun commento:

Posta un commento

CRITERI DI MODERAZIONE UTILIZZATI PER I COMMENTI PUBBLICATI SUL BLOG NOSTRA SIGNORA DI ANGUERA. https://nostrasignoradianguera.blogspot.it/2016/09/moderazione-commenti-sul-blog-nostra.html

Nota. Solo i membri di questo blog possono postare un commento.