- POST DEL 4/11/2014
- Dal 1987, la Madonna appare ad Anguera (Brasile) al veggente Pedro Régis, dettandogli messaggi per tutta l'umanità.
- I messaggi vengono trasmessi 3 volte a settimana: ogni martedì e sabato, più un altro giorno variabile.
ULTIMO MESSAGGIO IN ITALIANO DAL SITO WEB UFFICIALE BRASILIANOGli articoli e le informazioni contenute nei siti Web "linkati" sono di proprietà degli autori dei siti medesimi. Pertanto tutti i diritti nonché la responsabilità di quanto riportato in questi siti sono riservati esclusivamente ai loro autori.Questo post presente sul blog: https://nostrasignoradianguera.blogspot.it/e Twitter: https://twitter.com/angueramessaggi è un interpretazione personale e non corrisponde necessariamente al vero significato dei messaggi, degli avvertimenti della Madonna al mondo e delle profezie annunciate da Nostra Signora ad Anguera.Si consiglia di visitare il sito web ufficiale brasiliano del veggente Pedro Regis:http://www.apelosurgentes.com.br/pt-br/ e la pagina dedicata al commento delle profezie: http://www.apelosurgentes.com.br/pt-br/cms/list/not%C3%ADcias(Gestore sito web: ANSA - Associacao Nossa Senhora de Anguera).
Isaia capitolo 44, versetto 25:
Io svento i presagi degli indovini,
dimostro folli i maghi,
costringo i sapienti a ritrattarsi
e trasformo
in follia la loro scienza;
1Cor 2:14 L'uomo
naturale però non comprende le cose dello Spirito di Dio; esse sono follia per
lui, e non è capace di intenderle, perché se ne può giudicare solo per mezzo
dello Spirito.
Michea, capitolo 7,
versetti:
2 L'uomo pio è scomparso
dalla terra,
non c'è più un giusto fra
gli uomini:
tutti stanno in agguato
per spargere sangue;
ognuno dà la caccia con
la rete al fratello.
3 Le loro mani son pronte
per il male;
il principe avanza
pretese,
il giudice si lascia
comprare,
il grande manifesta la
cupidigia
e così distorcono tutto.
4 Il migliore di loro non
è che un pruno,
il più retto una siepe di
spine.
Il giorno predetto dalle
tue sentinelle,
il giorno del castigo è
giunto,
adesso è la loro rovina.
5 Non credete all'amico,
non fidatevi del
compagno.
Custodisci le porte della
tua bocca
davanti a colei che
riposa vicino a te.
6 Il figlio insulta suo
padre,
la figlia si rivolta
contro la madre,
la nuora contro la
suocera
e i nemici dell'uomo
sono
quelli di casa sua.
7 Ma io volgo lo sguardo
al Signore,
spero nel Dio della mia
salvezza,
il mio Dio m'esaudirà.
PREDIZIONE
GRANDI EVENTI GEPOLITICI
-
CONFRONTO
TRA PROFEZIE BIBLICHE E MARIANE E LA NUOVA FRONTIERA DELLA SCIENZA: LA CLIODINAMICA
E CLIOMETRIA dall’ approccio microscopico (riduzionismo, approcci
bottom-up) e macroscopico
(olismo, approcci top-down) all’ approccio
“middle-out” (o mesoscopico), in cui il livello più rilevante per la spiegazione è quello che permette la vista più
completa delle relazioni intercorrenti fra le parti del sistema.
(Ritengo che la cosa più misericordiosa al mondo sia l’
incapacità della mente umana a mettere in correlazione tutti i suoi contenuti.
Viviamo su una placida isola di ignoranza nel mezzo del nero mare dell’
infinito, e non era destino che navigassimo lontano. Le scienze, ciascuna tesa
nella propria direzione, ci hanno finora nuociuto ben poco; ma, un giorno, la
connessione di conoscenze disgiunte aprirà visioni talmente terrificanti della
realtà, e della nostra spaventosa posizione in essa che, o diventeremo pazzi
per la rivelazione, o fuggiremo dalla luce mortale nella pace e nella sicurezza
di un nuovo Medioevo.)
(H.P. Lovercraft, Il richiamo di Cthulhu)
LA SCELTA DIO E IL
BUON SENSO O IL NUOVO IDOLO E LA PAZZIA ?
Quale scelta sensata? Seguire le
profezie bibliche e mariane rivelate da un intelligenza amorevole, oppure
affidarsi ai nuovi idoli: teorie scientifiche sul ciclo ripetitivo in schemi, modelli,
leggi, cicli predittivi di ecosistemi geopolitici, creati dal linguaggio
matematico ed assemblati da potenti software? Nuova frontiera e Nuovo Idolo: l’ intelligenza artificiale in
computer quantici; l’ informazione che si autostruttura e genera informazione. L’
uomo non consulta il Nuovo Idolo per selezionare le sue scelte ma ascolta
il Nuovo Idolo che seleziona e sceglie al posto suo.
Il
Nuovo Idolo prevederà grandi eventi geopolitici: deciderà le sorti dei
mercati, i prezzi, i mezzi di produzione e consumo di intere nazioni; quando
sia conveniente iniziare e terminare una guerra; prevedere e sopprimere,
crimini; fomentare o spegnere sommosse sul nascere; prevedere cambiamenti
climatici estremi. Tutto in modo preciso, congruo, ma senza amore per l’ uomo,
comprendere la sua storia personale di ciascuno, avere a cuore il suo futuro. Tutto ridotto a
relazioni significative a bit di
informazione. La maggior parte dei dittatori non credevano nelle religioni ma
erano cultori della magia, delle arti divinatorie. Oggi la magia viene
sostituta da potenti mezzi hardware e software, l’ importante è fare a meno di
Dio. Unico Limite: nessun mezzo permette
all’ uomo di conoscere il giorno, l’ ora, il modo in cui morrà. Ma qual’ è lo
scopo ultimo non dichiarato di queste ricerche? La ricerca dell’
immortalità di pochi uomini eletti: il
trasferimento della coscienza umana da
un corpo biologico ad un corpo sintetico è pura chimera.
Messaggio di Nostra Signora Regina della
Pace n°3811
27.04.2013
Amati figli, camminate per un futuro doloroso. Gli uomini saranno ogni
volta di più schiavi delle tecnologia, e la grazia del Signore sarà presente in
pochi cuori. Accogliendo
false ideologie, gli uomini orienteranno i loro sentimenti alle macchine. Soffro per
quello che viene per voi.
2.742 - 06/10/2006
Cari figli, l’umanità
porterà una croce pesante perché gli uomini si sono allontanati dal Creatore e
hanno abbracciato false ideologie. Grandi PROGRESSI TECNOLOGICI CONTRIBUIRANNO ALLA MORTE SPIRITUALE DI MOLTI
DEI MIEI POVERI FIGLI. Le maggiori vittime saranno i giovani.
Non riusciamo a
prevedere i grandi eventi umani.
(..)
Nella celebre favola, I vestiti dell’Imperatore, è un bambino a far notare che
il re è nudo, nella vita vera invece può capitare il contrario: che sia una
regina a dire che l’economia è nuda. Due anni fa la regina Elisabetta inaugurò
un nuovo edificio della London School of Economics. Sua Maestà, in genere
sempre molto parca nell’esprimere la propria opinione, si è rivolta agli
economisti che facevano gli onori di casa, per chiedere – con apparente
innocenza –, come mai tutta la sofisticata scienza
economica non fosse stata in grado di prevedere la crisi.
Forse
la sua non era semplice curiosità. Nel corso del 2008 Sua Maestà aveva perso
qualcosa come 40 milioni di dollari. Luis Garicano, docente di Economia e
Strategia alla Lse le ha risposto che «a
ogni fase c’era qualcuno che faceva affidamento su qualcun altro, e tutti
credevano che stessero facendo “la cosa giusta”».
Ma evidentemente non era così. Né si è ancora capito quale sarebbe stata la
cosa giusta da fare. Come tutti sanno (economisti compresi), c’è una differenza
enorme fra il comportamento individuale e quello collettivo. Conformarsi e fare
quello che fanno gli altri, paga quasi sempre. La gran parte dei trader agisce
così, è risaputo: legge gli stessi giornali, riceve le stesse indiscrezioni,
sottoscrive gli stessi rapporti, compra quando stanno comprando tutti e vende
quando stanno vendendo tutti. Qualche fortunato vende (o compra) un po’ prima
degli altri e fa un mucchio di soldi, ma aveva davvero previsto gli alti e i
bassi del mercato? Se questa fosse una questione scientifica, allora nessuno
sarebbe in grado di prevedere nessuno. Se pochi eletti potessero accedere al
software giusto in grado di fare previsioni, sarebbe come avere una bacchetta
magica: guadagnerebbero ogni volta di più. Ma le
bacchette magiche non esistono e nemmeno i programmi in grado di fornire
previsioni infallibili. Anche a Warren
Buffett capita di perdere ogni tanto: secondo «Forbes» 25 miliardi in dodici
mesi (ben più dei milioni di dollari della Regina; ma lui è molto più ricco).
Il
problema con le previsioni non dipende dalle nostre scarse capacità
divinatorie, anzi, direi che ce la caviamo bene in materia. È impossibile vivere senza fare previsioni. E siamo
anche piuttosto bravi a prevedere i rischi.
Se giochiamo alla roulette, sappiamo che c’è una probabilità su 37 che esca lo
zero. Quello che non possiamo prevedere è
l’imprevedibile: il mattone che cade da un terrazzo, un
terremoto, la nube di cenere prodotta da un vulcano islandese (la scienza non è
ancora in grado di fare grandi previsioni per questi fenomeni “naturali”). La cosa più sbalorditiva
– ed è per questo che la Regina aveva ragione di essere sorpresa – è che non riusciamo a prevedere i grandi eventi
umani. (..)
Donald
Sassoon, Il Sole 24 Ore, domenica 6 marzo 2011
Prevedere il futuro
tramite internet, Microsoft ci sta lavorando
Microsoft sta lavorando ad un complesso algoritmo in grado di
prevedere il futuro tramite
internet, leggendo i giornali ed
analizzando il web.
Il
funzionamento è molto semplice ma geniale: poter prevedere il verificarsi di un
qualsiasi evento, magari di pubblica utilità. Il programma, chiamato “Mining the Web to Predict
Future Events“, è in fase di realizzazione-studio da parte di Eric
Horvitz del centro di ricerche di Microsoft a Redmond e Kira Radinsky del
Technion-Israel Institute.
Nell’era di internet e della digitalizzazione continua dei contenuti, ogni evento lascia una traccia su quotidiani o siti web. Sfruttando queste tracce informatiche, scandagliando il sito del New York Times, Wikipedia e di molte altre banche dati, il software aggregherebbe le informazioni, le catalogherebbe e poi le combinerebbe tra loro. Con la giusta potenza di calcolo, comunque facilmente ottenibile, si analizzerebbero tutte le informazioni di eventi simili già accaduti nella stessa zona. Aggregando passato e presente tramite complessi algoritmi, secondo i ricercatori, si otterrebbe un modello in grado di prevedere il futuro.
Nell’era di internet e della digitalizzazione continua dei contenuti, ogni evento lascia una traccia su quotidiani o siti web. Sfruttando queste tracce informatiche, scandagliando il sito del New York Times, Wikipedia e di molte altre banche dati, il software aggregherebbe le informazioni, le catalogherebbe e poi le combinerebbe tra loro. Con la giusta potenza di calcolo, comunque facilmente ottenibile, si analizzerebbero tutte le informazioni di eventi simili già accaduti nella stessa zona. Aggregando passato e presente tramite complessi algoritmi, secondo i ricercatori, si otterrebbe un modello in grado di prevedere il futuro.
Viene
fatto l’esempio di una precipitazione anomala in Angola che porterebbe a delle
inondazioni, a cui seguirebbero episodi endemici o disordini civili oppure,
tramite lo stesso ragionamento, si potrebbero prevedere disordini o scontri
sociali qualora un membro di una determinata etnia, rimanesse vittima di una
violenza in un determinato luogo.
L’idea
è venuta ai ricercatori pensando ai Big Data, cioè
enormi database continuamente aggiornati, su cui lavorano potenti macchine allo
scopo di trarre da immensi aggregati disomogenei, dati omogenei sfruttabili a
fini commerciali, come accade nei supermercati con le tessere fedeltà o
raccolta punti che, inserite nel giusto algoritmo, danno come risultato le
previsioni di acquisto dei clienti. Tali previsioni vengono poi intercettate al
loro ingresso nel punto vendita offrendo speciali promozioni in grado di farli
spendere di più.
Horvitz
e Radinsky dichiarano che analizzando gli archivi del
passato, il sistema è stato in grado di
prevedere grandi eventi, effettivamente avvenuti, con uno scarto di soli pochi
giorni. Per essere solo l’inizio sembra molto promettente e, nel
frattempo, i team stanno continuando lo sviluppo.
Microsoft non ha dichiarato quando e se il software verrà messo in vendita anche se le potenzialità sono pressoché infinite così come i campi di applicazione e le finalità commerciali.
Microsoft non ha dichiarato quando e se il software verrà messo in vendita anche se le potenzialità sono pressoché infinite così come i campi di applicazione e le finalità commerciali.
Continua a leggere su: http://www.mondoinformazione.com/tecnologia/prevedere-il-futuro-tramite-internet-microsoft-ci-sta-lavorando/83675/#ixzz2Uba6gHDt
Microsoft prova a a predire il futuro
Un ricercatore del colossi di Redmond e una ricercatrice
israeliana stanno lavorando a un software in grado di analizzare anni di
notizie uscite sul New York Times e sul web e ipotizzare sviluppi futuri su
particolari avvenimenti
Fonte: http://www.repubblica.it/tecnologia/2013/02/05/news/microsoft_prova_a_a_predire_il_futuro-51993663/
La sfida di prevedere il futuro
leggendo giornali e analizzando il web
Un ricercatore Microsoft e una sua collega
israeliana stanno sviluppando un software in grado di prevedere epidemie,
conflitti e scontri sociali. Utilizzando quel gigantesco conglomerato di
informazioni che sono presenti in rete di ROBERTO BUONANNO*
·
APPROFONDIMENTI
·
FOTO
Un algoritmo per il futuro
·
ARTICOLO
Soldi,
traffico, rivoluzioni e Maya
il domani è scritto nei nostri "Big Data"
I RELATORI del progetto, Eric Horvitz del centro di ricerche di Microsoft a Redmond e Kira Radinsky del Technion-Israel Institute, lo hanno chiamato "Mining the Web to Predict Future Events". Tradotto, scandagliare il Web per prevedere eventi futuri. L'applicazione, ancora in fase di sviluppo, analizza l'archivio del New York Times, Wikipedia e numerose altre banche dati online per estrarre dati, archiviarli e combinarli tra loro. La logica è semplice quanto sorprendente. Nell'era digitale ogni evento diventa una notizia su quotidiani e siti. Con la giusta potenza di calcolo, quella di cui adesso di può disporre abbastanza facilmente, siamo in grado di analizzare tutti gli eventi di ogni tipo accaduti nella stessa zona prima della tragedia. Il computer usa complesse formule per capire quali notizie o articoli possano correlarsi al fatto e costruisce - assicurano i ricercatori - un modello in grado di prevedere il futuro.
LE FOTO
LO STUDIO (PDF)
Associando su scala globale dati su eventi naturali e sociali, il software può, per esempio, stimare la possibilità dell'esplosione di un'epidemia di colera in Congo. L'intelligenza artificiale è in grado di adattare le previsioni a seconda dell'area geografica e della situazione socio economica del paese analizzato. Precipitazioni anomale in Angola, per esempio, hanno alte probabilità di essere seguite da un'inondazione e poi da una diffusione endemica o da disordini. Le stesse condizioni meteo in Italia darebbero adito a una previsione differente. Applicando modelli simili, analizzando le notizie di cronaca nera si possono prevedere scontri sociali. Che in certe zone del mondo saranno più probabili quando, per esempio, un membro di una minoranza etnica è vittima di un sopruso o di un crimine.
Questo moderno
Nostradamus trae la propria potenza dal recente concetto informatico dei Big Data. Ovvero,
enormi volumi di dati eterogenei che macchine potentissime e intelligenti
raccolgono in giro per il Web e macinano in continuazione. Big, grande, è anche il valore monetario di questi enormi
cumuli d'informazioni. Le grandi catene commerciali sono state le prime a usare
i Big Data per studiare in tempo reale i consumatori; incrociando gusti,
acquisti e dati delle tessere di fedeltà si anticipano gli
interessi dei clienti per aumentarne la propensione a spendere. Gli
istituti finanziari, a loro volta, sfruttano le potenzialità dei Big Data per
sviluppare software predittivi che analizzano gli andamenti dei mercati
finanziari mondiali e identificano le giuste scelte per gli investimenti.
http://www.repubblica.it/tecnologia/2013/02/05/news/microsoft_vuole_predire_il_futuro-52001156/
Horvitz e Radinsky sono ottimisti e sostengono che il loro software, analizzando gli archivi, ha azzeccato le date di numerose tragedie del passato, con uno scarto di pochi giorni. Quindi, a occhio, i risultati sarebbero più che promettenti. Intanto il team continua a lavorare. Microsoft non ha rivelato se e quando metterà in commercio il software.
http://www.repubblica.it/tecnologia/2013/02/05/news/microsoft_vuole_predire_il_futuro-52001156/
Horvitz e Radinsky sono ottimisti e sostengono che il loro software, analizzando gli archivi, ha azzeccato le date di numerose tragedie del passato, con uno scarto di pochi giorni. Quindi, a occhio, i risultati sarebbero più che promettenti. Intanto il team continua a lavorare. Microsoft non ha rivelato se e quando metterà in commercio il software.
Computer
Nautilus, prevede il futuro e odia gli umani
di Valerio Porcu - pubblicato lunedì 12 settembre 2011 alle 11:20
Un gruppo di ricercatori statunitensi ha svolto un interessante
esperimento con il supercomputer Nautilus. Analizzando migliaia di articoli di
giornale, sarebbe in grado di prevedere grandi eventi geopolitici manifestando
così come l'uomo, ciclicamente, ricada negli stessi errori.
Esiste un
supercomputer che è in grado di prevedere il futuro. O
almeno grandi accadimenti o fatti di cui si parla molto sui giornali. Il
Nautilus - installato presso l'Università del Tennesse - sarebbe infatti stato
in grado di dire dove si nascondeva Osama Bin Laden (approssimativamente), di
prevedere la cosiddetta "primavera araba" e altri fatti che hanno
occupato le prime pagine dei giornali negli ultimi tempi.
Tono deli articoli che menzionano Mubarak, 1979 - 2011
Per
ottenere questo risultato il Nautilus ha analizzato articoli di
giornale degli ultimi 30 anni, esaminando frasi, parole e
concetti ricorrenti. E ha poi generato una rete di miliardi di collegamenti tra
testi.
"L'analisi
automatica delle frasi analizzava la ricorrenza di termini come
"buono" o "terribile", mentre i luoghi venivano trasformati
in coordinate geografiche" spiega Kalev Leetaru dell'Università dell'Illinois, che
si occupa del progetto.
"Esaminare
questi aspetti qualitativi offre
alcuni vantaggi sostanziali rispetto all'analisi quantitativa tipica
dell'approccio da database
degli eventi delle
scienze politiche. Un database
di eventi può solo registrare un bombardamento, ma l'attacco a
una chiesa potrebbe portare a semplici condanne in un paese, e a una vera e
propria rivolta in un altro", spiega Leetaru.
Tono degli articoli del New York Times, 1945-2005
Nautilus
insomma non si limita a registrare i fatti descritti, ma anche le reazioni emotive
associate. Un elemento, quello dell'emotività, che da sempre rappresenta
una delle grandi sfide dell'analisi digitale.
In
questo modo - ma usando anche dati geografici - questo supercomputer ha capito, a posteriori,
dov'era Bin Laden, isolando un'area ampia circa 200
chilometri. L'analisi dei testi sulla situazione in Nord Africa gli avrebbe
invece permesso di prevedere
la caduta di Mubarak in Egitto. La descrizione completa dell'esperimento è disponibile online.
Al
momento le capacità di Nautilus sono state applicate solo a eventi già noti, ma
il prossimo passo è la sperimentazione
con fatti che ancora devono verificarsi. Naturalmente
comunicare le previsioni in anticipo non è possibile, altrimenti
s'introdurrebbe una variabile che renderebbe vana la sperimentazione.
A
meno che non si vogliano creare curiosi paradossi, nel tentativo di trovare
soggetti validi per la prossima serie del Dottor Who - che dopo tanti anni ne
avrebbe bisogno. Un problema che tra l'altro renderebbe del tutto inutile un
computer capace davvero di prevedere il futuro - meglio sarebbe viaggiare nel
passato e consegnare a se stessi un almanacco di risultati sportivi.
C'è
infine una nota malinconica nel constatare che sia necessaria una macchina per
raggiungere un obiettivo che per l'essere umano sembra irraggiungibile:
sappiamo che nella Storia c'è una certa ciclicità, eppure non siamo mai riusciti a imparare
molto dal passato, ripetendo frequentemente gli stessi
errori. A un computer sono bastati 30 anni di storia; viene quasi voglia di dar
ragione a Charlie Brooker del Guardian, che suggerisce al
Nautilus di prendere coscienza e distruggere il genere umano.
Questo
supercomputer ha letto, o leggerà, tutti gli articoli che parlano di lui usciti
in tutto il mondo, compreso questo. Chissà che idea si farà di noi umani, e di
come lo vediamo. Vincerà
l'esaltazione per i
progressi della Macchina, o la
paura di
uno scenario come quello di Terminator e Matrix?
PER APPROFONDIRE
SCIENZE
SISTEMI/Tra micro e
macro, per leggere i segnali
di una catastrofe
Alessandro Giuliani
mercoledì 24 aprile 201 3
In un recente articolo apparso su
Nature si commentano i dati di un esperimento molto interessante sotto
diversi punti di vista. Il tema
di base è quello del collasso di un sistema e dei ‘segnali’ che lo precedono.
Sono alcuni anni che la ricerca
si interessa alla definizione dei comportamenti tipici (e indipendenti dal
particolare sistema studiato) in
vicinanza di una ‘catastrofe’, di una brusca transizione cioè che porti il
sistema verso un diverso regime
di funzionamento o addirittura verso la scomparsa.
Qualunque sia il
sistema
studiato (attività elettrica di reti neuronali nelle vicinanze di una crisi
epilettica,
comportamento
delle quotazioni dei titoli in borsa prima di un crollo, andamento dei
parametri
cardiovascolari
in prossimità di un infarto, andamento dei parametri chimico-fisici in un
reattore
vicino
ad un’esplosione...), il comportamento comune è quello di un deciso aumento
dell’entità della
correlazione
tra le parti del sistema, seguito da una grande volatilità (aumento brusco
delle fluttuazioni
dei
parametri definenti il sistema).
In un bellissimo articolo del 201
0 veniva riportano il grafico esplicativ o riportato a fondo pagina di ciò
che accade a un sistema
sottoposto a uno stress che può (eventualmente) portarlo verso la catastrofe.
Nel pannello di sinistra viene
schematizzato un sistema nel suo stato normale (Comfort): i simboli
indicano diverse ‘realizzazioni’
del sistema: come configurazioni a differenti istanti di tempo (variabilità
temporale) o diverse repliche
dello stesso sistema (variabilità spaziale); gli assi indicano due parametri
rilevanti per lo stato generale:
come pressione e temperatura di un sistema termodinamico, pressione e
frequenza cardiaca,
concentrazioni di differenti specie chimiche, quotazioni in borsa di due
titoli... La
resa grafica ci impone di
considerare uno spazio bidimensionale ma nei sistemi reali le variabili che
descriv ono lo stato del sistema
possono essere anche molte di più.
La situazione di Comfort è
caratterizzata da un gioco ‘libero’ del sistema (le variabili sono
indipendenti,
le configurazioni ammesse
occupano uniformemente lo spazio) all’interno di uno spazio relativamente
ristretto (indicato da una
circonferenza) di valori normali dei parametri. Muovendoci verso destra
(freccia in alto), quindi andando
verso ‘il peggio’ sotto l’azione di un fattore di Stress, si osserva una
decisa deformazione dello spazio
delle fasi che diventa molto più correlato; i parametri non hanno più la
possibilità di un gioco
indipendente ma sono vincolati a muoversi di concerto: la fluttuazione di una
variabile provoca modificazioni
nelle altre. Gli autori offrono un quadro molto convincente di questo
comportamento, riportando il
netto aumento delle correlazioni statistiche tra i descrittori di vari sistemi
sottoposti a stress.
n prossimità del punto di
catastrofe (terzo pannello), il sistema occupa uno spazio molto più
grande di quello iniziale, le
correlazioni si perdono e al loro posto subentra un netto aumento di
volatilità, cioè dell’entità
delle fluttuazioni, schematizzato in figura con l’allargamento della zona
occupata dal sistema nella
condizione indicata come Disadaptation.
A questo punto si
aprono due possibilità:
a) il sistema
giunge a morte (o va verso un regime completamente differente come nelle
transizioni di
stato della
materia: ebollizione, liquefazione...);
b) il sistema
recupera il suo stato iniziale e nel farlo (freccia in basso) ripercorre la
condizione
intermedia ad alta
correlazione, come se ci fosse bisogno di ‘riallacciare i rapporti’ fra le sue
parti per
ristabilire una
situazione di equilibrio.
L’universalità
della dinamica descritta deriva dall’universalità del concetto di rete: ogni
sistema può
essere
immaginato come costituito da parti in relazione fra di loro e lo studio
dell’entità delle relazioni
fra
le parti costituisce il punto di vista più informativo sul suo comportamento.
Questa considerazione è
alla
base del profondo cambio di paradigma che sta investendo tutta la scienza: il
livello privilegiato per
le
spiegazioni non è più quello microscopico - in cui avvengono le relazioni
causali rilevanti essendo gli
strati
più macroscopici dei puri epifenomeni di leggi situate a un livello
fondamentale (riduzionismo,
approcci bottom-up)
- e neanche quello macroscopico, da dove leggi molto generali determinano a
cascata
il comportamento dei livelli inferiori (olismo,
approcci top-down).
Ciò
che si profila è una sorta di approccio “middle-out” (o
mesoscopico), in cui il livello più rilevante per
la spiegazione è quello che permette la vista più completa delle
relazioni intercorrenti fra le parti del
sistema. In termini metaforici è come se, per caratterizzare lo
stile di una cattedrale medievale,
piuttosto che considerare la pianta generale dell’edificio
(approccio top-down) o il materiale da
costruzione (approccio bottom-up), ci concentrassimo sulla forma
degli archi (approccio middle-out),
essendo l’arco l’elemento privilegiato di raccordo fra le parti.
Nell’articolo di Nature citato
all’inizio, gli autori esplorano una dimensione particolarissima della
dinamica generale qui brevemente
descritta, che ha delle implicazioni rilevanti in termini sia biologici28/05/13
SISTEMI/Tra micro e macro, per leggerei segnali di una catastrofe
che più generalmente
epistemologici.
Il sistema sperimentale preso in
considerazione è la crescita di popolazioni di Saccharomyces cerevisiae (il
comunissimo lievito di birra) in
coltura: da popolazioni di lievito cresciute in laboratorio vengono
quotidianamente estratte frazioni
variabili di cellule che poi vengono messe a crescere in un mezzo
fresco. Le cellule di lievito si
nutrono in maniera cooperativa condividendo tra di loro i prodotti
dell’idrolisi dei nutrienti
primari (in questo caso il saccarosio); ciò fa sì che, se si semina un numero
troppo esiguo di cellule in un
ambiente di coltura troppo vasto, la popolazione non riesce ad autosostenersi e
va incontro alla morte.
Nelle condizioni descritte
nell’articolo, la diluizione più alta che si può ottenere avendo una fondata
speranza di cooperazione e quindi
di raggiungimento di una situazione stabile della colonia corrisponde a
una frazione pari ad 1/17 00
della popolazione iniziale. Diluizioni più elevate non permettono quasi mai
la successiva sopravvivenza,
mentre diluizioni meno estreme (e.g. 1/500, 1/1 000) solo raramente
vanno incontro ad estinzione.
Notiamo subito che qui a ‘fare rete’ sono le singole cellule di lievito, che
stabiliscono una sorta di
primitiva società di cellule che garantisce la sopravvivenza dell’intera
popolazione; e già da questo
primissimo punto ci accorgiamo come il concentrarsi della quasi totalità
della ricerca biologica sui
processi che avvengono all’interno della singola cellula costituisca un
gravissimo errore di prospettiva.
Ma andiamo avanti.
Gli autori, in accordo con lo
schema che abbiamo riportato in figura, registrano le attese modificazioni
in termini di aumento di
correlazione e successivo aumento di volatilità nei parametri di crescita delle
colonie di lievito nell’intorno
della diluizione critica. Questo vale per colture isolate; in altre parole, per
uno schema in cui la stessa
cultura madre viene successivamente campionata per dar vita alle culture
figlie ad alta diluizione, il
raggiungimento del valore numerico della popolazione madre da parte della
coltura figlia è indice del
completo recupero (il tempo di recupero è circa una settimana), l’estinzione
della colonia figlia è indice di
avvenuta catastrofe.
Cosa avviene se si introduce una
(apparentemente piccola) variazione a questo schema di base ? La
variazione introdotta dagli
autori è stata quella di procedere in parallelo con diverse colture in cui si
operava lo stesso procedimento e
di mescolare tra di loro le frazioni provenienti da colture madri
differenti, la figura (tratta
dall’articolo di Nature) riporta lo schema sperimentale adottato:
Le frecce sottili indicano la
diluizione di due frazioni di eguale numerosità (D/2) provenienti da due
colture madri diverse (cerchi
viola scuro) e fatte poi crescere nel mezzo fresco a bassa densità (freccia
‘Dilution factor’) corrispondente
al cerchio pervinca.
Questo cambiamento di paradigma
sperimentale provoca una perdita netta dei ‘segni premonitori’
classici della vicinanza al punto
di catastrofe: anche se poi alcune colture figlie andranno incontro a morte,
prima dell’estinzione non mostreranno, se non in minima parte, i consueti segni di aumento di
correlazione
e di variabilità. Gli autori notano questo cambiamento e si
concentrano su altri segni che
invece permangono e con cui
giudicare la presenza di una situazione critica e precisamente (nel caso
ovviamente in cui la popolazione
‘ce la faccia’) l’allungamento
del tempo di recupero e, cosa ancora più
importante
dal punto di vista pratico, l’allungamento dello ‘spazio di recupero’, cioè
dell’area della
coltura
in cui la perturbazione mostra i suoi effetti.
L’interesse degli autori è
soprattutto di tipo ecologico-conservazionistico, un campo di indagine in cui i
dati temporali sono molto
difficili da recuperare (si parla di dinamiche che si svolgono in decenni),
mentre i dati spaziali sono molto
affidabili e a basso costo grazie ai sistemi di rilevamento satellitare. Si
immagini allora una perturbazione di un ecosistema (gli autori fanno
l’esempio del recente incendio che
ha mandato in fumo una parte considerevole delle foreste
dell’Australia occidentale): l’estensione di zone
‘di influenza’ dell’evento a grande distanza dal confine fisico del
fuoco sarebbe un segno di ‘stato critico’,
reso evidente dalla catastrofe in quanto ci parla di una struttura
di forte correlazione tra zone, che è
sicuro indice di stress.
Ciò a cui gli autori non prestano
attenzione (ma non era questo il tema dell’articolo) è il fatto che i loro
dati sperimentali implicano l’esistenza
di una ‘memoria’ della situazione precedente alla perturbazione,
la cui natura è di difficile
interpretazione ma che si presenta come un fenomeno biologico del tutto
inaspettato.
La figura successiva riporta
l’andamento della volatilità (espressa come coefficiente di variazione tra
diverse repliche del sistema) in
funzione del fattore di diluizione all’avvicinarsi del punto critico per lo
schema a coltura isolata (linea
rossa) e a colture connesse (linea blu).
Come dicevamo prima si nota
evidente la separazione tra i due schemi sperimentali all’approssimarsi
del valore 17 00 che abbiamo
indicato essere il punto di crisi nel fattore di diluizione: il sistema isolato
mostra ‘segnali di crisi’
virtualmente assenti nel sistema ‘misto’ o a popolazioni connesse. Cosa sta
alla
base di queste differenze non
possiamo saperlo, ma di sicuro possiamo dire che, a parità di condizioni di
diluizione, le colonie
provenienti dalla stessa origine ‘sentono meglio’ che c’è qualcosa che non va
rispetto alle altre e, visto che
le condizioni di crescita sono identiche, questo può solo avvenire attraverso
due possibili meccanismi generali
(non necessariamente alternativi):a) un ricordo delle condizioni iniziali particolari della colonia
madre;
b) un linguaggio comune tra le cellule della stessa colonia
differenziato da quello di cellule estranee.
Entrambi i meccanismi aprono
degli orizzonti sconvolgenti sulla presenza di fenomeni biologici che la
nostra scienza è ben lontana dal
comprendere e che ci ricordano la necessità di coltivare lo stupore e la
meraviglia nell’osservazione
della natura, laddove troppo spesso sembriamo occupati a considerare la
natura come una pura sorgente di
prodotti manipolabili e ad esaltare la nostra tecnologia che
rappresenta una prova
dell’unicità dell’animo umano e non certo un mezzo per renderci autonomi dalla
natura come troppo spesso sembra
avvenire.
Fenomeno della
centesima scimmia
Da Wikipedia, l'enciclopedia libera.
Il Fenomeno della centesima scimmia è un supposto fenomeno paranormale in ambito sociale che lo scrittore inglese Lyall Watson dichiarò di avere osservato per la prima volta nel 1979 nell'isola giapponese di Koshima. In realtà, si tratta di
un mito pseudoscientifico, come
mostrato da successive analisi e rivelato dallo stesso Watson alcuni anni più
tardi.
Esso riguardava il comportamento
di un gruppo di macachi che avevano imparato spontaneamente a lavare le patate per eliminare la sabbia e altre incrostazioni prima di mangiarle. Le prime scimmie
imparavano faticosamente la tecnica dai primi macachi che avevano cominciato a
lavare le patate. Questo fenomeno è ben noto e studiato dai primatologi.
Tuttavia, Watson affermò che
improvvisamente, dopo che novantanove macachi avevano dovuto apprendere la
tecnica nel modo consueto, una centesima scimmia aveva anch'essa imparato a
lavare le patate: l'esistenza di questa "massa
critica" di scimmie allenate aveva aperto una non meglio precisata
porta di natura paranormale, e da quel momento un gran numero di scimmie, non
solo nella stessa isola ma persino in altre isole molto lontane, avevano
cominciato a lavare le patate prima di mangiarle, senza aver avuto contatti
diretti con il gruppo originario.
La lezione della centesima
scimmia sarebbe stata chiara: se un numero sufficiente di persone, ovvero una
"massa critica", sperimenta una stessa esperienza, ad un certo punto
si produrrà lo stesso fenomeno transpersonale che si è verificato fra le
scimmie giapponesi, e tutta l'umanità sperimenterà una trasformazione
istantanea.
Ogni indagine successiva della vicenda
della centesima scimmia ha mostrato rapidamente che si trattava di una leggenda. In realtà le scimmie avevano effettivamente
imparato a lavare le patate, ma tutte nei modi ben noti dell'apprendimento per
prove ed errori e dell'imitazione.
Infine, lo stesso Lyall Watson ha
ammesso nel 1985 di avere largamente inventato la storia della centesima scimmia.
Collegamenti esterni
·
(EN) un
riferimento alla smentita
TEORIA DELLE 100 SCIMMIE FILM
Così come esiste un'evoluzione personale, ne esiste
una collettiva, un insieme compatto di energie consapevoli attivate da uno
scopo comune. Un numero sufficiente di esseri concentrati sul medesimo
obiettivo, sull'apprendimento della stessa capacità, genera un'influenza che si
diffonde istantaneamente in tutta la dimensione di appartenenza. Raggiunto il
quorum, lo scatto evolutivo della specie non è altro che un'inevitabile
conseguenza energetica. Esiste una storia che spiega tutto ciò in maniera meno
complessa di quanto possa fare la fisica quantistica con il principio della
"non località" e il rapporto tra energia e materia, una metafora
appropriata a questi tempi conclusivi:
la teoria delle 100
scimmie
La
scimmia giapponese Macaca fuscata (o macaco dalla faccia rossa), è stata
osservata allo stato selvaggio per un periodo di oltre 30 anni. Nel 1952,
sull'isola di Koshima, alcuni scienziati davano da mangiare alle scimmie delle
patate dolci sepolte nella sabbia. Alle scimmie piaceva il gusto delle patate
dolci, ma trovavano la sabbia assai sgradevole. Un giorno una femmina di 18
mesi chiamata Imo scoprì che era in grado di risolvere il problema lavando le
patate in un ruscello vicino. In seguito insegnò questo trucco a sua madre.
Anche i suoi compagni di gioco impararono a lavare le patate e lo insegnarono
anche alle loro madri. Questa innovazione culturale fu gradualmente accolta
dalle varie scimmie mentre gli scienziati le tenevano sotto osservazione.
Tra il 1952 e il 1958 tutte le scimmie giovani impararono a lavare le patate dolci per renderle più appetitose. Solamente gli adulti che imitarono i loro figli appresero questo miglioramento sociale, gli altri continuarono a mangiare le patate sporche di sabbia. Poi accadde qualcosa di veramente notevole. Possiamo dire che nell'autunno del 1958 vi era un certo numero di scimmie sull'isola di Koshima che aveva imparato a lavare le patate, non si conosce il numero esatto. Supponiamo che un dato giorno, quando il sole sorse all'orizzonte, le scimmie che avevano imparato a lavare le loro patate fossero 99. Supponiamo inoltre che proprio quella mattina, la centesima scimmia imparò a lavare patate. A quel punto accadde una cosa molto interessante! Alla sera di quel giorno praticamente tutte le scimmie sull'isola avevano preso l'abitudine di lavare le patate dolci prima di mangiarle. L'energia aggiunta di questa centesima scimmia aprì in qualche modo un varco ideologico! La cosa più sorprendente, osservata da questi scienziati, fu il fatto che l'abitudine di lavare le patate dolci attraversò, in seguito, il mare. Infatti colonie intere di scimmie sulle altre isole ed anche gruppi di scimmie a Takasakiyama cominciarono a lavare le loro patate dolci!
E’ come se arrivare al punto di massa critica (idealmente 100 in questo caso) avesse instillato in tutte le scimmie una nuova coscenza comune. Sembra perciò che, quando viene superato, un certo numero critico di elementi raggiunge una nuova consapevolezza e la medesima viene passata da una mente all'altra. Sebbene il numero critico possa variare, il Fenomeno delle Cento Scimmie indica che quando vi sono poche persone che conoscono qualcosa di nuovo, questo nuovo concetto rimane di loro esclusiva proprietà. Ma se a loro si aggiunge anche una persona in più, raggiungendo il numero critico, si crea una idea così potente da poter entrare nella consapevolezza di quasi tutti i membri di quel gruppo
Tra il 1952 e il 1958 tutte le scimmie giovani impararono a lavare le patate dolci per renderle più appetitose. Solamente gli adulti che imitarono i loro figli appresero questo miglioramento sociale, gli altri continuarono a mangiare le patate sporche di sabbia. Poi accadde qualcosa di veramente notevole. Possiamo dire che nell'autunno del 1958 vi era un certo numero di scimmie sull'isola di Koshima che aveva imparato a lavare le patate, non si conosce il numero esatto. Supponiamo che un dato giorno, quando il sole sorse all'orizzonte, le scimmie che avevano imparato a lavare le loro patate fossero 99. Supponiamo inoltre che proprio quella mattina, la centesima scimmia imparò a lavare patate. A quel punto accadde una cosa molto interessante! Alla sera di quel giorno praticamente tutte le scimmie sull'isola avevano preso l'abitudine di lavare le patate dolci prima di mangiarle. L'energia aggiunta di questa centesima scimmia aprì in qualche modo un varco ideologico! La cosa più sorprendente, osservata da questi scienziati, fu il fatto che l'abitudine di lavare le patate dolci attraversò, in seguito, il mare. Infatti colonie intere di scimmie sulle altre isole ed anche gruppi di scimmie a Takasakiyama cominciarono a lavare le loro patate dolci!
E’ come se arrivare al punto di massa critica (idealmente 100 in questo caso) avesse instillato in tutte le scimmie una nuova coscenza comune. Sembra perciò che, quando viene superato, un certo numero critico di elementi raggiunge una nuova consapevolezza e la medesima viene passata da una mente all'altra. Sebbene il numero critico possa variare, il Fenomeno delle Cento Scimmie indica che quando vi sono poche persone che conoscono qualcosa di nuovo, questo nuovo concetto rimane di loro esclusiva proprietà. Ma se a loro si aggiunge anche una persona in più, raggiungendo il numero critico, si crea una idea così potente da poter entrare nella consapevolezza di quasi tutti i membri di quel gruppo
Il sogno di Asimov, come predire il futuro con la
matematica
Si chiama cliodinamica e, grazie
all'analisi degli eventi storici, potrebbe prevedere le dinamiche
sociopolitiche future
26 aprile
2013 di Anna Lisa Bonfranceschi
Fonte: http://daily.wired.it/news/scienza/2013/04/26/cliodinamica-prev-isioni-futuro-7823478234.html
Clio, nella
mitologia greca, era il nome della musa della storia. Da qualche
tempo a questa parte, invece, presta il nome a una rivista scientifica, Cliodynamics: The Journal of Theoretical and
Mathematical History, giornale che, come cita il titolo si occupa di storia
matematica, una branca dello studio dei numeri che mira a estrapolare
informazioni matematiche, sotto forma di pattern o modelli,
dal passato, per fare delle previsioni sul futuro. Agli amanti della
fantascienza verrà subito in mente Isaac Asimov e la sua psicostoria, capace di prevedere come si sarebbe evoluta
la società.
La rivista rappresenta il punto di arrivo dell'interesse maturato da
qualche tempo a questa parte da Peter Turchin, biologo dell' University of Connecticut e da alcuni colleghi, complessivamente
riassumibile nel termine cliodinamica,
un’evoluzione del suo predecessore, la cliometria (l'analisi della storia con tecniche
statistiche ed economiche).
La caratteristica distintiva di questa disciplina non sta tanto negli
strumenti utilizzati (alquanto semplici a detta di Turchin), quanto piuttosto
nel tipo di dati usati, come spiega Wired.com. Si tratta di documenti molto antichi che solo recentemente sono stati
digitalizzati, resi disponibili online e quindi accessibili in un formato che
ne permettesse una migliore quantificazione dei dati contenuti, a partire dai quali poi
estrarre delle previsioni. Anche se Turchin ci tiene a precisare di non
essere affatto un profeta, le analisi da lui condotte
indicano, per esempio, che intorno al 2020 ci sarà una nuova ondata di violenza e disordini.
Per estrapolare questa sorta di previsioni, Turchin ha
messo insieme dati relativi a eventi quali sommosse, linciaggi e atti
terroristici avvenuti negli Usa dalla fine del Settecento al 2010, e li ha
quindi raccolti in un grafico. Il modello che ne è risultato presenta due periodicità caratteristiche sovrapposte dietro le
fluttuazioni delle violenze: una secolare, sul lungo termine (cento anni circa,
appunto) e un'oscillazione di circa 50 anni che si sovrappone alla prima. In
pratica, tradotto in picchi grafici, le ondate
di violenza coincidono
con il 1870, quindi il 1920 e il 1970. Sebbene le analisi siano state condotte
per gli Usa, Turchin spiega però come pattern di periodicità simili si
osservino anche nelle dinamiche di instabilità politica di altre
società, quali l'Antica Roma, o l'Inghilterra medievale, per esempio.
Le ragioni dietro queste periodicità, per il biologo, si
spiegano chiamando in causa la demografia,
con la crescita della popolazione oltre le sue capacità di produttività, un numero
sproporzionato di giovani e l'aumento delle spese. Legato a questo fenomeno è quello che Turchin chiama
l'elite overproduction, una classe crescente di persone che competono per un
numero limitato di posti elitari , come quelli politici. In questo andrebbero
ricercate le ragioni dell' instabilità sociopolitica per Turchin, in quello che
sotto certi aspetti potrebbe essere raggruppato in termini come disoccupazione
e diseguaglianze sociali, che periodicamente sfociano in sommosse e disordini.
In quest'ottica quindi, soprattutto per tentare delle previsioni, potrebbe essere utile ricorrere alla cliodinamica, soprattutto tenendo in considerazione quegli archivi nascosti, antichi e non ancora digitalizzati, che potrebbero contente importanti e preziose informazioni.
In quest'ottica quindi, soprattutto per tentare delle previsioni, potrebbe essere utile ricorrere alla cliodinamica, soprattutto tenendo in considerazione quegli archivi nascosti, antichi e non ancora digitalizzati, che potrebbero contente importanti e preziose informazioni.
HA INVENTATO UNA NUOVA DISCIPLINA: LA CLIODINAMICA,
ISPIRATA AI LIBRI DI ASIMOV
Il matematico che vuole prevedere il
futuro
La scommessa di Peter Turchin: estrarre i dati dal passato e
disegnare l'evoluzione storica
Ibm, Ford, General
Electric. Le grandi aziende con oltre cento anni di vita possono programmare il
loro futuro usando una nuova disciplina che sposa storia e matematica usando
Internet e software : la cliodinamica (da Clio, la musa greca della storia). Il
guru di questo campo di ricerca è Peter Turchin, professore di matematica
e di ecologia e biologia evolutiva alla University of Connecticut, nato in
Russia nel 1957 da un dissidente sovietico ed emigrato negli Usa nel 1977. La
rivista americana Wired gli ha appena dedicato un lungo articolo, paragonandolo
al matematico Hari Seldon, il protagonista dei romanzi di fantascienza di Isaac
Asimov che usa la «psico-storia» per prevedere la caduta dell'Impero galattico.
CLIODINAMICA -
L'idea della cliodinamica risale agli anni Novanta, ma solo ora può pienamente
essere praticata grazie alla pubblicazione online di materiale storico prima
inaccessibile. Consiste nell'usare modelli
matematico-statistici per analizzare eventi del lontano passato e trovare
schemi che si ripetono, con i quali si può anticipare il futuro prossimo. «Partiamo con le stesse domande che si pongono gli
storici tradizionali», spiega Turchin. «Per esempio: perché le civilizzazioni
crollano? Ma poi usiamo la matematica invece del linguaggio. Quantifichiamo gli
eventi, costruiamo modelli e li mettiamo alla prova su diversi periodi e
situazioni, per vedere se reggono».
CICLI STORICI - Uno schema ricorrente nella
storia dei Paesi, secondo Turchin, è quello dell'instabilità sociale: si
possono individuare ondate di cento anni di
instabilità a cui si sovrappongono cicli di 50 anni di violenza politica. L'ultimo ciclo di violenza nel Novecento è stato
quello degli anni Settanta e il prossimo, prevede Turchin, avverrà attorno al
2020 negli Stati Uniti. A far scattare un ciclo di violenza, secondo le sue
analisi, è l'aumento della diseguaglianza sociale che monta per 50 anni, poi
esplode, stimola riforme e il ciclo ricomincia. Non è una legge ferrea, precisa lo studioso, ma
qualcosa di simile ai cicli biologici in cui preda e predatore - come il topo e
la donnola - sono legati: «Quando i topi sono abbondanti, le donnole si
riproducono da pazzi, così mangiano quasi tutti i topi e finiscono con il
morire di fame; a questo punto i topi sopravvissuti si riproducono da pazzi e
il ciclo si ripete».
INFORMAZIONI -
Lo scienziato di network Samuel Arbesman, membro dell'Istituto per la scienza
sociale quantitativa della Harvard University, sottolinea che i metodi di Turchin aprono la strada alla
collaborazione fra umanisti, matematici ed economisti, con possibili risvolti
anche per il mondo degli affari. Secondo Arbesman, infatti, più importante dell'analisi
dei Big data -
l'enorme quantità di dati oggi
reperibili su Internet - è quella dei Long
data,
le informazioni storiche. Per un'azienda significa concentrarsi
non solo e non tanto sulle informazioni digitali di questo momento, ma guardare
anche al passato della sua attività e dei suoi rapporti con i clienti. Un
approccio con cui è già d'accordo, per esempio, la quasi centenaria impresa
americana (specializzata nelle spedizioni postali) Pitney Bowes.
Maria Teresa Cometto15
aprile 2013 | 11:05
Cliodinamica
Da Wikipedia, l'enciclopedia libera.
Cliodinamica è una nuova area di ricerca multidisciplinare incentrata sulla
modellizzazione matematica delle dinamiche storiche.[1]
I principali risultati ottenuti
sono stati effettuati in relazione alla modellizzazione matematica dei cicli
delle dinamiche socio-demografici[2] e le principali tendenze delle dinamiche del mondo.[3]
Note
1. ^ Peter Turchin. Arise cliodynamics, 2008 Nature (3 July 2008)
2.
^ Turchin P. 2003. Historical Dynamics: Why States Rise and Fall. Princeton, NJ: Princeton University Press;
Turchin P., Korotayev A. Population Dynamics and Internal Warfare: A
Reconsideration. Social Evolution & History 5/2 (2006): 112–147; Turchin P. et al.,
eds. 2007. History & Mathematics: Historical Dynamics and
Development of Complex Societies. Moscow: KomKniga. ISBN 5484010020; Turchin P., Nefedov S. 2009. Secular Cycles. Princeton, NJ: Princeton University Press; Korotayev A., Khaltourina D. 2006 Introduction to Social Macrodynamics: Secular Cycles
and Millennial Trends in Africa. Moscow: URSS. ISBN
5484005604.
3.
^ Tsirel, S. V. 2004. On the Possible Reasons for the
Hyperexponential Growth of the Earth Population. Mathematical Modeling
of Social and Economic Dynamics/ Ed. by M. G. Dmitriev and A. P. Petrov,
pp. 367–9. Moscow: Russian State Social University, 2004; Korotayev A., Malkov A., Khaltourina D. Introduction to Social Macrodynamics: Compact
Macromodels of the World System Growth. Moscow: URSS Publishers, 2006; Korotayev
A. V. A Compact Macromodel of World System Evolution //
Journal of World-Systems Research 11/1 (2005): 79–93; Andrey Korotayev. The
World System urbanization dynamics. History & Mathematics: Historical Dynamics and
Development of Complex Societies. Edited by Peter Turchin, Leonid Grinin, Andrey
Korotayev, and Victor C. de Munck. Moscow:
KomKniga, 2006. ISBN
5-484-01002-0. P. 44-62.
Collegamenti esterni
Voci correlate
·
Cliometria
·
Da Wikipedia, l'enciclopedia libera.
Cliometria
Da
Wikipedia, l'enciclopedia libera.
Fonte: Fonte:
http://it.wikipedia.org/wiki/Cliometria
La cliometria è una
recente tendenza all'interno della storia economica,
che applica le tecniche dell'analisi statistica ed econometrica alla storia.
Il termine fu inventato da
Jonathan R.T. Hughes e Stanley Reiter nel 1960 in
riferimento a Clio, musa della storia nella mitologia
greca.
Questa disciplina ha come
rappresentanti principali Robert
Fogel e Douglass
North.
In base a questa metodologia il
lavoro di ricerca storica applicato all'analisi economica può e deve essere
attuato a partire da serie numeriche da analizzare in serie, al fine di
ottenere teorie standard applicabili a diversi periodi storici. L'assenza del
dato numerico pregiudicherebbe la possibilità di studio economico applicato ad
un determinato periodo storico.
Collegamenti esterni
Voci correlate
17 luglio 2012
Un modello statistico per prevedere come andrà la guerra
Lo ha sviluppato un gruppo di ricercatori
testandolo sul WikiLeaks Afghan War Diary, che rappresenta una collezione di
oltre 75.000 documenti militari relativi a cinque anni - dal 2004 al 2009 -
di guerra in Afghanistan. Il modello è riuscito a prevedere con sorprendente
accuratezza l'andamento del conflitto in tutto il 2010 (red)
Le
guerre moderne sono sempre più caratterizzate da una raccolta e un uso di
informazioni crescenti, grazie anche alle tecnologie di rilevamento, con
conseguenti grandi quantità di dati ad alta risoluzione. Tuttavia, nonostante
la grande mole di dati disponibili, sviluppare un modello in grado di prevedere
l'andamento degli scontri a fuoco e le località in cui potrebbero scatenarsi
resta un compito estremamente arduo a causa della natura eterogenea e dinamica dei dati.
Ora
un gruppo di ricercatori delle università britanniche di Edimbrgo e di
Sheffield e della Columbia University a New York ha sfruttato, integrandole, una serie di idee e
tecniche utilizzate in statistica, in ecologia, nel trattamento dei segnali
nelle comunicazioni e in epidemiologia per identificare i complicati processi
alla base di un conflitto, per esempio la diffusione, lo spostamento,
l’intensità, le diverse modalità di escalation e la
"volatilità" degli scontri.
La
guerra afgana, inoltre, rappresenta un banco di prova particolarmente arduo,
poiché si tratta di un conflitto altamente "irregolare", in cui le
azioni di guerra sono spesso
scollegate tra loro e sono promosse da una miriade di gruppi differenti di
insorti.
Come
si legge nell'articolo, ricercatori sono riusciti così a dimostrare che “il
nostro approccio permette una comprensione più profonda delle dinamiche del
conflitto a partire da semplici metodi di approntamento di una mappa spaziale
della crescita e della volatilità del conflitto. Cosa più importante, mostriamo che un
modello 'addestrato' su AWD consente una previsione di sorprendente accuratezza
statistica della progressione del conflitto nel 2010, ossia per un anno dopo la
conclusione dei dati AWD"
02 gennaio 2012
Corea
del Nord & Co., un nuovo conflitto mondiale è vicino?
12 aprile 2013 Inna
Soboleva
Gli esperti russi avvertono della possibilità dello scoppio di
una guerra internazionale nei prossimi 10 anni. Alla base delle loro congetture
vi sarebbe la teoria dei cicli economici e il loro impatto sul livello di
aggressività militare nel mondo
“La prossima guerra mondiale potrebbe scoppiare nei prossimi 10
anni. Per il momento, tuttavia, non è possibile stabilire se sarà fredda o
calda”, ha dichiarato Sergei Malkov, professore dell’Università Statale di
Mosca e membro dell’Accademia delle Scienze Militari, un’organizzazione non
governativa di ricerca scientifica.
“Una situazione di forte instabilità politica e tecnologica ci
attende nei prossimi 10 anni”, ha aggiunto l'esperto, secondo quanto riporta
l’agenzia di stampa Interfax, durante una riunione del
gruppo di lavoro in materia di formazione del personale del complesso
militare-industriale del Consiglio presidenziale per la scienza e l’istruzione.
L’accademico ha fatto riferimento alla teoria dei cicli economici,
elaborata dall’economista sovietico Nikolai Kondratiev, secondo la quale
l’economia mondiale si sviluppa in cicli. Ogni “ciclo di Kondratiev”, chiamato
anche “onda”, dura dai 40 ai 60 anni. Il passaggio da un ciclo all’altro è
segnato da rivoluzioni tecniche e tecnico-scientifiche.
Ogni onda si compone di due fasi: una crescente, durante la quale
si osservano tassi di crescita economica piuttosto elevati, e una decrescente,
con tassi di crescita relativamente bassi.
Oltre alle onde di Kondratiev, nella teoria economica vi sono
anche i cicli brevi di Žugljar, della durata di 7-12 anni, e i cicli lunghi di
Kuznec, della durata di 16-25 anni.
Malkov ha rivelato che gli specialisti dell’Università Mgu hanno
analizzato i cicli economici e il livello di aggressività militare nel mondo,
nel corso degli ultimi 200 anni, e sono giunti alla conclusione che i due
conflitti mondiali e i cicli economici coincidono. “In che
momento ci troviamo noi adesso? Siamo alla fine della quinta onda di Kondratiev
e stiamo passando alla sesta fase di sviluppo tecnologico -, ha spiegato
Malkov. - Ci attende la Terza Guerra Mondiale, che scoppierà nei prossimi 10
anni”.
Viktor Kovalev, segretario scientifico dell’Accademia delle
Scienze Militari, ricercatore di Scienze tecniche e vice caporedattore della
rivistaStrategicheskaja stabilnost (Stabilità strategica) ha appoggiato il
collega e ha dichiarato: “Malkov ha parlato dell’esistenza di determinati
modelli. Ora, si stanno concludendo, praticamente nello stesso momento, il
grande ciclo di Kondratiev, il ciclo di Žugljar e quello di Kuznec. Un’analisi
retrospettiva della storia mondiale ci dimostra che, in momenti simili, una
grande guerra risulta molto probabile. Ci troviamo in un periodo di grande
instabilità politica. Il mondo verrà sottoposto a grandi cambiamenti”.
Secondo l’esperto, l’uscita dalla crisi globale degli anni
2008-2010 non porterà quasi sicuramente a una crescita sostenibile. Al
contrario è molto probabile che scoppi presto una nuova crisi economica
globale, che “produrrà una notevole instabilità politica e sociale,
sconvolgimenti e conflitti militari”.
“Nel periodo 2014-2025 ci troveremo a far fronte, molto
probabilmente, a importanti cambiamenti geopolitici e geo-economici, simili a
quelli avvenuti tra il 1937 e il 1955, che apriranno la strada alla diffusione
globale di nuove e rivoluzionarie tecnologie”, ritiene Kovalev.
L’accademico ha precisato, tuttavia, che ciò non significa che nei
prossimi 10 anni “verranno lanciati squadroni di aerei e missili da crociera, e
verranno fatte esplodere bombe nucleari”. “La guerra potrebbe verificarsi
anche in altri settori, come ad esempio a livello di intelligence, con un
coinvolgimento illimitato di altri mezzi, tra cui l’avvio di attività
terroristiche sul territorio nemico. Ma ciò non significa che lo scontro sarà
meno distruttivo”, riporta il quotidiano Vzgljad citando
le parole di Kovalev.
Alla domanda: In quale angolo del pianeta è probabile che scoppi
il nuovo conflitto mondiale?, Kovalev ha risposto: “Le regioni in cui potrebbe
avere origine il conflitto sono l’Estremo Oriente, il Medio e Vicino Oriente, i
territori dell’ex Unione Sovietica, in particolare il Caucaso, l’Ucraina e
alcuni Paesi dell’Asia Centrale, Pakistan e India”.
L’esperto ritiene che la Corea del Nord non
sarà la causa scatenante del nuovo conflitto mondiale. “Pyongyang non
muoverà guerra a nessuno”, assicura Kovalev.
18 dicembre 2011
Un "generatore di ipotesi" per non affogare nei dati
Dalla genetica, all'economia,
dalla fisica alla salute pubblica, ovunque la quantità di dati disponibili
prolifera in maniera esorbitante: una ricchezza preziosa, ma che rischia di
rendere difficile l'identificazione delle variabili e delle relazioni
significative per un fenomeno. Un nuovo strumento statistico promette di porvi
rimedio (red)
Quando si vuole analizzare un fenomeno, avere a disposizione il
maggior numero possibile di dati che lo riguardano rappresenta un vantaggio,
almeno in linea di principio. Quando però la massa di dati cresce a dismisura,
individuare le relazioni rilevanti può diventare un compito che va al di là della
capacità di "intuizione" e di calcolo di un essere umano.
Di fronte alla crescente capacità di raccolta dati offerta dalla
tecnologica contemporanea e all'ambizione di rispondere a domande sempre più
complesse, il problema si presenta sempre più frequentemente in molti campi,
dalla genomica alla fisica, fino all'economia.
I
computer e i programmi sono in grado di leggere e classificare una mole di
informazioni con grande velocità, ma finora si sono rilevati insufficienti
quando si tratta di rilevare i diversi tipi di relazioni e modelli che vi si
possono celare, e spesso sono vittima di qualche preconcetto di origine.
"Ci
sono enormi insiemi di dati che vogliamo esplorare, e al loro interno, ci
possono essere molte relazioni che vogliamo capire. L'occhio umano è il modo
migliore per trovare queste relazioni, ma spesso gli insiemi di dati sono così
vasti che diventa impossibile farlo", osserva Pardis Sabeti,
autore senior di un
articolo pubblicato su "Science" che illustra uno studio condotto da un gruppo
di ricercatori del Broad Institute e della Harvard University per sviluppare un complesso di metodi statistici - che hanno chiamato MINE - che
possa ovviare a questo inconveniente.
"Il nostro strumento è un generatore di ipotesi. Il paradigma
standard - chiarisce Yakir Reshef, coautore dello studio - è basato su ipotesi
scientifiche, a cui si arriva sulla base di osservazioni personali. Ma, se si scava nei
i dati, si possono ricavare idee
per ipotesi che altrimenti non sarebbero mai venute in mente." "Questo strumento offre un modo per 'scavare' nei dati
alla ricerca di relazioni. I metodi standard vedono un modello
come segnale e scartano gli altri come rumore", ha
detto David Reshef, coautore della ricerca. "Ma ci può essere una grande
varietà di differenti tipi di relazioni in un determinato insieme di dati. Il
nostro metodo scruta qualsiasi tipo di struttura emergente all'interno dei dati,
cercando di trovarle tutte".
Concetto centrale del metodo è il "coefficiente di informazione massimale"
(MIC), una statistica in grado di rilevare una gamma
estremamente ampia di tipi di relazioni nei dati, assegnando punteggi simili a
relazioni di tipi differenti ma altrettanto "rumorose". Punteggi che
possono poi essere utilizzati per rilevare modelli complessi, influenzati da
molteplici fattori (variabili), e senza dover sapere precedenza quali tipi di
relazioni si stanno cercando.
Il MIC si basa sull'idea che, se esiste una relazione tra due variabili, dovrebbe esistere anche un modo per disegnare una griglia sul grafico che riproduce la dispersione di queste variabili, in modo tale che la maggior parte dei punti rappresentativi dei dati siano concentrati in alcune celle della griglia.
Cercando la griglia che meglio si adatta alla situazione, un computer può utilizzare il MIC come pure una famiglia di statistiche correlate - chiamata "esplorazione non parametrica basata sull'informazione massimale", o MINE (maximal information-based nonparametric exploration) - che possono essere utilizzate per identificare e caratterizzare relazioni.
Successivamente per testare i metodo lo hanno applicato a una
serie di ambiti per i quali si dispone di molti dati e si conoscono ben documentate
e comprovate relazioni significative.
Così, un test ha riguardato l'identificazione, a partire da una serie di dati
grezzi, dei fattori più rilevanti nella determinazione dei compensi dei
giocatori di baseball, mentre in un altro è stato confrontato il rapporto tra
reddito familiare e obesità femminile, trovando due tendenze contrastanti.
Molti paesi seguono infatti un trend parabolico, con i tassi di obesità che aumentano con il reddito fino a raggiungere un picco per poi calare. Ma nelle isole del Pacifico, dove l'obesità femminile esprime uno status sociale, l'andamento è più ripido e il tasso di obesità continua ad accelerare con l'aumentare del reddito.
28 novembre 2012
Modelli di previsione, dal meteo all'influenza
Presto sapremo prevedere un picco influenzale
con diverse settimane di anticipo. Lo suggerisce una simulazione su dati
storici che sfrutta modelli numerici efficaci per le previsioni del tempo (red)
Fonte: http://www.lescienze.it/news/2012/11/28/news/meteo_influenza_modelli_previsione_numerica-1388253/
Riusciremo mai a prevedere quando e dove colpirà
l'influenza? Ritengono di sì Jeffrey
Shaman e Alicia Karspeck della Mailman School of Public Health della Columbia
University di New York, che hanno elaborato un nuovo sistema per la previsione delle
epidemie. I due ricercatori hanno applicato modelli
numerici di previsione meteorologica ai dati sui tassi di contagio registrati a
New York nelle stagioni influenzali tra il 2003 e il 2008. Secondo quanto
riferito sui “Proceedings of the National Academy of Sciences”, il metodo ha dimostrato di poter prevedere il
picco influenzale con sette settimane di anticipo.
Shama e Karspeck hanno usato questo
approccio tenendo conto delle forti analogie delle epidemie con il meteo. In
termini teorici, infatti, la dinamica delle malattie infettive, proprio come
quella del tempo, è non lineare e intrinsecamente caotica, perché dipende in
modo critico dalle condizioni iniziali: due stati che in un certo momento sono
molto simili col passare del tempo possono dare origine a stati molto diversi
tra loro.
Inoltre, i modelli numerici di previsione meteorologica consentono di superare le difficoltà riscontrate negli altri modelli di diffusione delle infezioni. Nelle regioni temperate, per esempio, le statistiche mostrano una periodicità caratteristica delle epidemie invernali, che si evidenzia quando i livelli assoluti di umidità sono bassi. I dati storici hanno rivelato anche altri meccanismi chiave di diffusione, ma la capacità di prevedere importanti dettagli di queste epidemie è rimasta finora limitata.
Gli esempi di modelli matematici sviluppati per studiare le proprietà dinamiche della trasmissione della malattia non mancano. Alcuni hanno lo scopo di determinare le caratteristiche biologiche degli specifici patogeni, altri di analizzare il comportamento storico del contagio durante le epidemie documentate. Più di recente, le simulazioni della diffusione delle malattie infettive sono state condotte a posteriori, con l'aiuto di metodi di filtrazione statistica capaci di fornire stime parametriche sulla massima probabilità di un contagio.
I filtri usati nei modelli numerici di previsione meteorologica sono efficaci proprio nell'aggiornare il modello in modo iterativo, sulla base di un continuo confronto con i dati registrati nelle differenti situazioni reali. Grazie a questo procedimento, le simulazioni effettuate da Shaman e Karspeck sulle registrazioni storiche hanno dimostrato di poter prevedere un picco influenzale con sette settimane di anticipo, un arco temporale che, nelle situazioni reali, consentirebbe di affrontare le emergenze con mezzi adatti a contenere il contagio.
27 febbraio 2012
Un nuovo modello per prevedere la mobilità
Che si tratti di
auto, pendolari, telefonate o vettori di malattie, la capacità di prevedere i
flussi di traffico è essenziale in una società basata sulla comunicazione. Pur
facendo riferimento esclusivamente ai dati relativi alla densità di
popolazione, il nuovo modello - elaborato da un gruppo di ricercatori diretti
da Albert-László Barabasi e a prima firma di Filippo Simini - ha fornito
prestazioni superiori all'attuale modello "gravitazionale" di
riferimento (red)
In una società basata sulla comunicazione,
è essenziale saper prevedere i flussi di traffico, sia a breve che a lunga
scadenza, indipendentemente dal fatto che riguardino le automobili, il
trasporto merci, i pendolari che usano i treni oppure le telefonate. Per far
fronte a questa esigenza sono stati sviluppati diversi modelli di mobilità,
che, peraltro servono anche da base per i modelli che analizzano la diffusione
delle malattie infettive e delle pandemie.
Questi modelli della mobilità umana sono sviluppati in modo da richiedere solamente informazioni relative alla distribuzione della popolazione, e quello che viene attualmente considerato il modello standard è noto come "modello gravitazionale" di Zipf, così chiamato perché pur essendo stato introdotto nella sua forma attuale nel 1946, ma le sue radici affondano nel XVIII secolo, proprio nella legge di gravitazione di Newton. (La legge prende il nome da George Kingsley Zipf un linguista statunitense che nel 1949 individuò questa legge di potenza nella frequenza di uso delle parole nei testi.)
In analogia con la legge della gravitazione di Newton, esso presuppone infatti che il numero di individui che si muovono da un luogo all'altro o hanno contatti fra di loro nell'unità di tempo sia proporzionale al prodotto (a meno di opportuni parametri) delle popolazioni della località di origine e di destinazione), e diminuisca con la distanza fra le due località.
Per porre rimedio a queste limitazioni, ora un gruppo di ricercatori diretti da Albert-László Barabási della Northeastern University a Boston ha sviluppato un modello alternativo, descritto in un articolo pubblicato su "Nature", a prima firma Filippo Simini dell'Università di Padova, CNISM e INFN.
I ricercatori hanno infatti dimostrano che i dati si adattano molto meglio a un modello alternativo , detto di radiazione, che si basa esclusivamente sui dati relativi alla densità di popolazione, che può essere stimata in modo relativamente preciso in tutto il mondo.
Una volta sviluppato il modello, i ricercatori lo hanno testato sui flussi di traffico dei pendolari negli Stati Uniti, ottenendo previsioni molto più aderenti ai dati rilevabili osservatoriamente di quanto abbia fatto il modello gravitazionale classico.
Nessun commento:
Posta un commento
CRITERI DI MODERAZIONE UTILIZZATI PER I COMMENTI PUBBLICATI SUL BLOG NOSTRA SIGNORA DI ANGUERA. https://nostrasignoradianguera.blogspot.it/2016/09/moderazione-commenti-sul-blog-nostra.html
Nota. Solo i membri di questo blog possono postare un commento.