Agli ordini del generale Algoritmo

strangelove

Nel 1980 Michael Crichton scrisse uno dei suoi romanzi migliori, Congo. Uno dei paragrafi più interessanti in quel libro già interessante si intitolava Guerra alla velocità della luce. Lo trascrivo quasi per intero, perché vale la pena di leggerlo.

Nel gennaio del 1979, deponendo davanti alla Sottocommissione per le forze armate del Senato, il generale Franklin F. Martin dell’Ente Progetto per le Ricerche Avanzate (ARPA) del Pentagono disse: «Stiamo entrando in un’epoca in cui la semplice potenza distruttiva di un’arma sarà meno importante della sua velocità e della sua intelligenza».

[…]

Per trent’anni, i teorici militari erano rimasti impressionati dai missili balistici intercontinentali (ICBM). Ma Martin disse che

«Gli ICBM sono armi rozze. Non si avvicinano neppure lontanamente ai limiti teorici imposti dalle leggi fisiche. Secondo la fisica di Einstein, niente può superare la velocità della luce, che viaggia a 300.000 Km al secondo. Noi stiamo ora elaborando laser attivati ad alta energia e armamenti a fasci di particelle che operano alla velocità della luce. Di fronte a queste armi i missili balistici che viaggiano a soli 27.000 Km orari sono lentissimi dinosauri di un’epoca precedente, anacronistici come la cavalleria nella Prima guerra mondiale e altrettanto facilmente eliminabili».

Le armi alla velocità della luce erano soprattutto adatte allo spazio e sarebbero dapprima apparse nei satelliti. Martin osservò che i russi erano riusciti ad abbattere il satellite spia americano vv/02 già nel 1973; nel 1975 la Hughes Aircraft sviluppò un sistema di puntamento e tiro rapido che agganciava bersagli multipli, lanciando 8 impulsi ad alta energia in meno di un secondo. Nel 1978 l’equipe della Hughes aveva ridotto il tempo di reazione a 50 nanosecondi (50 miliardi di secondo) e aumentato la precisione del raggio al punto da poter prevedere l’abbattimento di 500 missili in meno di un minuto. Queste innovazioni anunciavano la fine imminente dell’ICBM come arma.

Proseguiva Martin:

«Eliminati i missili giganteschi, nei conflitti futuri i computer miniaturizzati ad altà velocità saranno assai più importanti delle bombe nucleari e la loro rapidità di calcolo sarà il fattore essenziale che determinerà l’esito della Terza guerra mondiale. La velocità dei computer è ora al centro della corsa agli armamenti, come lo erano vent’anni fa i megatoni di potenza. Passeremo dai computer a circuito elettronico ai computer a circuito luminoso, puramente a causa della velocità. L’interferometro Fabry-Perot, che è l’equivalente ottico di un transistor, può reagire in un picosecondo (un millesimo di miliardesimo di secondo), con una rapidità almeno mille volte superiore a quella delle più rapidi giunzioni Josephson.

Nel 1956, negli ultimi anni del bombardiere strategico, i teorici militari immaginavano uno scambio nucleare totale della durata di 12 ore. Nel 1963 l’ICBM aveva ridotto il tempo previsto a 3 ore. Nel 1974 i toeorici prevedevano una guerra che sarebbe durata soltanto 30 minuti, e tuttavia questa guerra di mezz’ora sarebbe stata assai più complessa di qualsiasi altro precedente conflitto nella storia.

Negli anni Cinquanta, se americani e russi avesserlo lanciato contemporaneamente tutti i loro bombardieri e i loro missili, non ci sarebbero state in aria più di 10.000 armi, ad attaccare e contrattaccare. Il totale degli eventi d’interazione fra le armi avrebbe toccato un massimo di 15.000 nella seconda ora. Il che equivaleva all’impressionante media di 4 interazioni d’armi al secondo, in vari punti del mondo.

Ma data una guerra tattica diversificata, il numero delle armi e degli elementi del sistema bellico sarebbe aumentato in misura astronomica. Le valutazioni moderne prevedevano 400 milioni di computer in campo, con oltre 15 miliardi di interazioni d’armi nella prima mezz’ora di guerra. Il che significava 8 milioni di interazioni d’armi al secondo, in uno stupefacente e rapidissimo conflitto di aerei, missili, carri armati e truppe di terra.

Una guerra simile poteva essere gestita soltanto da macchine; i tempi di reazione umani erano decisamente troppo lenti. La Terza guerra mondiale non sarebbe stata determinata dal premere un pulsante, perché come disse il generale Martin, «Ci vuole troppo tempo perché un uomo prema un pulsante – almeno 2,8 secondi, che nella guerra moderna sono un’eternità».

Questo fatto creava quello che Martin chiamava “il problema delle rocce”.

Le reazioni umane erano geologicamente lente, se paragonate a quelle di un computer ad alta velocità. «Un computer moderno esegue duemila calcoli nel tempo che a un uomo occorre per battere le palpebre. Di conseguenza, dal punto di vista dei computer che combatteranno la prossima guerra, gli esseri umani saranno sostanzialmente elementi fissi e immutabili come le rocce. Le guerre umane non sono mai durate quanto bastava a dover tenere conto del mutamento geologico. E le future guerre dei computer non dureranno tanto da dover tenere conto dei ritmi del mutamento umano. […] Nella prossima guerra dovremo rinunciare a qualsiasi speranza di regolare il corso del conflitto. Se decideremo di condurre la guerra a una velocità umana, finiremo quasi certamente col perderla. La nostra speranza è di aver fiducia nelle macchine. E questo rende del tutto superflui il giudizio umano, i valori umani, le riflessioni umane».

•••

Questo brano mi è tornato prepotentemente alla memoria leggendo un articolo del Sole 24 ore del 26 maggio 2013, l’altro ieri, sull’High Frequency Trading (HFT). Riporto anche questo per intero, perché oltre a essere interessante in sé, acquista un valore e un senso ulteriori se accostato all’estratto precedente. Il gioco di echi e di riverberi è inquietante.

Uomini contro macchine in borsa: ecco come nel trading i robot amplificano i crolli dei mercati. Creando rischi sistemici. Come nel flash crash del 2010

Uomini contro macchine, o addirittura macchine contro macchine. C’è stato il colossale flash crash del 6 maggio 2010, quando assieme agli altri indici statunitensi il Dow Jones crollò di circa mille punti (oltre il 9%) in pochi minuti tra gli sguardi pietrificati degli operatori, per poi rimbalzare verticalmente recuperando le perdite in poche manciate di minuti. Ma c’è anche il recente Twitter flash crash di tre anni dopo, per la precisione del 23 aprile 2013: un tweet pirata partito dall’account dell’Associated Press con la finta notizia di due esplosioni alla Casa Bianca e del ferimento di Obama fa perdere istantaneamente al Dow Jones l’1%, anche in questo caso recuperando subito con un movimento a “V”.

Sono solo i due casi più eclatanti del potere dei robot
Vale a dire di quei sistemi di high frequency trading che hanno profondamente mutato la struttura del mercato negli ultimi anni. Introducendo rischi nuovi e inediti, come hanno sottolineato una ricca serie di studi anglosassoni citati nell’eccellente Discussion Paper “Il trading ad alta frequenza. Caratteristiche, effetti, questioni di policy” pubblicato di recente dalla Consob. Non si tratta solo rischi per la qualità del mercato, ma anche di rischi sistemici.

I rischi sistemici
Secondo lo studio della Consob, i sistemi di HFT possono verificare fenomeni di profonda e rapida destabilizzazione di uno o più mercati. Per innescarli basta un problema a un singolo trader algoritmico: ad esempio un danno operativo (come un guasto dell’hardware) che a sua volta, influenzando le strategie degli altri high frequency traders, può avere ripercussioni sull’intero mercato fino a interessare anche altri mercati, data l’intensa operatività cross market di tali operatori. Un esempio: il 1° agosto 2012 Knight Capital, uno dei più grossi operatori HFT sul mercato statunitense, ha perso 440 milioni di dollari (pari a circa quattro volte il proprio utile netto dell’anno precedente) in soli 45 minuti di negoziazione per un errore nell’algoritmo di trading utilizzato.

Crolli sempre più veloci e intensi
Ma la diffusione del trading ad alta frequenza può portare ad amplificare le pressioni ribassiste fino a generare situazioni di estremo caos negli scambi. Come nel citato flash crash del 6 maggio 2010, quando i “robot” hanno amplificato la caduta degli indici pur non essendone stati la causa scatenante. A dare il via alle danze è infatti stato un grosso ordine di vendita. In base alla ricostruzione degli eventi fatta dalla Sec (Securities and Exchange Commission, la Consob americana), gli ordini in vendita delle macchine hanno successivamente innescato altri ordini in vendita di altri “robot” creando un fenomeno di “patata bollente” (hot potato trading) per cui le controparti degli scambi erano entrambe HFT che continuavano a vendere. Amplificando le spirali ribassiste.

L’instabilità portata dalle macchine
Che i sistemi di high frequency trading destabilizzino i mercati è convinto tra gli altri Giuseppe Basile, ingegnere informatico con 10 anni di esperienza come consulente IT in mezza Europa e project manager presso Accenture. Basile (che è anche analista tecnico certificato Siat e trader) al recente ITF di Rimini ha dedicato una relazione proprio all’impatto degli HFT sulle dinamiche di Borsa. «Si tratta di posizioni acquisite e rimosse molto velocemente, spesso centinaia o migliaia di volte al giorno – spiega – con un alto numero di ordini cancellato in confronto ai trade eseguiti». Per scatenare i robot basta poco: cambiamenti nel volume o nella volatilitá, oppure news di mercato, o ancora ritardi nella distribuzione dei dati di riferimento (prezzi, volumi o altro). «Alcuni sistemi includono dei componenti di ascolto delle notizie che scremano i titoli delle news e agiscono su di esse, comprando o vendondo sulla base di dove i prezzi si trovano in relazione al valore “corretto” stimato», continua Basile. E le cose, in futuro, sono probabilmente destinate a peggiorare: «le prossime generazioni di programmi saranno adattativi, imparareranno dalle proprie esperienze – sottolinea – e sarà difficile cercare di predire o controllare le dinamiche di un mercato popolato da un mix di trader sistemici e umani».

La liquidità diventa fantasma
Circola peraltro il mito che almeno una virtù i sistemi di HFT ce l’abbiano, cioé quella di rendere i mercati più liquidi. Ma è appunto un mito, una leggenda che non trova conferma nell’esperienza operativa. Al contrario, spiega la Consob sulla scorta degli studi anglossassoni in materia, in condizioni di particolare turbolenza gli HFT possono
assorbire liquidità con effetti particolarmente destabilizzanti per i mercati. Nell’ambiente quella offerta dagli HFT è infatti chiamata ghost liquidity, per indicare una liquidità solo “apparente” poiché tende a scomparire in un batter d’occhio, spesso in condizioni di mercato particolarmente turbolente e quindi proprio nel momento in cui ce ne sarebbe più bisogno.

Anche in Europa i robot sono dappertutto
Particolarmente diffusi sui mercati d’oltreoceano, i sistemi di HFT sono ormai molto diffusi anche nel Vecchio Continente. Nei principali Paesi europei la quota di scambi riconducibili ai robot è cresciuta costantemente negli ultimi anni e attualmente oscilla tra circa il 10 e il 40%. Piazza Affari purtroppo non è un’eccezione. Secondo un report AFM relativo ai primi cinque mesi del 2010, un ordine su cinque che passa sul circuito di Borsa Italiana proviene da una macchina, non da un umano. Ma siamo solo all’inizio. E l’instabilità portata dai robot sui mercati potrebbe aumentare, spiega Basile, con flash crash ancora peggiori di quello del maggio 2010.

failsafe

Non voglio affiancare alcun commento che alteri la purezza di questo montaggio testuale. Il bello di questo gioco sia il restare a ogni eventuale lettore il piacere di rintracciare suggestioni e trarre ogni sorta di conlusioni, azzardare previsioni o innescare pensieri. Mi permetto solo di prolungare il montaggio di appena un paio di righe ancora. Chiudendo con le parole di un altro scrittore di fantascienza, in modo da incastonare la verità raccontata dal quotidiano tra due parentesi di finzione. In un vezzo di eleganza simmetrica che, se non stempera l’inquietudine, ci ricorda che abbiamo comunque il privilegio di contemplare, anche artisticamente, le catastrofi che noi stessi creiamo per noi, mentre in lontananza le vediamo arrivare.

«Per tutto il tempo futuro, i conflitti saranno finalmente evitabili. Soltanto le Macchine, d’ora innanzi, saranno inevitabili.»

Isaac Asimov, Il conflitto evitabile
In Io Robot, 1950

•••

Foto • Dr. Strangelove (S. Kubrick, 1964) e Fail-Safe (S. Lumet, 1964), due film fratelli che come fratelli si vollero bene, tipo Caino e Abele.

Annunci

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...