Finanza & Mercati

Robot e finanza, quando l’intelligenza artificiale provoca…

  • Abbonati
  • Accedi
Inchiesta / dopo il flash crash a wall street

Robot e finanza, quando l’intelligenza artificiale provoca “danni collaterali” sui mercati

Il robot della società statunitense Portware, analizzando volatilità e anomalie nel flusso degli ordini, sceglie autonomamente la migliore strategia d’investimento. Il sistema neurale del gruppo iSentium, invece, scandaglia le conversazioni in Internet e crea un sentiment su cui impostare il trading. Di più: Equobot sfrutta il super computer Watson di Ibm per gestire gli Etf. Sono alcuni casi in cui l’Intelligenza artificiale viene usata in Borsa. Un fenomeno che cresce. Secondo Opimas, nel 2017, gli investimenti diretti delle società finanziarie nell’Artificial intelligence (Ai) sono stati circa 1,5 miliardi di dollari. Nel 2021 dovrebbero raggiungere quota 2,8 miliardi. Soldi, a ben vedere, appannaggio anche e soprattutto del mondo dei mercati.

Non è un caso che il Financial stability board (Fsb) sottolinei come i fondi quantitativi, che gestiscono circa 1.000 miliardi di dollari, facciano ampio uso dell’Ai. C’è da stupirsi? Proprio no. In finanza la digitalizzazione è di casa. Si tratta di un mondo in cui i big data, da una parte, costituiscono una miniera d’oro per l’investitore; ma, dall’altra, richiedono uno sforzo d’analisi che l’uomo non è in grado di fornire. In particolare con i tempi di reazione del flash trader. Ecco che, allora, si cercano sistemi più evoluti. I modelli di analisi fondamentale, e neppure quelli statistici, bastano più.

Grazie alla maggiore potenza computazionale entra in gioco, per l’appunto, l’Ai. La quale, va detto, permette maggiori efficienze, abbatte i costi d’esecuzione e può rendere più trasparenti le transazioni. Non solo. Consente, con buona pace dell’homo oeconomicus, di bypassare l’irrazionalità dell’investitore stesso. « È dimostrato - ricorda Matteo Motterlini, professore dell’università Vita-Salute del San Raffaele di Milano - che, durante l’acquisto di un’azione, l’area del cervello attivata è quella limbica». Cioè la parte che “condividiamo” con mammiferi e rettili. «Nella scelta di un titolo viene interessato il centro della ricompensa», ricco di dopamina, «normalmente funzionante nelle attività legate al sesso, alle droghe o alle patologie del gioco d’azzardo». Insomma: l’impulso decisionale è spesso tutt’altro che razionale. A fronte di ciò, non stupisce che l’industria finanziaria abbia investito tempo e denaro per creare i robot investitori.

Danni collaterali
Sennonchè, il “diavolo” si nasconde nei dettagli. Come ha mostrato il flash-crash a Wall Stree di qualche settimana fa, il contesto ipertecnologico da una parte dà vita a numerosi danni collaterali. E, dall’altra, crea dei lati oscuri agli esperti stessi. «Può essere difficile, se non impossibile – spiega Jeff Clune, direttore dell’Evolving artificial intelligence lab dell’Università del Wyoming –, comprendere il ragionamento alla base delle scelte dell’Ai. È il fenomeno della cosiddetta “black box”, la cui soluzione è tra le maggiori sfide del prossimo decennio”.

La scatola oscura
Già, le maggiori sfide. Ma, in concreto, cos’è la “black box”? Vediamo di spiegarci. Pensiamo ad un Ai basata sul sistema neurale. Questo in parole semplici funziona così: il sistema prevede un’operatività in parallelo e a più livelli. L’informazione (input) è immessa nel nodo (neurone simulato) il quale, dopo averla “elaborata”, la trasmette ai nodi successivi e in parallelo. Si giunge in tal modo a un primo risultato (output) transitorio. Questo viene “passato” al livello superiore dove si ripete il processo. Di livello in livello si arriva all’elaborazione finale dell'informazione. Orbene: un simile sistema è considerato autodeterminato. L’input (informazione iniziale) viene definito come dato certo (ad esempio, l’immagine di un cane). L’output (informazione finale) deve essere coerente con l'input: la macchina deve indicare che si tratta di un cane. Fino a quando ciò non accade il procedimento viene ripetuto. Alla fine l’Ai riconoscerà il cane ma i percorsi seguiti nell’elaborare gli input saranno stati decisi in autonomia da le stessa.

E qui, a fronte del fatto che i sistemi neurali prevedono milioni di nodi, può sorgere la “black box”. Ovvero: l’esperto può non comprendere il procedimento che ha portato al risultato. È ovvio che la descrizione rappresenta una semplificazione. Tuttavia appare utile, da un lato, a fare comprendere la complessità del tema. E, dall’altro, segnala il rischio dell’utilizzo di simili tecnologie nei mercati finanziari. È banale, infatti, dire che più il meccanismo che realizza l’errore è intricato, e maggiore sarà la difficoltà nel correggerlo. Il tema, ammettono gli esperti, è innegabile. Tuttavia, viene aggiunto a gran voce, non bisogna cedere ad inutili allarmismi.

«Le contromisure – spiega Marco Varone, presidente e Cto di Expert System – sono possibili”. Vale a dire? «In primis, da subito, può affiancarsi alla potenziale “black box” un sistema, di cui si conoscono i meccanismi, che controlli l’output della stessa». Inoltre «è possibile eliminare il problema alla radice. Cioè: utilizzare, invece che sistemi neurali, soluzioni tecnologiche costruite da passaggi logici noti ed espliciti». Certo: queste sono «più dispendiose e meno flessibili. E, però, limiterebbero il rischio della “black box”».

La standardizzazione
L'idea in sé pare corretta. Tuttavia: se è vero che, in teoria, le tecnologiche in oggetto possono essere le più sofisticate,nella realtà la storia della finanza insegna che l'industria di settore tende alla standardizzazione. Vale a dire: tutti (o quasi) puntano ad “appiattirsi” sulle medesime variabili. Lo stesso Fsb ricorda che, nel momento in cui più trader adottano Ai con strategie poco differenti tra loro, il rischio da un lato è l’effetto gregge. E, dall’altro, l’amplificazione dell’eventuale shock di Borsa.

Strane interconnessioni
Ma non è solo la standardizzazione. Il Financial stability board, pur sempre ricordando gli elementi positivi dell’Ai, richiama un ulteriore rischio: l’anomala interconnessione tra variabili e mercati eterogenei. Nel momento in cui si allarga il ventaglio dei dati utilizzati (ad esempio con l’e-commerce o i social network) possono crearsi collegamenti tra listini e settori anche non finanziari. Correlazioni che, proprio perchè le informazioni usate hanno diversa “natura” o sono non “strutturate”, rischiano di diventare incomprensibili. «La possibilità – commenta Enrico Malverti, co-fondatore di Cyber Trade – indubbiamente esiste. Tuttavia è uno scenario ancora futuribile che, allo stato attuale, non trova riscontro sul mercato. Almeno in Italia».

Realtà e prezzi
Infine c'è il rischio che simili robot investitori, sia che utilizzino l’Ai sia che sfruttino sistemi statistici più tradizionali, spingano sullo sfondo l’economia reale. L’azione, va ricordato, rappresenta un’azienda con i suoi manager, i suoi impiegati e i suoi prodotti. Tutti elementi che, in linea di massima, vengono descritti dalle scritture contabili o da altri documenti quali le conference call”. L’analisi fondamentale, “appoggiandosi” proprio a simili elementi, tenta di mantenere il collegamento tra la realtà societaria e la quotazione in Borsa. Le nuove strategie, invece, allentano il legame. Lo sviliscono nel convincimento che il prezzo in sé sia l’unica cosa importante. Certo: può ricordarsi che il valore di un’azione “comprende” tutto ciò che ad essa è riferito.

Così, ad esempio, se il business è gestito bene l’andamento sul listino ne terrà conto. Ciò detto, però, proprio la crescita dei sistemi quantitativi (circa il 60% degli scambi cash globali è in mano ad algo trader) indebolisce il valore segnaletico della formazione del prezzo dell’azione. Cioè: nel momento in cui la quota percentuale di scambi in mano ai robot è elevata le strategie quantitative cui fanno riferimento diventano esse stesse il riferimento del mercato. Sono i «nuovi» fondamentali senza, però, esserlo realmente. In tal modo l'affermazione che «tutte le informazioni sono riflesse nei prezzi» richia di perdere grande parte del suo significato.

© Riproduzione riservata