«È l'approccio quantitativo, di cosa ci si stupisce!» Sempre di più, tra i commentatori di Borsa, rimbalzano simili affermazioni. L'indizio di come la strategia puramente matematica e statistica, quantitativa per l'appunto, abbia preso piede sui mercati. E non solo. I motivi? Molteplici. Tra i più importanti però, oltre alla presunta maggiore efficienza, c'è il contenimento dei costi. Una caratteristica, quest'ultima, che per essere realmente compresa richiede un esempio.
La logica d’investimento
Ebbene: l'approccio quantitativo è utilizzato dai cosiddetti investitori
automatici. Questi, in linea di massima, si basano sulla seguente struttura logica: «Se qualcosa accade...,allora compra o vendi». Un meccanismo che spesso considera le azioni (e tutti gli altri asset finanziari) semplici numeri. Vale a dire: il trader automatico dapprima analizza, ad esempio, l'andamento del prezzo del titolo in un arco di tempo (20 anni). Poi, dopo avere individuato dei valori significativi, li confronta con altre variabili (sempre ricondotte a numeri). Successivamente il prezzo considerato “corretto”, magari 10 euro, viene inserito nella struttura logica indicata sopra. La quale diventerà: «Se il titolo supera 10 euro…, allora compra». Di lì prende il via l'investimento. La descrizione , ovviamente, è una semplificazione molto spinta. E, tuttavia, rende l'idea di simili strategie. Tipologie d'approccio, va sottolineato, molto lontane da quelle cosiddette «fondamentale». In questo secondo caso, infatti, l'investitore analizza i bilanci della società. Guarda i ricavi, i profitti (o le perdite) generate. Oppure il capitale circolante e il debito. Non solo: interagisce (se possibile) con il management e confronta la performance dei concorrenti. Insomma: considera, per l'appunto, i fondamentali al fine di calcolare un livello di prezzo del titolo in Borsa. Ebbene: appare abbastanza evidente che il secondo metodo descritto richieda più tempo. E poi: i costi ad esso associati sono inevitabilmente maggiori. E questo non tanto perchè la società d'investimento debba «sborsare» lo stipendio all'analista di turno. Quanto, piuttosto, perchè nel momento in cui si sono definiti i modelli (e si dispone di una buona banca dati) l'approccio quantitativo può essere applicato su un numero molto ampio di asset. Sono possibili, cioè, maggiori economie di scala che rendono meno onerosa l'attività.
Il rischio dell’autoreferenzialità
Tutto rose e fiori, quindi? La realtà è più complessa. Una delle critiche che vengono volte all'approccio quantitativo e il rischio dell'autoreferenzialità. Simili strategie, infatti, sono sempre più dominanti. Una condizione che «sporca» il valore segnaletico della formazione del prezzo dell'asset. Cioè: nel momento in cui la quota percentuale di scambi gestita dagli algoritmi è così elevata gli approcci quantitativi, cui fanno riferimento, diventano essi stessi il riferimento del mercato. Sono i «nuovi» fondamentali senza, però, esserlo realmente. Il prezzo non comprende più «tutte le informazioni di mercato». Si crea il rischio, per l'appunto, di creare un mondo autoreferenziale che, peraltro, non è più collegato alla realtà aziendale. La quale è relegata sullo sfondo. Un esempio di tale rischio, seppure con le dovute differenze, è offerto da quello che successe nella crisi dei subprime. In particolare, rispetto al rischio di correlazione tra i default dei derivati sintetici costruiti sui tristemente «famosi» mutui. Di cosa si trattava di preciso? Per comprenderlo può farsi un esempio. Si pensi a due amici: Michele e Simone. Michele sale su una zattera semidistrutta. Il modello matematico può stimare la percentuale del suo rischio di cadere in mare: per esempio il 40%. Il suo amico Simone, invece, rimane a terra: la sua probabilità di farsi il bagno è stimata a zero. Così come sarà uguale a zero la probabilità che sia Michele che Simone,contemporaneamente, finiscano tra le onde. Ma se anche Simone sale sulla stessa zattera, è intuitivo, la probabilità che entrambi cadano in mare è maggiore. Cioè, la correlazione aumenta. Ebbene, per dare il giusto rating ai mortgage backed securities (Mbs) le società di Wall Street puntarono sul definire la correlazione tra i cash flow legati ai mutui. Capire, per esempio, quando più prestiti possono contemporaneamente andare in default (Giovanni e Andrea finiscono entrambi in acqua). L'analisi sul territorio, l'unica valida e riconducibile all'idea dei «fondamentali», era considerata impossibile. Ma i maghi delle cartolarizzazioni Usa trovarono la pietra filosofale: i credit default swap (Cds). Se le quotazioni di diversi Cds legati a differenti loan salivano contemporaneamente, allora la correlazione era alta. E il rischio doveva essere prezzato a un livello maggiore. In apparenza, una soluzione elegante. A ben vedere, la matematica usata come grimaldello per
forzare la realtà. Tanto che, poi, sappiamo tutti come è andata a finire. Ma non è solo questione di autoreferenzialità e distacco dalla realtà. Un altro rischio insito in simili metodologie è la standardizzazione dei processi che, spesso, porta alla eccessiva semplificazione. Vale a dire: il modello matematico, realizzato dal fisico o ingegnere di turno, può essere in sè valido. Tuttavia nell'industria finanziaria, che legittimamente va a caccia del profitto, non è escluso si punti a un approccio più standardizzato. Magari per riuscire a sfruttare il modello su una più ampia scala. Con il che, però, le maglie della rete di «sicurezza» della strategie si allargano. E, di nuovo, il rischio aumenta. Insomma: la matematica è utile. E però il suo eccessivo utilizzo non è una strategia vincente. Tutt'altro!
© Riproduzione riservata