Fintech e la nuova frontiera degli investimenti

I gestori patrimoniali in generale utilizzano strategie di investimento basate rigorosamente su dati statistici: stock picking sulla base di rigide regole, tramandate nei corsi di laurea di finanza.

Gestire il portafoglio è un’arte che deve saper combinare statistica e l’intuizione dell’investment manager. Non può esistere l’uno senza l’altro. C’è un solo problema in questo assetto di pensiero: la statistica non può mai sbagliare, perché offre solo indici probabilistici rispetto a ciò che può verificarsi nella realtà. Ciò che sbaglia, e anche molto spesso, è proprio l’intuizione dell’investment manager.

Sbagliare è normale, ma deve essere una spinta verso un cambiamento positivo. È proprio per questo che la tecnologia entra nella finanza, nasce il Fintech e la stessa finanza subisce un cambiamento epocale.

Superfluo ribadire l’entità del cambiamento che le nostre economie stanno affrontando grazie all’innovazione finanziaria: banche a portata del consumatore finale, che vede meno costi e maggior vantaggi nella quotidiana user experience.

Sarebbe non corretto però vedere il fenomeno delle Fintech solo dal punto di vista del B2C, cioè del cliente finale. Il trend va osservato anche e soprattutto nel B2B, dove esiste il mercato più ampio.

Proprio uno dei settori più tradizionali sta subendo un cambiamento epocale grazie alla tecnologia che entra senza chiedere permesso. L’asset management come è conosciuto ai più oggi non sarà più lo stesso in futuro.

Sta nascendo la nuova frontiera della gestione degli investimenti.

È il momento del Quantamental Investing, filosofia in cui Machine Learning (ML) e Intelligenza Artificiale si fondono per migliorare le performance dei fondi di investimento.

Il QI permette di utilizzare il machine learning a servizio dell’attività dell’investment manager. Viene quindi analizzato un vasto ammontare di prodotti finanziari quotati, inserito in un motore ML e rielaborato: permette di venire a conoscenza quali sono le migliori opportunità di investimento secondo ML. È quindi un tool a supporto del trader che permette loro di massimizzare le performance. Il QI è a supporto dell’analisi discrezionale, non la vuole sostituire in toto.

Crescono gli AUM (assets under management), quasi raddoppiati negli ultimi 8 anni. I primi fondi che abbracciano questa tecnologia fanno riferimento a istituzioni finanziarie data-driven, come BlackRock, Point72 Asset Management, Tudor Investment e HSBC.

I portfolio manager possono fare affidamento su tool tecnologici per effettuare il processo di due diligence, rendendo lo stesso processo più snello e più efficace. La tecnologia permette quindi di effettuare una grande quantità di analisi, velocemente e rapidamente. Ciò porta ad una riduzione di costi e ad un efficientamento dell’istituzione finanziaria, in quanto più persone potranno occuparsi di task più strategici, rispetto al normale pre-screening delle opportunità di investimento.

Ogni tecnologia che si rispetta ha anche dei punti di debolezza. Prima di tutto esiste una barriera all’entrata in termini di costi da sostenere per dotarsi di un certo tipo di software. Poi, il mercato del lavoro non è ancora quantamental-investing oriented. Esistono pochi profili che matchano le richieste delle istituzioni finanziarie, deve ancora verificarsi un adeguamento dei profili universitari alle skill richieste. C’è anche un problema nella struttura del mercato stesso: è in fase embrionale, dominato da tanti piccoli player che non hanno la forza di fare sistema e, per ora, di scalare. Bisogna scalare velocemente per diventare leader di questa categoria.

Gli alternative data che vengono utilizzati possono essere:

  • Immagini di satelliti: ad esempio Orbital riesce a dire quante sono le auto parcheggiate di fronte ai retail store, informazione di grande importanza perché permette di stimare le revenue di un determinato punto vendita
  • Website scraping: sono una categoria di API che estraggono i dati dai siti web, come ad esempio i siti di e-commerce. Questo permette di effettuare un profiling dettagliato delle attività commerciali di una determinata azienda, e anche di una nazione intera. Tracciando i consumi infatti si può captare lo stato di benessere dei cittadini, e quindi dell’economia.
  • Geolocalizzazione, per capire il comportamento dei consumatori, individuare i punti più frequentati, e quindi avere gli strumenti per effettuare una profilazione sempre più dettagliata delle revenues del punto vendita.

Ci sono alcune startup che stanno cavalcando il trend degli alternative data e dell’analisi di portafoglio utilizzando motori di ML. Regina di tutte è Finscience, fondata da ex senior manager di Google.

Si inserisce in un mercato in competizione con Morgan Stanley, che sta implementando soluzioni di quantamental portfolio, Axyon AI, società tutta italiana che offre soluzioni deep learning per il mercato dei capitali e il settore dell’asset management e Sentifi, start-up svizzera che usa gli alternative data per offrire segnali di trading.

La scena competitiva dell’uso degli alternative data è molto vasta, si divide principalmente tra Europa (focus particolare su UK) e gli Stati Uniti, e comunque molto sensibile alla tematica regolatoria dell’uso dei dati, che se effettuato in modo scorretto può compromettere la privacy dell’utente finale, che va sempre tutelata, in ogni modo e situazione.

La finanza tradizionale sta per essere stravolta per sempre, forse non c’è ancora chiara percezione del cambiamento che stiamo attraversando.

Luca Carlomagno


Ringrazio il mio team della Bocconi Students Fintech Society, per aver condotto un analisi molto dettagliata dello stato attuale del Quantamental Investing. Grazie al Presidente Amedeo Monchiero, al Senior Associate Pietro Pizzato, agli Associate Alessandro Astore e Lorenzo Barucco. Qui è possibile trovare il link dell’analisi svolta.

Direttiva Copyright e Text and Data Mining

Negli ultimi giorni si è a lungo parlato delle novità introdotte dalla direttiva europea sul diritto d’autore nel mercato unico digitale (“Direttiva Copyright”), approvata dal Parlamento Europeo lo scorso 26 marzo.

Sebbene oggetto dei maggiori dibattiti siano stati agli (ex) articoli 11 e 13, a causa delle possibili ripercussioni sulla libertà di diffusione delle informazioni online, la sempre maggiore importanza attribuita ai big data e all’intelligenza artificiale (di cui abbiamo già avuto modo di discutere qui con Marco Galli), ci ha spinto ad approfondire nell’articolo di oggi le novità introdotte da un’altra (non meno rilevate) disposizione della Direttiva Copyright. Ci riferiamo agli articoli 3 e 4 che, nell’ultima versione della Direttiva, hanno introdotto due eccezioni al diritto d’autore, entrambe obbligatorie per gli Stati membri, volte a favorire l’attività di estrazione di testi e dati, il cosiddetto text e data mining.

Ma andiamo con ordine…che cos’è il text e data mining (per semplicità, anche TDM)?

Il TDM è un processo di estrazione e analisi automatizzata di grandi quantità di dati in formato digitale tramite l’applicazione di algoritmi, con l’obiettivo di generare informazioni (ivi inclusi, modelli, tendenze e correlazioni) e renderle disponibili e direttamente utilizzabili per finalità diverse. L’analisi dei big data è, infatti, ampiamente utilizzata non solo nella ricerca scientifica e medica, ma anche nel marketing, nella finanza e, più in generale, in ambito commerciale, oltre che per esigenze di sicurezza e intelligence nazionale.

Semplificando, nel processo di TDM è possibile distinguere tre fasi:

  • accesso a grandi quantità di contenuti – quali articoli di riviste scientifiche, libri, immagini, registrazioni musicali o film;
  • estrazione e/o copia di tali contenuti; e
  • elaborazione dei testi, estrazione di dati strutturati e analisi degli output.

Trattandosi di contenuti (nella maggioranza dei casi) protetti dalla normativa sul diritto d’autore, il TDM solleva rilevanti questioni circa la sua compatibilità con le leggi sulla proprietà intellettuale. Si ricorda, infatti, che il creatore di un’opera creativa ha il diritto esclusivo di pubblicare e utilizzare economicamente la propria opera e che, pertanto, è necessaria la sua autorizzazione per poter procedere alla copia e alla elaborazione di tale lavoro creativo (lo stesso dicasi per il costitutore di una banca dati non creativa, a cui è riconosciuto il diritto sui generis di vietare operazioni di estrazione o reimpiego della stessa).

A dimostrazione della necessità di trovare un corretto bilanciamento tra gli interessi del creatore di un’opera intellettuale, da un lato, e quelli del mercato, dall’altro, si evidenzia che diversi paesi si sono già attivati per introdurre nelle proprie normative nazionali specifiche eccezioni al diritto d’autore.

Sul punto, si segnala in primo luogo il Giappone, che con un emendamento del Japan Copyright Act in vigore dal 2011, è stato il primo paese a introdurre una limitazione volta proprio a consentire “the information analysis by using a computer” – definita come l’attività di estrazione di “information, concerned with languages, sounds, images or other elements constituting such information, from many works” – e le connesse attività di “recording on a memory” e di “adaptation of a work, to the extent deemed necessary” (art. 47 septies). L’ampiezza di tale eccezione, comprensiva anche delle attività di analisi di dati per finalità commerciali, dimostra ancora una volta l’attenzione prestata da questo paese al progresso tecnologico e, più in generale, alla ricerca e all’innovazione.

A seguire, nel 2014, l’Inghilterra è stato il primo paese dell’unione europea ad introdurre nel Copyright, Designs and Patents Act 1988 una specifica eccezione che consente il text e data analysis, ma (a differenza della normativa nipponica) solo per finalità di ricerca non-commerciale. In particolare, tale norma prevede la facoltà, estesa a tutti coloro che hanno lecito accesso ad un’opera altrui (e, quindi, non solo agli istituti di ricerca), di effettuare copie “for carry out a computational analysis of anything recorded in the work for the sole purpose of research for a non-commercial purpose” (art. 29A).

Più recentemente, anche altri paesi europei, quali l’Estonia, la Germania, l’Islanda e la Francia, hanno introdotto, ovvero hanno proposto di introdurre, nella propria normativa sul copyright specifiche eccezioni in materia di TDM.

E’ in tale frastagliato contesto che trovano spazio le nuove norme adottate dalla Direttiva Copyright. L’assenza di disposizioni chiare a livello europeo sull’uso del TDM unitamente all’indiscutibile rilevanza ormai acquisita a livello mondiale dai big data e dall’intelligenza artificiale, sembrano infatti essere state colte dalle istituzioni europee come un impulso per adattare il sistema di eccezioni del diritto d’autore, ormai tecnologicamente obsoleto, alle nuove forme di sfruttamento di opere e contenuti.

Così, l’articolo 3 e 4, nella loro ultima versione approvata dal Parlamento Europeo, prevedono un’ampia ed obbligatoria eccezione al diritto d’autore per il TDM a beneficio non più solo degli istituti di ricerca ma, più in generale, anche degli enti privati.

Nello specifico, l’articolo 3 prevede l’obbligo per gli Stati membri di introdurre un’eccezione al diritto esclusivo di riproduzione, nonché al diritto di vietare l’estrazione da una banca dati, a favore delle università e degli altri organismi di ricerca, così come degli istituti di tutela del patrimonio culturale. Ciò a condizione che l’attività di riproduzione ed estrazione (i) avvenga per scopi di ricerca scientifica e (ii) abbia ad oggetto opere o altri materiali a cui tali enti abbiano avuto legalmente accesso. Peraltro, tale eccezione è riconosciuta agli organismi di ricerca anche nel caso in cui le loro attività siano svolte nel quadro di partenariati pubblico-privato (Considerando 11), salvo i casi in cui i risultati delle attività di TDM vadano a beneficio di un’impresa che eserciti un’influenza dominante sugli organismi di ricerca.

E’, peraltro, con il successivo articolo 4 che le istituzioni europee appaiono pienamente riconoscere la rilevanza di tale nuovo fenomeno tecnologico, prevedendo l’obbligo per gli Stati membri di disporre “un’eccezione o una limitazione … per le riproduzioni e le estrazioni effettuate da opere o altri materiali cui si abbia legalmente accesso ai fini dell’estrazione di testo e di dati”. Si tratta, pertanto, di un’eccezione supplementare per il TDM, che contempla tale utilizzo al di là dell’ambito della ricerca. Anche in tale caso, tuttavia, il legislatore europeo limita la concessione a quei contenuti di cui si abbia accesso legale e sui quali i relativi titolari non abbiano riservato i diritti di effettuare riproduzioni ed estrazioni (ad esempio, in caso di contenuti resi pubblicamente disponibili online, attraverso strumenti che consentano una lettura automatizzata, inclusi i metadati e i termini e le condizioni di un sito web o di un servizio). Infine, le copie realizzate potranno essere conservate unicamente per il tempo necessario ai fini dell’estrazione di testo e di dati.

In definitiva, ferma restando la necessità di verificare come tali indicazioni verranno recepite nella normativa nazionale, appare evidente la volontà degli istituti europei di creare un contesto di maggiore certezza giuridica al fine di incentivare l’innovazione mediante l’utilizzo di sitemi di AI e machine learning e di incoraggiare la collaborazione transfrontaliera e la collaborazione interdisciplinare, ormai sempre più rilevanti per poter competere con il mercato extra-europeo.

Vittoria Omarchi

No man (or AI) is an island: l’intelligenza artificiale tra psicologia, computer science e diritto

Molti giuristi e commentatori hanno versato negli ultimi mesi fiumi di inchiostro (virtuale) per analizzare i più svariati profili connessi allo sviluppo e alla diffusione di forme di intelligenza artificiale sempre più sofisticate. Il tema è stato oggetto anche di una proposta di risoluzione del Parlamento Europeo, recante una serie di raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica.

Su Tech Mood vogliamo fare un passo indietro e definire i contorni, i limiti e le prospettive dello strumento dell’intelligenza artificiale, da una prospettiva filosofica e psicologica, prima che giuridica.

Ne parliamo con Stefano Triberti, Ph.D., assegnista di ricerca presso il Dipartimento di Oncologia ed Emato-Oncologia dell’Università Statale di Milano, dove si occupa di ergonomia e User Experience di tecnologie per la medicina e la chirurgia, oltre che dell’utilizzo di nuovi media per la promozione della salute (eHealth).

Stefano, cominciamo dalle basi: in cosa consistono i concetti di intelligenza artificiale e di machine learning?

L’Intelligenza Artificiale è una disciplina scientifica che ha le sue radici nell’Informatica, nelle Scienze Cognitive e nella Filosofia contemporanea… oltre che, ovviamente, nella fantascienza. In ambito scientifico, il concetto vede la luce nel 1956, quando John McCarthy invitò importanti ricercatori a un workshop presso il Dartmouth College per discutere sulla possibilità di ricreare artificialmente le facoltà intellettive umane. Storicamente il dibattito fece nascere due posizioni opposte, per molti versi valide ancora oggi: alcuni studiosi ritenevano che i processi computazionali realizzabili all’interno delle macchine fossero effettivamente equiparabili ai processi cognitivi (Strong AI), mentre altri ritenevano che le operazioni dei processori potessero arrivare al massimo a simulazioni più o meno efficaci delle facoltà umane (Weak AI). Oggi le tecnologie hanno fatto passi da gigante e molti traguardi sono stati raggiunti, e tuttavia si può parlare ancora di intelligenza artificiale “debole” più che di una reale identità tra facoltà umane e tecnologiche.

Con “machine learning”, invece, si fa riferimento a un concetto più ristretto, di certo fondamentale per l’Intelligenza Artificiale: è la capacità delle macchine di imparare, ovvero di mettere in atto azioni ed elaborazioni che vanno al di là della loro programmazione originale. Di solito, attualmente, ci si riferisce a computer i cui software sono basati su algoritmi e funzioni statistiche con capacità predittiva: il computer è quindi capace di modificare i propri output sulla base di informazioni nuove, in modo parzialmente imprevedibile rispetto alle sue capacità di partenza.

Quali sono le più promettenti applicazioni pratiche, attuali e future?

Le applicazioni sono innumerevoli.

Macchine “intelligenti” e “capaci di imparare” sono, in parole povere, macchine sempre più automatiche o meglio autonome; possono risolvere e gestire problemi per i quali prima era necessario l’impiego di una o più persone e un maggior tempo di elaborazione e presa di decisione. A mio avviso le applicazioni che vedremo “prima” nel futuro non saranno tanto influenzate da una qualche adeguatezza di questi costrutti ad ambiti specifici, quanto dalla direzione dei finanziamenti. Per cui, a mio personale parere, le principali applicazioni di tecnologie avanzate saranno negli ambiti della salute, dell’ingegneria bellica, dell’intrattenimento e del marketing, non necessariamente in quest’ordine.

Detto questo, bisogna precisare che questi concetti non fanno riferimento solo a tecnologie avanzate e futuribili, al contrario fanno già parte della nostra vita. Per fare un paio di esempi appartenenti al nostro quotidiano, anche i personaggi non giocanti dei videogiochi hanno una forma di intelligenza artificiale, così come le caselle email che smistano la nostra posta possono contenere algoritmi di machine learning.

Quanto siamo vicini al momento in cui l’intelligenza artificiale sarà paragonabile o addirittura superiore all’intelletto umano?

A questa domanda e a quelle seguenti risponderò in maniera un po’… “sofistica”!

Dipende tutto da come definiamo i concetti, in questo caso quelli di “paragonabile” e “superiore”, e anche quello di “intelligenza”. In realtà, nella Psicologia si dibatte da più di un secolo sull’intelligenza. Se la consideriamo in maniera tradizionale, ovvero come l’insieme di capacità di ragionamento di matrice soprattutto logico-linguistica e logico-matematica, potremmo dire che (perlomeno) alcuni computer sono già più intelligenti di alcuni esseri umani. Di certo fanno di conto meglio di noi, e anche i sistemi di comprensione del linguaggio naturale sono oggi molto avanzati (si veda Watson, il recente software di IBM). Se però inseriamo nell’intelligenza anche capacità creative, intuitive, e soprattutto la capacità di risolvere problemi che emergono nella vita quotidiana e nel mondo reale, il discorso si fa più complesso.

Anche considerando soltanto il linguaggio, non può non tornare in mente il famoso esempio della “stanza cinese” del filosofo John R. Searle: c’è un uomo dentro una stanza, il quale non sa il cinese, ma a cui viene dato un dizionario di sintassi cinese; significa che quest’uomo, guardando il dizionario, sa con quale ideogramma si può rispondere a quale ideogramma, pur non conoscendo il loro significato. Se un secondo uomo fuori dalla stanza passasse al primo degli ideogrammi cinesi sotto la porta, egli potrebbe rispondergli in modo sempre sensato; così, l’uomo fuori dalla stanza potrebbe convincersi che quello all’interno capisce effettivamente il cinese… eppure, non è così. Il computer funziona esattamente come l’uomo dentro la stanza cinese; sa che si può rispondere “buondì” a “buongiorno” e “bene” a “come stai”, ma non conosce il significato esperienziale del salutare o tanto meno quelli del benessere e della buona educazione.

Nello specifico, è possibile prevedere se l’intelligenza artificiale potrà acquisire una piena consapevolezza di sé, una sorta di “libero arbitrio”?

La risposta a questa domanda è simile alla precedente.

Con vari gradi di complessità, i computer sono già in grado di fare azioni senza che gli sia stato ordinato; per esempio, il sistema di sicurezza di un veicolo può fermare la macchina se percepisce un ostacolo, anche se il guidatore sta ancora accelerando. Se riduciamo il libero arbitrio alla facoltà di agire quando si vuole, e la consapevolezza di sé a definizioni e locazioni spazio-temporali, sì, i computer possono avere accesso a queste capacità. Se però, in modo probabilmente più ragionevole, includiamo in questi fenomeni elementi esistenziali e spirituali, in tutta la complessità con cui un essere umano è portato a viverli all’interno della propria coscienza, questo è ancora al di fuori della portata dei computer.

Può l’intelligenza artificiale sviluppare una sorta di “creatività”?

Anche qui, dipende da come definiamo il concetto. Una definizione curiosa e in un certo modo brillante di creatività è quella dello psicologo Jerome Bruner:

creativo è un prodotto che genera sorpresa”.

In generale, non trovo per niente improbabile che una intelligenza artificiale possa “creare” qualcosa che qualcuno potrebbe trovare sorprendente.

Tuttavia, se andiamo a studiare la creatività come processo, vediamo che il fenomeno è complesso: secondo le principali teorie, la creatività nasce dalla capacità di produrre molte idee, senza farsi limitare da fissità concettuali e vincoli logici; oppure, dalla capacità di associare concetti molto diversi producendo soluzioni innovative; o ancora, dall’abilità a guardare i contesti e i problemi da punti di vista alternativi, intuendo opportunità e corsi d’azione prima inesplorati. Tutte queste visioni del processo creativo lo associano a facoltà strettamente semantiche e radicate nei contesti, perlopiù inaccessibili alle intelligenze artificiali.

Credi che l’intelligenza artificiale possa diventare una concreta minaccia per l’umanità, sia in termini di minaccia “fisica”, sia a livello di diminuzione dei posti di lavoro?

L’umanità è un concetto abbastanza astratto; se ci si riferisce a scenari più o meno fantascientifici in cui le macchine si coalizzano contro la razza umana, non credo che al momento esistano i presupposti perché qualcosa del genere accada.

Quanto a specifiche situazioni, qualsiasi tecnologia può rappresentare per il suo utente o fruitore risorse quanto pericoli. Ciò è in gran parte legato a problemi d’uso; per questa ragione, una recente tendenza di interesse è quella che vede la progettazione delle tecnologie come basata su dati di ricerca. La User Experience e lo User Centered Design vengono sempre più impiegati perché le nuove tecnologie non vengano sviluppate solo sulla base delle prescrizioni ingegneristiche; al contrario, gli utenti e i contesti reali vengono studiati e compresi proprio per garantire fin dall’inizio che ogni tipo di tecnologia sia sicura, facile da usare e (ove questo è possibile e auspicabile) capace di sostenere la salute e il benessere delle persone.

Quanto al discorso sui posti di lavoro, le Rivoluzioni Industriali ci hanno insegnato che sicuramente le macchine possono prendere il posto delle persone in alcune mansioni. Tuttavia secondo me bisogna fare almeno due considerazioni. Nel caso dell’intelligenza artificiale ci riferiamo evidentemente a lavori non semplici e automatizzabili (quelli le macchine li fanno già), bensì a mestieri che richiedono ragionamento e risoluzione di problemi in ambiente reale, oltre che responsabilità più o meno importanti. Anche se le intelligenze artificiali arrivassero a essere dieci volte più sofisticate di quanto siano oggi, di certo incontreremmo notevoli resistenze da parte delle persone alle possibilità che queste ci curino dalle malattie, ci difendano in tribunale piuttosto che educhino i nostri figli; non è neanche detto che l’aggiornamento e la manutenzione di sistemi tanto complessi costerebbero meno del salario dei lavoratori umani. È possibile dunque che, semplicemente, “il gioco non valga la candela”.

In secondo luogo, se anche questo accadesse, si accompagnerebbe probabilmente a un profondo mutamento sociale in cui emergerebbero opportunità del tutto nuove per il lavoro degli esseri umani. In modo un po’ ironico, ma a mio avviso appropriato, mi torna in mente il personaggio di Susan Calvin, la psicologa esperta di androidi che compare in quasi una ventina di racconti del grande Isaac Asimov. Tecnologie sempre più complesse possono sfuggire al controllo e alla comprensione anche degli umani che le hanno create; e tuttavia, a quel punto è necessaria ancora un’intelligenza umana (oltre a una competenza specifica e del tutto nuova) per comprendere la radice dei problemi e individuare delle soluzioni.

Marco Galli