Storia dell'articolo
Chiudi

Questo articolo è stato pubblicato il 20 ottobre 2013 alle ore 13:33.

My24

Facebook potenzia la ricerca sull'intelligenza artificiale, per capire meglio quello che gli utenti dicono e vogliono; un campo in cui è in netto ritardo rispetto all'arcirivale Google. È la branca di ricerca nota come deep learning quella su cui il social network ha messo a lavorare nel quartier generale un nuovo team di otto persone. Tra queste, lo scienziato italiano Marc'Aurelio Ranzato, che lavorava in Google su questi temi. Facebook gliel'ha sottratto a settembre, a conferma di una guerra sotterranea che è scoppiata tra i due giganti sulle frontiere della ricerca applicata al web. E che Fb abbia appena cominciato a impegnarvisi lo dimostra anche il fatto che per ora sta tenendo segreti i lavori in corso.

«Il suo scopo principale è offrirci pubblicità più interessante. Adesso quella che vediamo su Facebook è pessima, rispetto a Google, che è all'avanguardia sul deep learning», dice a «Nòva24» Massimo Marchiori, matematico, docente all'Università di Padova e uno dei padri dell'algoritmo di Google. «Al momento, Facebook ci fornisce pubblicità in base a parole chiave che legge nel nostro profilo, tra gli interessi, o nelle cose che scriviamo. Ma non funziona bene perché la parola chiave non basta a indicare il senso di una frase. Così se scriviamo male di un'azienda o di un prodotto, paradossalmente adesso Facebook potrebbe proporci una pubblicità di queste cose», aggiunge Marchiori. Il deep learning capisce invece il senso semantico della frase e ne trova altre simili che può correlare allo stesso tema anche in assenza della parola chiave. «Può capire per esempio che due frasi parlano della stessa azienda, anche se il suo nome ricorre solo in una delle due», continua Marchiori.

Funziona simulando il modo in cui le reti di cellule neurali analizzano i dati a disposizione. «È la grande quantità di dati disponibili ormai su tante cose sul web a permettere l'approccio deep learning all'intelligenza artificiale», conferma Roberto Saranno, direttore del nodo italiano di Eit Ict Labs, l'Istituto europeo per l'innovazione e tecnologia. «Chi ci ha investito prima e più di altri è Google. Immagina un sistema che, come una persona, è in grado di leggere tutto quello che hai detto e che grazie a una correlazione statistica tra dati diversi fa emergere qualcosa di nuovo. Una conoscenza che non è racchiusa nel singolo dato analizzato ma che risulta dall'insieme dei dati», aggiunge Saronno, che ha un passato come ricercatore in Telecom Italia. Il deep learning è usato quindi anche per le traduzioni automatiche o per riconoscere il contenuto di una foto che non è stata etichettata.

Fb si servirà del deep learning anche per migliorare i contenuti che ci appaiono nel news feed. È importante che questi siano rilevanti; l'utente può vedere infatti solo 30-60 contenuti alla volta, tra i 1.500 che sarebbero disponibili, in media, per ciascuno. È difficile rendere interessante quella selezione, perché la quantità di aggiornamenti per utente sta crescendo, grazie all'uso da cellulare. La sfida di Fb è appunto riuscire a restare interessante mentre vede accrescere la quantità di dati circolanti. Sono obiettivi altrettanto importanti, per la sostenibilità economica del social network, ma in potenziale contraddizione. Il deep learning potrebbe risolverla.
A quel punto, Fb si troverebbe nelle mani uno strumento molto potente, «potrà riuscire a cogliere il mood del web nel suo insieme, seguendo le correlazioni tra dati diversi. Ma conoscere questo significa anche poterlo pilotare. Offrendo contenuti idonei può rafforzare le tendenze già presenti», dice Saronno. «Ne deriva un sistema che si autoalimenta – aggiunge – e che è potenzialmente pericoloso per la sua capacità di influenzare le scelte delle persone».

Commenta la notizia

Shopping24

Dai nostri archivi