Storia dell'articolo

Chiudi

Questo articolo è stato pubblicato il 06 agosto 2011 alle ore 17:23.

My24

All'ingresso della School of Cinematic Arts (University of Southern California) proprio davanti al dipartimento che prende il nome da George Lucas c'è Michael Altonaga. Alto, un cespuglio di capelli, ricorda vagamente Napo Orso capo. Ha lavorato con i codici di sviluppo di Kinect, la periferica di gioco di Microsoft lanciato a novembre dell'anno scorso che rileva il movimento del corpo e riconosce comandi vocali.

Dopo sei mesi ha partorito Mars Racer. Ufficialmente sarebbe una simulazione marziana di guida di una navicella spaziale senza volante. Alla prova dei fatti oltre ad andare a sbattere in continuazione procura a chi non è allenato un leggerissimo (ma sano) indolenzimento alle braccia che devono essere tenute tese davanti al corpo. Insomma, più brutto di un normale videogioco in circolazione e faticoso come gli esercizi di ginnastica dei tempi del liceo. Accanto a Michael altri ricercatori mostrano demo e sperimentazioni realizzate con Kinect. C'è Belinda Lange dell'Institute for Creative technologies research che mostra un software per la riabilitazione che guida il paziente a compiere determinati movimenti proiettando sullo schermo sotto forma di avatar l'immagine del corpo. Ci sono pure gli artisti che hanno imparato a proiettare le immagini reali delle persone in ambienti completamente digitali.

Comunque, nulla di veramente illuminante, nessun convincente indizio delle rivoluzione che questa interfaccia avrebbe portato non solo nei videogiochi ma nel più ampio mondo delle relazioni uomo-macchina. Eppure, non c'è rivista o studio che non riconosca la straordinaria innovazione rappresentata da Kinect. Technology Review del Mit l'ha messa tra le dieci tecnologie emergenti di quest'anno. Anche gli ingegneri di Ieee Spectrum, di solito particolarmente severi hanno lodato questo gadget economico che per la prima porta "Minority Report" nelle case delle persone. Fuori dall'Ucla sul web interi dipartimenti universitari, ingegneri, informatici ed appassionati hanno pubblicato i video dei loro esperimenti: robot comandati con il corpo, arti meccaniche che ricostruiscono l'immagine degli oggetti e programmi di riabilitazione, Ora poi che è possibile scaricare i kit di sviluppo per applicazioni non commerciali questi esperimenti esploderanno.

«È solo una questione di tempo – prevedeva alcuni mesi fa un eccitatissimo Alex Kipman, curioso capo della ricerca di Kinect per Microsoft –. Non c'è nulla di più naturale del linguaggio del corpo anche per cambiare canale tv, accedere alle applicazioni d'ufficio o comandare gli elettrodomestici di casa». Kipman, 31 anni, brasiliano di nascita e nell'aspetto più rapper latinoamericano che manager di multinazionale è il simbolo del fermento nuovo che sta agitando la progettazione delle interfacce e del rapido avvicendarsi nelle nostre mani di oggetti tecnologici attraverso cui possiamo interagire. Negli anni settanta la tastiera dell'Ibm, dieci anni dopo il mouse, le interfacce grafiche ad icone, e poi gli schermi prima touch e poi muli-touch. Berg Insight è convinta che nel 2020 attraverso i dislplay dei dispositivi mobili governeremo casa, auto, mezzi di trasporto e computer. L'ufficio dei brevetti è preso d'assalto per registrare disegni, carezze, colpetti a due, tre, quattro dita. A ogni gesto corrisponde un comando. La più attiva è Apple. L'iPhone si padroneggia con otto mosse. Ma in futuro non basteranno: un brevetto depositato a luglio dalla casa di Cupertino immagina la mano muoversi appena sopra lo schermo in tre dimensioni per manipolare oggetti nello spazio. Le possibili applicazioni sono per ora nella mente di Steve Jobs. Ma di certo non avranno conseguenze solo sul mondo dell'elettronica.

Guai a sottovalutare il linguaggio dei gesti, avvertono neuroscenziati e studiosi dell'apprendimento. Davanti a un bancomat il gesto più naturale che siamo chiamati a compiere è quello di premere lo schermo. La tastiera appartiene, quantomeno per quel tipo di interazione, al passato. Al contrario quando effettuiamo una ricerca su internet, ragioniamo in termini di parola chiave e quindi con i motori di ricerca. Le conseguenze di una interfaccia incidono sull'organizzazione del sapere in mondo più profondo di quanto ci si possa aspettare. Tanto da spingere sempre di più scienziati e ingegneri a lavorare su quella più complessa di tutte: il linguaggio naturale. Da dieci anni i sistemi di riconoscimento litigano con l'ambiguità della lingua parlata. Ma quando algoritmi semantici e potenza di calcolo di consentiranno di rivolgerci alle macchine come tra esseri umana la tecnologia smetterà di avere regole e barriere.

Commenta la notizia

Shopping24

Dai nostri archivi

301 Moved Permanently

Moved Permanently

The document has moved here.