Forse anche l'universo descritto da The Matrix è iniziato così. Alcuni scienziati che, durante un convegno organizzato apposta per discuterne, si chiedono se l'intelligenza artificiale non stia diventando troppo "furba". Ovvero troppo simile a quella umana, tanto da conquistarsi una sua indipendenza e diventare un vero rischio potenziale.
Non è fantascienza, anche se la questione ricorda la filosofia sottesa nel libro Io Robot di Asimov, bensì realtà. Ed è avvenuto durante un congresso all'Asilomar Conference Grounds a Monterey Bay in California. Robot che sanno tagliare l'erba, aprire porte, eseguire compiti al posto degli umani e interagire come se fossero vere persone, anche simulando sentimenti ed espressioni facciali. Oltre a virus per computer e telefonini che sanno adattarsi all'ambiente in cui si trovano e mutare per essere sempre più pericolosi. Sintomi, certo, di un problema che potrebbe verificarsi in un prossimo futuro.
L'Association for the Advancement of Artificial Intelligence (A.A.A.I.), che ha organizzato questa conferenza, si è posto il problema se fosse il caso di stabilire dei limiti allo sviluppo dell'intelligenza artificiale per prevenire la perdita di controllo da parte degli umani sulle operazioni che possono essere eseguite da un apparecchio controllato elettronicamente. E non è solo una questione di rischi per le persone, ma riguarda anche il cambiamento culturale che potrebbero comportare robot più intelligenti. Gli scienziati intervenuti all'evento si sono trovati concordi nel dire che siamo ancora lontani da eccessi come quelli paventati nei film, tuttavia nel breve periodo macchinari capaci di ragionare e risolvere problemi potrebbero, per esempio, costare parecchi posti di lavoro.
Bisognerà abituarsi a vivere con macchinari capaci di rispondere alle nostre sollecitazioni in modo quasi umanoide. Per non parlare del fatto che Internet ha fatto passi da giganti e c'è chi prevede che una nuova forma di intelligenza possa sprigiornarsi dal Web. Difficile prevedere questa eventualità, anche perché la grande Rete è talmente varigata e multiforme che potrebbe in qualche modo aggregarsi e trovare una sua forma per ragionare, metabolizzare dati e trarre conclusioni e comportamenti. Senza trascurare che i pericoli, ma quelli veri, arrivano dall'uso indiscriminato delle potenzialità dell'intelligenza artificiale per scopi criminali. Una tipologia di "utenti" sempre pronti a trarre vantaggio dalle tecnologie all'avanguardia per fini a dir poco discutibili.
Non non si parla unicamente di cronaca nera, per fortuna. L'intelligenza artificiale aiuterebbe a garantire maggiore sicurezza nella guida, in casa (con aiuti robotizzati) e nella vita di tutti i giorni: ma se prendesse il sopravvento? Eric Horvitz, uno sviluppatore di Microsoft presidente della A.A.A.I., sostiene che sia in atto una "intellgience explosion", cioè una diffusione esplosiva di macchine e dispositivi dotati di una forma autonoma di ragionamento. Il problema, secondo Horvitz, è che non vengano creati apparecchi più intelligenti di loro anche perché ciò creerebbe la "fine dell'era umana". Non in senso apocalittico come nel film The Matrix, ma in un'ottica social-culturale. Insomma che l'intelligeza artificiale diventi più "umana" è possibile, prevedibile e addirittura ipotizzabile, quello che si deve evitare è l'errore di sottovalutare il rischio.
«Meglio non aspettare troppo a lungo come è successo con i cibi geneticamente modificati», dice Paul Berg, premio Nobel nel 1980, per sottolinare che un eccesso di complessità del tema possa portare a sottovalutarne tanti aspetti. E ad allontanare l'opinione pubblica perché poi diventa troppo complesso trattare l'argomento in modo oggettivo. Horvitz è ancora più deciso quando dichiara che «prima o poi sarà necessario formalizzare un documento o delle indicazioni di massima per dare una soluzione al problema delle macchine troppo intelligenti». Una frase che sintetizza in sé tematiche etiche, tecnologiche, legali e culturali che non possono essere sottovalutate.
Ma la domanda è lecita: durante il congresso di Asilomar hanno esagerato? «L'incontro è stato molto più interessante per le cose non dette e perché ho capito l'importanza del vasto database di dati personali che raccogliamo in forma elettronica» commenta Tom Mitchell, professore alla Carniege Mellon University. Come dire che siamo noi stessi, tramite gli strumenti attuali (dall'e-mail ai social network, dai cellulari ai
notebook) a creare i presupposti perché fioriscano intelligenze artificiali modellate sulle nostre abitudini. Horvitz sostiene che tutto ciò non è pericoloso finché l'evoluzione tecnologica porta vantaggio all'umanità. Ma chi può stabilire dove siano i pericoli? Ad oggi, nessuno.