Tecnologia

Google rinuncia all’intelligenza artificiale a scopi militari

  • Abbonati
  • Accedi
dopo la protesta dei suoi dipendenti

Google rinuncia all’intelligenza artificiale a scopi militari

Semplificando, potremmo dire che hanno vinto i dipendenti. Ma la storia è ben più complessa. Google ha deciso di abbandonare la sua collaborazione al programma militare Project Maven, dopo che questa partnership aveva portato a una clamorosa rottura con oltre 3mila dipendenti. Rottura che si era concretizzata, un paio di mesi fa, con una lettera molto dura e critica verso le scelte dell'azienda di collaborare con tecnologie di intelligenza artificiale al progetto militare del Pentagono.

L'azienda di Mountain View ha fatto trapelare che la collaborazione con il Dipartimento della Difesa degli Stati Uniti su Project Maven, in scadenza nel 2019, non sarà rinnovata. Una partnership che, secondo indiscrezioni, fruttava a Google circa 250 milioni di dollari l’anno. Ma Big G ha deciso di fare un passo indietro, impegnandosi a non utilizzare la sua potente intelligenza artificiale per lo sviluppo di armi, sorveglianza illegale e tecnologie che potrebbero causare «danni globali».

A fare chiarezza, dopo le indiscrezioni degli ultimi giorni, ci ha pensato Sundar Pichai in persona. Il ceo di Google ha firmato un post sul blog ufficiale dell’azienda californiana nel quale indica la strada che ha deciso di intraprendere la società in fatto di impiego dell’intelligenza artificiale.
«L’AI non può risolvere ogni problema – ha scritto Pichai - ma il suo potenziale per migliorare la nostra vita è enorme. Su Google la utilizziamo per rendere i nostri prodotti più utili (come le email prive di spam e più facili da comporre). Oltre ai nostri prodotti, usiamo l’AI per aiutare le persone ad affrontare i problemi urgenti. Una coppia di studenti delle scuole superiori sta costruendo sensori ad intelligenza artificiale per prevedere il rischio di incendi. Gli agricoltori la utilizzano per monitorare lo stato di salute delle loro mandrie. I medici stanno iniziando ad usare l’AI per aiutare a diagnosticare il cancro e prevenire la cecità. Questi chiari vantaggi sono il motivo per cui Google investe molto nella ricerca e nello sviluppo dell’intelligenza artificiale e rende le tecnologie dell'intelligenza artificiale ampiamente disponibili agli altri attraverso i nostri strumenti e il codice open-source».

I 7 principi di Google
Pitchai non si è nascosto, dicendosi consapevole che una tecologia così potente sollevi questioni importanti sul suo utilizzo: «Il modo in cui l’intelligenza artificiale viene sviluppata e utilizzata avrà un impatto significativo sulla società per molti anni a venire. – ha scritto - Come azienda leader in AI, sentiamo una profonda responsabilità. Per questo oggi annunciamo sette principi che guideranno il nostro lavoro».

È evidente che sette principi elencati da Pichai siano stati elaborati per sedare la preoccupazione per il lavoro di Google su Project Maven. E la stessa società ha fatto intendere che se fossero esistiti prima, non sarebbe mai nata la partnership per il progetto del Pentagono. Partnership che, come detto, si interromperà il prossimo anno. Ma dalle parole di Pichai emerge con forza che, Maven a parte, le collaborazioni col governo e col Dipartimento della Difesa non si interromperanno. «Mentre non stiamo sviluppando l'AI per le armi, continueremo il nostro lavoro con i governi e le forze armate in molte altre aree. - ha scritto Pichai - Queste collaborazioni sono importanti e cercheremo attivamente altri modi per aiutare queste organizzazioni e mantenere al sicuro i suoi membri di servizio e i civili».

I principi a cui Google si ispirerà vanno dal rispetto della privacy alla sicurezza, fino ai vantaggi sociali e alla responsabilità nei confronti dei cittadini. Tra le cose che da Mountain View si promettono di non perseguire, invece, ci sono: «Tecnologie che causano o possono causare un danno globale. In caso di rischio materiale di danni, procederemo solo se riteniamo che i benefici siano sostanzialmente superiori ai rischi e se introduciamo adeguati vincoli di sicurezza». E poi ancora: «Armi o altre tecnologie il cui scopo principale o la cui applicazione è provocare o agevolare direttamente le lesioni alle persone. Tecnologie che raccolgono o utilizzano informazioni per la sorveglianza in violazione di norme accettate a livello internazionale. Tecnologie il cui scopo contravviene ai principi ampiamente accettati del diritto internazionale e dei diritti umani».

© Riproduzione riservata