Tecnologia

Intelligenza artificiale, ecco le nuove linee guida dell’Europa

  • Abbonati
  • Accedi
FASE PILOTA

Intelligenza artificiale, ecco le nuove linee guida dell’Europa

«Al centro si trova l'uomo, è l'uomo che domanda, questo è l'approccio europeo», così la commissaria Ue al digitale Maryia Gabriel nel presentare i sette principi al centro delle linee guide dell’Europa sull’intelligenza artificiale. Presentato a Bruxelles, il codice etico dell’Ue ha raccolto oltre 500 contribuiti inviati dagli attori dei diversi settori coinvolti. L'obiettivo di queste «linee rosse» è infatti assicurare la “fiducia” nell'intelligenza artificiale, che è “primordiale per beneficiare” del suo utilizzo, ha avvertito Gabriel. Seguirà a fine giugno il lancio di una fase pilota e poi a inizio 2020 una valutazione con revisione dei punti chiave, se necessaria.

L’Europa quindi va avanti con l'intelligenza artificiale, mettendo al centro l'uomo e il suo controllo per poter garantire la fiducia necessaria al suo funzionamento. Quello presentato è una sintesi allargata del documento redatto alcuni mesi fa da 52 esperti selezionati dal mondo accademico, dell’industria e della società civile.

Cosa dice il codice etico
Il primo dei principi contenuti nelle linee guida Ue sull'Intelligenza Artificiale (AI) prevede che ci debba essere sempre un controllo umano, perché l'obiettivo è migliorare l'agire umano e i suoi diritti, non ridurre la sua autonomia. Il secondo prevede che gli algoritmi devono essere sicuri, affidabili e resistenti di fronte ad errori o incoerenze delle diverse fasi del ciclo di vita dei sistemi di AI. Il terzo che i cittadini devono essere sempre informati dell'utilizzo dei loro dati personali e averne il pieno controllo in modo che non siano utilizzati contro di loro, e questo deve essere fatto in linea con le regole Ue sulla tutela della privacy del Gdpr.

Il quarto principio prevede trasparenza, garantendo la tracciabilità dei sistemi di intelligenza artificiale. Il quinto, garantire la diversità e la non discriminazione, con esseri umani che possano essere in grado di modificare le decisioni degli algoritmi tenendo conto di tutti i fattori necessari. E con meccanismi di ricorso umano contro le decisioni degli algoritmi, per assicurare la responsabilità di chi gestisce i sistemi di calcolo in caso di danni o incidenti. Infine, l'intelligenza artificiale dovrà lavorare a favore del benessere sociale e ambientale, aumentando la sostenibilità ecologica. «Una persona deve sempre sapere quando si trova di fronte a una macchina e non a un essere umano», ha spiegato la commissaria Ue, Maryia Gabriel, per questo «i sistemi di AI devono essere riconoscibili».

Cosa succede ora in Europa
In estate verrà quindi avviato un esercizio pilota a cui parteciperà un'ampia gamma di attori diversi, da imprese e multinazionali extra Ue a pubbliche amministrazioni, e avverrà sotto l'egida dell'Alleanza europea per l'AI e la supervisione del Gruppo di esperti di alto livello per l'AI. L'Ue punterà quindi a costruire una coalizione a livello internazionale per far applicare questi principi di sviluppo all'intelligenza artificiale anche a livello globale, a partire dai partner che condividono già questo approccio tra cui Canada, Giappone e Singapore.

Lo stile europeo e le piattaforme digitali
L'Ue sta spingendo affinché aziende e ricercatori sviluppino l'intelligenza artificiale in modo etico e trasparente. Le linee guide vanno in questa direzione e distinguono l’Europa nell’approccio a questa tecnologia di Stati Uniti o Cina. Su questa tecnologia, ricordiamo, il Vecchio Continente è in grande ritardo. Soprattutto nei confronti delle grandi multinazionali come Amazon, Facebook, Microsoft e Baidu che hanno accesso a una mole di dati superiore alla nostra, anche perché l’Europa non ha piattaforme digitali globali. Per questo si è data l’obiettivo di aumentare gli investimenti con almeno 20 miliardi di euro (22,8 miliardi di dollari) nella ricerca dell'intelligenza artificiale entro il 2020 e la stessa quantità all'anno nel decennio successivo. Insieme agli investimenti, l'Ue scommette sul fatto che questo documento contribuirà a generare fiducia da parte degli utenti. La strada sembra quella che è stata imboccata con la Gdpr per la protezione dei dati: fissare regole che valgono per tutti e a tutela dei consumatori e delle aziende.

Il caso Google
È di pochi giorni fa la notizia dello scioglimento del comitato etico esterno voluto da Google per monitorare i proprio prodotti e servizi. La decisione, come abbiamo scritto, è arrivato dopo le proteste dei dipendenti per un componente accusato di discriminazione verso la comunità Lgbt. Il colosso di Mountain View ha spiegato al sito americano Vox che ha staccato la spina al comitato, di cui facevano parte anche due accademici italiani. Il consiglio nato nove giorni fa, aveva il compito di sorvegliare sullo sviluppo responsabile dell'Intelligenza artificiale, tecnologia che porta con sè tanti temi etici ed economici. La decisione dimostra quanto siano sensibile e strategico il controllo di queste tecnologia.

© Riproduzione riservata