«Al centro si trova l'uomo, è l'uomo che domanda, questo è l'approccio europeo», così la commissaria Ue al digitale Maryia Gabriel nel presentare i sette principi al centro delle linee guide dell’Europa sull’intelligenza artificiale. Presentato a Bruxelles, il codice etico dell’Ue ha raccolto oltre 500 contribuiti inviati dagli attori dei diversi settori coinvolti. L'obiettivo di queste «linee rosse» è infatti assicurare la “fiducia” nell'intelligenza artificiale, che è “primordiale per beneficiare” del suo utilizzo, ha avvertito Gabriel. Seguirà a fine giugno il lancio di una fase pilota e poi a inizio 2020 una valutazione con revisione dei punti chiave, se necessaria.
L’Europa quindi va avanti con l'intelligenza artificiale, mettendo al centro l'uomo e il suo controllo per poter garantire la fiducia necessaria al suo funzionamento. Quello presentato è una sintesi allargata del documento redatto alcuni mesi fa da 52 esperti selezionati dal mondo accademico, dell’industria e della società civile.
Cosa dice il codice etico
Il primo dei principi contenuti nelle linee guida Ue sull'Intelligenza Artificiale (AI) prevede che ci debba essere sempre
un controllo umano, perché l'obiettivo è migliorare l'agire umano e i suoi diritti, non ridurre la sua autonomia. Il secondo
prevede che gli algoritmi devono essere sicuri, affidabili e resistenti di fronte ad errori o incoerenze delle diverse fasi
del ciclo di vita dei sistemi di AI. Il terzo che i cittadini devono essere sempre informati dell'utilizzo dei loro dati personali
e averne il pieno controllo in modo che non siano utilizzati contro di loro, e questo deve essere fatto in linea con le regole
Ue sulla tutela della privacy del Gdpr.
Il quarto principio prevede trasparenza, garantendo la tracciabilità dei sistemi di intelligenza artificiale. Il quinto, garantire
la diversità e la non discriminazione, con esseri umani che possano essere in grado di modificare le decisioni degli algoritmi
tenendo conto di tutti i fattori necessari. E con meccanismi di ricorso umano contro le decisioni degli algoritmi, per assicurare
la responsabilità di chi gestisce i sistemi di calcolo in caso di danni o incidenti. Infine, l'intelligenza artificiale dovrà
lavorare a favore del benessere sociale e ambientale, aumentando la sostenibilità ecologica. «Una persona deve sempre sapere
quando si trova di fronte a una macchina e non a un essere umano», ha spiegato la commissaria Ue, Maryia Gabriel, per questo
«i sistemi di AI devono essere riconoscibili».
Cosa succede ora in Europa
In estate verrà quindi avviato un esercizio pilota a cui parteciperà un'ampia gamma di attori diversi, da imprese e multinazionali
extra Ue a pubbliche amministrazioni, e avverrà sotto l'egida dell'Alleanza europea per l'AI e la supervisione del Gruppo
di esperti di alto livello per l'AI. L'Ue punterà quindi a costruire una coalizione a livello internazionale per far applicare
questi principi di sviluppo all'intelligenza artificiale anche a livello globale, a partire dai partner che condividono già
questo approccio tra cui Canada, Giappone e Singapore.
Lo stile europeo e le piattaforme digitali
L'Ue sta spingendo affinché aziende e ricercatori sviluppino l'intelligenza artificiale in modo etico e trasparente. Le linee
guide vanno in questa direzione e distinguono l’Europa nell’approccio a questa tecnologia di Stati Uniti o Cina. Su questa
tecnologia, ricordiamo, il Vecchio Continente è in grande ritardo. Soprattutto nei confronti delle grandi multinazionali come
Amazon, Facebook, Microsoft e Baidu che hanno accesso a una mole di dati superiore alla nostra, anche perché l’Europa non
ha piattaforme digitali globali. Per questo si è data l’obiettivo di aumentare gli investimenti con almeno 20 miliardi di
euro (22,8 miliardi di dollari) nella ricerca dell'intelligenza artificiale entro il 2020 e la stessa quantità all'anno nel
decennio successivo. Insieme agli investimenti, l'Ue scommette sul fatto che questo documento contribuirà a generare fiducia
da parte degli utenti. La strada sembra quella che è stata imboccata con la Gdpr per la protezione dei dati: fissare regole
che valgono per tutti e a tutela dei consumatori e delle aziende.
Il caso Google
È di pochi giorni fa la notizia dello scioglimento del comitato etico esterno voluto da Google per monitorare i proprio prodotti
e servizi. La decisione, come abbiamo scritto, è arrivato dopo le proteste dei dipendenti per un componente accusato di discriminazione
verso la comunità Lgbt. Il colosso di Mountain View ha spiegato al sito americano Vox che ha staccato la spina al comitato,
di cui facevano parte anche due accademici italiani. Il consiglio nato nove giorni fa, aveva il compito di sorvegliare sullo
sviluppo responsabile dell'Intelligenza artificiale, tecnologia che porta con sè tanti temi etici ed economici. La decisione
dimostra quanto siano sensibile e strategico il controllo di queste tecnologia.
© Riproduzione riservata