Vertice Europa/Giappone per un’Intelligenza artificiale a misura d’uomo

Si è discusso di come promuovere lo sviluppo di una versione antropocentrica dell'AI

405

Il  responsabile per il Mercato unico digitale europeo Andrus Ansip  e il ministro per la Politica scientifica e tecnologica giapponese, Takuya Hirai, hanno parlato in particolare di come promuovere un approccio antropocentrico all’intelligenza artificiale e svolgere un lavoro comune su dati e fiducia (in linea con la recente comunicazione “Creare fiducia nell’intelligenza artificiale antropocentrica”. Scopo del dibattito è stato anche preparare le riunioni ministeriali sul digitale del G7 e del G20 che si svolgeranno rispettivamente a Parigi il 15 maggio e in Giappone l’8-9 giugno e che vedranno partecipe il vicepresidente Ansip. Il commissario per la Ricerca, la scienza e l’innovazione dell’Ue, Carlos Moedas, e il ministro Hirai hanno discusso l’introduzione presso entrambe le parti di nuovi programmi di ricerca e innovazione prospettando un aumento della cooperazione Ue-Giappone in materia di scienza e tecnologia nei settori di reciproco interesse, in linea con l’accordo di partenariato strategico Ue-Giappone dello scorso anno. Secondo le linee guida condivise, un’IA affidabile dovrebbe rispettare tutte le disposizioni legislative e regolamentari applicabili e una serie di requisiti. Liste di controllo specifiche aiuteranno a verificare l’applicazione di ciascuno dei seguenti requisiti fondamentali.

Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo.

Robustezza e sicurezza: per un’IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti per far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.

Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.

Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.

Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.

Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.

Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.

Nei prossimi mesi la Commissione avvierà una fase pilota con la partecipazione delle diverse parti interessate. Già oggi le amministrazioni, le imprese e le organizzazioni pubbliche possono iscriversi all’Alleanza europea per l’intelligenza artificiale e riceveranno una notifica quando inizierà la fase pilota. I membri del gruppo di esperti ad alto livello sull’IA forniranno inoltre la loro assistenza nella presentazione e illustrazione degli orientamenti alle parti interessate di tutti gli Stati membri. La Commissione europea intende promuovere a livello internazionale questo approccio relativo all’etica dell’IA, perché le tecnologie, i dati e gli algoritmi non conoscono frontiere. Per questo verrà rafforzata la cooperazione con i partner che condividono gli stessi principi, come il Giappone, il Canada e Singapore.