La tecnologia ha bisogno dell’alleanza tra etica politica e diritto

Non ha sessant’anni Brad Smith e sembra anche molto più giovane mentre sorride luminosamente osservando nei solenni saloni della Biblioteca Vaticana i manoscritti di Raimondo Lullo e di Galileo

Articolo già apparso sulle pagine dell’Osservatore Romano a firma di Andrea Monda 

Non ha sessant’anni Brad Smith e sembra anche molto più giovane mentre sorride luminosamente osservando nei solenni saloni della Biblioteca Vaticana i manoscritti di Raimondo Lullo e di Galileo e soprattutto la Bibbia di Gutenberg. Il presidente di Microsoft ha appena avuto un colloquio privato con il Santo Padre su un argomento, l’importanza di un approccio etico alla tecnologia che è arrivata alla creazione di vere e proprie intelligenze artificiali, che oggi si rivela una frontiera cruciale per il destino dell’uomo. C’è bisogno di una «voce umana» che si alzi oggi, ha detto Brad Smith al Papa, «una voce umana come quella, alta e autorevole, della Chiesa» e il Papa ha aggiunto una voce che «recuperi parole umane che oggi rischiano di cadere dal dizionario come tenerezza, carezza, fraternità». Promotore dell’incontro tra il Papa e il presidente del più grande colosso nel campo della tecnologia è la Pontificia Accademia della Vita che, come ha spiegato il presidente monsignor Vincenzo Paglia, ha indetto un premio in collaborazione con Microsoft per la migliore dissertazione dottorale sul tema delle intelligenze artificiali a servizio della vita umana. In esclusiva per «L’Osservatore Romano» Brad Smith ha rilasciato un’intervista che ha preso lo spunto dal testo del Messaggio per la Giornata Mondiale delle Comunicazioni in cui il Papa afferma che «L’uso del social web è complementare all’incontro in carne e ossa, che vive attraverso il corpo, il cuore, gli occhi, lo sguardo, il respiro dell’altro. Se la rete è usata come prolungamento o come attesa di tale incontro, allora non tradisce se stessa e rimane una risorsa per la comunione», da qui la sfida del passare dalle community alla comunità, una comunità oggi che soffre di una crisi innanzitutto di sfiducia.
La tecnologia è uno tra i principali attori del cambiamento che l’umanità sta attraversando. In questo momento storico, in cui c’è una grande crisi di fiducia globale (e la politica ne è solo l’esempio più evidente), da un lato la tecnologia è vista come qualcosa da temere, dall’altro viene percepita come ciò che ci rende umani, come qualcosa che può distinguere gli uomini da ogni altra specie vivente. Secondo lei, come dobbiamo guardare alla tecnologia? Come possiamo infondere sicurezza e fiducia nell’impressionante potenziale del progresso tecnologico?
La scienza e la tecnologia sono ingredienti essenziali della vita moderna. Trascendono i confini locali e toccano la vita di quasi tutti nel nostro pianeta. L’evoluzione dell’umanità può essere vista anche in termini di evoluzione tecnologica. Come il motore a vapore che ha dato inizio alla prima rivoluzione industriale, anche la nuova tecnologia, qual è l’intelligenza artificiale, sta cambiando il modo in cui lavoriamo e viviamo. E come le ferrovie alimentate da quei motori a vapore, anche queste nuove invenzioni dovranno essere gestite e infine regolamentate dalle società. Ogni nuova tecnologia dal vasto impatto sociale richiederà nuove leggi. La tecnologia è uno strumento che ha avuto un impatto profondo sulle persone, in modo sia positivo sia negativo. Anche una scopa può essere utilizzata per spazzare il pavimento o per darla in testa a qualcuno. Più lo strumento è potente, più è grande il beneficio o il danno che può recare. Le tecnologie delle comunicazioni, dal telefono al software per la videoscrittura a internet, hanno permesso alle persone di collegarsi tra di loro, informarsi sul mondo ed esprimersi in modi nuovi. Uno degli strumenti onnipresenti è il nostro Microsoft Word. Molte volte Word viene usato da scrittori impegnati per promuovere le aspirazioni più alte del mondo. Ma è indubbio che ci sono anche momenti più bui, quando attori dalla mente meno elevata lo usano per scritti molto meno nobili. Come di fatto Einstein aveva avvertito il mondo, nelle mani sbagliate ogni strumento può diventare un’arma se la forza organizzatrice dell’umanità non riesce a stare al passo con la tecnologia stessa. Per assicurare che le persone credano e abbiano fiducia nella tecnologia, dobbiamo pensare oltre la tecnologia stessa e affrontare la necessità di principi etici più forti, l’evoluzione delle leggi, l’importanza di formare le persone con le nuove competenze, e perfino le riforme del mercato del lavoro. Se vogliamo trarre il massimo dalla potente e promettente tecnologia dell’intelligenza artificiale, tutte queste cose devono confluire. L’intelligenza artificiale avrà un impatto su ogni ambito della società e non verrà creata e utilizzata solo dal settore tecnologico. Perciò il mondo deve incontrarsi per affrontare tali questioni con un senso di responsabilità comune.
Parlando della trasformazione prodotta dal cloud lei ha parlato di questa “responsabilità comune” e di fiducia e inclusività. Per rendere tale trasformazione “non-inumana”, occorre sia che coesistano questi tre requisiti sia che si sviluppi un’alleanza tra istituzioni, settore privato e società civile. Come possiamo costruire questa alleanza? Chi sta guidando questa trasformazione insieme all’immensa quantità di dati che vengono prodotti? In che modo le aziende private dovrebbero relazionarsi con la politica? Quali sono i reciproci limiti che il mondo degli affari e la politica dovranno rispettare? Qual è l’ambito d’influenza e di partecipazione della società civile?
Poiché la tecnologia si evolve in maniera così rapida, quelli tra noi che creano l’intelligenza artificiale, il cloud e altre innovazioni forse ne sanno più della maggior parte delle persone su come queste tecnologie funzionano. Ma ciò non significa necessariamente che sappiamo come affrontare al meglio il ruolo che dovrebbero svolgere nella società. Per questo è necessario che le persone del governo, del mondo accademico, degli affari, della società civile e le altre parti interessate si uniscano per aiutare a modellare questo futuro. E abbiamo sempre più bisogno di farlo non solo come singola comunità o paese, bensì a livello globale. Ognuno di noi ha la responsabilità di partecipare, e anche un ruolo importante da svolgere. Per esempio, lo sviluppo di servizi di intelligenza artificiale più efficaci esige l’uso di dati, spesso il maggior numero di dati rilevanti possibile. E tuttavia, l’accesso e l’uso dei dati coinvolge anche aspetti legislativi, che spaziano dal garantire la tutela della privacy individuale e la salvaguardia di informazioni sensibili e protette al rispondere a una serie di nuove questioni relative al diritto della concorrenza. Trovare un equilibrio attento e produttivo tra tali obiettivi esigerà dibattiti e cooperazione tra governi, rappresentanti dell’industria, ricercatori accademici e società civile. Da un lato, riteniamo che i governi dovrebbero aiutare a velocizzare i progressi nell’ambito dell’intelligenza artificiale, promuovendo approcci comuni nel rendere i dati largamente disponibili per l’apprendimento automatico. Una grande quantità di informazioni utili è contenuta nei dataset pubblici, dati che appartengono allo stesso pubblico. Dall’altro, sarà importante che i governi sviluppino e promuovano approcci efficaci alla protezione della privacy, che tengano conto del tipo di dati e del contesto in cui vengono usati. Per aiutare a ridurre il rischio di intrusioni nella privacy, i governi dovrebbero sostenere e promuovere lo sviluppo di tecniche che consentano ai sistemi di utilizzare dati personali senza accedere o conoscere le identità degli individui. In Microsoft riteniamo che promuovere il dialogo e la condivisione delle migliori pratiche tra governi, imprenditoria, rappresentanti di organizzazioni non governative e società civile sarà essenziale per massimizzare il potenziale che ha la tecnologia di produrre benefici su ampia base. Lavorando insieme, possiamo individuare le questioni che hanno evidenti conseguenze sociali o economiche e rendere prioritario lo sviluppo di soluzioni che proteggano le persone senza limitare inutilmente l’innovazione futura.
Queste trasformazioni devono tendere a realizzare un mondo più coeso, garantire stabilità democratica e una partecipazione sempre più “dal basso”, o possono invece creare le condizioni per una maggiore lacerazione sociale?
In Microsoft riconosciamo che abbiamo l’obbligo morale non solo di continuare a innovare, ma anche di costruire tecnologia per risolvere grandi problemi e essere una forza di bene nel mondo. Ci rendiamo conto che più un’azienda è grande, più è grande la sua responsabilità di pensare al mondo, ai suoi abitanti e alle loro opportunità a lungo termine. Affrontiamo questo obiettivo concentrandoci su strategie e interessi multipli; facendo leva sulle nostre attività centrali per un impatto sociale positivo; migliorando la produttività personale; assicurandoci che la nostra attività sia socialmente responsabile investendo in sostenibilità, accessibilità, privacy e sicurezza; e attraverso la filantropia, con oltre un miliardo di dollari di contributi per molte cause differenti, tra cui l’insegnamento di competenze digitali come la programmazione e le scienze informatiche. Qui in Italia, in collaborazione con la Ong locale Fondazione Mondo Digitale potremo formare 250.000 studenti delle superiori, specialmente ragazzi che vivono in aree svantaggiate, e far loro scoprire il potere dell’intelligenza artificiale. Una tecnologia in rapida evoluzione con un impatto su tutti i settori significa che i lavori del futuro richiederanno maggiori competenze digitali, dalla conoscenza informatica di base all’informatica avanzata. Qui in Microsoft riteniamo di avere la responsabilità di aiutare a fornire ai nostri giovani un accesso equo a corsi di informatica rigorosi e coinvolgenti. Se non si affronta la questione dell’equo accesso, intere popolazioni verranno escluse dalla piena partecipazione a questo nuovo mondo, creando così quella “lacerazione sociale” alla quale lei ha accennato prima. In Italia abbiamo in corso un progetto promettente, “Ambizione Italia”, per accelerare la trasformazione digitale, usare l’intelligenza digitale e assicurare che nessuno venga lasciato indietro. Al centro c’è un programma completo di formazione per fornire competenze, migliorarle e riqualificarle. Il programma — in collaborazione con il Gruppo Adecco, Fondazione Mondo Digitale e altri partner — ha l’obiettivo di raggiungere oltre due milioni di giovani, studenti, neet e professionisti in tutto il paese entro il 2020, formando più di 500.000 persone e fornendo attestati a 50.000 professionisti.
L’intelligenza artificiale è sempre legata alla responsabilità, per riprendere le sue parole, e lei ha parlato spesso della necessità di regole per fornire a ogni attore tecnologico un quadro etico. Come possiamo orientare l’intelligenza artificiale verso il bene comune?
Dal momento che i computer acquistano la capacità di apprendere dall’esperienza e prendono decisioni, che tipo di esperienza vogliamo che facciano e quali decisioni riteniamo che possano prendere? La capacità di un computer di vedere e riconoscere volti, di riconoscere i volti delle persone da una foto o attraverso una telecamera — il riconoscimento facciale — ha messo il tema in grande rilievo. Questa tecnologia può catalogare le tue foto, aiutare a riunire famiglie, oppure essere potenzialmente usata in modo improprio e inopportuno. Il riconoscimento facciale solleva questioni che vanno dritte al centro della tutela dei diritti umani fondamentali, come la privacy e la libertà di espressione. Sono questioni che fanno aumentare la responsabilità delle aziende tecnologiche che creano tali prodotti. Secondo noi, esigono anche una regolamentazione governativa ponderata e lo sviluppo di norme circa l’uso accettabile. In una repubblica democratica non c’è altra via se non l’attività decisionale dei nostri rappresentanti eletti riguardo alle questioni che esigono che si trovi un equilibrio tra la sicurezza pubblica e l’essenza delle nostre libertà democratiche. Il riconoscimento facciale esigerà che sia il settore pubblico sia quello privato si facciano avanti e agiscano. A livello globale è una questione che sta appena iniziando. Se non agiamo, rischiamo di svegliarci tra cinque anni e di scoprire che i servizi di riconoscimento facciale si sono diffusi in modi che esasperano le problematiche sociali. Allora, queste sfide diventeranno molto più difficili da controllare. In particolare, non riteniamo che si faccia il bene della società con una corsa commerciale verso il basso, con le compagnie tecnologiche costrette a scegliere tra responsabilità sociale e successo di mercato. Pensiamo che l’unico modo per proteggersi da questa corsa verso il basso sia di costruire una piattaforma di responsabilità che sorregga una sana competizione di mercato. E perché la piattaforma sia solida è necessario che noi assicuriamo che questa tecnologia, e le organizzazioni che la sviluppano e la utilizzano, siano governate dallo stato di diritto. Imprenditori, legislatori, ricercatori, accademici e rappresentanti di gruppi non governativi devono impegnarsi insieme per assicurare che le tecnologie basate sull’intelligenza artificiale siano disegnate e sviluppate in un modo che conquisti la fiducia delle persone che le usano e degli individui i cui dati vengono raccolti.
Ritorniamo al messaggio del Papa per la Giornata delle Comunicazioni Sociali: l’uso delle reti sociali è complementare agli incontri faccia a faccia. Se la rete è percepita come un’espansione delle opportunità di incontrarsi con altre persone e condividere esperienze, chiaramente rappresenta una grande risorsa per tutti. Purtroppo, però, rete sociale non significa automaticamente coesione e inclusività. Talvolta rappresenta la base per discussioni violente e perfino lacerazione sociale: quale può essere l’antidoto a tali pericoli?
Come Microsoft abbiamo la responsabilità di creare servizi online e comunità in cui le persone si sentano sicure: lo scorso 5 febbraio, Giornata della sicurezza in rete, ovvero la giornata d’azione internazionale per promuovere un uso più sicuro e responsabile della tecnologia, specialmente tra i bambini e i giovani, abbiamo sviluppato un Digital Civility Index (indice della civiltà digitale) per dimostrare che i rischi in rete hanno conseguenze nel mondo reale. Siamo profondamente impegnati per quanto riguarda la necessità di approfondire la formazione di adolescenti, giovani adulti, genitori, educatori e legislatori in merito alle conseguenze nel mondo reale delle interazioni negative in rete, che possono includere la perdita di fiducia negli altri, un maggiore stress, la privazione di sonno e perfino pensieri suicidi. Speriamo che quei risultati possano servire come prova documentale per una spinta globale verso la “civiltà digitale”. Anche la Digital Civility Challenge è un’opportunità di sensibilizzazione, per incoraggiare gli utenti a essere responsabili del loro comportamento online e a servire da modelli e/o paladini per gli altri. L’obiettivo del Challenge è di sostenere l’impegno a lungo termine di Microsoft a promuovere interazioni sicure e inclusive in rete e a sensibilizzare circa la necessità di “educazione digitale”.