Deepfake, il lato oscuro dell’Intelligenza artificiale

L’alterazione dello spazio/tempo è stato il primo passo, ora è la volta dell’alterazione del criterio di verità e della manipolazione della realtà. Il testo, qui riportato in stralcio, è stato pubblicato in chronopolis.it.

275

Lalterazione dello spazio/tempo è stato il primo passo, ora è la volta dellalterazione del criterio di verità e della manipolazione della realtà. Il testo, qui riportato in stralcio, è stato pubblicato in chronopolis.it.

La storia del pensiero e della filosofia, che ne è indubbiamente la più alta espressione, ruota da sempre intorno a una relazione fondamentale: il rapporto fra Soggetto e Oggetto. Il Soggetto è in grado di conoscere effettivamente l’Oggetto? A questa domanda cruciale, su cui si fonda la gnoseologia, hanno tentato di rispondere schiere di filosofi e di epistemologi. La risposta è incerta: Sì, No, Ni. Le scuole di pensiero si sono divise. Un aspetto, tuttavia, metteva d’accordo un po’ tutti: il principio di realtà. “Ciò che è reale è razionale”, proclamava Hegel. Questa affermazione, prima ancora di definire la razionalità, si porta appresso, però, un’altra domanda: cos’è reale? Difficile rispondere, soprattutto in questa epoca, segnata dall’avvento dell’ICT, della cibernetica e dell’Intelligenza artificiale. Tecnologie sempre più sofisticate che hanno alterato la dimensione spazio/temporale, creando il “tempo reale”, ossia la possibilità d’interagire anche a migliaia di chilometri di distanza come se si stesse nello stesso luogo, anzi a pochi centimetri di distanza. Poi, c’è stato un ulteriore salto di qualità nella manipolazione della realtà a opera, proprio, dell’intelligenza artificiale: l’invenzione del “deep fake”. Niente a che vedere con il “falsificazionismo” popperiano, che si propone di falsificare per verificare. Al contrario, l’obiettivo del deep fake è usare il verosimile per accreditare la falsità.

 

Fenomeno recentissimo quello del deepfake, così recente che prima di sapere cosa fosse, già ne siamo stati probabilmente colpiti. Vi è capitato di visionare video di attori, politici, personaggi famosi che fanno o dicono cose incredibili? Avete visto Obama dire le parolacce peggiori o rapper cantare Shakespeare? Il Papa parlare di sesso? Allora, siete caduti nella trappola del deep fake, una tecnologia che utilizza una forma d’intelligenza artificiale denominata deep learning per creare video di eventi falsi. La maggior parte di questi filmati ha carattere pornografico – recentemente il garante sulla Privacy è intervenuto su un app che spoglia nude minorenni –  ma c’è anche una grossa parte dedicata ai politici e alle loro dichiarazioni rigorosamente false.

I falsi, possono anche essere solamente audio. Il deep fake non è solo un  modo escogitato da truffatori o produttori di cinema porno, sta diventando invece una prassi diffusa e consolidata. Infatti, anche i Governi, tramite gli apparati d’intelligence, stanno iniziando a usarlo, ad esempio per far circolare falsi video di organizzazioni terroristiche, che reclutano in Rete, per screditarne vertici e messaggi. Ma il rischio più insidioso è un atro: la creazione di società  zero-trust, nelle quali le persone dubitino di tutto, persino di quello che vedono con i propri occhi e della propria facoltà cognitiva. La distinzione fra reale e irreale si scolora e si appanna, così. Di conseguenza, decade l’interesse a scoprire se una cosa sia vera o falsa per il solo fatto che possa essere manipolata e rappresentata come verosimile. Basti pensare agli effetti del deepfake sulle intercettazioni audio ambientali, che diventerebbero praticamente inutilizzabili. Si creerebbe un realtà plausibile, ma la cui veridicità rimarrebbe sempre dubbia. Vero e plausibile si confonderebbero del tutto, dunque, determinando disorientamento nelle persone e perdita di fiducia nelle istituzioni.

In altre parole, il Soggetto non sarebbe più in grado di distinguere le proprie percezioni/sensazioni dalle cose effettivamente reali, ossia dall’Oggetto esterno alla propria mente. Le funzioni cognitive, pertanto, ne risulterebbero compromesse. Che ne sarebbe, ad esempio, dell’opinione pubblica? Già interpolata e plasmata dal sistema dei media, diverrebbe totalmente schizofrenica. A cascata, quale destino toccherebbe alla volontà e alla sovranità popolari, ossia alla democrazia?

I computer ci hanno permesso di snellire il lavoro, migliorando il modo di produrre e sfruttando al meglio le nostre abilità. Il possibile scenario offerto oggi dall’intelligenza artificiale ci sembra più che mai tendenzialmente illimitato. Se da un lato persiste un profondo desiderio di progresso, non manca il timore che tutta questa tecnologia possa sfuggire dalle nostre mani. Potrebbe accadere con il fenomeno deepfake, ovvero la tecnica che combina un’immagine reale a un video preesistente con un effetto profondamente realistico capace anche di alterare la realtà a livello politico. Come costruire un futuro che abbia a che fare con l’intelligenza artificiale e che allo stesso tempo risulti sicuro? Come gestire l’intelligenza artificiale per progettare un domani migliore che non rappresenti una minaccia? Queste le nuove urgenti e indilazionabili domande che ci interrogano sul da farsi.

 

Continua a leggere

Deepfake, il lato oscuro dell’Intelligenza artificiale