Nick Ut, fotoreporter vietnamita di 65 anni, ha affrontato e documentato una delle guerre simbolo del secondo ‘900. Una guerra che ha sconvolto il suo paese, ma anche le coscienze di tutto il mondo.
Quando il suo « Terror of War » vinse il Premio Pulitzer nel 1973, si capì che quella foto, quell’immagine di una bambina nuda che fugge disperata dal napalm e dalla morte, sarebbe diventata un’icona indimenticabile dell’orrore di cui è capace l’uomo. Ma credo anche che l’ultima cosa che il suo autore avrebbe potuto immaginare fosse che, un giorno lontano 32 anni, quella foto sarebbe stata censurata.
Oscurata dall’Intelligenza Artificiale.
Facebook non ha bisogno di presentazioni. È il social network più diffuso ed utilizzato sul pianeta. Gestire miliardi di post, con immagini, video, emoticon e grafica, che vengono prodotti continuamente è un’operazione titanica non affrontabile con le sole risorse umane.
Ecco perché la creatura di Mark Zuckerberg ha attinto a piene mani dalle tecnologie dell’Intelligenza Artificiale per riuscire a controllare il traffico enorme che la percorre senza soluzione di continuità.
Chatbot, minuscoli robot, che filtrano senza sosta tutto ciò che viene pubblicato sulle pagine di Facebook, per vigilare che contenuti considerati dannosi, pericolosi, offensivi, possano diventare visibili a miliardi di utenti in tutto il mondo.
È così che « Terror of War » è stata censurata qualche mese fa.
L’immagine di una bambina nuda è stata immediatamente riconosciuta come offensiva e bloccata.
Naturalmente una sollevazione internazionale ha smascherato il misfatto, obbligando Zuckerberg a scusarsi per l’accaduto, dopo che perfino la premier norvegese, Erna Solberg, aveva dichiarato:
“Quando Facebook rimuove immagini di questo tipo, a prescindere dalle sue buone intenzioni,
censura la nostra storia comune.”
Quindi, in questo caso, l’impiego dell’intelligenza artificiale ha generato un problema internazionale, invece di prevenirlo. Ed è solo la comunicazione on-line ad essere condizionata dal suo funzionamento? E perché se ne sta parlando sempre più insistentemente?
Innanzitutto bisogna sapere che cos’è, l’Intelligenza Artificiale
Il programma di ricerca noto come Intelligenza Artificiale (Artificial Intelligence – AI) nasce ufficialmente nel 1956, grazie al lavoro di quattro ricercatori americani, John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, che organizzano una conferenza su questo tema a Dartmouth (USA).
La definizione che questo gruppo fornisce degli obbiettivi dell’intelligenza artificiale è « Costruire una macchina che si comporti in un modo che sarebbe considerato intelligente nel caso di un essere umano. »
È evidente che in quel periodo storico il pensiero va alla nascente tecnologia dei computer che, da strumenti destinati a scopi militari e commerciali, si stanno velocemente sviluppando in funzione di un uso massivo dell’informatica.
« Il calcolatore è oggi usato sempre più estesamente nella simulazione di sistemi anche non deterministici, o che includono caratteristiche degli organismi come lo sviluppo e l’evoluzione, e l’intelligenza che si vuole riprodurre nelle macchine è spesso integrata con abilità senso-motorie, le quali sono alla base dell’interazione con il mondo reale tanto nel caso degli esseri umani quanto, e soprattutto, in quello degli animali. Quest’ultima è la prospettiva aperta con successo dalla robotica più recente, ma non si deve pensare che la buona parte dei temi prima ricordati, che hanno caratterizzato le fasi iniziali dell’IA, siano stati accantonati. Oltre che nella stessa robotica, è nel mondo degli agenti che popolano il World wide web (web d’ora in avanti) che quei temi sono ripresi in modo influente e socialmente rilevante. Nell’insieme, questi settori della ricerca hanno aperto e aprono all’IA prospettive inedite fino a qualche anno addietro, il cui obiettivo è la costruzione di agenti, virtuali nel caso del web, reali o embodied (« incorporati ») nel caso dei robot, dotati di gradi di autonomia crescente; tale processo comunque deve sempre scontare l’incertezza e la parzialità delle informazioni che questi agenti hanno sui loro rispettivi mondi. » (citazione Treccani)
Tornando al caso della foto di Nick Ut, è evidente che è stato il « controllo » umano a determinare un’inversione di rotta nel processo decisionale. Questo perché un Premio Pulitzer ha una fama di livello planetario. Ed è altrettanto evidente che, quindi, si tratti di un episodio che rappresenta solo la punta dell’iceberg.
Cosa succede nella stragrande maggiornaza dei casi, quando si tratta di immagini e contenuti postati dalla più sconosciuta casalinga di Voghera piuttosto che dall’oscuro impiegato coreano dell’ufficio imposte di Busan?
Tutto questo sarebbe già abbastanza inquietante se l’intelligenza artificiale investisse « solo » i social network, ma non è così.

L’aspetto principale della questione è legato a settori strategici che, nei prossimi anni, saranno letteralmente invasi dall’uso di queste tecnologie (processo peraltro già in corso da diversi anni…).
« I sistemi di intelligenza artificiale e di supporto alle decisioni sono sempre più presenti nelle nostre vite quotidiane: determinano chi finirà nelle heat list della polizia (una lista che identifica persone ad alto rischio di coinvolgimento in atti di violenza armata), chi sarà assunto o promosso, quali studenti saranno ammessi alle università; o addirittura cercano di prevedere fin dalla nascita chi commetterà un crimine entro i 18 anni di età. La posta in gioco, quindi, è molto alta.
I pochi studi finora condotti sull’uso dell’intelligenza artificiale e degli algoritmi di supporto alle decisioni in importanti ambiti sociali hanno prodotto risultati preoccupanti. Uno studio recente della Rand corporation ha dimostrato che la heat list di previsione del crimine usata dalla polizia di Chicago si è rivelata inefficace nel prevedere chi avrebbe commesso crimini violenti: l’unico effetto è stato un aumento dei soprusi nei confronti delle persone sulla lista.
Un quadro altrettanto problematico è emerso da un’inchiesta di ProPublica sul software usato dalla giustizia americana per la valutazione del rischio di recidiva, basato su algoritmi che producono risultati distorti da pregiudizi a sfavore degli imputati non bianchi. Per garantire l’imparzialità e il rispetto dei diritti e delle libertà di tutti, servirebbero metodi di convalida, verifica e valutazione di questi sistemi. Altrimenti si rischiano classificazioni errate, dati parziali e modelli difettosi che aggravano le ingiustizie invece di porvi rimedio. »
(citazione Kate Crawford, Meredith Whittaker, Medium – trad. Monica Cainarca)
Il gruppo One Hundred Year Study on Artificial Intelligence (AI100), ospitato dall’Università di Stanford, ha da poco pubblicato un rapporto pubblico molto interessante che rappresenta il nostro futuro tra 15 anni (“Artificial Intelligence and Life in 2030”).
Lo studio ha un approccio di tipo “proiettivo”, nel senso che analizza in dettaglio tutti i trend attuali nel campo dell’AI, e prova a proiettarli nel futuro, ipotizzando che permeino in modo sempre più profondo la struttura della società.
Nella migliore tradizione degli osservatori tecnologici, AI100 punta ad individuare dei settori, o domini, in cui l’intelligenza artificiale potrebbe trovare le maggiori applicazioni. Particolarmente interessanti risultano le proiezioni nei settori dei trasporti, della salute e dell’istruzione, dove il rischio di incidere negativamente sui livelli occupazionali è particolarmente rilevante.

Senza entrare nei dettagli, è evidente come la definizione di Intelligenza Artificiale degli anni ’50 stia stretta alla realtà di oggi; figuriamoci a quella del 2030.
Lo studioso Nils J. Nilsson ne ha fornito di recente una aggiornata:
“L’intelligenza artificiale è il complesso di attività volte a rendere le macchine intelligenti, laddove con intelligenza si intende la qualità che rende una entità capace di operare nel suo ambiente in modo appropriato e con capacità di previsione.”
La questione principale non è, dunque, se l’intelligenza artificiale sia peggio degli attuali processi umani che usiamo per fare previsioni e classificare i dati. Anzi, ci sono molte speranze di poter usare l’intelligenza artificiale per arrivare a valutazioni più oggettive e imparziali di quelle umane, riducendo le discriminazioni e garantendo risultati migliori.
La preoccupazione principale è che i sistemi di intelligenza artificiale sono sempre più integrati in istituzioni sociali fondamentali nonostante la mancanza di studi rigorosi sul loro grado di accuratezza e i loro effetti sociali ed economici.
È necessario sviluppare un solido settore di ricerca che possa misurare e valutare gli effetti sociali ed economici dei sistemi di intelligenza artificiale, per potenziarne gli effetti positivi e ridurre i rischi. Misurando gli impatti di queste tecnologie, possiamo rafforzare la progettazione e lo sviluppo dell’intelligenza artificiale, aiutare soggetti pubblici e privati a garantire l’affidabilità e la trasparenza dei loro sistemi, e ridurre il rischio di errori. Sviluppando una comprensione empirica di come funziona effettivamente l’intelligenza artificiale sul campo, potremo stabilire modelli comprovati per un uso responsabile ed etico e garantire così una sana crescita di questo settore tecnologico.
Se l’impatto sociale dell’intelligenza artificiale è difficile da vedere, è di fondamentale importanza individuare approcci rigorosi per renderlo più visibile e trasparente.
Abbiamo bisogno di nuovi strumenti che ci permettano di sapere come e quando le decisioni automatizzate influenzano materialmente le nostre vite e, se necessario, contestarle.

« Se una macchina deve essere infallibile, non potrà mai essere intelligente. »
(Alan Turing, 1947)
Post originariamente pubblicato su LinkedIN