Ma uno degli aspetti più preoccupanti,
ben approfondito dall'autrice, riguarda
l'esternalizzazione dei servizi dello stato
alle compagnie tecnologiche. Esiste già
da tempo un rapporto molto stretto tra
gli eserciti, i servizi segreti e l'industria
dell'intelligenza artificiale, che riguarda
l'utilizzo di droni e il riconoscimento di
obiettivi militari. Ma le tecnologie un
tempo riservate alle zone di guerra e
allo spionaggio sono utilizzate a livello di
amministrazione locale. L'azienda
Palantir è stata fondata nel 2004. Tra i
suoi fondatori troviamo il miliardario
Peter Thiel, cofondatore di PayPal e
sostenitore finanziario dell'ex presidente
americano Donald Trump. Inizialmente
la Palantir offriva servizi per il
Dipartimento della Difesa, la CIA e l'FBI.
Oggi è uno dei principali fornitori di sistemi di sorveglianza, utilizzati ad esempio
per il controllo delle frontiere e per la
gestione dei meccanismi di espulsione.
Per fare questo Palantir si serve di una applicazione in grado di fotografare le
persone in incontri di breve durata e,
indipendentemente che questi siano
sospetti o meno, di ricercarne l'immagine su tutti i database disponibili attraverso il riconoscimento facciale e creare un
quadro su cui basare un arresto o un'espulsione. Questa app viene distribuita
presso le comunità locali per essere
venduta tanto alle forze di polizia quanto
agli esercizi commerciali. Come
Palantir, altre aziende, compresa
Amazon, forniscono strumenti di sorveglianza per privati cittadini per cercare
sospetti. I video
vengono spesso
condivisi con la
polizia. Un'indagine
giornalistica ha
rivelato che il sistema riconosceva in
modo sproporzionato, come potenziali ladri, persone
di colore.
Il problema infatti è
che l'intelligenza
artificiale fornisce
risposte diverse in
funzione dei dati e
dei parametri che si
sceglie di utilizzare.
Per "imparare", la
macchina ha bisogno che i dati vengano
classificati. L'apprendimento è quindi
tutt'altro che oggettivo, ma dipende
strettamente da chi lo programma. E
spesso, come illustrato dalla Crawford, il
procedimento di etichettatura prevede la
divisione delle persone in binari di genere forzati, in raggruppamenti razziali
semplicistici e offensivi e in analisi
profondamente stereotipate del carattere o dello stato emotivo. L'intelligenza
artificiale è inevitabilmente progettata
per amplificare e riprodurre le forme di
potere che deve ottimizzare. Insomma,
altro che neutralità della tecnologia, gli
algoritmi sono lo specchio di un modo di
vedere il mondo, sono atti politici. Essi
hanno a che fare con lo sfruttamento
delle risorse naturali, con il lavoro
umano, con la privacy, l'uguaglianza, la
libertà.
Né intelligente né artificiale. Il lato oscuro dell'IA, Kate Crawford, Il Mulino, 2021
Matteo Sestu