Juan Loaiza: “I problemi relativi alla privacy dei dati dovrebbero far parte degli spazi pubblici di dibattito” | UAH

Juan Loaiza: “I problemi relativi alla privacy dei dati dovrebbero far parte degli spazi pubblici di dibattito” | UAH
Juan Loaiza: “I problemi relativi alla privacy dei dati dovrebbero far parte degli spazi pubblici di dibattito” | UAH

Fonte: CIPER

Secondo i documenti ottenuti dall’organizzazione britannica Big Brother Watch, negli ultimi due anni otto stazioni della metropolitana in quattro città del Regno Unito hanno testato telecamere di sorveglianza collegate a sistemi di intelligenza artificiale. L’obiettivo è utilizzare tecnologie di riconoscimento facciale e analisi delle immagini per rilevare possibili incidenti sulla rete di trasporto pubblico come incidenti, crimini o comportamenti proibiti (fumare, correre, pattinare, tra gli altri). Tuttavia, come riporta la stessa organizzazione, Gli usi di questa tecnologia si estenderebbero anche alla raccolta di dati demografici dei passeggeri (ad esempio, sesso o età), nonché al rilevamento delle loro emozioni per vendere pubblicità personalizzata.

L’individuazione delle emozioni nell’espressione facciale è un argomento ben noto nella scienza delle emozioni. Lo psicologo americano Paul Ekman ha sviluppato il suo programma di ricerca attorno all’idea di distinguere i tipi di espressioni facciali prodotte e riconosciute da tutti gli esseri umani, indipendentemente dal loro contesto sociale. Questo programma di ricerca gode di un’enorme popolarità culturale e ha ispirato la sceneggiatura, ad esempio, di serie televisive Mentimi (2009-2011) e i film popolari di Intensamente [foto superior], una produzione di successo degli Studios Disney-Pixar la cui seconda parte è ora nei cinema cileni. Nonostante sia stato oggetto di forti critiche in ambito scientifico, lo studio di Ekman sulle espressioni facciali è stato applicato anche in materia di sicurezza dall’FBI per addestrare il personale a individuare le bugie attraverso l’identificazione di “microespressioni”.

L’idea di utilizzare il riconoscimento delle espressioni facciali per questioni di sicurezza non è nuova, ma il rapido progresso dell’intelligenza artificiale negli ultimi anni ha reso possibile automatizzare queste procedure ed estendere i loro potenziali usi. Ciò apre la porta a nuovi problemi; uno di questi, quello dei pregiudizi che gli algoritmi riproducono e rafforzano, contribuendo a pratiche di discriminazione ed esclusione. In I bias dell’algoritmo (2024), l’accademica Gabriela Arriagada Bruneau avverte che concentrare la nostra attenzione solo sul progresso tecnologico con cui conviviamo oggi può rendere invisibili i fattori sociali presenti in questi nuovi strumenti.

Sebbene gli scopi iniziali dell’applicazione di queste tecnologie, come la prevenzione degli incidenti o addirittura il suicidio, siano lodevoli, il suo utilizzo per altri scopi non è stato adeguatamente informato alla comunità.

 
For Latest Updates Follow us on Google News
 

-

NEXT “Il divario di reddito pro capite tra Spagna e UE non si è ridotto da…