Quantcast
News

L’EU AI Act lascia spazio al riconoscimento delle emozioni

Condividi l'articolo

L’adozione della legge sull’intelligenza artificiale da parte dell’Unione Europea sta attirando critiche per aver permesso l’utilizzo del riconoscimento delle emozioni. Un articolo di opinione pubblicato sull’EU Observer solleva preoccupazioni sul fatto che l’AI Act lasci ancora aperta la possibilità del suo impiego nelle forze dell’ordine e negli ufficiali dell’immigrazione, con il rischio potenziale di abusi dei diritti umani.

L’autore, che si descrive come un funzionario pubblico dell’UE, sostiene che questa apertura lasci margine all’uso del riconoscimento delle emozioni nelle forze dell’ordine e nel controllo dell’immigrazione, facendo riferimento in particolare al controverso progetto iBorderCtrl finanziato dall’UE. Si tratta di un sistema basato sull’intelligenza artificiale per il riconoscimento facciale ed emotivo, progettato per essere utilizzato durante gli interrogatori dei migranti. Nel 2018, l’UE ha annunciato il finanziamento del progetto e ha condotto test pilota in Ungheria, Grecia e Lettonia.

iBorderCtrl è stato oggetto di attenta analisi da parte di gruppi per i diritti umani e legislatori. Nonostante gli sforzi per ottenere informazioni sul suo utilizzo, la Corte di giustizia dell’Unione europea (CGUE) ha negato l’accesso alla documentazione relativa al progetto nel settembre 2023, invocando la tutela degli interessi commerciali.

Leggi anche:

Il riconoscimento delle emozioni facciali è un campo relativamente nuovo dell’intelligenza artificiale che utilizza la biometria facciale per identificare i sentimenti umani. Tuttavia, questa tecnologia ha prodotto risultati contrastanti. Lo stesso AI Act sottolinea le carenze di questa tecnologia e il suo potenziale per risultati discriminatori e intrusioni nelle libertà e nei diritti delle persone.

“Vi sono gravi preoccupazioni riguardo alle basi scientifiche dei sistemi di intelligenza artificiale che mirano a identificare o dedurre le emozioni, in particolare perché l’espressione delle emozioni varia notevolmente a seconda delle culture e delle situazioni, e anche all’interno di un singolo individuo”, afferma il documento.

Nonostante queste preoccupazioni, il riconoscimento delle emozioni non è stato incluso nell’articolo 5 della legge sull’intelligenza artificiale, che definisce le pratiche proibite riguardanti l’intelligenza artificiale. Al contrario, il riconoscimento delle emozioni è classificato come un sistema di intelligenza artificiale ad alto rischio e il suo utilizzo è vietato sul luogo di lavoro e nelle istituzioni scolastiche, con alcune eccezioni per motivi di sicurezza e salute. Secondo la legislazione, coloro che utilizzano sistemi di riconoscimento delle emozioni non sono obbligati a informare le persone sul funzionamento di tali sistemi se vengono utilizzati per “individuare, prevenire e investigare reati penali”.

Il linguaggio utilizzato nella legge sull’intelligenza artificiale contribuisce a creare confusione sulla legalità del riconoscimento delle emozioni: la legge afferma che la classificazione di un sistema di intelligenza artificiale come ad alto rischio “non deve essere interpretata come un’indicazione che l’uso del sistema sia lecito ai sensi di altre normative dell’Unione o del diritto nazionale compatibile con il diritto dell’Unione”.

All’inizio di febbraio, i legislatori europei hanno raggiunto un accordo sui dettagli tecnici della legge sull’intelligenza artificiale, aprendo la strada all’approvazione da parte delle commissioni del Parlamento europeo a partire da aprile. Nonostante non si prevedano opposizioni significative, i legislatori potrebbero apportare modifiche che potrebbero ritardare l’attuazione della legge.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
kk miner