Primi passi verso una regolamentazione dell’IA: l’UE avvia una consultazione
Con la finalizzazione dell’AI Act di quest’anno, l’Unione Europea ha stabilito legalmente quali applicazioni dell’intelligenza artificiale rappresentano un “rischio inaccettabile”. Questa legislazione, la prima del suo genere a livello mondiale, richiede ora un contributo più concreto riguardo ai casi d’uso dell’IA che saranno vietati, in particolare per applicazioni controverse come il riconoscimento facciale in tempo reale negli spazi pubblici da parte delle forze dell’ordine.
Consultazione sull’IA
L’European AI Office ha avviato una consultazione per definire cosa si intenda per sistema di IA e per delineare le pratiche vietate dall’AI Act. Questa consultazione mira a raccogliere esempi pratici e casi d’uso da fornitori di sistemi di IA, aziende, autorità pubbliche, accademici, società civile e cittadini.
Oltre all’uso dell’identificazione biometrica remota in tempo reale da parte delle forze dell’ordine, la consultazione intende esplorare pratiche come l’estrazione indiscriminata di dati da Internet o dai sistemi di sorveglianza per i database di riconoscimento facciale, il riconoscimento delle emozioni in contesti lavorativi o educativi, e l’uso di software di categorizzazione biometrica per inferire categorie sensibili.
Leggi anche:
Rischi connessi all’IA
Altri aspetti critici che saranno esaminati includono l’uso di tecniche subliminali potenzialmente dannose e manipolative, punteggi sociali inaccettabili, e la valutazione del rischio di criminalità individuale. Gli stakeholder sono invitati a fornire i loro contributi entro l’11 dicembre 2024, con l’obiettivo di formulare linee guida per le autorità nazionali e i fornitori di sistemi di IA, che dovrebbero essere pubblicate all’inizio del 2025.
Critiche all’AI Act ed esportazioni rischiose
Nonostante l’ambizione di regolamentare l’IA, l’AI Act presenta significative scappatoie. Tra queste, la possibilità di esportare tecnologie IA rischiose verso paesi al di fuori dell’UE, inclusi sistemi di identificazione biometrica e riconoscimento delle emozioni. Questa lacuna potrebbe portare alla diffusione di sistemi di IA pericolosi, in particolare nei paesi in via di sviluppo, secondo William Burns, consulente per la politica scientifica.
Le istituzioni dell’UE, incluso l’Ufficio per l’Intelligenza Artificiale, non dispongono attualmente di meccanismi efficaci di controllo sulle esportazioni di tecnologie IA, e sono spesso sottofinanziate e influenzate dalle lobby industriali.
Burns sottolinea: “È improbabile che l’ufficio si assuma compiti attivisti al di fuori della legislazione, come la raccolta di dati sulle vendite dannose all’estero. Potrebbe considerare attività di monitoraggio più discrete, ma senza controlli sulle esportazioni, non esiste un modo solido per misurare quanto sta accadendo, figuriamoci fermarlo.”
Conclusioni
L’AI Act rappresenta un passo significativo verso la regolamentazione dell’intelligenza artificiale in Europa, ma le sue lacune e le preoccupazioni riguardo alle esportazioni di tecnologie rischiose evidenziano la necessità di un approccio più rigoroso e proattivo. La consultazione in corso rappresenta un’opportunità cruciale per definire una normativa più completa e protettiva nel settore dell’IA.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].