Quantcast
News

Rischi legali in agguato per le aziende che adottano l’IA emozionale

Condividi l'articolo

Rischi legali nell’implementazione dell’intelligenza artificiale emozionale

L’adozione di algoritmi di riconoscimento delle emozioni da parte delle aziende comporta significativi rischi legali in un contesto normativo statunitense sempre più frammentato e incoerente. Questo è il monito lanciato da Lena Kempe, esperta di diritto aziendale presso LK Lawfirm, in un articolo pubblicato sul Business Law Today dell’American Bar Association.

L’intelligenza artificiale emozionale presenta preoccupazioni simili a quelle delle tecnologie biometriche, come i rischi per la privacy dei dati e i potenziali pregiudizi. Inoltre, introduce la possibilità che gli individui possano essere manipolati dai sistemi automatizzati che comprendono le loro emozioni.

Kempe sottolinea che il mercato di questa tecnologia è in rapida crescita, con stime che prevedono un aumento dei ricavi da 1,8 miliardi di dollari nel 2022 a 13,8 miliardi di dollari entro il 2032. Tuttavia, la stessa autrice nota come la quota di mercato di Affectiva, una delle principali aziende del settore, sia diminuita dal 28% al 26% in un anno e mezzo, mettendo in discussione la presunta rapidità di questa espansione.

Leggi anche:

L’intelligenza artificiale emozionale si basa su una vasta gamma di dati, tra cui testo, emoji, espressioni facciali, linguaggio del corpo, movimenti oculari, tono e ritmo della voce, nonché dati biometrici come la frequenza cardiaca. Molti di questi dati rientrano nella categoria delle informazioni personali, soggette al Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea e alle leggi statali sulla privacy negli Stati Uniti. In alcuni casi, possono essere classificati come dati personali sensibili, con ulteriori restrizioni.

L’uso frequente di dati biometrici comporta anche rischi normativi derivanti dal Biometric Information Privacy Act (BIPA) dell’Illinois e da leggi simili adottate o in fase di discussione in altri stati.

Kempe consiglia alle aziende di adottare una serie di misure per mitigare i rischi legali, tra cui:

  • Includere tutti i dati sulle emozioni in informative sulla privacy complete
  • Ridurre al minimo i dati raccolti e archiviati, rendendoli anonimi ove possibile
  • Rivedere e aggiornare le politiche per limitare l’utilizzo dei dati in base allo scopo specifico
  • Implementare misure di opt-in per i dati personali sensibili e robuste misure di sicurezza
  • Adottare strategie legali per evitare pregiudizi e manipolazioni, legate alla trasparenza e alla gestione del rischio

In conclusione, l’instabile contesto normativo e la rapida crescita del mercato dell’intelligenza artificiale emozionale costringono le aziende a mantenere un attento monitoraggio dei cambiamenti normativi per evitare potenziali violazioni e contenziosi legali.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
kk miner