Gli esseri umani sono pronti a sfruttare l’intelligenza artificiale benevola

Condividi l'articolo

Sebbene gli esseri umani si aspettino che l’intelligenza artificiale (AI) sia benevola e affidabile, essi stessi non sono disposti a collaborare e scendere a compromessi con le macchine, anzi, le sfruttano persino, afferma un nuovo studio.

Washington – Sebbene gli esseri umani si aspettino che l’intelligenza artificiale (AI) sia benevola e affidabile, essi stessi non sono disposti a collaborare e scendere a compromessi con le macchine, anzi, le sfruttano persino, afferma un nuovo studio. I risultati sono stati pubblicati sulla rivista iScience. Immagina di guidare su una strada stretta in un prossimo futuro quando improvvisamente un’altra macchina emerge da una curva davanti a te.

È un’auto a guida autonoma senza passeggeri all’interno. Ti spingerai avanti e affermerai il tuo diritto di precedenza, o cederai per lasciarlo passare? Al momento, la maggior parte di noi si comporta gentilmente in tali situazioni che coinvolgono altri umani. Mostreremo la stessa gentilezza verso i veicoli autonomi? Utilizzando metodi della teoria dei giochi comportamentali, un team internazionale di ricercatori della LMU e dell’Università di Londra ha condotto studi online su larga scala per vedere se le persone si comporteranno in modo cooperativo con i sistemi di intelligenza artificiale (AI) come fanno con gli altri umani. La cooperazione tiene insieme una società. Spesso ci richiede di scendere a compromessi con gli altri e di accettare il rischio che ci abbiano deluso. Il traffico è un buon esempio.

Leggi anche:

Perdiamo un po’ di tempo quando lasciamo passare altre persone davanti a noi e ci indignamo quando gli altri non ricambiano la nostra gentilezza. Faremo lo stesso con le macchine? Sfruttare la macchina senza sensi di colpa Lo studio pubblicato sulla rivista iScience ha rilevato che, al primo incontro, le persone hanno lo stesso livello di fiducia verso l’IA che per l’essere umano: la maggior parte si aspetta di incontrare qualcuno pronto a collaborare. La differenza viene dopo. Le persone sono molto meno pronte a ricambiare con l’IA e, invece, sfruttano la sua benevolenza a proprio vantaggio. Tornando all’esempio del traffico, un guidatore umano lascerebbe il posto a un altro umano ma non a un’auto a guida autonoma.Lo studio identifica questa riluttanza a scendere a compromessi con le macchine come una nuova sfida per il futuro delle interazioni uomo-IA.

“Mettiamo le persone nei panni di qualcuno che interagisce per la prima volta con un agente artificiale, come potrebbe accadere sulla strada”, spiega il dott. Jurgis Karpus, teorico dei giochi comportamentali e filosofo alla LMU di Monaco e primo autore di lo studio. “Abbiamo modellato diversi tipi di incontri sociali e trovato uno schema coerente. Le persone si aspettavano che gli agenti artificiali fossero cooperativi quanto gli altri umani. Tuttavia, non restituivano la loro benevolenza tanto e sfruttavano l’intelligenza artificiale più degli umani”.

Le macchine sostituiranno l’uomo?

Con le prospettive della teoria dei giochi, della scienza cognitiva e della filosofia, i ricercatori hanno scoperto che lo “sfruttamento dell’algoritmo” è un fenomeno robusto. Hanno replicato le loro scoperte in nove esperimenti con quasi 2.000 partecipanti umani. Ogni esperimento esamina diversi tipi di interazioni sociali e consente all’essere umano di decidere se scendere a compromessi e cooperare o agire in modo egoistico.

Sono state misurate anche le aspettative degli altri giocatori. In un noto gioco, il dilemma del prigioniero, le persone devono confidare che gli altri personaggi non le deluderanno. Hanno abbracciato il rischio sia con gli umani che con l’intelligenza artificiale, ma hanno tradito la fiducia dell’intelligenza artificiale molto più spesso, per guadagnare più soldi.

“La cooperazione è sostenuta da una scommessa reciproca: confido che tu sarai gentile con me e tu confidi che io sarò gentile con te. La più grande preoccupazione nel nostro campo è che le persone non si fideranno delle macchine. Ma dimostriamo che lo fanno!” osserva il prof. Bahador Bahrami, neuroscienziato sociale presso la LMU e uno dei ricercatori senior dello studio.

“A loro va bene abbandonare la macchina, però, e questa è una grande differenza. Le persone non riferiscono nemmeno molto senso di colpa quando lo fanno”, aggiunge. L’intelligenza artificiale benevola può ritorcersi contro l’intelligenza artificiale distorta e non etica ha fatto notizia su molti titoli, dal fiasco degli esami del 2020 nel Regno Unito ai sistemi giudiziari, ma questa nuova ricerca solleva un nuovo avvertimento. L’industria e i legislatori si sforzano di garantire che l’intelligenza artificiale sia benevola. Ma la benevolenza può ritorcersi contro. Se le persone pensano che l’IA sia programmata per essere benevola nei loro confronti, saranno meno tentate di collaborare.

Leggi anche:

Alcuni degli incidenti che coinvolgono auto a guida autonoma potrebbero già mostrare esempi di vita reale: i conducenti riconoscono un veicolo autonomo sulla strada e si aspettano che ceda. Il veicolo a guida autonoma nel frattempo si aspetta che i normali compromessi tra i conducenti reggano. “Lo sfruttamento dell’algoritmo ha ulteriori conseguenze su tutta la linea. Se gli umani sono riluttanti a lasciare che un’auto a guida autonoma educata si unisca da una strada laterale, l’auto a guida autonoma dovrebbe essere meno educata e più aggressiva per essere utile?” chiede Jurgis Karpus.

“L’intelligenza artificiale benevola e affidabile è una parola d’ordine di cui tutti sono entusiasti. Ma aggiustare l’intelligenza artificiale non è l’intera storia. Se ci rendiamo conto che il robot di fronte a noi sarà cooperativo, qualunque cosa accada, lo useremo per il nostro interesse egoistico”, afferma la professoressa Ophelia Deroy, filosofa e autrice senior dello studio, che lavora anche con il Peace Research Institute norvegese di Oslo sulle implicazioni etiche dell’integrazione di soldati robot autonomi insieme a soldati umani.

Ofelia ha inoltre aggiunto: “I compromessi sono l’olio che fa funzionare la società. Per ognuno di noi, sembra solo un piccolo atto di interesse personale. Per la società nel suo insieme, potrebbe avere ripercussioni molto più grandi. Se nessuno permette alle auto autonome si uniscono al traffico, creeranno i propri ingorghi sul lato e non faciliteranno il trasporto”.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Qual è la tua opinione sull’intelligenza artificiale? Credi che in futuro le macchine prenderanno il nostro posto? Lascia un commento nell’apposita sezione che trovi più in basso.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected]


Condividi l'articolo



Iscriviti al blog tramite email

Inserisci il tuo indirizzo e-mail per iscriverti a questo blog, e ricevere via e-mail le notifiche di nuovi post.

0 0 votes
Article Rating

Rispondi

0 Commenti
Inline Feedbacks
View all comments
Condividi l'articolo

Stai visitando il sito con Adblock In questo modo rendi inutile il mio lavoro. Se ci tieni al nostro futuro, per favore disabilita Adblock!
You are visiting the site with Adblock (This will make my work useless). If you care about our future, please disable Adblock!

Clicca con il tasto destro del mouse sull’icona Adblock del tuo browser

Questa immagine ha l'attributo alt vuoto; il nome del file è 1a.jpeg

Clicca su Sospendi su questo sito

Questa immagine ha l'attributo alt vuoto; il nome del file è 2a.jpeg

Ora l’icona di Adblock ora è diventata verde.

Aggiornando la pagina ora potrai navigare liberamente su guruhitech.com. Grazie! 😀


Condividi l'articolo
0
Would love your thoughts, please comment.x
()
x