Adobe sta vendendo immagini AI della guerra Israele-Gaza
Pubblicazioni online hanno utilizzato un’immagine fotorealistica di un attacco missilistico da Adobe Stock senza segnalare che è falsa
Adobe sta vendendo immagini realistiche generate artificialmente della guerra tra Israele e Hamas, che sono state utilizzate su Internet senza alcuna indicazione che siano false.
Come parte dell’adozione dell’intelligenza artificiale generativa da parte dell’azienda, Adobe consente alle persone di caricare e vendere immagini AI come parte del suo servizio di abbonamento alle immagini di stock, Adobe Stock.
Adobe richiede agli inserzionisti di dichiarare se le immagini sono generate con AI e contrassegna chiaramente l’immagine all’interno della sua piattaforma come “generata con AI”. Oltre a questo requisito, le linee guida per la sottomissione sono le stesse di qualsiasi altra immagine, incluso il divieto di contenuti illegali o violativi.
Le persone che cercano su Adobe Stock vedono una combinazione di immagini reali e generate da AI. Come le immagini di stock “reali“, alcune sono chiaramente sceneggiate, mentre altre possono sembrare autentiche fotografie non sceneggiate.
Questo è vero anche per la collezione di immagini di Adobe Stock per ricerche relative a Israele, Palestina, Gaza e Hamas. Ad esempio, la prima immagine mostrata durante la ricerca di Palestina è un’immagine fotorealistica di un attacco missilistico su un panorama urbano intitolato “Conflict between Israel and Palestine generative AI”.
Leggi anche:
Altre immagini mostrano proteste, conflitti sul campo e persino bambini che fuggono dalle esplosioni di bombe, tutte cose che non sono reali.
In mezzo alla confusione di informazioni errate e contenuti online fuorvianti sulla guerra tra Israele e Hamas che circolano sui social media, anche queste immagini vengono utilizzate senza specificare se siano reali o meno.
Alcune piccole testate online, blog e newsletter hanno pubblicato “Conflict between Israel and Palestine generative AI” senza segnalarlo come prodotto di AI generativa. Non è chiaro se queste pubblicazioni siano consapevoli che si tratti di un’immagine falsa.
Il dottor T.J. Thomson, docente senior presso il RMIT, che sta conducendo una ricerca sull’uso delle immagini generate da AI, ha dichiarato che ci sono preoccupazioni sulla trasparenza dell’uso delle immagini AI e sulla capacità del pubblico di riconoscerne l’utilizzo.
“Esiste il potenziale per queste immagini di ingannare le persone, distorcere la realtà, alterare la nostra percezione di verità e accuratezza”, ha detto a Crikey.
Thomson ha affermato che durante le discussioni con le redazioni come parte della sua ricerca è emerso che le preoccupazioni sul potenziale di disinformazione sono una delle principali preoccupazioni, ma ci sono anche questioni sulle implicazioni lavorative dell’uso di immagini AI anziché fotografi sul campo.
Mentre le immagini AI possono essere uno strumento, ha anche avvertito del loro uso improprio: “Non si vuole essere eccessivamente cauti, non si vuole avere paura di tutto, perché ci sono buone ragioni per usarle. Ma è necessario avere un po’ di saggezza e cautela”.
Adobe non ha risposto a una richiesta di commento.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].