Intelligenza artificiale: un pioniere avverte che all’umanità restano pochi anni
Eliezer Yudkowsky, un ricercatore pioniere nel campo dell’intelligenza artificiale, ha lanciato un avvertimento secondo cui l’umanità potrebbe avere solo alcuni anni lasciati a causa della crescente sofisticazione dell’IA. In un’intervista con The Guardian, ha dichiarato: “Se dovessi dare una probabilità, direi che il tempo che abbiamo a disposizione non è di 50 anni ma più simile a 5. Potrebbero essere due anni, potrebbero essere 10”.
Yudkowsky, fondatore del Machine Intelligence Research Institute in California, parla della fine dell’umanità come la conosciamo. Sostiene che il problema risieda nel sottovalutare le probabilità di sopravvivenza dell’umanità in questo scenario.
“Abbiamo una piccola possibilità di sopravvivenza”, ha avvertito.
Sono parole inquietanti provenienti da qualcuno che, secondo Sam Altman, CEO di OpenAI (creatore di ChatGPT), ha svolto un ruolo cruciale nel suscitare interesse nell’intelligenza artificiale generale ed è stato “fondamentale nella decisione di fondare OpenAI”.
Leggi anche:
L’anno scorso, Yudkowsky ha scritto in una lettera aperta a TIME che la maggior parte degli esperti del settore ritiene che “il risultato più probabile della creazione di un’intelligenza artificiale superintelligente anche solo vagamente simile agli esseri umani sia la morte letterale di tutti sulla Terra”.
Ha spiegato che arriverà un momento in cui l’IA non farà ciò che gli esseri umani desiderano e non avrà interesse per la vita senziente. Sebbene ritenga che questo tipo di interesse potrebbe un giorno essere integrato nell’IA, almeno in teoria, attualmente nessuno sa come farlo. Questo significa che stiamo combattendo una battaglia senza speranza, che lui paragona a “un tentativo del XI secolo di combattere il XXI secolo”.
Yudkowsky ha affermato che un’IA veramente intelligente non rimarrà confinata ai computer, sottolineando che ora è possibile inviare via email sequenze di DNA ai laboratori e far produrre proteine, il che significa che l’IA basata su internet potrebbe “costruire forme di vita artificiali o passare direttamente alla produzione post-biologica a livello molecolare”.
Ha inoltre spiegato che l’IA può “usare la superbiotecnologia contro di noi”.
“Se qualcuno costruisse un’IA troppo potente nelle condizioni attuali, mi aspetterei che ogni singolo membro della specie umana e tutta la vita biologica sulla Terra morisse poco dopo”, ha aggiunto.
Fin dagli anni ’60, i computer scientist hanno avvertito che gli obiettivi delle macchine che creiamo potrebbero non essere necessariamente allineati ai nostri.
Yudkowsky sostiene che la soluzione sia “spegnere tutto”.
Leggi anche:
Come possiamo fermare tutto ciò? Secondo Yudkowsky, c’è molto da fare. Ad esempio, dovrebbe essere implementato un divieto globale e indefinito sull’esecuzione di nuovi grandi training, senza eccezioni per l’esercito o i governi, anche se la cooperazione internazionale su questo tema da paesi come la Cina sembra difficile da immaginare.
Inoltre, ritiene che i grandi cluster GPU, immense fattorie di computer dove vengono addestrate e perfezionate le IA più potenti al mondo, dovrebbero essere smantellati. Imporre limiti sulla potenza computazionale utilizzata per addestrare i sistemi AI sarebbe un altro passo avanti, a condizione che questi limiti siano rivisti al ribasso man mano che progrediscono gli algoritmi di addestramento.
Yudkowsky crede che dovremmo essere “disposti a distruggere un centro dati ribelle con un attacco aereo”. In uno dei suoi scritti, ha dichiarato che persino uno scambio nucleare potrebbe essere accettabile se ciò significasse eliminare l’IA, anche se ora afferma che avrebbe usato “un linguaggio più attento” riguardo a questo punto specifico.
Anche se alcuni potrebbero accusarlo di allarmismo o sensazionalismo, il più grande sondaggio mai condotto tra gli esperti di IA, pubblicato il mese scorso, ha rivelato che il 16% di loro crede che il proprio lavoro nell’IA porterà all’estinzione dell’umanità.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi dell’intelligenza artificiale? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.
Speriamo del buon senso umano,ma ci credo poco
io meno di te… 😅