La dichiarazione è stata firmata da un gruppo di esperti di intelligenza artificiale e non lascia spazio a interpretazioni: ecco di cosa si tratta.
L’intelligenza artificiale può portare all’estinzione del genere umano: è quanto dichiarato da un gruppo di esperti del settore – manager e ricercatori attivi nel campo dell’IA – che paragonano i rischi della tecnologia a quelli rappresentati dalle pandemie e dalle guerre nucleari.
Tra questi, hanno firmato la dichiarazione anche Sam Altman, amministratore delegato di OpenAI, Demis Hassabis, AD di Google DeepMind, e Dario Amodei, AD e co-fondatore di Anthropic.
Non solo, anche studiosi e professori di informatica considerati pionieri nei rispettivi campi di applicazione, come il dottore in Psicologia ed informatico britannico naturalizzato canadese Geoffrey Hinton, il professor Yoshua Bengio dell’Università di Montreal ed il professor Yann LeCunn dell’Università di New York, hanno firmato l’allarme.
Poche righe, ma inequivocabili, pubblicate sul sito ‘Center for AI Safety’: “Mitigare il rischio di estinzione [del genere umano, ndr] da parte dell’intelligenza artificiale dovrebbe essere una priorità globale da assumere al pari di altri rischi di scala sociale come le pandemie e le guerre nucleari”. Dichiarazione che ha già sortito parte degli effetti sperati, ovvero far puntare i riflettori su questo pericolo.
Alcune perplessità sulla dichiarazione e gli avvertimenti di Elon Musk
Non mancano le posizioni di scetticismo nei confronti dell’allerta che, secondo altri esperti del settore, risulterebbe basarsi su presupposti irrealistici. Non solo, secondo i detrattori la posizione espressa attraverso la dichiarazione rischierebbe di allontanare l’attenzione tanto degli esperti quanto dell’opinione pubblica dai reali problemi in seno all’intelligenza artificiale, soprattutto nel breve termine, come la crescente produzione e diffusione di informazioni false o non accurate.
Dal canto suo, anche Elon Musk, co-fondatore di OpenAI, lo scorso Marzo aveva pubblicato insieme ad altri esperti del settore una lettera di allerta riguardo al potenziale distruttivo della tecnologia dell’intelligenza artificiale. Il rischio principale espresso da Musk consisterebbe in una “corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare”.
Per questo motivo, nella lettera i firmatari hanno richiesto di sospendere l’implementazione dei sistemi di nuova generazione GPT-4, ritenendo che debbano “essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili”. Una cosa, dunque, non può che essere certa: a quanto pare, le preoccupazioni riguardo al futuro dell’AI in relazione al genere umano non sono eccezioni di pochi ed isolati allarmisti.