Alcuni esperti come Sam Altman, amministratore delegato di Chat GPT Open AI, Dario Amodei, amministratore delegato di Anthropic, ritengono che l’intelligenza artificiale potrebbe portare all’estinzione del’umanità.
Sulla pagina web del Center for AI Safety viene dichiarato che “Mitigare il rischio di estinzione dell’Intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”
Anche Geoffrey Hinton, uno dei padri dell’IA, ha sostenuto l’appello.
Tra i firmatari anche alcuni italiani, tra cui il fisico Roberto Battiston dell’Universitàdi Trento e Luca Simoncini, ex docente di Ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’Istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche.
Come dice Battiston, il problema non è la minaccia di una super intelligenza che possa sopraffare l’umanità, ma le conseguenze di un modo sbagliato con cui gli esseri umani utilizzeranno questi algoritmi nel loro lavoro e nella vita quotidiana della società”; poi aggiunge “Pensiamo ad esempio alla possibile interferenza sui processi elettorali, alla diffusione di notizie false o alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione”. Quindi come soluzione al problema dice che occorre prepararsi a gestire queste situazioni.
L’uso dell’intelligenza artificiale da un lato sta portando a una rivoluzione ma dall’altro sta ponendo seri problemi. L’intelligenza artificiale è così pervasiva da avere un forte impatto in molti settori della vita sociale, ma è evidente che nessuno può opporsi se una tecnologia emergente è usata per scopi benefici, per esempio in campo biomedico o farmacologico.