domenica, Novembre 24, 2024

Grandi pericoli per l’umanità: Elon Musk e centinaia di esperti chiedono una rottura dell’intelligenza artificiale

Data :

Mercoledì Elon Musk e centinaia di esperti mondiali hanno firmato un appello per una pausa di sei mesi nella ricerca sull’intelligenza artificiale più forte di ChatGPT 4, il modello OpenAI lanciato a metà marzo. “Grandi pericoli per l’umanità”.

In questa petizione pubblicata su Futureoflife.org, chiedono una pausa fino a quando i sistemi di sicurezza non saranno messi in atto, comprese nuove autorità di regolamentazione dedicate, supervisione dei sistemi di intelligenza artificiale e tecnologie per aiutare a distinguere tra realtà artificiale e istituzioni in grado di gestire “Drammatico sconvolgimento economico e politico (soprattutto per la democrazia) che l’intelligenza artificiale causerà”.

Sistemi di intelligenza artificiale incontrollabili superiori agli umani

La petizione include figure che hanno precedentemente espresso pubblicamente timori di un’intelligenza artificiale incontrollabile che potrebbe superare gli umani, tra cui Elon Musk, proprietario di Twitter e fondatore di SpaceX e Tesla, e Yuval Noah Harari, autore di “Sapiens”.

Anche il pioniere canadese dell’intelligenza artificiale Yoshua Bengio, uno dei firmatari, ha espresso le sue preoccupazioni durante una conferenza stampa virtuale a Montreal: “Non credo che la società sia pronta ad affrontare quel potere, la possibilità di manipolazione della popolazione, per esempio, che potrebbe mettere in pericolo le democrazie”.

“Quindi dobbiamo prenderci il tempo per rallentare questa corsa commerciale in corso”, ha detto. Chiedendo la discussione di questi problemi a livello globale, ha aggiunto, “Come abbiamo fatto con l’energia e le armi nucleari”.

Il capo di chatGPT è “un po’ spaventato” dalla sua creazione

READ  Dopo Match e Smatch è stata presa una decisione per l'Ipermercato Kora: ecco cosa è previsto per i lavoratori

Sam Altman, capo di OpenAI, il creatore di chatGPT, lo ha ammesso lui stesso “poca paura” Creando se è abituato Disinformazione o attacchi informatici su larga scala. La società ha bisogno di tempo per adattarsi. ha detto ad ABCNews a metà marzo.

“Negli ultimi mesi i laboratori di intelligenza artificiale si sono impegnati in una corsa incontrollata per sviluppare e implementare cervelli digitali sempre più potenti, che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare in modo affidabile”. loro credono.

“Dovremmo rischiare di perdere il controllo della nostra civiltà?”

“Dovremmo permettere alle macchine di inondare i nostri canali mediatici di propaganda e falsità? Dovremmo essere in grado di automatizzare tutti i lavori, compresi quelli remunerativi? Dovremmo sviluppare cervelli non umani che un giorno potrebbero essere più numerosi, più intelligenti e obsoleti e sostituirci “Che rischiamo di perdere il controllo della nostra civiltà? Queste decisioni non dovrebbero essere delegate a leader tecnologici non eletti”.dicono.

I firmatari includono anche il co-fondatore di Apple Steve Wozniak, membri del laboratorio DeepMind AI di Google e capo del concorrente Stability AI Imad Moustak di OpenAI, nonché esperti e accademici di intelligenza artificiale statunitensi, ingegneri esecutivi di Microsoft e un gruppo alleato di OpenAI.