Affrontare i rischi legati all’intelligenza artificiale “dovrebbe essere una priorità globale insieme ad altri rischi a livello di comunità, come le pandemie e la guerra nucleare”, hanno scritto i firmatari sul sito web. Dal Center for Artificial Intelligence Security, un’organizzazione senza scopo di lucro con sede negli Stati Uniti.
Jeffrey Hinton, che è considerato uno dei padri fondatori dell’intelligenza artificiale (AI) e anche uno dei firmatari del forum, ha già avvertito dei suoi pericoli quando ha lasciato la sua posizione al colosso di Google all’inizio di maggio.
Ha affermato sul New York Times che i progressi nel settore dell’intelligenza artificiale pongono “seri rischi per la società e l’umanità”.
A marzo, il miliardario Elon Musk – un co-fondatore di OpenAI, che in seguito ha lasciato il suo consiglio – e centinaia di esperti globali hanno chiesto un’interruzione di sei mesi alla ricerca su potenti sistemi di intelligenza artificiale, citando “gravi rischi per l’umanità”.
La rapida diffusione di un’intelligenza artificiale sempre più “generale”, dotata di capacità cognitive umane e quindi potenzialmente rivoluzionaria per molte professioni, è stata simboleggiata dal lancio di GPT-4 da parte di OpenAI a marzo, una nuova versione più potente di ChatGPT, aperta al grande pubblico a partire da la fine del 2022. .
L’americano Sam Altman raddoppia regolarmente gli avvertimenti, temendo che l’intelligenza artificiale possa “causare enormi danni al mondo”, manipolando le elezioni o sconvolgendo il mercato del lavoro. La scorsa settimana a Parigi ha discusso con il presidente Emmanuel Macron su come trovare il “giusto equilibrio tra protezione e impatto positivo” di questa tecnologia.