У Центрі безпеки ШІ (CAIS) опублікували відкрите звернення, в якому йдеться про вимогу мінімізувати потенційні ризики від штучного інтелекту, адже вони співставні з ядерним конфліктом і пандемією Covid-19.
Його підписав так званий “хрещений батько штучного інтелекту” Джеффрі Гінтон, глави технокомпаній, провідні айтівці, інженери тощо. «Мінімізація ризику загибелі нашої цивілізації через ШІ має стати глобальним пріоритетом поряд з іншими загрозами світового рівня, такими, як, наприклад, пандемія або ядерна війна» — йдеться у зверненні.
Проте не всі поділяють це бачення: деякі експерти у сфері штучного інтелекту виступають за підтримку технології. Наприклад, глава підрозділу штучного інтелекту Meta Янн ЛеКун каже, що нейромережі і близько не в топі потенційних ризиків. Поки ця технологія лише у стані зародження, не потрібно її бездумно обмежувати.