OpenAI запроваджує механізм безпеки: Рада Директорів отримує право блокувати нейромережі, які можуть нести потенційну загрозу для людства
Після скандалу зі змінами у керівництві OpenAI компанія вживає заходів для забезпечення безпеки мовних моделей. За інформацією від Bloomberg, Рада Директорів тепер отримала повноваження блокувати випуск нових моделей у випадку виявлення потенційних загроз.
Головну роль у цьому новому контрольному механізмі візьме на себе група “Preparedness” під керівництвом Олександра Мадрі, який поєднує посаду в компанії з науковою роботою в Массачусетському технологічному інституті. Ця група буде відповідальна за аналіз нових мовних моделей з огляду на “катастрофічні ризики”, такі як можливі збитки чи людські втрати. Звіти про їхню роботу будуть регулярно надсилатися Раді Безпеки, яка спільно з генеральним директором та Радою Директорів розглядатиме ці висновки.
Рішення про випуск нових моделей буде піддаватися вето Ради Директорів у випадку, якщо модель вважається небезпечною. Оцінка ризиків проводитиметься за чотирма градаціями, дозволяючи лише моделям з низьким або середнім ризиком виходити на ринок.