OpenAI дозволила військовим використовувати свої технології: що це означає для безпеки та етики
Компанія OpenAI, відома своєю ШІ-платформою ChatGPT, змінила правила, дозволивши військовим використовувати свої технології. Згідно з інформацією, до 10 січня 2024 року вони обмежували військове та бойове використання, але тепер таке обмеження зникло.
Представник OpenAI, Ніко Фелікс, наголосив, що заборона залишається для прямого вбивства чи маніпулювання технікою. Проте, експерти підкреслюють, що це може відкрити двері для використання у військових цілях, оскільки ChatGPT вже успішно використовується в інших сферах, таких як написання коду та обробка замовлень у держзакупівлях.
Зауважимо, що цей крок OpenAI викликав занепокоєння в експертно-технічних колах. Інженерний директор фірми з кібербезпеки Trail of Bits, Хайді Хлаа, вказує на потенційні наслідки для безпеки, особливо з урахуванням можливих помилок та упереджених операцій.
У межах ШІ, ChatGPT може стати ідеальним інструментом для оборонних відомств, які вже використовують ШІ-технології у документообігу та аналізі геопросторових даних. Однак етичні питання та потенційні ризики використання військовими залишають багато питань відкритими.
Усупереч можливостям ChatGPT, Пентагон виражає занепокоєння через можливі помилки та ризики безпеки при використанні ШІ для аналізу конфіденційних даних. Схильність мовних моделей до галюцинацій і фактичних помилок ставить під сумнів їхню здатність до точних та етичних використань.
Деякі експерти вбачають зміну позиції OpenAI як підготовку до співпраці з військовими. Це невизначене ставлення може вплинути на безпеку та етику використання штучного інтелекту військовими структурами.