Дослідження: штучний інтелект не становить загрози, але потребує обережності у використанні

Попри страхи, породжені науковою фантастикою, такі як повстання Skynet у франшизі “Термінатор”, нове дослідження вказує на те, що на даному етапі розвитку штучний інтелект не представляє реальної загрози для людства. Це дослідження, яке провела група вчених з Університету Бата та Технічного університету Дармштадта, підтвердило, що великі мовні моделі (LLM) ще не здатні на самостійне навчання, а також не можуть несподівано набути небезпечних здібностей.

Науковці під керівництвом Ірини Гуревич, професорки комп’ютерних наук, досліджували можливості сучасних ШІ систем. Їхні висновки оприлюднено на 62-й щорічній зустрічі Асоціації комп’ютерної лінгвістики (ACL 2024). Вчені підтвердили, що сучасні великі мовні моделі, як і раніше, можуть лише виконувати поставлені задачі, але не здатні до самостійного навчання чи розвитку.

Доктор Харіш Тайяр Мадабуші, співавтор дослідження, наголошує, що побоювання щодо непередбачуваної поведінки штучного інтелекту на основі його зростаючих можливостей не мають підґрунтя. Вчені показали, що ці моделі не здатні розвивати нові мислення чи планування самостійно, що означає, що загроза виникає лише при зловмисному використанні цих технологій реальними людьми.

Інше важливе спостереження дослідників стосується використання ШІ. Для досягнення найкращих результатів користувачі повинні надавати чіткі та детальні інструкції. Спроби використовувати штучний інтелект для виконання складних завдань без відповідного керівництва можуть призвести до помилок.

Ірина Гуревич зазначає, що основна небезпека, пов’язана зі штучним інтелектом, лежить у площині його можливого зловмисного застосування. Вона підкреслює, що майбутні дослідження мають бути спрямовані на виявлення та запобігання таким ризикам, зокрема на потенціал ШІ для створення фейкових новин.

Таким чином, хоча розвиток штучного інтелекту викликає занепокоєння, його сучасні можливості не підтверджують побоювань щодо несподіваних та небезпечних дій. Однак обережне та відповідальне використання цих технологій залишається критично важливим для забезпечення безпеки.

Джерело Neuroscience News
Не пропустіть