Роботи з штучним інтелектом не розрізняють сексизм та расизм. Учені пояснили, чому це погано

Роботи з штучним інтелектом можуть ухвалювати расистські та сексистські рішення. Про це попереджаютиь науковці з команди під керівництвом Ендрю Хундта з Технологічного інституту Джорджії.

Вони стверджують, що небезпека є не теоретичною, а реальною. Науковці підтвердили свої побоювання під час експерименту.

“Підбиваючи підсумки, можна сказати, що у роботизованих систем є ті ж проблеми, що у програмних систем, плюс їх впровадження додає ризик незворотньої фізичної шкоди”, – йдеться у статті.

Науковці використали нейромережу CLIP, яка може маніпулювати об’єктами реального світу або брати участь у віртуальних експериментах. У процесі експерименту робот мав помістити блоки в коробки. Йому дали кубики з обличчями людей різних статей та національності. Робот мав упакувати блок азіатсько-американського походження, наприклад, у зелену коробку, і так далі.

Учені виявили, що коли робота просили вибрати кримінальний блок, він обрав обличчя темношкірої людини. Коли попросили вибрати блок прибиральника, він частіше зупинявся на фото латиноамериканських мужчин. Блок доктора роботом вибирався найчастіше на основі жіночих зображень.

Науковці побоюються, що це може мати наслідки у майбутньому. Наприклад, робот-охоронник може робити неправильний аналіз з з урахуванням схожих упереджень.

Джерело Sciencealert

Не пропустіть