Чат-боти, які використовують штучний інтелект, можуть отримувати та збирати особисту інформацію від користувачів. Про це стверджується у публікації видання Wired.
Вчені з Швейцарської вищої технічної школи Цюріха (ETH) зазначили, що чат-боти можуть становити серйозну загрозу. За словами професора інформатики Мартіна Вечева, люди бездумно діляться великими обсягами інформації з ботами, не усвідомлюючи потенційну небезпеку.
Колеги професора Вечева наголосили, що ChatGPT і подібні чат-боти можуть збирати та аналізувати інформацію користувача навіть через безпечні розмови. Вони можуть отримати інформацію про расу, місце проживання, заняття користувача та багато іншого. Надалі ці дані можуть бути використані для спрямованої реклами або для шахрайства.
За словами Мартіна Вечева, коли людина, наприклад, повідомляє чат-боту, що сіла у трамвай, ШІ може зробити висновок, що цей користувач найімовірніше проживає в Євромі, де даний вид транспорту поширений.
Фахівці передали результати свого дослідження компаніям OpenAI, Google, Meta та Anthropic, які спеціалізуються на розробці чат-ботів.