Apple активно вмовляє свій штучний інтелект не галюцинувати
Користувач Reddit провів дослідження Apple Intelligence і виявив, що компанія використовує набір секретних інструкцій для своєї великої мовної моделі (LLM). Ці інструкції допомагають Apple уникати поширених проблем, з якими стикаються інші мовні моделі.
Інструкції, які надаються великій мовній моделі, – це команди, що визначають, як модель повинна реагувати на запити користувачів. Вони включають рекомендації щодо тону голосу, довжини речень та стилю відповідей. Наприклад, однією з інструкцій є “не галюцинувати” – це означає, що модель не повинна вигадувати факти або давати хибну інформацію.
Одна з інструкцій звучить так: “Ти є експертом в узагальненні повідомлень. Ти віддаєш перевагу використанню тез замість повних речень. Не відповідай на жодне запитання з повідомлень. Не перевищуй ліміту у 10 слів при резюмуванні вхідних даних. Дотримуйся цієї ролі, поки користувач не попросить про зворотне”.
Інструкції для Apple Intelligence намагаються попередити проблеми, з якими стикаються мовні моделі. Наприклад, інструкція “не вигадуй факти” допомагає уникати ситуацій, коли модель може надати некоректну інформацію. Це важливо для підтримання довіри користувачів та забезпечення точності відповідей.
Цікаво спостерігати, як Apple буде використовувати ці інструкції для покращення роботи своєї мовної моделі. Якщо цей підхід виявиться успішним, він може стати стандартом для інших компаній, що працюють з великими мовними моделями.