Google відкликав Gemma AI з AI Studio, повторюючи мету лише для розробників на тлі занепокоєння щодо точності.

Коротко

Google відкликав свою модель Gemma після повідомлень про галюцинації на фактичні питання, підкресливши, що вона призначена для розробників і дослідницьких цілей.

Google відкликає Gemma AI з AI Studio, підтверджує мету лише для розробників на фоні занепокоєння щодо точності

Технологічна компанія Google оголосила про відкликання своєї моделі Gemma AI після повідомлень про неточні відповіді на фактичні запитання, уточнивши, що модель була розроблена виключно для досліджень та використання розробниками.

Згідно з заявою компанії, Gemma більше недоступна через AI Studio, хоча вона залишається доступною для розробників через API. Це рішення було прийнято через випадки, коли недорозробники використовували Gemma через AI Studio для запиту фактичної інформації, що не є її призначеною функцією.

Google пояснив, що Gemma ніколи не була призначена для використання споживачами, і видалення було зроблено, щоб запобігти подальшому непорозумінню щодо її призначення.

У своєму роз'ясненні Google підкреслила, що сімейство моделей Gemma було розроблено як інструменти з відкритим вихідним кодом для підтримки розробників та наукових спільнот, а не для надання фактичної допомоги або взаємодії з споживачами. Компанія зазначила, що відкриті моделі, такі як Gemma, призначені для заохочення експериментів і інновацій, що дозволяє користувачам досліджувати продуктивність моделей, виявляти проблеми та надавати цінні відгуки.

Google підкреслив, що Джемма вже зробила внесок у наукові досягнення, наводячи приклад моделі Gemma C2S-Scale 27B, яка нещодавно відіграла роль у виявленні нового підходу до розробки терапії раку.

Компанія визнала ширші виклики, з якими стикається індустрія ШІ, такі як галюцинації — коли моделі генерують неправдиву або оманливу інформацію — та підлабузництво — коли вони виробляють приємні, але неточні відповіді.

Ці проблеми особливо поширені серед менших відкритих моделей, таких як Gemma. Google підтвердив своє зобов'язання зменшити галюцинації та постійно покращувати надійність і продуктивність своїх AI-систем.

Google впроваджує багатошарову стратегію для боротьби з галюцинаціями штучного інтелекту

Компанія використовує багатоетапний підхід для мінімізації галюцинацій у своїх великих мовних моделях (LLMs), поєднуючи ґрунтування даних, суворе навчання та проектування моделей, структуроване запрошення та контекстуальні правила, а також постійний контроль з боку людини та механізми зворотного зв'язку. Незважаючи на ці заходи, компанія визнає, що галюцинації не можуть бути повністю усунені.

Основне обмеження походить від того, як працюють LLM. Замість того, щоб мати розуміння істини, моделі функціонують, передбачаючи ймовірні послідовності слів на основі шаблонів, виявлених під час навчання. Коли модель не має достатньої основи або стикається з неповними чи ненадійними зовнішніми даними, вона може генерувати відповіді, які звучать правдоподібно, але є фактично неправильними.

Крім того, Google зазначає, що існують вроджені компроміси в оптимізації продуктивності моделей. Збільшення обережності та обмеження виходу можуть допомогти обмежити галюцинації, але часто це відбувається за рахунок гнучкості, ефективності та корисності в певних завданнях. В результаті, періодично зберігаються неточності, особливо в нових, спеціалізованих або недостатньо представлених сферах, де покриття даними обмежене.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити