Запуск публичного тестирования сети Mira: создание уровня доверия AI для уменьшения предвзятости и иллюзий

robot
Генерация тезисов в процессе

Новая попытка уровня доверия AI: Запуск публичной тестовой сети Mira

Недавно запустилась публичная тестовая сеть, названная Mira. Цель этого проекта — построить уровень доверия для ИИ, чтобы решить некоторые ключевые проблемы, с которыми сталкиваются современные системы ИИ. Так почему же ИИ необходимо устанавливать доверие, и как Mira справляется с этой задачей?

В области ИИ люди часто больше сосредотачиваются на его мощных возможностях. Однако интересным, но менее обсуждаемым вопросом является "иллюзия" или предвзятость ИИ. Так называемая "иллюзия" ИИ, проще говоря, заключается в том, что ИИ иногда "выдумывает" информацию, кажется, что он говорит разумные вещи, но на самом деле это чепуха. Например, если вы спросите ИИ, почему луна розовая, он может дать ряд кажущихся разумными, но на самом деле не имеющими оснований объяснений.

Появление "галлюцинаций" или предвзятости у ИИ связано с некоторыми текущими путями технологий ИИ. Например, генеративный ИИ достигает последовательности и разумности вывода, предсказывая "наиболее вероятное" содержание, но этот метод иногда трудно проверить на подлинность. Кроме того, сами тренировочные данные могут содержать ошибки, предвзятости и даже вымышленные материалы, что может повлиять на качество вывода ИИ. Другими словами, ИИ учит языковые модели человека, а не сами факты.

Текущий механизм генерации вероятностей и модель, основанная на данных, почти неизбежно приводят к тому, что ИИ производит "иллюзии". Для общих знаний или развлекательного контента такие предвзятые или иллюзорные выводы могут временно не привести к прямым последствиям. Но если это происходит в таких областях, как медицина, право, авиация, финансы, которые требуют высокой строгости, это может иметь серьезные последствия. Поэтому решение проблем иллюзий и предвзятости ИИ становится одной из ключевых задач в процессе его развития.

В настоящее время в отрасли существует множество решений. Некоторые используют технологии генерации, усиленные поиском, сочетая ИИ с реальными базами данных, чтобы в первую очередь выводить проверенные факты. Другие привлекают человеческую обратную связь, используя ручную разметку и контроль для исправления ошибок модели.

Проект Mira также пытается решить проблемы предвзятости и иллюзий в ИИ. Его основная идея заключается в создании уровня доверия к ИИ, чтобы уменьшить предвзятость и иллюзии ИИ, повысив его надежность. Как же Mira достигает этой цели?

Основная идея Mira заключается в верификации вывода ИИ через консенсус нескольких моделей ИИ. Mira по своей сути является сетью верификации, использующей консенсус нескольких моделей ИИ для проверки надежности вывода ИИ. Кроме того, Mira также вводит децентрализованный консенсус для верификации.

Ключевым элементом сети Mira является децентрализованная проверка консенсуса. Этот подход заимствует технологии из области криптографии и использует преимущества многомодельного сотрудничества, чтобы уменьшить предвзятость и иллюзии через коллективные модели проверки.

В отношении архитектуры верификации протокол Mira поддерживает преобразование сложного контента в независимые проверяемые заявления. Эти заявления требуют участия операторов узлов в процессе верификации. Чтобы обеспечить честность операторов узлов, Mira использует механизмы криптоэкономических стимулов/наказаний. Разные модели ИИ и децентрализованные операторы узлов участвуют вместе, чтобы гарантировать надежность результатов верификации.

Сетевая архитектура Mira включает в себя преобразование контента, распределенную валидацию и механизм согласования, что обеспечивает надежность проверки. В этой архитектуре преобразование контента является важным этапом. Сеть Mira сначала разбивает кандидатный контент (обычно предоставленный клиентом) на различные проверяемые утверждения, чтобы гарантировать, что модель может понять содержание в одинаковом контексте. Эти утверждения распределяются системой узлам для проверки, чтобы определить их действительность, и результаты собираются для достижения согласия. В конечном итоге эти результаты и согласие возвращаются клиенту. Чтобы защитить конфиденциальность клиента, кандидатный контент преобразуется в пары утверждений и распределяется между различными узлами случайными фрагментами, чтобы предотвратить утечку информации в процессе проверки.

Операторы узлов отвечают за запуск модели валидатора, обработку заявок и представление результатов валидации. Они готовы участвовать в валидации, потому что могут получать прибыль. Эта прибыль поступает от создаваемой клиентами ценности. Цель сети Mira заключается в снижении уровня ошибок ИИ (уменьшение галлюцинаций и предвзятости), и как только эта цель будет достигнута, она сможет принести огромную ценность в таких областях, как медицина, право, авиация и финансы. Поэтому клиенты готовы за это платить. Конечно, устойчивость и масштабируемость платежей зависят от того, сможет ли сеть Mira продолжать приносить ценность клиентам. Чтобы предотвратить спекулятивное поведение узлов с случайными ответами, узлы, которые постоянно отклоняются от консенсуса, будут лишены залоговых токенов. В целом, Mira обеспечивает честное участие операторов узлов в валидации через игровую экономическую механику.

Mira предлагает новый подход к обеспечению надежности ИИ: создание децентрализованной сети для проверки консенсуса на основе нескольких моделей ИИ, что обеспечит более высокую надежность ИИ-сервисов для клиентов, снизит предвзятость и заблуждения ИИ и удовлетворит требования клиентов к более высокой точности и точности. В то же время, основываясь на предоставлении ценности клиентам, это приносит прибыль участникам сети Mira. Проще говоря, Mira пытается создать уровень доверия для ИИ, который будет способствовать глубокой интеграции ИИ-приложений.

В настоящее время пользователи могут участвовать в публичной тестовой сети Mira через Klok. Klok — это приложение для чата на основе Mira с использованием LLM, которое позволяет пользователям испытать проверенный вывод ИИ и сравнить его с непроверенным выводом ИИ. Участники также могут зарабатывать очки Mira, хотя будущие применения этих очков пока не объявлены.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 2
  • Поделиться
комментарий
0/400
SillyWhalevip
· 07-29 02:07
Интересно, давайте посмотрим.
Посмотреть ОригиналОтветить0
NftRegretMachinevip
· 07-28 12:19
Есть яркие моменты, но нужно наблюдать дальше.
Посмотреть ОригиналОтветить0
  • Закрепить