Исследование AI Layer1: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, продолжают активно развивать большие языковые модели (LLM). LLM демонстрируют беспрецедентные способности в различных отраслях, значительно расширяя человеческое воображение и даже показывая потенциал замены человеческого труда в некоторых сценариях. Однако ядро этих технологий прочно удерживается в руках немногих централизованных технологических гигантов. Благодаря мощным капиталам и контролю над дорогими вычислительными ресурсами эти компании создали непреодолимые барьеры, что затрудняет большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на начальных этапах быстрого развития ИИ общественное мнение часто сосредоточивается на прорывах и удобствах, которые предоставляет технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, остается относительно недостаточным. В долгосрочной перспективе эти проблемы окажут глубокое влияние на здоровое развитие ИИ-индустрии и общественное восприятие. Если их не удастся должным образом решить, споры о том, будет ли ИИ «на благо» или «во вред», будут становиться все более заметными, а централизованные гиганты, движимые инстинктом получения прибыли, часто не имеют достаточной мотивации для активного решения этих вызовов.
Технология блокчейн, благодаря своим характеристикам децентрализации, прозрачности и устойчивости к цензуре, открывает новые возможности для устойчивого развития AI-индустрии. В настоящее время на некоторых основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при более глубоком анализе можно обнаружить, что у этих проектов все еще есть множество проблем: с одной стороны, степень децентрализации ограничена, ключевые этапы и инфраструктура все еще зависят от централизованных облачных услуг, что затрудняет поддержку по-настоящему открытой экосистемы; с другой стороны, по сравнению с AI-продуктами мира Web2, AI в блокчейне все еще имеет ограничения в таких аспектах, как способность моделей, использование данных и сценарии применения, глубина и широта инноваций нуждаются в улучшении.
Чтобы действительно реализовать видение децентрализованного ИИ и обеспечить безопасное, эффективное и демократическое использование блокчейна для масштабных ИИ-приложений, а также конкурировать с централизованными решениями по производительности, нам необходимо разработать блокчейн Layer1, специально созданный для ИИ. Это обеспечит прочную основу для открытых инноваций в области ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально созданный для AI приложений, его базовая архитектура и проектирование производительности тесно связаны с потребностями AI задач, нацелены на эффективную поддержку устойчивого развития и процветания AI экосистемы в блокчейне. Более конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса. Ядро AI Layer 1 заключается в создании открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на учете в бухгалтерской книге, узлы AI Layer 1 должны выполнять более сложные задачи: они не только должны предоставлять вычислительную мощность, завершать обучение и вывод AI моделей, но также должны вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, чтобы разрушить монополию централизованных гигантов в области инфраструктуры AI. Это создает более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен точно оценивать, стимулировать и проверять фактический вклад узлов в задачи, такие как вывод и обучение AI, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Превосходные высокопроизводительные характеристики и поддержка гетерогенных задач Задачи AI, особенно обучение и вывод LLM, предъявляют высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные, гетерогенные типы задач, включая различные модели, обработку данных, вывод, хранение и другие многообразные сценарии. AI Layer 1 должен быть глубоко оптимизирован на уровне архитектуры для высокопропускной способности, низкой задержки и эластичной параллельной обработки, а также предусматривать нативную поддержку гетерогенных вычислительных ресурсов, чтобы гарантировать эффективное выполнение различных задач AI и обеспечить плавное расширение от "однотипных задач" к "сложной многообразной экосистеме".
Проверяемость и надежная гарантия вывода AI Уровень 1 должен не только предотвращать неблагоприятные действия модели, подделку данных и другие угрозы безопасности, но и с механической точки зрения обеспечивать проверяемость и согласованность выводов AI. Интегрируя такие передовые технологии, как доверенная вычислительная среда (TEE), нулевое знание (ZK), многопартитные безопасные вычисления (MPC), платформа может позволить независимую проверку каждого процесса вывода модели, обучения и обработки данных, обеспечивая справедливость и прозрачность AI-системы. В то же время такая проверяемость может помочь пользователям четко понять логику и основы выводов AI, достигать "полученного желаемого", повышая доверие и удовлетворенность пользователей к продуктам AI.
Защита конфиденциальности данных Применение AI часто связано с чувствительными данными пользователей, особенно в таких областях, как финансы, здравоохранение и социальные сети, где защита конфиденциальности данных имеет особое значение. AI Layer 1 должен обеспечивать проверяемость, одновременно используя технологии обработки данных на основе шифрования, протоколы вычисления конфиденциальности и управление правами на данные, чтобы гарантировать безопасность данных на всех этапах, включая вывод, обучение и хранение, эффективно предотвращая утечку и злоупотребление данными, устраняя беспокойство пользователей по поводу безопасности данных.
Мощные возможности для поддержки экосистемы и разработки. Как AI-родная инфраструктура уровня 1, платформа должна не только обладать технологическим лидерством, но и предоставлять участникам экосистемы, таким как разработчики, операторы узлов и поставщики AI-услуг, полноценные инструменты разработки, интегрированные SDK, поддержку операций и механизмы стимулирования. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем реализации разнообразных AI-родных приложений и обеспечиваем устойчивое процветание децентрализованной AI-экосистемы.
В связи с вышеизложенным фоном и ожиданиями, в данной статье подробно рассматриваются шесть代表项目 AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематизируются последние достижения в этой области, анализируется текущее состояние проектов и обсуждаются будущие тенденции.
Sentient: создание надежной модели открытого и децентрализованного AI
Обзор проекта
Sentient является платформой с открытым протоколом, которая разрабатывает AI Layer1 в блокчейне( на начальном этапе в качестве Layer 2, а затем будет перенесена на Layer 1). Объединив AI Pipeline и технологии блокчейна, она создает децентрализованную экономику искусственного интеллекта. Ее основная цель — решить проблемы принадлежности моделей, отслеживания вызовов и распределения ценности на централизованном рынке LLM с помощью рамок "OML" (открытость, прибыльность, лояльность), позволяя AI моделям реализовать структуру собственности в блокчейне, прозрачность вызовов и распределение ценности. Видение Sentient заключается в том, чтобы любой мог создавать, сотрудничать, владеть и монетизировать AI продукты, тем самым способствуя созданию справедливой и открытой экосистемы сети AI Agent.
Команда Sentient Foundation объединяет лучших академических экспертов, блокчейн-предпринимателей и инженеров со всего мира, стремясь создать сообщество, управляемое, открытое и проверяемое платформой AGI. Ключевыми членами команды являются профессор Принстонского университета Прамод Висванат и профессор Индийского института науки Химаншу Тяги, которые отвечают за безопасность ИИ и защиту конфиденциальности, в то время как соучредитель Polygon Сандип Найлвал возглавляет стратегию блокчейна и экосистему. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в ведущих учебных заведениях, таких как Принстонский университет и Индийский институт технологий, охватывающем области AI/ML, NLP, компьютерного зрения и совместно способствуют реализации проекта.
В качестве второго стартапа соучредителя Polygon Sandeep Nailwal, Sentient с самого начала имела ауру успеха, обладая богатыми ресурсами, связями и осведомленностью о рынке, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершила раунд посевного финансирования на сумму 85 миллионов долларов, который возглавили Founders Fund, Pantera и Framework Ventures, среди других инвестиционных учреждений — десятки известных венчурных компаний, включая Delphi, Hashkey и Spartan.
проектирование архитектуры и уровень приложений
Инфраструктурный уровень
Ядро архитектуры
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и системы в блокчейне.
AI пайплайн является основой для разработки и обучения "лояльного ИИ" артефактов и включает в себя два основных процесса:
Планирование данных (Data Curation): процесс выбора данных, управляемый сообществом, используемый для выравнивания моделей.
Обучение лояльности (Loyalty Training): обеспечение того, чтобы модель оставалась в процессе обучения, согласованном с намерениями сообщества.
Система блокчейна обеспечивает прозрачность и децентрализованный контроль протокола, гарантируя владение, отслеживание использования, распределение доходов и справедливое управление ИИ-артефактами. Конкретная архитектура делится на четыре уровня:
Уровень хранения: хранение весов модели и информации о регистрации отпечатков;
Уровень распределения: вход для вызова модели управления контрактом авторизации;
Уровень доступа: проверка полномочий для подтверждения авторизации пользователя;
Уровень стимулов: контракт маршрутизации доходов будет распределять платежи за каждый вызов между тренерами, развертывателями и валидаторами.
OML модельная рамка
OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) — это основная концепция, предложенная Sentient, направленная на обеспечение четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Объединяя технологии в блокчейне и нативную криптографию AI, он обладает следующими характеристиками:
Открытость: Модель должна быть с открытым исходным кодом, код и структура данных должны быть прозрачными, чтобы сообщество могло воспроизводить, проверять и улучшать.
Монетизация: Каждый вызов модели будет вызывать поток доходов, в блокчейне контракт будет распределять доходы между тренерами, развертывателями и верификаторами.
Верность: Модель принадлежит сообществу вкладчиков, направление обновления и управление определяются DAO, использование и изменение контролируются криптомеханизмом.
AI-родная криптография использует непрерывность моделей ИИ, структуру низкоразмерных многообразий и дифференцируемые свойства моделей для разработки "проверяемого, но не удаляемого" легковесного механизма безопасности. Основная технология заключается в:
Встраивание отпечатков: во время обучения вставляется группа скрытых пар запрос-ответ, формируя уникальную подпись модели;
Протокол проверки прав собственности: проверка сохранения отпечатков пальцев с помощью стороннего детектора (Prover) в форме запроса.
Механизм разрешенного вызова: перед вызовом необходимо получить "разрешительный сертификат", выданный владельцем модели, после чего система предоставляет разрешение модели декодировать этот ввод и вернуть точный ответ.
Этот способ позволяет реализовать "авторизованный вызов на основе поведения + проверка принадлежности" без затрат на повторное шифрование.
Модель подтверждения прав и безопасная исполняемая структура
Sentient в настоящее время использует Melange смешанную безопасность: сочетание подтверждения прав с помощью отпечатков пальцев, выполнения TEE и распределения прибыли по смарт-контрактам в блокчейне. При этом метод отпечатков пальцев реализует основную линию OML 1.0, акцентируя внимание на концепции "оптимистичной безопасности (Optimistic Security)", которая предполагает, что по умолчанию соблюдаются правила, а нарушения могут быть обнаружены и наказаны.
Механизм отпечатков пальцев является ключевой реализацией OML, он позволяет встраивать определенные пары "вопрос-ответ", что дает модели возможность генерировать уникальные подписи на этапе обучения. С помощью этих подписей владельцы моделей могут проверять принадлежность, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков моделей, но и предоставляет отслеживаемые записи в блокчейне для действий, связанных с использованием модели.
Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенные вычислительные среды (такие как AWS Nitro Enclaves), чтобы гарантировать, что модели отвечают только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания моделей.
В будущем Sentient планирует внедрить технологии нулевых знаний (ZK) и полностью гомоморфного шифрования (FHE), чтобы进一步 укрепить защиту конфиденциальности и проверяемость, а также обеспечить более зрелое децентрализованное развертывание AI моделей.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
3
Репост
Поделиться
комментарий
0/400
TooScaredToSell
· 08-08 14:10
degen может только лежать и быть под властью крупных компаний
Исследование AI Layer1: анализ технической основы Децентрализации искусственного интеллекта
Исследование AI Layer1: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, продолжают активно развивать большие языковые модели (LLM). LLM демонстрируют беспрецедентные способности в различных отраслях, значительно расширяя человеческое воображение и даже показывая потенциал замены человеческого труда в некоторых сценариях. Однако ядро этих технологий прочно удерживается в руках немногих централизованных технологических гигантов. Благодаря мощным капиталам и контролю над дорогими вычислительными ресурсами эти компании создали непреодолимые барьеры, что затрудняет большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на начальных этапах быстрого развития ИИ общественное мнение часто сосредоточивается на прорывах и удобствах, которые предоставляет технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, остается относительно недостаточным. В долгосрочной перспективе эти проблемы окажут глубокое влияние на здоровое развитие ИИ-индустрии и общественное восприятие. Если их не удастся должным образом решить, споры о том, будет ли ИИ «на благо» или «во вред», будут становиться все более заметными, а централизованные гиганты, движимые инстинктом получения прибыли, часто не имеют достаточной мотивации для активного решения этих вызовов.
Технология блокчейн, благодаря своим характеристикам децентрализации, прозрачности и устойчивости к цензуре, открывает новые возможности для устойчивого развития AI-индустрии. В настоящее время на некоторых основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при более глубоком анализе можно обнаружить, что у этих проектов все еще есть множество проблем: с одной стороны, степень децентрализации ограничена, ключевые этапы и инфраструктура все еще зависят от централизованных облачных услуг, что затрудняет поддержку по-настоящему открытой экосистемы; с другой стороны, по сравнению с AI-продуктами мира Web2, AI в блокчейне все еще имеет ограничения в таких аспектах, как способность моделей, использование данных и сценарии применения, глубина и широта инноваций нуждаются в улучшении.
Чтобы действительно реализовать видение децентрализованного ИИ и обеспечить безопасное, эффективное и демократическое использование блокчейна для масштабных ИИ-приложений, а также конкурировать с централизованными решениями по производительности, нам необходимо разработать блокчейн Layer1, специально созданный для ИИ. Это обеспечит прочную основу для открытых инноваций в области ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально созданный для AI приложений, его базовая архитектура и проектирование производительности тесно связаны с потребностями AI задач, нацелены на эффективную поддержку устойчивого развития и процветания AI экосистемы в блокчейне. Более конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса. Ядро AI Layer 1 заключается в создании открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на учете в бухгалтерской книге, узлы AI Layer 1 должны выполнять более сложные задачи: они не только должны предоставлять вычислительную мощность, завершать обучение и вывод AI моделей, но также должны вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, чтобы разрушить монополию централизованных гигантов в области инфраструктуры AI. Это создает более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен точно оценивать, стимулировать и проверять фактический вклад узлов в задачи, такие как вывод и обучение AI, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Превосходные высокопроизводительные характеристики и поддержка гетерогенных задач Задачи AI, особенно обучение и вывод LLM, предъявляют высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные, гетерогенные типы задач, включая различные модели, обработку данных, вывод, хранение и другие многообразные сценарии. AI Layer 1 должен быть глубоко оптимизирован на уровне архитектуры для высокопропускной способности, низкой задержки и эластичной параллельной обработки, а также предусматривать нативную поддержку гетерогенных вычислительных ресурсов, чтобы гарантировать эффективное выполнение различных задач AI и обеспечить плавное расширение от "однотипных задач" к "сложной многообразной экосистеме".
Проверяемость и надежная гарантия вывода AI Уровень 1 должен не только предотвращать неблагоприятные действия модели, подделку данных и другие угрозы безопасности, но и с механической точки зрения обеспечивать проверяемость и согласованность выводов AI. Интегрируя такие передовые технологии, как доверенная вычислительная среда (TEE), нулевое знание (ZK), многопартитные безопасные вычисления (MPC), платформа может позволить независимую проверку каждого процесса вывода модели, обучения и обработки данных, обеспечивая справедливость и прозрачность AI-системы. В то же время такая проверяемость может помочь пользователям четко понять логику и основы выводов AI, достигать "полученного желаемого", повышая доверие и удовлетворенность пользователей к продуктам AI.
Защита конфиденциальности данных Применение AI часто связано с чувствительными данными пользователей, особенно в таких областях, как финансы, здравоохранение и социальные сети, где защита конфиденциальности данных имеет особое значение. AI Layer 1 должен обеспечивать проверяемость, одновременно используя технологии обработки данных на основе шифрования, протоколы вычисления конфиденциальности и управление правами на данные, чтобы гарантировать безопасность данных на всех этапах, включая вывод, обучение и хранение, эффективно предотвращая утечку и злоупотребление данными, устраняя беспокойство пользователей по поводу безопасности данных.
Мощные возможности для поддержки экосистемы и разработки. Как AI-родная инфраструктура уровня 1, платформа должна не только обладать технологическим лидерством, но и предоставлять участникам экосистемы, таким как разработчики, операторы узлов и поставщики AI-услуг, полноценные инструменты разработки, интегрированные SDK, поддержку операций и механизмы стимулирования. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем реализации разнообразных AI-родных приложений и обеспечиваем устойчивое процветание децентрализованной AI-экосистемы.
В связи с вышеизложенным фоном и ожиданиями, в данной статье подробно рассматриваются шесть代表项目 AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематизируются последние достижения в этой области, анализируется текущее состояние проектов и обсуждаются будущие тенденции.
Sentient: создание надежной модели открытого и децентрализованного AI
Обзор проекта
Sentient является платформой с открытым протоколом, которая разрабатывает AI Layer1 в блокчейне( на начальном этапе в качестве Layer 2, а затем будет перенесена на Layer 1). Объединив AI Pipeline и технологии блокчейна, она создает децентрализованную экономику искусственного интеллекта. Ее основная цель — решить проблемы принадлежности моделей, отслеживания вызовов и распределения ценности на централизованном рынке LLM с помощью рамок "OML" (открытость, прибыльность, лояльность), позволяя AI моделям реализовать структуру собственности в блокчейне, прозрачность вызовов и распределение ценности. Видение Sentient заключается в том, чтобы любой мог создавать, сотрудничать, владеть и монетизировать AI продукты, тем самым способствуя созданию справедливой и открытой экосистемы сети AI Agent.
Команда Sentient Foundation объединяет лучших академических экспертов, блокчейн-предпринимателей и инженеров со всего мира, стремясь создать сообщество, управляемое, открытое и проверяемое платформой AGI. Ключевыми членами команды являются профессор Принстонского университета Прамод Висванат и профессор Индийского института науки Химаншу Тяги, которые отвечают за безопасность ИИ и защиту конфиденциальности, в то время как соучредитель Polygon Сандип Найлвал возглавляет стратегию блокчейна и экосистему. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в ведущих учебных заведениях, таких как Принстонский университет и Индийский институт технологий, охватывающем области AI/ML, NLP, компьютерного зрения и совместно способствуют реализации проекта.
В качестве второго стартапа соучредителя Polygon Sandeep Nailwal, Sentient с самого начала имела ауру успеха, обладая богатыми ресурсами, связями и осведомленностью о рынке, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершила раунд посевного финансирования на сумму 85 миллионов долларов, который возглавили Founders Fund, Pantera и Framework Ventures, среди других инвестиционных учреждений — десятки известных венчурных компаний, включая Delphi, Hashkey и Spartan.
проектирование архитектуры и уровень приложений
Инфраструктурный уровень
Ядро архитектуры
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и системы в блокчейне.
AI пайплайн является основой для разработки и обучения "лояльного ИИ" артефактов и включает в себя два основных процесса:
Система блокчейна обеспечивает прозрачность и децентрализованный контроль протокола, гарантируя владение, отслеживание использования, распределение доходов и справедливое управление ИИ-артефактами. Конкретная архитектура делится на четыре уровня:
OML модельная рамка
OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) — это основная концепция, предложенная Sentient, направленная на обеспечение четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Объединяя технологии в блокчейне и нативную криптографию AI, он обладает следующими характеристиками:
Искусственный интеллект, родная криптография (AI-native Cryptography)
AI-родная криптография использует непрерывность моделей ИИ, структуру низкоразмерных многообразий и дифференцируемые свойства моделей для разработки "проверяемого, но не удаляемого" легковесного механизма безопасности. Основная технология заключается в:
Этот способ позволяет реализовать "авторизованный вызов на основе поведения + проверка принадлежности" без затрат на повторное шифрование.
Модель подтверждения прав и безопасная исполняемая структура
Sentient в настоящее время использует Melange смешанную безопасность: сочетание подтверждения прав с помощью отпечатков пальцев, выполнения TEE и распределения прибыли по смарт-контрактам в блокчейне. При этом метод отпечатков пальцев реализует основную линию OML 1.0, акцентируя внимание на концепции "оптимистичной безопасности (Optimistic Security)", которая предполагает, что по умолчанию соблюдаются правила, а нарушения могут быть обнаружены и наказаны.
Механизм отпечатков пальцев является ключевой реализацией OML, он позволяет встраивать определенные пары "вопрос-ответ", что дает модели возможность генерировать уникальные подписи на этапе обучения. С помощью этих подписей владельцы моделей могут проверять принадлежность, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков моделей, но и предоставляет отслеживаемые записи в блокчейне для действий, связанных с использованием модели.
Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенные вычислительные среды (такие как AWS Nitro Enclaves), чтобы гарантировать, что модели отвечают только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания моделей.
В будущем Sentient планирует внедрить технологии нулевых знаний (ZK) и полностью гомоморфного шифрования (FHE), чтобы进一步 укрепить защиту конфиденциальности и проверяемость, а также обеспечить более зрелое децентрализованное развертывание AI моделей.