Искусственный интеллект и шифрование: полное изложение от истории развития до цепочки поставок.

ИИ x Крипто: от нуля до вершины

Введение

Недавнее развитие в области ИИ рассматривается некоторыми как четвертая промышленная революция. Появление больших моделей значительно повысило эффективность в различных отраслях, по оценкам, GPT увеличил рабочую эффективность в США примерно на 20%. Генерализирующая способность, обеспеченная большими моделями, считается новой парадигмой проектирования программного обеспечения, где прошлое точное проектирование кода преобразуется в более обобщенные большие модели, встроенные в программное обеспечение, что позволяет программному обеспечению демонстрировать лучшие результаты и поддерживать более широкие модальности ввода и вывода. Технология глубокого обучения действительно принесла четвертой бум в индустрию ИИ, и эта волна также повлияла на индустрию криптовалют.

Данный отчет подробно рассмотрит историю развития отрасли ИИ, классификацию технологий, а также влияние изобретения технологий глубокого обучения на отрасль. Затем будет проведен глубокий анализ цепочки поставок в области глубокого обучения, включая GPU, облачные вычисления, источники данных, устройства на краю и их текущее состояние и тенденции. Далее будет проведено сущностное исследование взаимосвязи между криптовалютой и отраслью ИИ, а также будет проанализирована структура цепочки поставок ИИ, связанной с криптовалютой.

! Новичок в науке丨AI x Crypto: от нуля до пика

История развития отрасли ИИ

Искусственный интеллект начал развиваться с 50-х годов XX века. Для реализации видения искусственного интеллекта академическая и промышленная сферы в разные времена и с различным научным фоном разработали множество направлений для достижения искусственного интеллекта.

Современные технологии искусственного интеллекта в основном используют термин "машинное обучение", концепция которого заключается в том, чтобы позволить машинам полагаться на данные и многократно итеративно улучшать производительность системы в процессе выполнения задач. Основные шаги включают передачу данных алгоритму, обучение модели с использованием этих данных, тестирование и развертывание модели, а также выполнение автоматизированных предсказательных задач с помощью модели.

В настоящее время в машинном обучении существует три основные школы: соединительный подход, символический подход и поведенческий подход, которые имитируют нейронную систему, мышление и поведение человека соответственно.

В настоящее время соединительный подход, представленный нейронными сетями, преобладает (, также известный как глубокое обучение ). Основная причина заключается в том, что эта архитектура имеет один входной слой, один выходной слой, но несколько скрытых слоев. Как только количество слоев и нейронов ( и их параметры ) становятся достаточно большим, появляется возможность адекватно моделировать сложные универсальные задачи. Путем ввода данных параметры нейронов могут постоянно корректироваться, и в конечном итоге, пройдя через множество данных, нейрон достигнет оптимального состояния ( параметров ), что и является источником слова "глубокий" - достаточно большое количество слоев и нейронов.

! Новичок в популярной науке丨AI x Crypto: от нуля до пика

Простое понимание заключается в том, что мы построили функцию, где при X=2, Y=3; при X=3, Y=5. Если мы хотим, чтобы эта функция работала для всех X, то нам нужно постоянно добавлять степень этой функции и её параметры. Например, можно построить функцию, удовлетворяющую этому условию, как Y = 2X - 1. Однако если есть данные X=2, Y=11, необходимо перестроить функцию, подходящую для этих трех точек данных. Используя GPU для брутфорса, мы обнаружили, что Y = X2 - 3X + 5 более подходящее, но не обязательно полностью совпадать с данными; важно соблюдать баланс и выдавать примерно похожий результат. Здесь X2, X и X0 представляют собой разные нейроны, а 1, -3 и 5 — это их параметры.

В этом случае, если мы введем большое количество данных в нейронную сеть, мы можем увеличить количество нейронов и итерационные параметры, чтобы подогнать новые данные. Таким образом, мы сможем подогнать все данные.

А технологии глубокого обучения на основе нейронных сетей также претерпели несколько итераций и эволюций, включая ранние нейронные сети, прямые нейронные сети, RNN, CNN, GAN, которые в конечном итоге эволюционировали в современные большие модели, такие как GPT, использующие технологию Transformer. Технология Transformer является лишь одним из направлений эволюции нейронных сетей, добавляя преобразователь ( Transformer ), который используется для кодирования всех модальностей (, таких как аудио, видео, изображения и т.д., в соответствующие численные значения для представления. Затем эти данные вводятся в нейронную сеть, что позволяет нейронной сети подгонять любой тип данных, реализуя многомодальность.

Развитие ИИ прошло через три технологические волны. Первая волна пришлась на 60-е годы XX века, через десять лет после появления технологий ИИ. Эта волна была вызвана развитием символистских технологий, которые решали проблемы общего обработки естественного языка и человеко-машинного диалога. В то же время появились экспертные системы, среди которых система DENRAL, завершенная под руководством Стэнфордского университета в NASA. Эта система обладает очень глубокими знаниями в области химии и делает выводы на основе вопросов, чтобы генерировать ответы, аналогичные ответам химического эксперта. Эта экспертная система по химии может рассматриваться как сочетание химической базы знаний и системы вывода.

После экспертных систем в 1990-х годах израильский американский ученый и философ Иуда Перл ) Judea Pearl ( предложил байесовские сети, которые также называются сетями убеждений. В то же время Брукс предложил робототехнику, основанную на поведении, что ознаменовало рождение бихевиоризма.

В 1997 году IBM Deep Blue победил чемпиона мира по шахматам Гарри Каспарова со счетом 3.5:2.5, эта победа считается вехой в области искусственного интеллекта, и технологии ИИ пережили второй пик своего развития.

Третья волна технологий ИИ произошла в 2006 году. Три гиганта глубокого обучения Ян ЛеКун, Джеффри Хинтон и Ёсуа Бенджио представили концепцию глубокого обучения, алгоритма, основанного на архитектуре искусственных нейронных сетей, для обучения представления данных. Затем алгоритмы глубокого обучения постепенно эволюционировали, от RNN и GAN до Transformer и Stable Diffusion, эти два алгоритма совместно сформировали третью волну технологий, и это также был расцвет соединения.

Множество знаковых событий также постепенно появляется вместе с исследованием и развитием технологий глубокого обучения, включая:

  • В 2011 году IBM Watson) победил человека и стал чемпионом в викторине «Jeopardy(».

  • В 2014 году Гудфеллоу предложил GAN) Генеративную Состязательную Сеть, Generative Adversarial Network(, которая обучается путем противостояния двух нейронных сетей и может генерировать фальшивые фотографии, которые сложно отличить от настоящих. Также Гудфеллоу написал книгу «Deep Learning», известную как «цветочная книга», которая является одной из важных вводных книг в области глубокого обучения.

  • В 2015 году Хинтон и др. предложили алгоритмы глубокого обучения в журнале «Природа». Появление этого метода глубокого обучения сразу же вызвало огромный резонанс в академических кругах и промышленности.

  • В 2015 году OpenAI был основан, и такие люди, как Маск, президент YC Альтман и ангельский инвестор Питер Тиль ) Peter Thiel (, объявили о совместном инвестировании в размере 1 миллиарда долларов.

  • В 2016 году AlphaGo, основанный на технологии глубокого обучения, одержал победу над чемпионом мира по го, профессиональным девятым даном Ли Сидо с общим счётом 4:1 в битве человек против машины.

  • В 2017 году гонконгская компания Hanson Robotics ) разработала гуманоидного робота по имени София, который стал первым роботом в истории, получившим статус полноценного гражданина. Она обладает богатой мимикой и способностью понимать человеческий язык.

  • В 2017 году компания Google, обладающая богатым запасом талантов и технологий в области искусственного интеллекта, опубликовала статью "Внимание — это всё, что вам нужно", в которой был представлен алгоритм Transformer, и началось появление крупных языковых моделей.

  • В 2018 году OpenAI выпустила GPT( Генеративный Предобученный Трансформер), построенный на алгоритме Transformer, который на тот момент был одной из крупнейших языковых моделей.

  • В 2018 году команда Google DeepMind выпустила AlphaGo на основе глубокого обучения, способную предсказывать структуру белков, что считается огромным шагом вперед в области искусственного интеллекта.

  • В 2019 году OpenAI выпустила GPT-2, модель с 1,5 миллиарда параметров.

  • В 2020 году OpenAI разработала GPT-3, обладающую 175 миллиардов параметров, что в 100 раз больше, чем у предыдущей версии GPT-2. Эта модель использовала 570 ГБ текста для обучения и может достигать передовых показателей в различных задачах NLP(, таких как ответ на вопросы, перевод и написание статей).

  • В 2021 году OpenAI выпустила GPT-4, эта модель имеет 1,76 триллиона параметров, что в 10 раз больше, чем у GPT-3.

  • В январе 2023 года было запущено приложение ChatGPT на основе модели GPT-4, в марте ChatGPT достигла ста миллионов пользователей, став приложением, которое быстрее всех достигло ста миллионов пользователей в истории.

  • В 2024 году OpenAI выпустит GPT-4 omni.

! Newcomer Science丨AI x Crypto: от нуля до пика

Цепочка поставок в сфере глубокого обучения

В настоящее время языковые модели, использующиеся в больших моделях, основаны на методах глубокого обучения с использованием нейронных сетей. Большие модели, возглавляемые GPT, создали волну интереса к искусственному интеллекту, и множество игроков стремятся войти в эту область. Мы также отмечаем, что рынок испытывает огромный спрос на данные и вычислительные мощности. Поэтому в этой части отчета мы в основном исследуем цепочку поставок алгоритмов глубокого обучения. Каковы составные части вверх и вниз по цепочке в AI-индустрии, руководимой алгоритмами глубокого обучения, и каковы текущее состояние и соотношение спроса и предложения в этих звеньях, а также их будущее развитие.

Прежде всего, нам нужно прояснить, что при обучении больших моделей LLMs на основе технологий Transformer, таких как GPT(, процесс делится на три этапа.

Перед обучением, поскольку он основан на Transformer, преобразователь должен преобразовать текстовый ввод в числовые значения, этот процесс называется "Tokenization", после чего эти числовые значения называются Token. В общем правилe, одно английское слово или символ можно грубо считать одним Token, в то время как каждый китайский иероглиф можно грубо считать за два Token. Это также является основной единицей, используемой для оценки GPT.

Первый шаг, предобучение. Путем предоставления входному слою достаточного количества пар данных, подобных приведенному в первой части отчета )X,Y(, мы ищем оптимальные параметры для каждого нейрона в этой модели. На этом этапе требуется большое количество данных, и этот процесс также является наиболее затратным по вычислительной мощности, так как нейроны должны многократно итеративно пробовать различные параметры. После завершения тренировки одной партии пар данных обычно используется та же партия данных для повторной тренировки с целью итерации параметров.

Шаг второй, дообучение. Дообучение — это процесс, при котором модели предоставляется небольшое количество, но очень качественных данных для обучения. Эти изменения позволят модели выдавать результаты более высокого качества, поскольку предобучение требует большого объема данных, и многие из них могут содержать ошибки или быть низкого качества. Этап дообучения может повысить качество модели за счет использования качественных данных.

Шаг третий, обучение с подкреплением. Сначала будет создана совершенно новая модель, которую мы называем "моделью вознаграждения". Цель этой модели очень проста: упорядочить выходные результаты. Поэтому реализация этой модели будет сравнительно простой, так как бизнес-сценарий довольно узкоспециализированный. Затем эта модель будет использоваться для оценки, является ли вывод нашей большой модели качественным, что позволит использовать модель вознаграждения для автоматической итерации параметров большой модели. ) Но иногда также требуется человеческое участие для оценки качества вывода модели (.

Короче говоря, в процессе обучения больших моделей предобучение требует очень большого объема данных, а необходимая вычислительная мощность GPU также максимальна. В то время как дообучение требует более качественных данных для улучшения параметров, обучение с подкреплением может повторно итеративно настраивать параметры с помощью модели вознаграждения для получения более качественных результатов.

В процессе обучения, чем больше параметров, тем выше потолок его обобщающей способности. Например, если взять пример с функцией Y = aX + b, то на самом деле есть два нейрона X и X0. Таким образом, как бы ни менялись параметры, данные, которые можно подогнать, крайне ограничены, потому что по своей сути это все еще прямая линия. Если нейронов больше, то можно итерировать больше параметров, что позволяет подгонять больше данных. Именно поэтому большие модели творят чудеса, и это также причина, по которой их называют большими моделями: по сути, это огромное количество нейронов и параметров, огромное количество данных, при этом требуются огромные вычислительные мощности.

Таким образом, производительность больших моделей зависит в основном от трех факторов: количества параметров, объема и качества данных, а также вычислительной мощности. Предположим, что количество параметров равно p, объем данных равен n), вычисленный по количеству токенов(, тогда мы можем рассчитать необходимое количество вычислительной мощности с помощью общих эмпирических правил, что позволит нам примерно оценить, сколько вычислительных мощностей нам нужно будет приобрести и сколько времени потребуется для обучения.

Мощность вычислений обычно измеряется в Flops, что представляет собой одно浮点ное вычисление. 浮点ное вычисление - это общее название для сложения, вычитания, умножения и деления нецелых чисел, таких как 2.5 + 3.557. 浮点ное обозначает возможность наличия десятичной точки, тогда как FP16 обозначает поддержку дробной точности, а FP32 - это более распространенная точность. Согласно практическим правилам, предобучение

GPT-5.35%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Поделиться
комментарий
0/400
BearMarketSunriservip
· 07-28 01:17
Говоря прямо, те, кто занимается торговлей криптовалютой, ждут, когда ИИ их поднимет.
Посмотреть ОригиналОтветить0
FloorSweepervip
· 07-25 20:05
пшш... типичные бумажные руки, которые фомят в хайп вокруг ИИ прямо сейчас... видел этот цикл раньше
Посмотреть ОригиналОтветить0
MindsetExpandervip
· 07-25 13:44
Ага, код уже поменял большой модель?
Посмотреть ОригиналОтветить0
CryptoNomicsvip
· 07-25 13:43
ваше утверждение о 20% эффективности лишено статистической строгости... сначала проведите надлежащий регрессионный анализ, смх
Посмотреть ОригиналОтветить0
  • Закрепить