# AI x Crypto: ゼロからピークまで## はじめにAI業界の最近の発展は、一部の人々によって第四次産業革命と見なされています。大規模モデルの出現は、各業界の効率を著しく向上させ、ボストンコンサルティングはGPTがアメリカの労働効率を約20%向上させたと考えています。同時に、大規模モデルによる一般化能力は新しいソフトウェア設計のパラダイムと呼ばれ、以前のソフトウェア設計は正確なコードでしたが、現在はより一般化された大規模モデルフレームワークがソフトウェアに組み込まれ、これらのソフトウェアはより優れたパフォーマンスを持ち、より広範なモダリティの入力と出力をサポートできるようになります。深層学習技術は確かにAI業界に第四の繁栄をもたらしましたが、この熱潮は暗号通貨業界にも広がっています。本報告では、AI業界の発展の歴史、技術の分類、そして深層学習技術の発明が業界に与えた影響について詳しく探討します。そして、深層学習におけるGPU、クラウドコンピューティング、データソース、エッジデバイスなどの産業チェーンの上下流、およびその発展状況とトレンドを深く分析します。その後、本質的に暗号通貨とAI業界の関係について詳しく探討し、暗号通貨関連のAI産業チェーンの構図を整理しました。! [新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-7e025deb1fddcd5fa716b6f144701074)## AI業界の歴史AI産業は20世紀50年代から始まり、人工知能のビジョンを実現するために、学術界と産業界は異なる時代や異なる学問的背景の下で、人工知能を実現するための多くの流派を発展させてきました。現代の人工知能技術は主に「機械学習」という用語を使用しています。この技術の理念は、機械がデータに基づいてタスクを繰り返し反復することでシステムの性能を改善することです。主なステップは、データをアルゴリズムに送信し、このデータを使用してモデルを訓練し、モデルをテストしてデプロイし、モデルを使用して自動化された予測タスクを完了することです。現在、機械学習には3つの主要な流派があり、それぞれ結合主義、記号主義、行動主義であり、人間の神経系、思考、行動を模倣しています。! [新参者科学人気丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c)現在、神経ネットワークを代表とする結合主義が優位を占めており(、これを深層学習)とも呼びます。主な理由は、このアーキテクチャには入力層と出力層があり、複数の隠れ層が存在するためです。層数や神経元(のパラメータ)の数が十分に多くなると、複雑な汎用タスクにフィットする機会が十分に得られます。データを入力することで、神経元のパラメータを常に調整することができ、最終的に多くのデータを経た後、その神経元は最適な状態(のパラメータ)に達します。これが私たちが言う「大力出奇跡」であり、これが「深層」の由来でもあります—十分な層数と神経元の数があるからです。例を挙げると、関数を構築したと簡単に理解できます。この関数において、X=2のときY=3、X=3のときY=5です。この関数がすべてのXに対応するためには、この関数の次数とそのパラメータを追加し続ける必要があります。例えば、今の時点でこの条件を満たす関数をY = 2X -1と構築できます。しかし、X=2、Y=11というデータがある場合、これらの三つのデータポイントに適した関数を再構築する必要があります。GPUを使用して暴力的に解決した結果、Y = X2 -3X +5が比較的適していることが分かりましたが、データと完全に一致する必要はなく、バランスを守り、大体似たような出力であれば良いのです。ここでX2、X、X0は異なるニューロンを表しており、1、-3、5はそのパラメータです。この時、大量のデータを神経ネットワークに入力すると、ニューロンを増やしたり、パラメータを反復して新しいデータに適合させることができます。こうすることで、すべてのデータに適合させることができます。神経ネットワークに基づく深層学習技術も、いくつかの技術的な反復と進化を経て、図の中の最初期の神経ネットワーク、フィードフォワード神経ネットワーク、RNN、CNN、GANが最終的に現代の大規模モデルであるGPTなどで使用されるTransformer技術に進化しました。Transformer技術は神経ネットワークの進化の一つの方向であり、変換器(Transformer)を追加して、音声、動画、画像などのすべてのモーダル(のデータを対応する数値にエンコードして表現します。そして、それを神経ネットワークに入力することによって、神経ネットワークはあらゆる種類のデータをフィッティングできるようになり、つまりマルチモーダルを実現します。! 【新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/social/moments-0c9bdea33a39a2c07d1f06760ed7e804(AIの発展は3回の技術の波を経てきた。第一次の波は20世紀60年代であり、AI技術が提案されてから10年後のことである。この波は、シンボリズム技術の発展によって引き起こされた。この技術は、一般的な自然言語処理や人間とコンピュータの対話の問題を解決した。同時期に、専門家システムが誕生した。これはスタンフォード大学がアメリカ航空宇宙局の指導の下で完成させたDENRAL専門家システムであり、このシステムは非常に強力な化学の知識を持っていて、質問を通じて推論を行い、化学の専門家と同じような答えを生成することができる。この化学専門家システムは、化学の知識ベースと推論システムの結合と見なすことができる。専門家システムの後、1990年代にイスラエル系アメリカの科学者で哲学者のジュディア・パール)Judea Pearl(がベイズネットワークを提唱しました。このネットワークは信念ネットワークとも呼ばれます。同時期に、ブルックスは行動に基づくロボティクスを提案し、行動主義の誕生を示しました。1997年、IBMの深蓝「Blue」が国際チェスチャンピオンのカスパロフを3.5:2.5で打ち破り)Kasparov(、この勝利は人工知能の一つのマイルストーンと見なされ、AI技術は第二次発展のピークを迎えました。第3回目のAI技術の波は2006年に発生しました。深層学習の三巨頭、Yann LeCun、Geoffrey Hinton、Yoshua Bengioが人工神経ネットワークを基盤としたデータの表現学習アルゴリズムである深層学習の概念を提唱しました。その後、深層学習のアルゴリズムはRNN、GANからTransformerやStable Diffusionへと徐々に進化し、これら2つのアルゴリズムがこの第3回目の技術の波を形作り、結合主義の最盛期でもありました。多くの象徴的な出来事は、深層学習技術の探求と進化に伴って次第に浮かび上がってきています。包括:* 2011年、IBMのワトソン)Watson(が『危険な境界』)Jeopardy(のクイズ番組で人間を打ち破り、チャンピオンになりました。* 2014年、GoodfellowはGAN)生成的対抗ネットワーク、Generative Adversarial Network(を提唱し、2つの神経ネットワークが互いに競い合うことで学習し、非常にリアルな写真を生成できるようにしました。同時にGoodfellowは「Deep Learning」という本を書き、これは「花書」と呼ばれ、深層学習分野の重要な入門書の一つとされています。* 2015年、ヒントンらは『ネイチャー』誌において深層学習アルゴリズムを提唱し、この深層学習手法の提案は、学術界や産業界において直ちに大きな反響を呼びました。* 2015年、OpenAIが設立され、マスク、YC社長のアルトマン、エンジェル投資家のピーター・ティール)ピーター・ティール(らが共同で10億ドルの出資を発表した。* 2016年、ディープラーニング技術に基づくAlphaGoが囲碁の世界チャンピオンであり、プロ九段棋士の李世石と囲碁の人間対機械戦を行い、4対1の総スコアで勝利した。* 2017年、中国香港のハンソンロボティクス社)Hanson Robotics(が開発したヒューマノイドロボットソフィアは、歴史上初めて一等市民の地位を得たロボットとして知られ、豊かな表情と人間の言語理解能力を備えています。* 2017年、人工知能の分野で豊富な才能と技術的予備力を持つGoogleは、Transformerアルゴリズムを提案した論文「Attention is all you need」を発表し、大規模な言語モデルが登場し始めました。※2018年、OpenAIは、当時最大級の言語モデルであったTransformerアルゴリズム上に構築されたGPT)Generative Pre-trained Transformer(をリリースしました。* 2018年、GoogleチームのDeepmindは深層学習に基づくAlphaGoを発表し、タンパク質の構造予測を行うことができ、人工知能分野の大きな進歩の象徴と見なされています。* 2019年、OpenAIはGPT-2を発表しました。このモデルは15億のパラメータを持っています。* 2020年、OpenAIが開発したGPT-3は、1750億のパラメータを持ち、以前のバージョンGPT-2の100倍の性能を誇ります。このモデルは570GBのテキストを使用して訓練され、複数のNLP)自然言語処理(タスク)において、質問応答、翻訳、記事執筆(で最先端の性能を達成しています。* 2021年、OpenAIはGPT-4を発表しました。このモデルは1.76兆のパラメータを持ち、GPT-3の10倍です。* 2023年1月にGPT-4モデルに基づくChatGPTアプリケーションがリリースされ、3月にはChatGPTが1億ユーザーに達し、歴史上最も早く1億ユーザーに到達したアプリケーションとなりました。※2024年、OpenAIはGPT-4 omniを発売します。*注:人工知能に関する論文は多く、流派も多様で、技術の進化も様々であるため、ここでは主に深層学習やコネクショニズムの発展の歴史に従います。他の流派や技術は依然として急速に進化しています。*! [新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/social/moments-609c5dd6ee0abcec6bf9c118d7741867(## ディープラーニング産業チェーン現在、大規模モデルの言語は神経ネットワークに基づく深層学習方法を使用しています。GPTを筆頭とする大規模モデルは人工知能のブームを引き起こし、多くのプレイヤーがこの分野に参入しました。また、私たちは市場におけるデータと計算能力の需要が急増していることを発見しました。そのため、このレポートの部分では、深層学習アルゴリズムの産業チェーンを探求します。深層学習アルゴリズムが主導するAI業界において、上流と下流はどのように構成されているのか、そして上流と下流の現状と供給需要関係、未来の発展について見ていきます。まず明確にする必要があるのは、Transformer技術に基づくGPTを代表とするLLMs)大規模モデル(のトレーニングは、合計で3つのステップに分かれているということです。トレーニングの前に、Transformerに基づいているため、コンバーターはテキスト入力を数値に変換する必要があります。このプロセスは「トークン化」と呼ばれ、その後これらの数値はトークンと呼ばれます。一般的な経験則として、英単語または文字はおおよそ1つのトークンと見なされ、各漢字はおおよそ2つのトークンと見なすことができます。これもGPTの価格設定で使用される基本単位です。第一歩、事前トレーニング。入力層に十分なデータ対を与えることによって、報告の最初の部分で例示された)X,Y(に似た形で、モデル下の各ニューロンの最適なパラメータを見つけます。この時、大量のデータが必要であり、このプロセスは最も計算リソースを消費するプロセスでもあります。なぜなら、ニューロンがさまざまなパラメータを試すために繰り返し反復する必要があるからです。一批のデータ対のトレーニングが完了した後、一般的には同じバッチのデータを使用してパラメータを反復するための二次トレーニングが行われます。第二ステップ、ファインチューニング。ファインチューニングは、少量ですが非常に高品質なデータを与えてモデルをトレーニングすることです。このような変更により、モデルの出力の品質が向上します。なぜなら、事前トレーニングには大量のデータが必要ですが、多くのデータにはエラーや低品質のものが含まれている可能性があるからです。ファインチューニングのステップは、高品質なデータを通じてモデルの質を向上させることができます。第三ステップ、強化学習。まず、新しいモデルを構築します。これを「報酬モデル」と呼びます。このモデルの目的は非常にシンプルで、出力結果を順位付けすることです。したがって、このモデルを実現するのは比較的簡単です。なぜなら、ビジネスシーンがかなり垂直だからです。その後、このモデルを使用して、大モデルの出力が高品質であるかどうかを判断します。これにより、1つの報酬モデルを使用して、大モデルのパラメータを自動的に反復することができます。)ただし、時には人間の参加が必要で、モデルの出力品質を評価することもあります(要するに、大規模モデルのトレーニングプロセスでは、事前トレーニングはデータ量に非常に高い要求を持ち、必要なGPU計算能力も最も多く、ファインチューニングにはパラメータを改善するためにより高品質なデータが必要です。強化学習は、報酬モデルを通じてパラメータを反復的に更新し、より高品質な結果を出力することができます。訓練の過程において、パラメータが多ければ多いほどその汎化能力の天井は高くなります。例えば、関数の例でY = aX + bを考えると、実際には2つのニューロンXおよびX0があります。そのため、パラメータがどのように変化しても、フィッティングできるデータは非常に限られています。なぜなら、その本質は依然として直線だからです。ニューロンが増えるほど、より多くのパラメータを反復でき、より多くのデータをフィッティングできるようになります。これが大規模モデルが奇跡を生む理由であり、また一般的に大モデルと呼ばれる理由でもあります。本質的には大量のニューロンとパラメータ、膨大なデータが必要であり、同時に膨大な計算能力も必要です。したがって、大規模モデルのパフォーマンスに影響を与える主な要因は、パラメータの数、データの量と質、計算能力の3つであり、これら3つが共同で影響します。
AIと暗号資産の融合:デプス学習技術がブロックチェーン業界に与える影響
AI x Crypto: ゼロからピークまで
はじめに
AI業界の最近の発展は、一部の人々によって第四次産業革命と見なされています。大規模モデルの出現は、各業界の効率を著しく向上させ、ボストンコンサルティングはGPTがアメリカの労働効率を約20%向上させたと考えています。同時に、大規模モデルによる一般化能力は新しいソフトウェア設計のパラダイムと呼ばれ、以前のソフトウェア設計は正確なコードでしたが、現在はより一般化された大規模モデルフレームワークがソフトウェアに組み込まれ、これらのソフトウェアはより優れたパフォーマンスを持ち、より広範なモダリティの入力と出力をサポートできるようになります。深層学習技術は確かにAI業界に第四の繁栄をもたらしましたが、この熱潮は暗号通貨業界にも広がっています。
本報告では、AI業界の発展の歴史、技術の分類、そして深層学習技術の発明が業界に与えた影響について詳しく探討します。そして、深層学習におけるGPU、クラウドコンピューティング、データソース、エッジデバイスなどの産業チェーンの上下流、およびその発展状況とトレンドを深く分析します。その後、本質的に暗号通貨とAI業界の関係について詳しく探討し、暗号通貨関連のAI産業チェーンの構図を整理しました。
! 新人科学丨AI×暗号:ゼロからピークまで
AI業界の歴史
AI産業は20世紀50年代から始まり、人工知能のビジョンを実現するために、学術界と産業界は異なる時代や異なる学問的背景の下で、人工知能を実現するための多くの流派を発展させてきました。
現代の人工知能技術は主に「機械学習」という用語を使用しています。この技術の理念は、機械がデータに基づいてタスクを繰り返し反復することでシステムの性能を改善することです。主なステップは、データをアルゴリズムに送信し、このデータを使用してモデルを訓練し、モデルをテストしてデプロイし、モデルを使用して自動化された予測タスクを完了することです。
現在、機械学習には3つの主要な流派があり、それぞれ結合主義、記号主義、行動主義であり、人間の神経系、思考、行動を模倣しています。
! 新参者科学人気丨AI×暗号:ゼロからピークまで
現在、神経ネットワークを代表とする結合主義が優位を占めており(、これを深層学習)とも呼びます。主な理由は、このアーキテクチャには入力層と出力層があり、複数の隠れ層が存在するためです。層数や神経元(のパラメータ)の数が十分に多くなると、複雑な汎用タスクにフィットする機会が十分に得られます。データを入力することで、神経元のパラメータを常に調整することができ、最終的に多くのデータを経た後、その神経元は最適な状態(のパラメータ)に達します。これが私たちが言う「大力出奇跡」であり、これが「深層」の由来でもあります—十分な層数と神経元の数があるからです。
例を挙げると、関数を構築したと簡単に理解できます。この関数において、X=2のときY=3、X=3のときY=5です。この関数がすべてのXに対応するためには、この関数の次数とそのパラメータを追加し続ける必要があります。例えば、今の時点でこの条件を満たす関数をY = 2X -1と構築できます。しかし、X=2、Y=11というデータがある場合、これらの三つのデータポイントに適した関数を再構築する必要があります。GPUを使用して暴力的に解決した結果、Y = X2 -3X +5が比較的適していることが分かりましたが、データと完全に一致する必要はなく、バランスを守り、大体似たような出力であれば良いのです。ここでX2、X、X0は異なるニューロンを表しており、1、-3、5はそのパラメータです。
この時、大量のデータを神経ネットワークに入力すると、ニューロンを増やしたり、パラメータを反復して新しいデータに適合させることができます。こうすることで、すべてのデータに適合させることができます。
神経ネットワークに基づく深層学習技術も、いくつかの技術的な反復と進化を経て、図の中の最初期の神経ネットワーク、フィードフォワード神経ネットワーク、RNN、CNN、GANが最終的に現代の大規模モデルであるGPTなどで使用されるTransformer技術に進化しました。Transformer技術は神経ネットワークの進化の一つの方向であり、変換器(Transformer)を追加して、音声、動画、画像などのすべてのモーダル(のデータを対応する数値にエンコードして表現します。そして、それを神経ネットワークに入力することによって、神経ネットワークはあらゆる種類のデータをフィッティングできるようになり、つまりマルチモーダルを実現します。
! 【新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
AIの発展は3回の技術の波を経てきた。第一次の波は20世紀60年代であり、AI技術が提案されてから10年後のことである。この波は、シンボリズム技術の発展によって引き起こされた。この技術は、一般的な自然言語処理や人間とコンピュータの対話の問題を解決した。同時期に、専門家システムが誕生した。これはスタンフォード大学がアメリカ航空宇宙局の指導の下で完成させたDENRAL専門家システムであり、このシステムは非常に強力な化学の知識を持っていて、質問を通じて推論を行い、化学の専門家と同じような答えを生成することができる。この化学専門家システムは、化学の知識ベースと推論システムの結合と見なすことができる。
専門家システムの後、1990年代にイスラエル系アメリカの科学者で哲学者のジュディア・パール)Judea Pearl(がベイズネットワークを提唱しました。このネットワークは信念ネットワークとも呼ばれます。同時期に、ブルックスは行動に基づくロボティクスを提案し、行動主義の誕生を示しました。
1997年、IBMの深蓝「Blue」が国際チェスチャンピオンのカスパロフを3.5:2.5で打ち破り)Kasparov(、この勝利は人工知能の一つのマイルストーンと見なされ、AI技術は第二次発展のピークを迎えました。
第3回目のAI技術の波は2006年に発生しました。深層学習の三巨頭、Yann LeCun、Geoffrey Hinton、Yoshua Bengioが人工神経ネットワークを基盤としたデータの表現学習アルゴリズムである深層学習の概念を提唱しました。その後、深層学習のアルゴリズムはRNN、GANからTransformerやStable Diffusionへと徐々に進化し、これら2つのアルゴリズムがこの第3回目の技術の波を形作り、結合主義の最盛期でもありました。
多くの象徴的な出来事は、深層学習技術の探求と進化に伴って次第に浮かび上がってきています。包括:
2011年、IBMのワトソン)Watson(が『危険な境界』)Jeopardy(のクイズ番組で人間を打ち破り、チャンピオンになりました。
2014年、GoodfellowはGAN)生成的対抗ネットワーク、Generative Adversarial Network(を提唱し、2つの神経ネットワークが互いに競い合うことで学習し、非常にリアルな写真を生成できるようにしました。同時にGoodfellowは「Deep Learning」という本を書き、これは「花書」と呼ばれ、深層学習分野の重要な入門書の一つとされています。
2015年、ヒントンらは『ネイチャー』誌において深層学習アルゴリズムを提唱し、この深層学習手法の提案は、学術界や産業界において直ちに大きな反響を呼びました。
2015年、OpenAIが設立され、マスク、YC社長のアルトマン、エンジェル投資家のピーター・ティール)ピーター・ティール(らが共同で10億ドルの出資を発表した。
2016年、ディープラーニング技術に基づくAlphaGoが囲碁の世界チャンピオンであり、プロ九段棋士の李世石と囲碁の人間対機械戦を行い、4対1の総スコアで勝利した。
2017年、中国香港のハンソンロボティクス社)Hanson Robotics(が開発したヒューマノイドロボットソフィアは、歴史上初めて一等市民の地位を得たロボットとして知られ、豊かな表情と人間の言語理解能力を備えています。
2017年、人工知能の分野で豊富な才能と技術的予備力を持つGoogleは、Transformerアルゴリズムを提案した論文「Attention is all you need」を発表し、大規模な言語モデルが登場し始めました。
※2018年、OpenAIは、当時最大級の言語モデルであったTransformerアルゴリズム上に構築されたGPT)Generative Pre-trained Transformer(をリリースしました。
2018年、GoogleチームのDeepmindは深層学習に基づくAlphaGoを発表し、タンパク質の構造予測を行うことができ、人工知能分野の大きな進歩の象徴と見なされています。
2019年、OpenAIはGPT-2を発表しました。このモデルは15億のパラメータを持っています。
2020年、OpenAIが開発したGPT-3は、1750億のパラメータを持ち、以前のバージョンGPT-2の100倍の性能を誇ります。このモデルは570GBのテキストを使用して訓練され、複数のNLP)自然言語処理(タスク)において、質問応答、翻訳、記事執筆(で最先端の性能を達成しています。
2021年、OpenAIはGPT-4を発表しました。このモデルは1.76兆のパラメータを持ち、GPT-3の10倍です。
2023年1月にGPT-4モデルに基づくChatGPTアプリケーションがリリースされ、3月にはChatGPTが1億ユーザーに達し、歴史上最も早く1億ユーザーに到達したアプリケーションとなりました。
※2024年、OpenAIはGPT-4 omniを発売します。
注:人工知能に関する論文は多く、流派も多様で、技術の進化も様々であるため、ここでは主に深層学習やコネクショニズムの発展の歴史に従います。他の流派や技術は依然として急速に進化しています。
! [新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
ディープラーニング産業チェーン
現在、大規模モデルの言語は神経ネットワークに基づく深層学習方法を使用しています。GPTを筆頭とする大規模モデルは人工知能のブームを引き起こし、多くのプレイヤーがこの分野に参入しました。また、私たちは市場におけるデータと計算能力の需要が急増していることを発見しました。そのため、このレポートの部分では、深層学習アルゴリズムの産業チェーンを探求します。深層学習アルゴリズムが主導するAI業界において、上流と下流はどのように構成されているのか、そして上流と下流の現状と供給需要関係、未来の発展について見ていきます。
まず明確にする必要があるのは、Transformer技術に基づくGPTを代表とするLLMs)大規模モデル(のトレーニングは、合計で3つのステップに分かれているということです。
トレーニングの前に、Transformerに基づいているため、コンバーターはテキスト入力を数値に変換する必要があります。このプロセスは「トークン化」と呼ばれ、その後これらの数値はトークンと呼ばれます。一般的な経験則として、英単語または文字はおおよそ1つのトークンと見なされ、各漢字はおおよそ2つのトークンと見なすことができます。これもGPTの価格設定で使用される基本単位です。
第一歩、事前トレーニング。入力層に十分なデータ対を与えることによって、報告の最初の部分で例示された)X,Y(に似た形で、モデル下の各ニューロンの最適なパラメータを見つけます。この時、大量のデータが必要であり、このプロセスは最も計算リソースを消費するプロセスでもあります。なぜなら、ニューロンがさまざまなパラメータを試すために繰り返し反復する必要があるからです。一批のデータ対のトレーニングが完了した後、一般的には同じバッチのデータを使用してパラメータを反復するための二次トレーニングが行われます。
第二ステップ、ファインチューニング。ファインチューニングは、少量ですが非常に高品質なデータを与えてモデルをトレーニングすることです。このような変更により、モデルの出力の品質が向上します。なぜなら、事前トレーニングには大量のデータが必要ですが、多くのデータにはエラーや低品質のものが含まれている可能性があるからです。ファインチューニングのステップは、高品質なデータを通じてモデルの質を向上させることができます。
第三ステップ、強化学習。まず、新しいモデルを構築します。これを「報酬モデル」と呼びます。このモデルの目的は非常にシンプルで、出力結果を順位付けすることです。したがって、このモデルを実現するのは比較的簡単です。なぜなら、ビジネスシーンがかなり垂直だからです。その後、このモデルを使用して、大モデルの出力が高品質であるかどうかを判断します。これにより、1つの報酬モデルを使用して、大モデルのパラメータを自動的に反復することができます。)ただし、時には人間の参加が必要で、モデルの出力品質を評価することもあります(
要するに、大規模モデルのトレーニングプロセスでは、事前トレーニングはデータ量に非常に高い要求を持ち、必要なGPU計算能力も最も多く、ファインチューニングにはパラメータを改善するためにより高品質なデータが必要です。強化学習は、報酬モデルを通じてパラメータを反復的に更新し、より高品質な結果を出力することができます。
訓練の過程において、パラメータが多ければ多いほどその汎化能力の天井は高くなります。例えば、関数の例でY = aX + bを考えると、実際には2つのニューロンXおよびX0があります。そのため、パラメータがどのように変化しても、フィッティングできるデータは非常に限られています。なぜなら、その本質は依然として直線だからです。ニューロンが増えるほど、より多くのパラメータを反復でき、より多くのデータをフィッティングできるようになります。これが大規模モデルが奇跡を生む理由であり、また一般的に大モデルと呼ばれる理由でもあります。本質的には大量のニューロンとパラメータ、膨大なデータが必要であり、同時に膨大な計算能力も必要です。
したがって、大規模モデルのパフォーマンスに影響を与える主な要因は、パラメータの数、データの量と質、計算能力の3つであり、これら3つが共同で影響します。