2025年1月7日、NvidiaのCEOであるジェンセン・フアン氏は、同社のAIチップが、コンピューティング技術革新を数十年にわたって導いてきた原則であるムーアの法則が定義した歴史的な速度を上回るペースで進歩していると宣言した。ラスベガスで開催されたCESの基調講演の後、TechCrunchとのインタビューで、Huang氏は次のように述べました。「当社のシステムはムーアの法則よりもはるかに速いペースで進歩しています。
ムーアの法則は、インテルの共同創業者であるゴードン・ムーア氏が1965年に提唱したもので、コンピュータチップ上のトランジスタ数はほぼ2年ごとに倍増し、性能を実質的に倍増させながらコストを削減するというものでした。この原則は数十年にわたって飛躍的な技術成長を促してきましたが、近年は成長が鈍化しています。しかし、Huang氏はNvidiaのAIチップはかつてないほどの速さで成長を加速させていると主張しました。「アーキテクチャ、チップ、システム、ライブラリ、アルゴリズムをすべて同時に構築することができます。」と彼は説明しました。「そうすれば、スタック全体にわたって革新が可能になるため、ムーアの法則よりも速く進むことができます。
AI開発の停滞が懸念される中、Huang氏はこのような主張を行いました。NvidiaのAIチップは、Google、OpenAI、Anthropicなどの企業が開発した主要なAIモデルの基幹を成しています。これらのチップは、高度なAIモデルのトレーニングと実行の両方に役立つものであり、Nvidiaの進歩はAIの将来的な能力に直接影響を与えることを意味します。
Huang氏は以前にも、2024年11月のポッドキャストでこのトレンドを「ハイパー・ムーアの法則」と表現し、Nvidiaの急速な進歩を示唆していた。CESの基調講演で、Huang氏はNvidiaの最新データセンター用スーパーチップ、GB200 NVL72を紹介した。同氏は、このチップがAI推論処理で広く使用されているH100チップよりも30~40倍高速なパフォーマンスを実現すると主張した。ステージ上で盾のようにチップを高く掲げたホワン氏は、「テスト時のコンピューティングにおけるパフォーマンスとコストの両面での直接的な即時的な解決策は、当社のコンピューティング能力を高めることです」と述べました。
Nvidiaのチップの進歩は、AIモデルがインプットを分析し、それに応答するプロセスであるAI推論がますます重要になっている時期に訪れました。AIモデルのトレーニングには膨大な演算能力が必要ですが、推論、特にOpenAIのo3のような推論モデルは、コスト面で大きな要因となりつつあります。 ファン氏は「推論でも同じことが起こり、パフォーマンスが向上すれば、結果として推論のコストは削減されるでしょう」と述べ、推論の効率性を向上させることの重要性を強調しました。
テスト時の演算能力の向上で知られるOpenAIのo3モデルは、コスト面での実現可能性について疑問を投げかけています。例えば、一般的な知能テストで人間レベルのスコアを達成するためにo3モデルを使用した場合、OpenAIは1タスクあたり約20ドルのコストがかかり、ChatGPT Plusの月額20ドルのサブスクリプション料金とは対照的です。Huang氏は、こうした懸念に対して、GB200 NVL72のようなイノベーションにより、将来的にはo3のようなモデルがより手頃な価格になるだろうと主張しました。
Huang氏は、業界を形成する3つのAIスケーリング法則を概説しました。すなわち、モデルが膨大なデータセットから学習する段階である「事前学習」、人間のフィードバックなどの手法を用いた微調整を行う「事後学習」、そして推論中にAIモデルの推論能力を向上させる「テスト時コンピューティング」です。「ムーアの法則は、コンピューティングの歴史において非常に重要でした。なぜなら、コンピューティングコストを引き下げたからです。同じことが推論でも起こるでしょう」と彼は述べました。
AIチップ市場で優位を占めるNvidiaですが、一部の懐疑的な人々は、業界が推論により重点を置くようになると、同社の高価なハードウェアが優位性を維持できるかどうか疑問視しています。 しかし、Huang氏は楽観的であり、Nvidiaの最新チップは10年前のチップに比べ1000倍の性能があることを指摘しています。 「ムーアの法則が定めた標準よりもはるかに速いペースです。 この進歩がすぐに止まる兆候は見られません」と彼は言います。
Nvidiaのコンピューティングの進歩は、過去1年間にAIモデルの価格を急落させることに貢献しており、この傾向は今後も続くとHuang氏は予想しています。また、AI推論モデルが事前学習と事後学習のプロセスを強化し、改善のフィードバックループを生み出す可能性についても強調しました。「長期的には、AI推論モデルはAIモデルの事前学習と事後学習のためのより良いデータを作成するために使用できるでしょう」とHuang氏はTechCrunchに語りました。
NvidiaはAIブームの恩恵を直接的に受けているが、Huang氏の大胆な主張は、急速に進化するAI分野でリーダーシップを維持することを目指し、コンピューティングスタック全体にわたってイノベーションを推進するという同社の取り組みを強調している。