AIじゃないよ

DeepSeekの登場とGPU界の競争激化が、NVIDIAに与える影響を考える

当サイトはアフィリエイト広告を一部掲載しています。

中国発の超低コストAIモデルの衝撃が、ついに米国の株式市場にまで影響を及ぼすに至ったかもしれない。

ここに来て、週明け27日(月)の米国株式市場で、GPUを供給する半導体大手のNVIDIAの株価が10%以上下落するなど、衝撃が広がっているのだ。

DeepSeekの登場が、なぜNVIDIAの将来性にまで影響を及ぼしうるのかについて、疑問を持つ人も多いのではないだろうか。

この点について、米国のあるスタートアップ経営者が、「The Short Case for Nvidia Stock」という論考を投稿し、Hacker Newsなどで話題になっている。

これは、ヘッジファンドでの投資家としての経験と、ソフトウェアエンジニアとしての数学・機械学習分野の経験の両方を持つ人物、Jeffrey Emanuel氏による論考だ。

DeepSeekの登場が、なぜGPU大手のNVIDIAの株価にまで影響を及ぼすのか、エンジニア的視点・投資家的視点の両方から解説されている。

DeepSeekの革新性や、米中のAI開発競争の現状を理解する上で、とても面白いので、この記事の要点を紹介する。

免責事項:この記事は、特定の銘柄や投資戦略を推奨するものではありません。また、将来の投資成果を保証するものでもありません。投資にはリスクが伴います。投資判断は、専門家の助言等を参考に、ご自身の責任において行ってください。本記事の内容に基づいて被ったいかなる損害についても、筆者及び掲載媒体は一切の責任を負いません。



NVIDIAの「4つの強み」と競争による脅威

NVIDIAは、AIモデルのトレーニングなどに必要不可欠なGPUで圧倒的なシェアを誇り、特に米国企業のAI開発には不可欠な存在となっている。

論考では、NVIDIAが高い収益率を誇ってきた要因として、以下の4点が挙げられている。

  1. 高品質なLinuxドライバ:競合と比べ安定性と信頼性が高い
  2. CUDAの事実上の業界標準化:NVIDIA独自の開発環境”CUDA”に最適化されたAIソフトウェアが豊富に存在
  3. GPU同士を高速かつ効率的に連携させるインターコネクト技術:複数GPUの接続で大規模なモデルのトレーニング効率が良い
  4. GPU販売の高い利益率:利益を研究開発に再投資する好循環

記事では、これらの強みがNVIDIAの「 moat(堀)」、つまり競争優位性の源泉となっていると指摘している。

しかし、近年の競争激化により、こうした強みが次々と脅かされ始めているという。

“There are few developments in the software world in the last couple years that … are now picking up real steam and could pose a serious threat to the software dominance of Nvidia’s CUDA.”
(ここ数年、ソフトウェア面で起きた複数の進展が、今や本格的に勢いを増し、NVIDIAのCUDA支配を真剣に脅かす可能性がある。)

たとえば、AMD製GPUのドライバを独自開発する試みや、CUDAを使わずに各種ハードウェアへ最適化を行うフレームワーク(MLX、Triton、JAXなど)の成熟により、NVIDIAの独壇場だった領域が崩れ始めている。

これらのフレームワークが普及すれば、開発者はCUDAに縛られることなく、より自由にハードウェアを選択できるようになってしまう。

また、ハードウェア面でも、単一のチップでより多くの処理が可能な巨大チップを開発するCerebrasや、GPUでもCPUでもないAI特化のチップである”TPU”を開発するGroqなど、全く異なるアプローチを採用するスタートアップ企業も登場している。

さらに、Google、Amazon、Microsoft、Meta、Appleといった大手顧客が、続々と専用半導体(TPUやTrainiumなど)に投資し始めている。

これらの企業は、NVIDIAのGPUに頼らずとも、自社開発のチップでAIサービスを提供できるようになることを目指している。

NVIDIAが保有する“高額商品を買ってくれる大口顧客”という優位も揺らぎかねない、という見通しが示されている。

DeepSeekの台頭とNVIDIAへの波及効果

そして、最も大きな衝撃を与えているのが、中国のDeepSeekという企業が開発したAIモデル「V3」と「R1」の登場だ。

今回の論考では、これらのモデルが米国GPU市場、特にNVIDIAに与えうるインパクトについて、投資の視点も交えて解説されている。

DeepSeekは、わずか200人程度の小さな企業ながら、OpenAIやAnthropicといったAI分野のトップ企業に匹敵する性能を持つAIモデルを開発してしまった。

特に驚くべきは、そのコスト効率だ。

DeepSeek claims that the complete cost to train DeepSeek-V3 was just over $5mm. That is absolutely nothing by the standards of OpenAI, Anthropic, etc., which were well into the $100mm+ level for training costs for a single model as early as 2024.
(DeepSeekによると、DeepSeek-V3の学習にかかった総コストはわずか500万ドル超である。これは、OpenAIやAnthropicなどが、2024年の時点で1つのモデルの学習に1億ドル以上を費やしていることを考えると、驚くべき数字である。)

実際、DeepSeekは、モデルの利用料金を、競合のOpenAIの同等のモデルと比べて、95%以上安く提供している。

これは当ブログでも、DeepSeek R1の発表当日にお伝えした通りだ。

AI業界において、DeepSeekがとんでもない価格破壊を起こしているのだ、

v3 remains the top-ranked open weights model, despite being around 45x more efficient in training than its competition: bad news if you are selling GPUs!
(v3は、競合製品よりもトレーニング効率が約45倍も高いにもかかわらず、依然としてトップランクのオープンウェイトモデルである。GPUを販売している企業にとっては悪いニュースだ!)

GPUから産み出されるモデルの価格が95%オフになっているのだから、当然、GPU市場で独占的なシェアを誇ってきたNVIDIAにとっても、需要と価格設定の再考が迫られる可能性は非常に高い。

DeepSeekの技術的ブレークスルー

DeepSeekが低コストで高性能なAIモデルを開発できた背景には、いくつかの技術的なブレークスルーがある。

Emanuel氏の論考では、DeepSeekが成し遂げたイノベーションとして、以下を紹介している。

  • 混合精度学習:トレーニングプロセス全体で8ビット浮動小数点数(精度を落として効率化)を使用
  • マルチトークン予測:ほとんどのLLMはテキスト生成時に次のトークンを1つずつ予測するのに対し、精度を落とさず複数のトークンを予測
  • マルチヘッド潜在アテンション(MLA):キャッシュを圧縮しメモリ使用量を大幅に削減
  • GPU通信効率向上:DualPipeアルゴリズムとカスタム通信カーネル

いずれも技術的すぎるので、詳しい説明は省略するが、メモリ使用量や計算量を減らし、速度を高速化し、通信効率を高める工夫が、随所で発明・採用されているのだ。

こうした効率化によって、実際OpenAI, Google, Meta, Anthropicなどが開発するモデルと肩を並べるモデルが格安で完成してしまったことで、従来の米国の大手IT企業のインフラ投資が、「本当に必要だったのか?」という疑問を市場にもたらしてしまっている、ということだ。

NVIDIAの今後を占う視点

以上のように、Emanuel氏の論考は、DeepSeekの登場と、ハードウェア、ソフトウェア面からの競争の激化が、NVIDIAのビジネスにとって大きな脅威となる可能性を指摘している。

特に、DeepSeekの低コストかつ高性能なAIモデルの登場によって、AI開発におけるGPUの需要が、大幅に減少することが最大のリスクである。

ただ、「モデルの学習を効率化した結果、現在のトップモデルと肩を並べるモデルが安くできちゃいました」からといって、「これ以上モデルが進化する余地はない」わけではない。

むしろ、新たなDeepSeek流の学習手法を使って、さらに計算資源を投下していけば、もっと性能の高いモデルが開発できる可能性もある。結局のところ、AIの性能がひたすら上がっていき、GPUの需要も引き続き伸びていく、というシナリオも、当然ありうる。

しかし、ハード/ソフト両面で、NVIDIAの牙城を揺るがす代替技術が次々と登場する今、株価に織り込まれている楽観的シナリオについて、投資家がどこまで信じ続けられるかは未知数だ。



Make a comment

*
*
* (公開されません)