2025 年初頭、私たちはすでに、過去数年で知られるようになった AI の再定義の瞬間を目撃しているかもしれません。「必要なのは GPU を増やすことだけ」という常識は変わりつつあるのでしょうか?
なんとも異例な展開だ。まずはスターゲイト・プロジェクト。OpenAI、ソフトバンク、オラクル、投資会社MGXが設立した合弁会社は、2029年までに米国のAIインフラに最大5,000億ドルを投資することを目指している。
Arm、Microsoft、Nvidia、Oracle、OpenAIは、米国政府の直接支援を受け、「21世紀のマンハッタン計画」とも呼ばれるプロジェクトにおける主要な初期技術パートナーです。ドナルド・トランプ大統領はこれを「史上最大のAIインフラプロジェクト」と呼びました。
このプロジェクトにおける米国を拠点とする主要な技術パートナーのリストと、米国にとっての戦略的イニシアチブであるAIにおけるリーダーシップを確保するためのAIインフラへの巨額の投資が、マンハッタン計画との類似性を推進している。
リストに載っているAIチップメーカーのArmとNvidiaは、どちらも台湾出身のCEOが率いている。台湾と中国の緊張関係が続いていること、そしてスターゲイト計画が、国内のAIインフラとノウハウを活性化させながら、主に中国をはじめとする世界の他の国々に制限を課すことを目的とした最近の米国の政策の最新のものであることを考えると、これは注目に値する。
しかし、市場にとってそれは何の意味も持たず、スターゲイト プロジェクトの発表により、Nvidia の株価はここ数年で再び急騰した。しかし、それはすべて DeepSeek R1 がリリースされる前のことだった。
DeepSeek R1 は、Stargate プロジェクトの発表からわずか数日後にリリースされた新しいオープンソース推論モデルです。このモデルは中国の AI スタートアップ DeepSeek によって開発されました。同社は、R1 が複数の主要なベンチマークで OpenAI の ChatGPT o1 に匹敵するか、それを上回る性能を持ちながら、そのコストはほんのわずかであると主張しています。
DeepSeek R1 の注目すべき点は、AI の進歩を妨げることを目的とした AI チップに対するあらゆる制限にもかかわらず、中国で開発されたことです。これは、AI においては「GPU を増やせば十分」という OpenAI と米国中心の常識が覆されようとしていることを意味するのでしょうか。
実のところ、数日前にクリス・カクリス氏と AI チップについて話し合う機会を設けたとき、スターゲイト プロジェクトも DeepSeek R1 も AI シーンに突如登場していませんでした。私たちは意識的にこれらの展開を予想していたわけではありませんが、 AI チップが注目に値するトピックであることはわかっていましたし、カクリス氏はその内部関係者です。
Orchestrate all the Things にとって、AI チップを分析し、その分野の専門家からの洞察をホストすることは一種の伝統となっており、Kachris との会話はこの伝統の最新の部分です。
Chris Kachris 氏はInAccelの創設者兼 CEO です。InAccel は、企業がクラウド内のハードウェア アクセラレータを使用して、これまで以上に簡単にアプリケーションを高速化できるよう支援しています。また、機械学習、ネットワーク処理、データ処理用のFPGAとハードウェア アクセラレータに関する 20 年以上の経験を持つ、広く引用されている研究者でもあります。
InAccel が最近 Intel に買収された後、Kachris は研究に戻り、現在は西アッティカ大学の電気電子工学科で助教授として働いています。
このタイムリーなニュースを交えて会話の場を設定するにあたり、カクリス氏は冒頭で、AI チップのイノベーションは「費用のかかるスポーツ」であり、そのため学界ではなく産業界で行われることが多いと述べた。しかし同時に、必要なリソースはお金だけではなく、才能とエンジニアリングも必要だと指摘した。
カクリス氏にとって、米国の政策は、専門知識を本国に還流させ、国を自立させるという目標の点で正しい方向に進んでいる。欧州市民である同氏は、EU が同様の取り組みを実施するよう呼びかけ、 EU が GPU の取り組みを強化するよう求める声も多数上がっている。しかし、DeepSeek の成功がどのように達成されたかを調べることで、何か学べることがあるだろうか?
「 BRICS+諸国における生成AI 」レポートによると、中国は他のBRICS諸国とは異なり、外国産グラフィックカード(クラウド経由および自国データセンター内)と中国企業が製造した国産カードの両方を使用している。
現在、中国では独自のグラフィックカードを開発している企業が10社以上あり、NVIDIAを使用した後に現地のGPUに切り替えるプロセスは中国企業にとって難しいことではないと報告されています。
AI競争で競争力を保つためには、各国は選択肢を再考し、 中国の戦略を参考にする必要があるようだ。カクリス氏は、中国がまず模倣し、その後独自の革新的な技術を開発することで飛躍的な進歩を遂げていることに同意した。
「組み合わせることができます。さまざまなバージョンの GPU と他の処理装置を組み合わせて、強力なデータ センターやクラウドを構築できます。特に、以前は 3 ~ 4 年ごとに新しい機器を購入しなければならなかったことを考えると、これは非常に便利です。
現在、技術革新は非常に速く、ほぼ毎年、より強力なチップやプロセッサが登場しています。1 年や 2 年前のプロセッサを捨てるのは理にかなっていますか? したがって、異種リソースであっても、リソースを活用する方法を見つける必要があります。その方がコスト効率がはるかに高くなります」と Kachris 氏は言います。
DeepSeek R1 のトレーニングにかかるコストは、このアプローチを支持する強力な根拠となっています。異種インフラストラクチャでのトレーニングに加えて、 DeepSeek のアプローチには、数値精度の削減、複数トークンの読み取り機能、インテリジェントな Mixture of Experts 手法の適用が含まれていました。
その結果、トレーニング コストが 1 億ドルから約 500 万ドルに削減され、ハードウェア要件が 10 万 GPU からわずか 2,000 に削減され、標準的なゲーム用 GPU で AI 開発が利用できるようになりました。さらに、DeepSeek が 100% オープン ソースではないとしても ( LLM にとってそれが何を意味するかは関係ありません)、そのプロセスは複製可能です。
AI チップとオープンソース AI モデルは、包括的な Pragmatic AI トレーニングの一部です。
理論と実践ラボ。オールインクルーシブのリトリート。座席数限定のグループ。
実践的AIトレーニングに登録するにはここをクリックしてください
このニュースに対する即時の反応は売り急ぎで、 ニュースを受けてNvidiaの株価は17%下落した。執筆時点では市場はすでに軌道修正を始めており、下降傾向と上昇傾向の両方がある程度予測可能となっている。
一方では、DeepSeek が実証したのは、トップクラスの AI モデルのトレーニングには効率性を高める余地が大いにあるということであり、これは従来の常識を覆すものである。他方では、 これは Nvidia が依然としてリーダーではないことを意味するものではなく、 ジェヴォンのパラドックスが再び現実のものとなることが予想される。
Nvidiaは2024年もイノベーションのペースを維持し、最新のBlackwellアーキテクチャを発表して出荷し、エコシステムを拡大し、複数の財務およびビジネス上のマイルストーンを達成しました。Kachris氏は、Nvidiaはもはやチップを販売しているだけではなく、 DGXプラットフォーム上のチップとNVLinkテクノロジーの垂直統合に向けて進んでいることを強調しました。
しかし、NVIDIA GPU だけが唯一の選択肢ではありません。AMD は、新しい AI アクセラレータInstinct MI325Xを発表しました。Kachris 氏が指摘したように、 MI300 シリーズは非常に強力で、大規模言語モデルの重要なアーキテクチャであるトランスフォーマーを加速するための専用ユニットを備えています。AMD の成長は、データセンターと AI 製品によって推進されていると言われています。
大多数の人々や組織は AI ユーザーであり、AI ビルダーではありません。彼らにとって、AI アプリケーションの使用や構築は、実際には独自のモデルをトレーニングすることではなく、むしろ事前トレーニング済みのモデルを使用または微調整することなのです。
カクリス氏はまた、インテルのGaudiの進歩についても言及した。しかし、Gaudi 3の高性能にもかかわらず、インテルは市場シェアの面で遅れをとっているようだ。その主な原因はソフトウェアにある。同時に、インテルはFPGA部門のアルテラを売却する動きも見せている。
カクリス氏は、FPGA は AI トレーニングには最もパフォーマンスの高いソリューションではないかもしれないが、推論には非常に有効であり、競争と革新の余地が十分にあると主張している。InAccel が取り組んでいたのはまさにこのこと、つまり FPGA で動作するソフトウェア レイヤーの構築であり、それが Intel による買収につながった。
当然のことながら、カクリス氏はソフトウェア層の重要性を強調した。結局のところ、チップの性能が優れていても、ソフトウェア層を介して開発者が使いやすくなければ、採用は妨げられることになる。Nvidia は、 CUDA スタックの普及によりソフトウェア層で大きな優位性を維持しており、このスタックへの投資を続けている。
業界の他の企業も、 UXL Foundation / OneAPIイニシアチブを通じて Intel を先頭に、追いつこうと努力しています。AMD には独自のソフトウェア レイヤーである ROCm があります。しかし、追いつくのは一夜にしてできるものではありません。Kachris 氏が言うように、ソフトウェア レイヤーは、コードを 1 行も変更せずにハードウェア レイヤーを使用できるようにする必要があります。
Nvidia も、 新たにリリースした NIMフレームワークで推論とソフトウェア戦略を強化しており、 一定の採用が進んでいるようです。競合他社も推論に重点を置いています。 Groq 、 Tenstorrent 、 GraphCore 、 Cerebras 、 SambaNovaなど、推論市場のシェアを競うさまざまな挑戦者がいます。
DeepSeek は最適化の利点を顕著に示しているが、それだけではない。Kachris は最近、推論向けのものが多いLLM のハードウェア アクセラレーションに関する包括的な調査と比較に携わった。
これを実行する方法の 1 つは、AI プロバイダー API (通常は OpenAI または Anthropic) を介して実行することです。ただし、より高度なユースケースでは、プライバシー、コンプライアンス、競争上の優位性、アプリケーション要件、コストなどの理由から、エンド ユーザーは独自のインフラストラクチャに AI モデルを展開することを望むでしょう。
これには、オンプレミスやプライベート クラウドからエッジやベア メタルまで、さまざまな環境が含まれる可能性があります。特に LLM の場合、既製のマシンでローカルに実行することもできます。LLM のローカル/エッジ展開が理にかなっていると思うかどうかを Kachris に尋ねました。
カクリス氏は、推論は AI モデルの「縮小」、つまり量子化バージョンでも機能する可能性があると指摘しました。研究では、1 ビット バージョンのモデルでも実行可能であることが示されています。カクリス氏は、特殊なハードウェア アーキテクチャが存在するにもかかわらず、広く利用可能なものの中では GPU と FPGA が最高のパフォーマンスを提供し、FPGA の方がエネルギー効率が高いと指摘しました。
今後の開発に関しては、カクリス氏はインメモリ コンピューティングが注目すべき分野であると強調しました。主なアイデアは、ストレージとコンピューティングを同じユニットで組み合わせることで、データ転送の必要性をなくし、パフォーマンスを向上させることです。これは、生物学的ニューラル ネットワークの仕組みにヒントを得たもので、ニューロモルフィック コンピューティングと呼ばれています。
チップレット、 LLM を動かすトランスフォーマーアーキテクチャ向けにカスタマイズされた特殊チップ、フォトニックテクノロジー、 AI 用の新しいプログラミング言語など、注目すべき開発分野は他にもあります。
より短期から中期的な見通し、そしてNvidiaが支配する世界に革新の余地があるかどうかという疑問に関して、Kachris氏は組み込みシステムとエッジAIが挑戦者にとってのチャンスであると考えています。
「エッジ AI の領域にはさまざまな要件とさまざまな仕様があります。たとえば、病院向けのビデオ アプリケーションや、自動運転や航空など、エッジ AI には革新の余地があると思います。」
それは起こると思います。GPUについてお話ししましょう。NVIDIAはGPUのリーダーですが、ウェアラブルデバイス用のGPUが不足していました。そして、 Think Siliconという素晴らしい会社が、フィットバンドやスマートウォッチに特化したGPUの開発に着手し、その後Applied Materialsに買収されました。
イノベーションは、NvidiaやIntelのような企業にとっては規模が小さすぎるが、専門的な製品を製造できる中小企業にとっては十分な分野で起こるだろう。」
テクノロジー、データ、AI、メディアがどのように相互に影響し合い、私たちの生活を形作っているかについてのストーリー。
分析、エッセイ、インタビュー、ニュース。中~長編形式で、月に1~3回。