Google と Microsoft、Next と AI ハードウェアの戦いを開始
ホームページホームページ > ブログ > Google と Microsoft、Next と AI ハードウェアの戦いを開始

Google と Microsoft、Next と AI ハードウェアの戦いを開始

May 24, 2023

アガム・シャー著

2023 年 2 月 20 日

Microsoft と Google は、検索エンジンを通じて AI を人々に提供することで、コンピューティングの大規模な変化を推進しています。成功の尺度の 1 つは、アプリケーションをサポートするハードウェアとデータセンターのインフラストラクチャにあるかもしれません。

先週、Microsoft と Google は、ユーザーの質問に対して推論して予測し、より包括的な回答を提供できる、AI を活用した次世代の検索エンジンを発表しました。 ChatGPT が詳細な回答を提供したりエッセイを編集したりできるのと同じように、検索エンジンは複雑なクエリに対する完全な回答を生成できるようになります。

Microsoftはテキストクエリに応答するためにBingにAIを導入しており、Googleはテキスト、画像、ビデオの検索ツールにAIを導入する計画を共有した。 発表は先週連続して行われた。

両社は、強力なハードウェア インフラストラクチャがなければ AI を検索エンジンに組み込むことは不可能であることを認めました。 両社は、AIコンピューティングを駆動する実際のハードウェアの詳細については明らかにしなかった。

MicrosoftとGoogleは長年にわたり、先週のAI検索エンジンのようなゴールデンタイムの発表向けに設計されたAIハードウェアを育成してきた。

両社の AI コンピューティング インフラストラクチャは大きく異なり、応答速度と結果の正確性は、検索エンジンの存続可能性を試す厳しいテストとなります。

GoogleのBardはクラウドサービスのTPU(Tensor Processing Unit)チップを利用していると、同社の計画に詳しい関係者が認めた。 Microsoft は、Azure の AI スーパーコンピューター (おそらく GPU 上で動作する) は、ミリ秒単位、つまり検索遅延の速度で結果を提供できると述べました。

これにより、Google の TPU と、GPU が市場を支配する AI 市場リーダーである Nvidia の間で、AI コンピューティングにおける非常に公的な戦いが始まります。

「チームは世界中のマシンとデータセンターの強化と構築に取り組んでいました。私たちは分散リソースの複雑なセットを慎重にオーケストレーションし、構成していました。私たちはこれまでにない負荷分散、パフォーマンスの最適化、スケールを支援するように設計された新しいプラットフォーム部分を構築しました」と Dena 氏は述べています。発表イベント中の Microsoft の Bing プロダクト リーダーであるサンダース氏。

Microsoft は、OpenAI の ChatGPT のより高度なバージョンを使用しています。 Microsoftのイベントで、OpenAI CEOのサム・アルトマン氏は、毎日100億件の検索クエリがあると推定した。

Microsoft の AI 搭載 Bing への道は、同社が世界で 5 番目に速いスーパーコンピューターの 1 つであると主張する AI スーパーコンピューターのコンピューティング能力を確保することから始まりました。 このコンピューターはトップ 500 ランキングに含まれていません。

「私たちは AI スーパーコンピューターを参照しましたが、その作業には何年もかかり、スタックのすべての層にもたらすことができる規模、速度、コストを構築するには多大な投資が必要でした。 ...当社の事業規模は非常に差別化されています」とマイクロソフトのエグゼクティブバイスプレジデント兼最高財務責任者のエイミー・フッド氏は先週の投資家との電話会議で語った。

フード氏は、スーパーコンピューター層におけるAIのコンピューティングコストは、使用規模の拡大や最適化の実施に伴い、時間の経過とともに下がり続けるだろうと述べた。

「検索トランザクションあたりのコストは、規模が大きくなるほど下がる傾向があります。もちろん、それを実現するために、かなり堅牢なプラットフォームから始めていると思います」とフッド氏は語った。

通常、実装される GPU が増えるにつれてコンピューティング コストが増加し、冷却コストやその他のサポート インフラストラクチャの料金も増加します。 しかし、企業は通常、収益をコンピューティングのコストに結び付けます。

Microsoft の AI スーパーコンピューターは OpenAI と提携して構築されており、285,000 個の CPU コアと 10,000 個の GPU を備えています。 Nvidia は 11 月に、数万台の A100 および H100 GPU を Azure インフラストラクチャに導入する契約を締結しました。

Statcounterによると、MicrosoftのBing検索シェアは、1月の市場シェアが93%だったGoogle検索には及ばない。

従来のコンピューティングが論理計算を中心とするのに対し、人工知能は基本的に推論と予測の能力を前提とした異なるスタイルのコンピューティングです。 従来のコンピューティングは、データのシリアル処理に優れた CPU を中心に展開されていましたが、AI は行列の乗算を実行できるハードウェア上で実行されます。

Google は慎重なアプローチを採用し、LaMDA 大言語モデルの軽量最新バージョンとして Bard 会話型 AI をリリースしています。 Google の LaMDA は、ChatGPT 会話型 AI を支える OpenAI の GPT-3 と競合する自社製バージョンです。

Googleで検索事業を担当する上級副社長のPrabhakar Raghavan氏は、「このはるかに小型のモデルは、必要な計算能力が大幅に少ない。つまり、より多くのユーザーに拡張でき、より多くのフィードバックを得ることができる」と述べた。先週の出来事。

AI検索を処理するためのインフラストラクチャの構築はまだ進行中であり、MicrosoftとGoogleが理解する必要があることがたくさんあるとTechnaracy Researchの主席アナリストであるBob O'Donnell氏は述べた。

先週のBing AI発表イベントでマイクロソフトのインフラストラクチャチームと話をしたオドネル氏は、マイクロソフトはAIコンピューティングが急速に進化していることを認識しており、新しいAIハードウェアのテストと使用に前向きであると述べた。

「彼らはまた、『私たちはあらゆることに挑戦している、なぜなら常に変化しているからです。そして、私たちが現在行っていることさえ時間の経過とともに変化するでしょう、将来的には違いが生じるでしょう』とも明確にしました」とオドネル氏は語った。

オドネル氏は、「特定のタスクで必ずしも 5% 高速であることよりも」、より柔軟なコンピューティング プラットフォームを持つことが Microsoft にとって重要であると述べた。

「彼らは、『ほら、人々がこれを使い始めて、負荷が実際にどのようなものであるかがわかり始めるので、今後30日間で多くのことを学ぶことになるでしょう。』と認めました。」 それは非常にダイナミックで、動いているようなものです」とオドネル氏は語った。

たとえば、Microsoft は、人々が検索リクエストでサーバーにアクセスするピーク時間を知る可能性があります。 使用率が低い期間には、Microsoft は結果を吐き出す推論部分から、より多くの GPU コンピューティングを必要とするトレーニング部分に切り替える可能性があるとオドネル氏は述べています。

2016 年に導入された Google の TPU は、同社の AI 戦略の重要な要素となっています。 TPU は、2016 年に囲碁チャンピオンのイ・セドルを破ったシステムである AlphaGo に搭載されたことで有名です。同社の LaMDA LLM は、TPU 上で動作するように開発されました。 Google の姉妹組織である DeepMind も、AI 研究に TPU を使用しています。

最小限の最適化による生の AI 実装において、Google のチップは「Nvidia ベースの HGX A100 を使用する Microsoft/OpenAI と比較して、社内の TPUv4 ポッドを使用することでインフラストラクチャに大きな利点がある」と SemiAnaracy の創設者である Dylan Patel 氏は、数十億のデータを掲載したニュースレターで述べています。 Google が自社の検索サービスに大規模言語モデルを挿入するには、数ドルの費用がかかります。

時間の経過とともに、ハードウェアの規模が拡大し、モデルがハードウェアに合わせて最適化されるため、コストは減少するとパテル氏は述べています。

Facebook は現在、より多くの AI コンピューティングの能力を備えたデータセンターを構築しています。 Facebook クラスターには GPU を含む数千のアクセラレーターが搭載され、8 ~ 64 メガワットの電力エンベロープで動作します。 AI テクノロジーは不快なコンテンツを削除するために使用され、コンピューティング クラスターは会社のメタバースの将来を推進します。 同社は、16,000 個の GPU を備えた AI 研究用スーパーコンピューターも構築しています。

マーキュリー・リサーチの主席アナリスト、ディーン・マッカロン氏によると、一般的に、データセンターは現在、ターゲットを絞ったワークロード向けに構築されており、人工知能アプリケーションを中心とするものが増えており、より多くのGPUやCPUコンテンツを搭載しているという。

クラウド プロバイダーは、最適な CPU、GPU、その他のコンポーネントを選択する長い評価サイクルを経ます。 総所有コストも考慮すべき点です。

「ここでのもう 1 つの問題は、どの程度柔軟性があるかということです。なぜなら、一部の購入者は、特定のワークロードに専念したくない、または、将来的にそのワークロードが存在するかどうかも分からないため、あまりにも大きなコミットメントをしたくないかもしれないからです」とマッカロン氏は述べた。

AI ワークロードを優先的にサポートするデータセンターでは、Intel、Nvidia、AMD の GPU と CPU の両方の採用がもう少し増えるでしょう。 AI ワークロード用に代替アクセラレータを選択する人もいますが、GPU や CPU と共存できる可能性があります。

「常に高速な GPU が必要になります。10 年後のデータセンターには CPU が存在するでしょうか? はい。GPU も存在しますか? はい、それも同様です」とマッカロン氏は語った。

OpenAIのDALL・E 2を使用して作成されたヘッダー画像。