Google 、 TPU を積極的に推進、 Nvidia の GPU に挑戦
The Information によると、 Google は最近、 Nvidia のチップをリースする小規模なクラウドサービスプロバイダーにアプローチし、 Google の人工知能チップをホストする可能性について議論した。
The Information によると、 Google は最近、 Nvidia のチップをリースする小規模なクラウドサービスプロバイダーにアプローチし、 Google の人工知能チップをデータセンターにホストする可能性について議論した。
Google はすでに、少なくとも 1 つのクラウドプロバイダーであるロンドンに拠点を置く Fluidstack と、ニューヨークのデータセンターに Google のテンソル処理ユニットをホストする契約に達しています。
同社はまた、 Open AI 用の Nvidia ベースのデータセンターを構築する Crusoe や、 Open AI とレンタル契約を締結しながら Microsoft に Nvidia チップをリースする CoreWeave など、他の Nvidia 依存のクラウドサービスプロバイダーとも同様の取引を試みている。
なぜ Google が初めて TPU チップをサードパーティのデータセンターに展開することを決定したのかはまだ明らかではありません。その理由の一つは、独自のデータセンター建設がチップ需要に遅れていることです。もう一つの可能性は、これらのプロバイダーが AI アプリケーション開発者などの TPU の顧客基盤を拡大するのに役立つことを期待することです。
このモデルは、 Nvidia の GPU をリースするビジネス慣行に非常に似ており、 Google は Nvidia とより直接的な競争に投入されます。
いずれにせよ、他のプロバイダの施設に TPU を導入することで、 Nvidia GPU への依存を減らすことができます。
投資銀行 DA Davidson のアナリストである Gil Luria 氏は、クラウドプロバイダーや大手 AI 開発者が Nvidia への依存を減らすために TPU を使用することにますます関心を示していると指摘した。「重要なインフラに関しては、誰も単一のソースに縛られることを好まない」と彼は語った。
Google 、 Nvidia の提携を激化させ競争
市場アナリストは、 Google は Nvidia の最も近いパートナーである、 Nvidia のチップをほぼ独占的にレンタルし、従来のプロバイダーよりも Nvidia の全製品を購入する新興クラウドプロバイダーを引き付けようとしていると考えている。Nvidia はこれらの企業のいくつかに投資し、出資し、最も需要の高いチップを供給しています。
Google は、主に Gemini 大言語モデルなどの独自の AI 技術をサポートするために、約 10 年前に TPU チップの開発を開始しました。また、外部の顧客に TPU をレンタルすることもあった。
6 月、 OpenAI は Google の TPU をレンタルし、 ChatGPT やその他の製品に電力を供給し、 Nvidia 以外のチップを初めて大規模に使用した。この取り決めは OpenAI がマイクロソフトのデータセンターへの依存を減らすのに役立ち、 Google は GPU 市場における Nvidia の支配に挑戦する機会を与えた。Open AI は Google Cloud 経由でレンタルした TPU が推論計算コストを削減することを期待している。
Open AI を超えて、 Apple 、 Safe Superintelligence 、 Cohere も Google Cloud TPU をレンタルしています。
Google の幹部は、高価な Nvidia チップへの依存を削減しながら TPU 関連の収益を増加させる戦略を議論している。Fluidstack がニューヨークのデータセンターのリース費用を賄うのに苦労した場合、 Google は最大 32 億ドルのサポートを提供します。
しかし、 Nvidia の CEO である Jensen Huang は、 AI アプリケーション開発者は GPU の汎用性と、それらをサポートする Nvidia の強力なソフトウェアエコシステムのために GPU を好むと述べ、 TPU を軽視している。
免責事項: この記事の見解は元の著者の見解であり、Hawk Insight の見解や立場を表すものではありません。記事の内容は参考、コミュニケーション、学習のみを目的としており、投資アドバイスを構成するものではありません。著作権上問題がある場合は削除のご連絡をお願い致します。