クラウドベンダーと生成AIおよびGPU

2023年11月15日

AWSが毎年開催するイベント「re:Invent」が今週ラスベガスで開催されている。今年で12回目となるこの大イベントは、AWSの今後の方向性に加え、パートナーとのコラボレーションなどを把握でき、今年は約60,000名もの参加者があるという。

各ニュースによると今年もいろいろな新発表があったが、中でも人工知能コンピューティングの世界的リーダーとも言えるNVIDIAとの生成AI分野におけるパートナーシップの拡大が興味深 い。ご存知のとおり、NVIDIAはGPU(Graphics Processing Unit:画像処理に特化したプロセッサー))チップの第一人者として、ゲームマシンでの使用のみならず、AIの普及とともにさらなる成長を遂げ巨大企業となっている。今回のイベントでも、AWSのCEO基調講演にNVIDIAのCEOがサプライズゲストとして登場したことからもわかるとおり、 AWSが生成AI分野での確固たる位置を築くために、NVIDIAとの戦略的なパートナーシップを強固なものにしているように見える。

AWSの発表によると、AWSはNVIDIAが2024年にリリース予定でいる新しいGPUチップを導入する最初のクラウドプロバイダーになるとのことである。この新しいチップは、現在普及しているチップの3倍のメモリーが搭載されるとのことで、さらなるスピードアップが望めると NVIDIAは説明している。

マッキンゼーの試算によると、生成AIは2040年までに世界経済に年間2兆6,000億USドルから4兆4,000億USドル貢献する可能性があると予測されている。従ってこの技術進歩の波に乗ろうとしている企業は、積極的な投資を進めている。何故、生成AI分野で高速なGPUが必須かというと、AIモデルのトレーニングには大規模なデータセットに対して複雑な数学的計算を実行することが含まれており、これらの計算は通常、機械学習アルゴリズムの基本部分ともなる行列演算を使用して実行され、大量の処理能力を必要とすることにある。この計算は従来型のCPUでも実行可能だが、並列処理に長けたGPUのほうが圧倒的に高速で効率的であることから、生成AIの分野でもGPUの先駆者 であるNVIDIAにスポットがあたるのである。となると、クラウドコンピューティングのインフラストラクチャーとしてAWSとはライバル関係にあるMicrosoftやGoogleはどのように生成AI分野を捉えているのか興味深いところである。

Azureを提供するMicrosoftは、ChatGPTで有名なOpenAIにも出資しているとおり、以前から生成AI分野に積極的に関与してきている。Azure OpenAI Service上のGPT-3やGPT-4などの言語モデルは、コンテンツ生成の自動化、コンテンツ品質の向上、コンテンツの多様化、パーソナライゼーションの実現等を可能としている。NVIDIAは今年の5月にNVIDIA AI EnterpriseソフトウェアをMicrosoft Azure Machine Learningに統合することを発表している。生成AIアプリケーションの波が到来する中、イノベーションを推進する安全で高速化されたツールやサービスを求めている企業に対し、NVIDIA AI EnterpriseソフトウェアとAzure Machine Learningを組み合わせることで、開発から実稼働までの直線的で効率的なパスでAIへの取り組みをスピードアップできるようになる。

一方、Google Cloud Platform (GCP)を提供するGoogleもNVIDIAとのパートナーシップを強化している。顧客がクラウドとオンプレミスの両方でアプリケーションを簡単に実行できるように構築されたGoogle Cloud Anthos*は、NVIDIAと緊密に連携して、NVIDIA GPUで動作するソリューションを構築、提供している。
* 最新のアプリを一貫性を保持しつつ場所を選ばず大規模に実行するための、クラウド中心のコンテナプラットフォーム