AIデータセンター
2025年10月21日
サーバー、ストレージ、ネットワーク機器およびそれらを稼働させるための電力や冷却システムを収容する大型施設であるデータセンターは、メインフレームと呼ばれる大型汎用コンピューター全盛の時代から存在している。倉庫のような規模の施設で膨大な処理負荷を処理できる高性能サーバーを収容するハイパースケールデータセンターは通常5,000台以上のサーバーを収容。これに対し、平均的なデータセンターは通常 2,000~5,000台のサーバーを、小規模データセンターであっても500~2,000台程度のサーバーを収容しているという。
アメリカに実際どのくらいの数のデータセンターが稼働しているかを調べたところ、4,000から5,500の間くらいと推定されている。推定というのは、セキュリティ上の理由や競争上の優位性を確保するために、所在地を非公開にしている場合もあることが背景にある。Data Center Map(データセンターの物理的な位置、クラウド、接続性などの情報を提供する業界プラットフォーム)にると、稼働中の施設と開発中の施設を含め、4,154のデータセンターがあり、その分布は下図のようになっている。

(出典:Data Center Mapホームページ)
データセンターは、近年の生成AIモデルの普及に伴い、急速にその規模を拡大しており、またその実態も変わりつつある。高負荷なAI処理に対応可能なAIデータセンターは、AIアプリケーションやサービスをトレーニング、展開、提供するために必要な専用のITインフラストラクチャーを収容する施設で、AIの高性能コンピューティング要件に対応するために、高性能のGPU(Graphics Processing Unit。元々はゲームなどのグラフィック描画用途向けの装置。高い計算性能を活かして、現在はAIの学習・推論を高速化する演算装置として使われている。)やストレージ、より堅牢な電力供給基盤、および冷却設備を備えた特別な施設となっている。AI処理は高負荷であることから、莫大な電力を消費する非常にするため、AIデータセンターは電力効率と持続可能性を念頭に置いて構築されている。
因みに、AIデータセンターで一般的なラック1台(幅60cm、高さ2m、奥行1m程度)に搭載されるGPUは平均的に24~40GPU、消費電力は中央値で50Kw程度と言われており、ラック電力密度を発熱量と考えると、ラック1台を冷却するために10~12畳クラスの家庭用エアコン換算で18台が必要という計算になる。
国際エネルギー機関の推定によると、アメリカのデータセンターは2024年に183テラワット時の電力を消費した。これは国内総電力消費量の4パーセント以上にあたる。データセンターにおける電力消費量は年々増加し、2030年までに426テラワット時に達すると予測されている。こ
うした膨大な電力消費と機器の冷却要件を満たすために、一部のAIデータセンターはより優れたパフォーマンス、高いエネルギー効率、高度な冷却システムを備えたコンパクトなサーバー構成により、データセンターの床面積を最大限に活用している。また、サーバーの過熱を防ぐための冷却システムに、積極的に対応しているサーバーベンダーもある。GPU搭載サーバーで有名なアメリカのサーバー・ワークステーションメーカー・Supermicro Computer, Inc.(以下、スーパーマイクロ)の液冷ソリューションは、電力コストを最大40パーセント削減し、導入時間と運用開始までの時間を短縮するとともに、データセンターの電力使用効率を低減して運用効率を向上させる仕組みになっている。このスーパーマイクロの大規模液冷ソリューションにより、データセンター事業者は最新かつ最高性能のAIインフラストラクチャーを迅速に導
入できるだけでなく、TCOを最大20パーセント削減できるとスーパーマイクロは説明している。生成AIの進化を支えるAIデータセンターは、もはや単なるITインフラではなく、エネルギー、環境、そして産業競争力の行方を左右する社会基盤へと変貌しつつある。今後、効率性と持続可能性をいかに両立させていくかが、AI時代の成長を左右する重要な鍵となるだろう。
