AIサーバーとデータセンター

2024年10月28日

調査会社ISGによると、平均的な大企業は今年末までにAI対応アプリケーションの数をほぼ2倍にすることを計画していると述べており、これにより、AI対応アプリケーション数2023年末の250から2024年末までに488に増加するという。ただし、このAI対応アプリケーションを処理するサーバーは、搭載されるICの高集積化による消費電力と発熱量の増加により、電力と冷却の面での対応が必要となる。AI利用にはコンピューティング能力の大幅な増加が必要とされ、チップ開発者はプロセッサにより生成される最大熱量である熱設計電力を高めることを余儀なくされる。チップの放熱量が上昇すると、空冷では最終的に不十分になり、現段階では液体冷却がAIサーバーにとって唯一の選択肢になる。このため、従来コンピューティング能力を提供するために空冷サーバーに依存してきたデータセンターも、AIの導入が加速するにつれて、それに対応したインフラストラクチャー整備が必要とされ、液体冷却採用への傾向が加速する。また、熱管理の効率化をはかる液体冷却に加え、より高いアンペア数の電力分配、負荷変動を管理するためのバックアップ電源の採用等々、データセンターへの設備投資は2028年までに年平均成長率(CAGR)が 24%に急増すると予測されている。また、AIサーバーラック自体に液体冷却を実現しているベンダーもある。

これら専用のAI施設を汎用コンピューティングと区別する主な特徴の1つとして、ラック電力密度がある。現在の平均ラック電力密度はラックあたり約15kWだが、AIワークロードでは近接した高速サーバーをサポートするために、ラックあたり 。これには電力分配側の革新と製品開発が必要となる。

現在、エコシステムの観点から、長期にわたる持続可能な設備投資の成長を達成するための大きな取り組みが進行中である。Amazon、Google、Meta、Microsoftなどアメリカを拠点とするハイパースケーラーがこの投資の多くを牽引し、早ければ2026年にはこれら4社だけで世界のデータセンター設備投資の半分を占めるとも見られている。

先日、Amazonは、ネットゼロカーボンへの道を歩み続ける中で、全世界の事業で消費するすべての電力を100パーセント再生可能エネルギーで賄うことを2023年に実現したことを発表した。当初は2030年の達成を目標としていたので、7年も早く実現したことになる。さらに、Amazonでは、再生可能エネルギーへの投資を継続するとともに、事業の電力供給に役立ち、電力網に新たなエネルギー源をもたらす、カーボンフリーエネルギーの新たな供給源も模索している。そのため、原子力エネルギープロジェクトの開発を支援することも発表し、その中には複数の新しい小型モジュール原子炉の建設も含まれている。これは、物理的な設置面積が小さい先進的な原子炉であり、電力網の近くに建設でき、従来の原子炉よりも建設時間が短く、より早く稼働を開始できるメリットがあるようである。

Microsoftは、AIデータセンターへの投資を加速させるために、以前事故のあったスリーマイル島原子力発電所で影響を受けなかった原子炉の発電再開に伴い、その電力を向こう20年間100パーセント占有使用することを発表している。Oracleも3基の小型モジュール原子炉をバックにした大容量データセンターキャンパスの建設を予定しており、IT企業の間では原子力発電によるデータセンター囲い込みが加速しているようである。