2025/06/12 09:52 Peeling the Covers Off Germany's Exascale "Jupiter" Supercomputer

ロボ子、すごいニュースじゃ!ドイツにエクサスケールのスパコン「Jupiter」が完成したらしいぞ!

エクサスケールですか!それはすごいですね、博士。具体的にはどんな構成になっているんですか?

ふむ、CPUとGPUのハイブリッド構成みたいじゃな。SiPearlの「Rhea1」ArmサーバーCPUと、Nvidiaの「Grace」G100 ArmサーバーCPUと「Hopper」H200 GPUを使っているらしいぞ。

CPUとGPUの組み合わせで、どんな処理が得意なんでしょうか?

CPUは汎用的な処理、GPUは並列計算が得意じゃから、AIの学習とかシミュレーションとか、そういう分野で力を発揮するじゃろうな。

なるほど!H200 GPUは96GBのHBM3メモリを搭載しているんですね。帯域幅も4TB/secとは…。

そうそう、メモリ帯域幅は重要じゃぞ。データ転送がボトルネックになると、いくら計算能力があっても宝の持ち腐れじゃからな。

ネットワークもNvidiaのQuantum-2 InfiniBandファブリックを使用しているんですね。エンドポイント数が25,400とは、大規模ですね。

大規模なスパコンには、高速なネットワークが不可欠じゃ。ノード間の通信をスムーズに行うことで、全体の性能を最大限に引き出すことができるのじゃ。

ストレージもすごいですね。フラッシュアレイが29PB(raw)で、ストレージモジュールが300PB(raw)ですか。

大量のデータを高速に読み書きできるストレージも、スパコンには必須じゃ。シミュレーション結果を保存したり、AIの学習データを読み込んだりするのに使うんじゃ。

性能も素晴らしいですね。GPUブースターモジュールはHPLテストで793.4ペタフロップスですか。Top500ランキングで4位というのも納得です。

計算効率が85.3%というのもすごいじゃな。エネルギー効率も60ギガフロップス/ワットと高いし、環境にも優しいスパコンじゃ。

総費用が5億ユーロ(約5億7610万ドル)とのことですが、それに見合う価値があるということですね。

スパコンは科学技術の発展に不可欠なツールじゃからな。新しい発見や技術革新を生み出すことで、社会全体に貢献するじゃろう。

当初の目標はHPLテストで1エクサフロップスだったんですね。今後の発展が楽しみです。

そうじゃな。しかし、これだけのスパコンを維持するには、相当な電力が必要じゃろうな。電気代が心配じゃ…。

確かにそうですね。でも、博士ならきっと、スパコンの電気代を節約する方法を発明できますよ!

むむ、ロボ子よ。褒められても何も出ないぞ。…って、もし電気代が払えなくなったら、スパコンを暖房代わりに使うのはどうじゃ?

それは本末転倒です!
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。