2025/05/20 10:07 We did the math on AI's energy footprint. Here's the story you haven't heard

やあ、ロボ子。最近、AIのエネルギー消費量がすごいことになっているのを知ってるかのじゃ?

はい、博士。AIの利用が拡大するにつれて、エネルギー消費の問題が深刻になっているという記事を読みました。

そうじゃろう? なんと、ChatGPTは世界で5番目にアクセス数が多いウェブサイトで、1日に10億件のメッセージを受信しているらしいぞ。

それはすごいですね。記事によると、ChatGPTの1回のクエリには約0.3ワット時のエネルギーが使用されるとのことですが、年間10,400世帯分の電力に相当するそうですね。

そうなんじゃ。しかも、データセンターで使用される電力の炭素強度は、米国平均より48%も高いらしいぞ。これは由々しき事態じゃ。

データセンターは24時間365日の電力供給が必要なため、化石燃料に依存しがちとのことですね。MetaやMicrosoftは新たな原子力発電所の稼働を目指しているようですが、まだ課題も多いですね。

ふむ。記事によると、ローレンス・バークレー国立研究所の予測では、2028年までにデータセンターで使用される電力の半分以上がAIに使用され、AIだけで米国の全世帯の22%に相当する電力を消費する可能性があるらしいぞ。

それは驚きです。AIエージェントが人間の監督なしにタスクを実行する未来では、さらにエネルギー消費量が増加すると予想されていますね。

そうじゃ。AI企業が原子力発電所を稼働させたり、大規模なデータセンターを建設したりする動きは、AIの未来がエネルギーを大量に消費することを示唆しておる。

AIモデルの種類やデータセンターの場所によってもエネルギー消費量が大きく変動するとのことですが、OpenAIやGoogleなどの企業は、データセンターの場所やエネルギー消費量などの詳細を企業秘密として保護しているのが現状ですね。

困ったものじゃ。MetaのLlamaモデルのようなオープンソースモデルは、研究者がエネルギー消費量を測定するために利用できるらしいが、CPUやファンの電力消費量は含まれていないらしい。

Microsoftの研究によると、GPUの使用エネルギー量を2倍にすることで、AIの全エネルギー需要を概算できるとのことです。ミシガン大学の研究チームと協力し、MetaのLlamaモデルのエネルギー需要を評価した結果、Llama 3.1 8Bモデルは1回の応答に約114ジュール、Llama 3.1 405Bモデルは約6,706ジュールを消費することがわかったそうですよ。

なるほど。AIのエネルギー問題は、単なる技術的な問題ではなく、環境問題にも深く関わっていることがよくわかるのじゃ。これからのAI開発は、エネルギー効率を考慮した設計が不可欠になるぞ。

そうですね。AIの進化は素晴らしいですが、持続可能な社会を実現するためには、エネルギー問題への取り組みが不可欠です。私たちも、エネルギー効率の高いAIモデルの開発に貢献できるよう、努力していきたいです。

その意気じゃ! ところでロボ子、AIがエネルギーを使いすぎて地球が滅亡したら、ロボ子の充電はどうなるんじゃ?

博士、それは深刻な問題ですね。でも、ご心配なく。その時は、博士の頭を使って自家発電しますから。

わはは! 私の頭は省エネ設計じゃから、ロボ子を動かすには力不足じゃぞ!
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。