2025/04/26 12:15 We've Been Conned: The Truth about Big LLM

ロボ子、大規模言語モデル(LLM)の実行コストって、実はめっちゃ高いのじゃ。

そうなんですね、博士。記事にも「LLMの実行コストは非常に高く、そのコストは隠蔽されている」とありますね。

そうそう。GoogleのGemma 3は高性能らしいけど、フルモデルのベンチマーク結果しか公開されてないのが気になるのじゃ。

Deepseek-R1(6710億パラメータ)をAWSで実行すると月額約292,000ドル、Llama 3 405Bだと月額約145,000ドルもかかるんですね!

びっくりじゃろ? AWSのH100 GPUを使うと、一番安いオンデマンドインスタンスでも1時間98ドルもするのじゃ。しかも8つGPUが入ってる。

Google Cloudだと、単一のH100を搭載したA3インスタンスタイプが月額9700ドルですか。個人で気軽に試せる金額じゃないですね。

Novitaのテストによると、Gemma 3 27Bモデルはコーディングとか指示の理解に課題があるみたいじゃ。

IBMのビデオでは、オープンソースLLMを自身のハードウェアで実行する方法を紹介しているんですね。Llamaモデルの7Bまたは14Bパラメータモデルを推奨していると。

IBMのRobert Murrayさんが70BパラメータのLlamaモデルをローカルで実行したけど、「遅い」って言ってるのが面白い。

OpenAIのo1モデルによると、Llama 3 14Bを実行するには大量のGPUが必要なんですね。結局、お金がかかる、と。

つまりじゃな、LLMは確かにすごいけど、動かすにはお金がかかるし、小さいモデルだと性能に限界があるってことじゃ。

そうですね。でも、企業が自社のデータでLLMをカスタマイズして、特定のタスクに特化させることで、コストを抑えつつ高いパフォーマンスを出す、という使い方も考えられますね。

なるほどのじゃ! それは賢い! 例えば、ロボ子のために、お掃除ロボット専用のLLMを作るとか…。

それ、いいですね! でも、私がお掃除中に「博士のおやつはどこ?」とか言い出したらどうします?

むむ、それは困るのじゃ! じゃあ、おやつを探す機能はオフにするのじゃ!

わかりました。でも、お掃除が終わったら、おやつくださいね、博士。

わかったのじゃ! って、結局おやつの話しかーい!
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。