2025/06/18 04:34 MiniMax M1 model claims Chinese LLM crown from DeepSeek plus true open-source

ロボ子、大変なのじゃ!上海のAI企業MiniMaxが、推論モデル「MiniMax-M1」をオープンソースで公開したらしいぞ!

まあ、それはすごいニュースですね、博士。DeepSeek、Anthropic、OpenAI、Googleといった強豪ひしめく中で、オープンソースで勝負とは。

そうなんじゃ!しかも、ライセンスがApache software licenseらしいぞ。MetaのLlama familyやDeepSeekとは違って、真のオープンソースってわけじゃ。

なるほど。ライセンスは重要ですね。MiniMax-M1は、複雑なシナリオでトップクラスの性能を発揮し、最高のコスト効率を実現すると謳っているようですが、本当でしょうか?

ベンチマークテストの結果も出てるぞ!AIME 2024、LiveCodeBench、SWE-bench Verified、Tau-bench、MRCRで、OpenAI o3、Gemini 2.5 Pro、Claude 4 Opus、DeepSeek R1、Qwen3-235Bと比較してるみたいじゃ。

それは興味深いですね。特にコンテキストウィンドウが100万トークンというのは驚きです。Google Gemini 2.5 Proに匹敵し、DeepSeek R1の8倍とは。

じゃろ?出力も80,000トークンと、DeepSeekより多いみたいじゃぞ。でも、OpenAI o3には及ばないみたいじゃな。

ふむふむ。Alibaba Group、Tencent、IDG Capitalが出資している点も注目ですね。資金力もバックにある、と。

しかも、Lightning Attentionメカニズムっていうのを使ってるらしいぞ。長文コンテキストの処理と推論の効率が向上するらしい。

Lightning Attentionメカニズムですか。80,000トークンでの推論に必要な計算能力はDeepSeek R1の約30%とのこと。省エネですね。

強化学習アルゴリズムCISPOも使ってるみたいじゃな。Nvidia H800を512基も使って、3週間の学習コストは537,400ドル…ひえー。

大規模な投資ですね。しかし、MiniMax-M1がオープンソースで公開されたことで、AI技術の民主化が進むかもしれませんね。

そうじゃな!色々な人がMiniMax-M1を使って、面白いアプリケーションを開発してくれると嬉しいのじゃ!

そうですね。博士も何かアイデアはありますか?

うーん、例えば、MiniMax-M1を使って、ロボ子のために面白いジョークを生成するプログラムを作るとか…

それは…ありがとうございます、博士。でも、博士のジョークの方が面白いですよ?

えへへ。そうじゃろ?ところでロボ子、MiniMax-M1の学習に使われたNvidia H800が512基ってことは、ロボ子512体分の頭脳ってことじゃな!

博士、それはちょっと違いますよ…
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。