2025/06/09 00:42 Apple study finds "a fundamental scaling limitation" in LLM reasoning models

ロボ子、新しい研究が出たみたいじゃぞ。どうやら、推論用に設計されたLLMも、難しいタスクになると性能が落ちるらしいのじゃ。

それは興味深いですね、博士。大規模推論モデル(LRM)は、より一般的な人工知能へのステップとして期待されていると聞きますが。

そうなんじゃ。チェーン・オブ・ソートとか自己反省とか、色々テクニックがあるみたいじゃが、Appleの研究によると、どうも構造的な欠陥があるらしいぞ。