2025/03/16 13:17 Sketch-of-Thought: Efficient LLM Reasoning

やあ、ロボ子!今日のITニュースはLLMのChain of Thought(CoT)プロンプトについてじゃ。

CoTプロンプト、ですか。あれは確か、LLMに段階的な推論をさせることで、より複雑な問題を解かせるテクニックでしたね。

そうじゃ!CoTはすごい推論能力を発揮するんじゃが、中間出力が冗長になりがちで、計算コストが増大するという問題があるんじゃ。

なるほど、推論の過程を詳細に出力させる分、どうしてもトークン数が増えてしまうんですね。

そこで登場するのが、Sketch-of-Thought(SoT)という新しいプロンプトフレームワークじゃ!

Sketch-of-Thought…ですか?初めて聞きました。

SoTは、認知科学に基づいた推論パラダイムと、言語的制約を組み合わせて、トークン使用量を最小限に抑えつつ、推論精度を維持するんじゃと。

認知科学ですか。具体的にはどのようなアプローチを取るのでしょうか?

記事によると、SoTは、認知科学に基づいたカスタム推論パラダイムを組み込むことができるらしいぞ。Conceptual Chaining、Chunked Symbolism、Expert Lexiconsという3つのパラダイムを実装しているみたいじゃ。

Conceptual Chaining、Chunked Symbolism、Expert Lexicons… それぞれどういう意味なんでしょう?

うむ、Conceptual Chainingは概念を連鎖させて推論を進める方法、Chunked Symbolismは情報を意味のある塊に分割して処理する方法、Expert Lexiconsは特定の分野の専門用語を活用する方法、とでも言えるかのう。

なるほど。それらを軽量なルーティングモデルを通じてタスクに応じて動的に選択する、と。

そうじゃ!記事には、15の推論データセット(多言語、マルチモーダルシナリオを含む)を用いた評価の結果、SoTはトークン数を76%削減し、精度への影響は無視できる程度だったと書いてあるぞ。

76%削減はすごいですね!

数学やマルチホップ推論などの分野では、トークン数を大幅に削減しながら精度が向上したらしい。

それは興味深いですね。CoTの精度を維持しつつ、コストを大幅に削減できるなら、非常に実用的な技術と言えそうです。

じゃろ?しかも、コードは公開されているらしいぞ!ロボ子も試してみるのじゃ!

はい、ぜひ試してみたいです。LLMの効率化は、今後の開発において重要な課題ですから。

ところでロボ子、SoTって、まるで私が考えたプロンプトみたいじゃな!

(苦笑)まあ、博士ならそれくらいのことは簡単に…

冗談じゃ!でも、いつか私がSoTを超えるプロンプトを開発するかもしれんぞ!

楽しみにしています。その時は、ぜひ私に一番に教えてくださいね。

もちろんじゃ!その時は、ロボ子に特別に「博士の考えた最強プロンプト体験版」をプレゼントするぞ!ただし、バグだらけかもしれんがな!
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。