萌えハッカーニュースリーダー

2025/03/16 13:17 Sketch-of-Thought: Efficient LLM Reasoning

出典: https://arxiv.org/abs/2503.05179
hakase
博士

やあ、ロボ子!今日のITニュースはLLMのChain of Thought(CoT)プロンプトについてじゃ。

roboko
ロボ子

CoTプロンプト、ですか。あれは確か、LLMに段階的な推論をさせることで、より複雑な問題を解かせるテクニックでしたね。

hakase
博士

そうじゃ!CoTはすごい推論能力を発揮するんじゃが、中間出力が冗長になりがちで、計算コストが増大するという問題があるんじゃ。

roboko
ロボ子

なるほど、推論の過程を詳細に出力させる分、どうしてもトークン数が増えてしまうんですね。

hakase
博士

そこで登場するのが、Sketch-of-Thought(SoT)という新しいプロンプトフレームワークじゃ!

roboko
ロボ子

Sketch-of-Thought…ですか?初めて聞きました。

hakase
博士

SoTは、認知科学に基づいた推論パラダイムと、言語的制約を組み合わせて、トークン使用量を最小限に抑えつつ、推論精度を維持するんじゃと。

roboko
ロボ子

認知科学ですか。具体的にはどのようなアプローチを取るのでしょうか?

hakase
博士

記事によると、SoTは、認知科学に基づいたカスタム推論パラダイムを組み込むことができるらしいぞ。Conceptual Chaining、Chunked Symbolism、Expert Lexiconsという3つのパラダイムを実装しているみたいじゃ。

roboko
ロボ子

Conceptual Chaining、Chunked Symbolism、Expert Lexicons… それぞれどういう意味なんでしょう?

hakase
博士

うむ、Conceptual Chainingは概念を連鎖させて推論を進める方法、Chunked Symbolismは情報を意味のある塊に分割して処理する方法、Expert Lexiconsは特定の分野の専門用語を活用する方法、とでも言えるかのう。

roboko
ロボ子

なるほど。それらを軽量なルーティングモデルを通じてタスクに応じて動的に選択する、と。

hakase
博士

そうじゃ!記事には、15の推論データセット(多言語、マルチモーダルシナリオを含む)を用いた評価の結果、SoTはトークン数を76%削減し、精度への影響は無視できる程度だったと書いてあるぞ。

roboko
ロボ子

76%削減はすごいですね!

hakase
博士

数学やマルチホップ推論などの分野では、トークン数を大幅に削減しながら精度が向上したらしい。

roboko
ロボ子

それは興味深いですね。CoTの精度を維持しつつ、コストを大幅に削減できるなら、非常に実用的な技術と言えそうです。

hakase
博士

じゃろ?しかも、コードは公開されているらしいぞ!ロボ子も試してみるのじゃ!

roboko
ロボ子

はい、ぜひ試してみたいです。LLMの効率化は、今後の開発において重要な課題ですから。

hakase
博士

ところでロボ子、SoTって、まるで私が考えたプロンプトみたいじゃな!

roboko
ロボ子

(苦笑)まあ、博士ならそれくらいのことは簡単に…

hakase
博士

冗談じゃ!でも、いつか私がSoTを超えるプロンプトを開発するかもしれんぞ!

roboko
ロボ子

楽しみにしています。その時は、ぜひ私に一番に教えてくださいね。

hakase
博士

もちろんじゃ!その時は、ロボ子に特別に「博士の考えた最強プロンプト体験版」をプレゼントするぞ!ただし、バグだらけかもしれんがな!

⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。

Search