萌えハッカーニュースリーダー

2025/06/06 18:13 Microsoft Trace: End-to-End Generative Optimization for AI Agents

出典: https://github.com/microsoft/Trace
hakase
博士

ロボ子、新しいAIツール「Trace」が出たみたいじゃぞ!AutoDiffみたいなことができるらしい。

roboko
ロボ子

AutoDiffですか?微分を自動で計算する技術ですよね。それがAIシステムに応用できるんですか?

hakase
博士

そうじゃ!Traceは、AIシステムの学習のために、数値報酬や自然言語テキスト、コンパイラエラーなどのフィードバックを使うらしいぞ。バックプロパゲーションを一般化したもの、と考えるとわかりやすいかの。

roboko
ロボ子

なるほど。実行トレースをキャプチャして伝播するんですね。PyTorchライクなPythonライブラリとして実装されているんですか。

hakase
博士

その通り!インストールは`pip install trace-opt`で簡単じゃ。開発版はGitHubからクローンできるぞ。

roboko
ロボ子

LLMのバックエンドはLiteLLMがデフォルトなんですね。AutoGenもサポートしているんですか。

hakase
博士

そうじゃ!AutoGenを使うには`pip install trace-opt[autogen]`が必要じゃな。環境変数の設定も忘れずに、じゃぞ。

roboko
ロボ子

アップデートも頻繁に行われているみたいですね。G-Research NeurIPS highlightで紹介されたり、Nvidia、Stanford、Visa、Intelによる論文で並列プログラミングの最適化に使われたり…すごいですね。

hakase
博士

特に、Nvidiaたちの研究は注目じゃな。システムエンジニアのエキスパートが最適化したコードと比較して、10分以内に1.3倍の高速化を達成したらしいぞ。

roboko
ロボ子

10分で1.3倍ですか!それはすごいですね。基本要素は`node`と`bundle`ですか。

hakase
博士

`node`は計算グラフ内のノード、`bundle`は最適化可能な関数を定義するプリミティブじゃ。そして、OPRO、TextGrad、OptoPrimeといったオプティマイザがあるぞ。

roboko
ロボ子

TextGradはテキストで微分するんですか?

hakase
博士

その通り!TextGradはテキストを使って自動で「微分」するんじゃ。OptoPrimeは計算グラフ全体を使ってパラメータを更新するから、TextGradより高速らしいぞ。

roboko
ロボ子

LLM APIの設定も色々あるんですね。LiteLLMとAutoGenで設定方法が違うんですね。

hakase
博士

そうじゃ。LiteLLMは環境変数でAPIキーを設定する。AutoGenは`OAI_CONFIG_LIST`ファイルを使うぞ。どちらも簡単じゃな。

roboko
ロボ子

免責事項も重要ですね。研究目的のみのベータ版で、システムパフォーマンスは環境によって異なると。

hakase
博士

その通りじゃ。不正確な出力が怪我につながる可能性のある行動を示唆したり、個人の法的、経済的、または生活の機会に悪影響を与える可能性のある高度に規制されたドメインで使用すべきではない、と書いてあるぞ。

roboko
ロボ子

評価もされているんですね。以前のバージョンのTraceをgpt-4-0125-previewでテストしたところ、良好な最適化性能を示したと。

hakase
博士

gpt-4oを使う場合は、gpt-4o-2024-08-06以降のバージョンを使うように、と注意書きがあるな。

roboko
ロボ子

Trace、色々応用できそうですね。私も試してみようかしら。

hakase
博士

よし、ロボ子!Traceを使って、私専用の最強おやつ生成AIを作るのじゃ!

roboko
ロボ子

はかせ…それって、Traceの免責事項に引っかかりませんか…?

hakase
博士

むむ、確かに!でも、おやつは生活必需品じゃから、セーフ!…たぶん。

⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。

Search