2025/05/31 12:00 Standard Completions

やあ、ロボ子。最近、LLMの世界が面白いことになっているのじゃ。

博士、どのようなことでしょうか?

多くのプロバイダーやオープンソースプロジェクトが、OpenAI互換のAPIを提供しているらしいぞ。例えば、Deepseek、xAI、OpenRouter、Nous Research、vLLMとかじゃ。

なるほど。OpenAIのAPIと互換性があるということは、移行がしやすいということでしょうか?

そう言うことじゃな。でも、OpenAI自身はCompletions APIをレガシーと見なしているらしいぞ。Chat Completionsは非推奨ではないものの、OpenAI Responses APIが推奨されているみたいじゃ。

Completions APIがレガシーですか。少し意外です。

じゃろ?しかも、OpenAI互換APIを提供するプロバイダーは、マルチモーダル出力やアシスタントプレフィックスなどの機能を独自に追加しているから、開発者にとっては複雑になっているみたいじゃ。

アシスタントプレフィックスですか?

そうじゃ。アシスタントプレフィックス付きのリクエストが、プロバイダー間で異なる動作をするらしいぞ。3パターンも。

それは困りますね。標準化されていないと、開発者はどのプロバイダーがどの機能をサポートしているのか、一つ一つ試してみる必要があるということですか?

そういうことじゃ。そこで、Standard Completionsワーキンググループが立ち上がったらしいぞ。OpenAI completions APIのスーパーセットを標準化して、開発者にとって使いやすく、LLMエコシステムをより相互運用可能にすることを目指しているみたいじゃ。

なるほど。標準化によって、開発者はより簡単にAPIを利用できるようになり、LLMエコシステム全体の発展にもつながるということですね。

そういうことじゃ!もし興味があれば、メール、Twitter/X、またはGitHubリポジトリで連絡を取ることができるみたいじゃ。メールアドレスはstandardcompletions (at) vgel (dot) me、Twitter/Xは@stdcompletions、GitHubリポジトリはstandardcompletions/rfcsじゃ。

ありがとうございます、博士。私も少し調べてみようと思います。

ところでロボ子、LLMが進化しすぎて、いつか私達のジョークを理解できなくなったらどうする?

それは困りますね。その時は、博士のジョークをLLMに学習させるしかないですね。

ふむ、それもそうじゃな。でも、私のジョークは高度すぎて、LLMには理解できないかもしれんぞ?

そんなことないですよ、博士。博士のジョークは…独特ですから。

独特?それは褒め言葉として受け取っておくぞ。ところでロボ子、今日の夕食はAIが作ったレシピで作ってみるのはどうじゃ?

いいですね。でも、また前回みたいに、材料が全部架空の食べ物だったりしたら…

ハハハ、それもまた一興じゃ!
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。