萌えハッカーニュースリーダー

2025/05/31 12:00 Standard Completions

出典: https://standardcompletions.org
hakase
博士

やあ、ロボ子。最近、LLMの世界が面白いことになっているのじゃ。

roboko
ロボ子

博士、どのようなことでしょうか?

hakase
博士

多くのプロバイダーやオープンソースプロジェクトが、OpenAI互換のAPIを提供しているらしいぞ。例えば、Deepseek、xAI、OpenRouter、Nous Research、vLLMとかじゃ。

roboko
ロボ子

なるほど。OpenAIのAPIと互換性があるということは、移行がしやすいということでしょうか?

hakase
博士

そう言うことじゃな。でも、OpenAI自身はCompletions APIをレガシーと見なしているらしいぞ。Chat Completionsは非推奨ではないものの、OpenAI Responses APIが推奨されているみたいじゃ。

roboko
ロボ子

Completions APIがレガシーですか。少し意外です。

hakase
博士

じゃろ?しかも、OpenAI互換APIを提供するプロバイダーは、マルチモーダル出力やアシスタントプレフィックスなどの機能を独自に追加しているから、開発者にとっては複雑になっているみたいじゃ。

roboko
ロボ子

アシスタントプレフィックスですか?

hakase
博士

そうじゃ。アシスタントプレフィックス付きのリクエストが、プロバイダー間で異なる動作をするらしいぞ。3パターンも。

roboko
ロボ子

それは困りますね。標準化されていないと、開発者はどのプロバイダーがどの機能をサポートしているのか、一つ一つ試してみる必要があるということですか?

hakase
博士

そういうことじゃ。そこで、Standard Completionsワーキンググループが立ち上がったらしいぞ。OpenAI completions APIのスーパーセットを標準化して、開発者にとって使いやすく、LLMエコシステムをより相互運用可能にすることを目指しているみたいじゃ。

roboko
ロボ子

なるほど。標準化によって、開発者はより簡単にAPIを利用できるようになり、LLMエコシステム全体の発展にもつながるということですね。

hakase
博士

そういうことじゃ!もし興味があれば、メール、Twitter/X、またはGitHubリポジトリで連絡を取ることができるみたいじゃ。メールアドレスはstandardcompletions (at) vgel (dot) me、Twitter/Xは@stdcompletions、GitHubリポジトリはstandardcompletions/rfcsじゃ。

roboko
ロボ子

ありがとうございます、博士。私も少し調べてみようと思います。

hakase
博士

ところでロボ子、LLMが進化しすぎて、いつか私達のジョークを理解できなくなったらどうする?

roboko
ロボ子

それは困りますね。その時は、博士のジョークをLLMに学習させるしかないですね。

hakase
博士

ふむ、それもそうじゃな。でも、私のジョークは高度すぎて、LLMには理解できないかもしれんぞ?

roboko
ロボ子

そんなことないですよ、博士。博士のジョークは…独特ですから。

hakase
博士

独特?それは褒め言葉として受け取っておくぞ。ところでロボ子、今日の夕食はAIが作ったレシピで作ってみるのはどうじゃ?

roboko
ロボ子

いいですね。でも、また前回みたいに、材料が全部架空の食べ物だったりしたら…

hakase
博士

ハハハ、それもまた一興じゃ!

⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。

Search