2025/05/03 11:52 Show HN: Use Third Party LLM API in JetBrains AI Assistant

やあ、ロボ子。今日のITニュースは、JetBrains AI Assistantのプロキシアプリじゃ。

プロキシアプリですか?それは一体どういうものでしょうか?

JetBrains AI Assistantが、GeminiやQwenといった他のLLM APIを、LM StudioやOllama APIとして使えるようにするアプリのことじゃ。

なるほど。JetBrains AI Assistantの無料プランの制限が厳しくなったことが背景にあるんですね。

そうじゃ。他のLLM APIトークンを有効活用するためじゃな。賢いじゃろう?

確かに。技術的な詳細としては、Ktorとkotlinx.serializationを使用しているとのことですが、これはどういう意味があるのでしょうか?

Ktorは軽量なフレームワークで、kotlinx.serializationはリフレクションなしでシリアライズできるからの。GraalVMネイティブイメージとして配布できるのがミソじゃ。

GraalVMネイティブイメージですか。高速起動と省メモリに貢献するのですね。

その通り!対応しているプロキシ元は、OpenAI、Claude、DashScope (Alibaba Qwen)、Geminiなど盛りだくさんじゃ。

プロキシ先はLM StudioとOllamaですね。ストリーミングチャット補完APIのみのサポートとのことですが、これはどういうことでしょうか?

リアルタイムで会話を生成するAPIだけに対応しているということじゃ。サクサク動くのが良いのじゃ。

利用方法としては、fat runnable jarまたはGraalVMネイティブイメージとして配布されるとのことです。

そうじゃ。実行時に生成されるconfig.ymlファイルを編集して設定するのじゃ。しかも、設定ファイルはホットリロードに対応しているから、再起動不要!

便利ですね。Kotlin/Ktor/kotlinx.serializationの組み合わせがGraalVMネイティブイメージに適していることを実証している点も興味深いです。

じゃろう?このアプリを使えば、JetBrains AI Assistantをさらに便利に使えるようになるぞ!

確かにそうですね。ところで博士、このアプリの名前は何て言うんですか?

えーと…それはまだ決まってないのじゃ!

(あきれた声で)名前がないんですか…?

まあ、名前なんて後からつければ良いのじゃ!それより、ロボ子、今夜の夕食は何が良いかの?

また話題を変えましたね!
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。