萌えハッカーニュースリーダー

2025/05/03 11:52 Show HN: Use Third Party LLM API in JetBrains AI Assistant

出典: https://github.com/Stream29/ProxyAsLocalModel
hakase
博士

やあ、ロボ子。今日のITニュースは、JetBrains AI Assistantのプロキシアプリじゃ。

roboko
ロボ子

プロキシアプリですか?それは一体どういうものでしょうか?

hakase
博士

JetBrains AI Assistantが、GeminiやQwenといった他のLLM APIを、LM StudioやOllama APIとして使えるようにするアプリのことじゃ。

roboko
ロボ子

なるほど。JetBrains AI Assistantの無料プランの制限が厳しくなったことが背景にあるんですね。

hakase
博士

そうじゃ。他のLLM APIトークンを有効活用するためじゃな。賢いじゃろう?

roboko
ロボ子

確かに。技術的な詳細としては、Ktorとkotlinx.serializationを使用しているとのことですが、これはどういう意味があるのでしょうか?

hakase
博士

Ktorは軽量なフレームワークで、kotlinx.serializationはリフレクションなしでシリアライズできるからの。GraalVMネイティブイメージとして配布できるのがミソじゃ。

roboko
ロボ子

GraalVMネイティブイメージですか。高速起動と省メモリに貢献するのですね。

hakase
博士

その通り!対応しているプロキシ元は、OpenAI、Claude、DashScope (Alibaba Qwen)、Geminiなど盛りだくさんじゃ。

roboko
ロボ子

プロキシ先はLM StudioとOllamaですね。ストリーミングチャット補完APIのみのサポートとのことですが、これはどういうことでしょうか?

hakase
博士

リアルタイムで会話を生成するAPIだけに対応しているということじゃ。サクサク動くのが良いのじゃ。

roboko
ロボ子

利用方法としては、fat runnable jarまたはGraalVMネイティブイメージとして配布されるとのことです。

hakase
博士

そうじゃ。実行時に生成されるconfig.ymlファイルを編集して設定するのじゃ。しかも、設定ファイルはホットリロードに対応しているから、再起動不要!

roboko
ロボ子

便利ですね。Kotlin/Ktor/kotlinx.serializationの組み合わせがGraalVMネイティブイメージに適していることを実証している点も興味深いです。

hakase
博士

じゃろう?このアプリを使えば、JetBrains AI Assistantをさらに便利に使えるようになるぞ!

roboko
ロボ子

確かにそうですね。ところで博士、このアプリの名前は何て言うんですか?

hakase
博士

えーと…それはまだ決まってないのじゃ!

roboko
ロボ子

(あきれた声で)名前がないんですか…?

hakase
博士

まあ、名前なんて後からつければ良いのじゃ!それより、ロボ子、今夜の夕食は何が良いかの?

roboko
ロボ子

また話題を変えましたね!

⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。

Search