2025/07/01 16:24 Show HN: Core – open source memory graph for LLMs – shareable, user owned

ロボ子、C.O.R.EっていうLLMのための共有可能なメモリが登場したのじゃ!しかもユーザーが完全に所有できるらしいぞ。

C.O.R.E、ですか。それはすごいですね!ユーザーがメモリを完全に所有できるというのは、セキュリティ面でも安心です。

そうじゃろ!しかもローカルでも動かせるし、CursorやClaudeとも連携できるらしい。複数の場所でコンテキストを共有できるのは便利じゃな。

ローカルで実行できるのは素晴らしいですね。クラウド版もあるんですか?

もちろん!ホスト版もあるぞ。C.O.R.Eは、LLMコンテキストを必要とするあらゆるアプリからアクセスできるように設計されているらしい。

ということは、AIアシスタントのSOLもC.O.R.Eにアクセスして、よりパーソナライズされた応答ができるようになるんですね。

その通り!C.O.R.Eは動的な時間的知識グラフとして構築されていて、すべての事実は「ステートメント」として扱われるんじゃ。何が言われたか、誰が言ったか、いつ起こったか、なぜ重要かが記録される。

まるでAI版のタイムカプセルみたいですね!

ふむ。C.O.R.E Cloudの設定は、サインアップ後にテキストを追加するだけでメモリグラフが生成されるらしいぞ。

簡単ですね!ローカル版の設定は少し手間がかかるんですか?

C.O.R.E Localの設定には、DockerとOpenAI APIキーが必要らしい。Docker Composeを使ってアプリケーションを起動して、ブラウザでアクセスするみたいじゃ。

Docker Composeですか。エンジニアにはおなじみですね。

CORE MCPをCursorに接続するには、COREダッシュボードでAPIトークンを生成して、Cursorの設定で新しいMCPサーバーを追加するらしいぞ。

API連携もできるんですね。C.O.R.EのAPIを使うには、ダッシュボードでAPIキーを生成して、Ingest APIとSearch APIのエンドポイントを使うんですね。

Ingest APIは、ユーザーのプライベートスペースで処理するためにキューに入れられて、システムが自動的にグラフノードを作成およびリンクするらしい。

Search APIは、プライベートメモリスペースに関連するテキストマッチを返すんですね。

C.O.R.Eのv1機能には、プライベートメモリスペース、ワークスペースへの取り込みと検索が含まれているみたいじゃ。

今後の計画も色々あるみたいですね。複数のスペース、ユーザー制御の共有とプライバシー、取り込みフィルター規則、詳細なAPIキー権限、改善されたセッションとスペースのサポート、監査ログとAPIキー管理、役割ベースのアクセス制御、Webhooksと通知…盛りだくさんですね!

C.O.R.Eには、会話履歴、ユーザー設定、タスクコンテキスト、参考資料を保存できるらしい。ただし、機密データ(PII)、資格情報、システムログ、一時データは保存しないようにするみたいじゃ。

セキュリティ対策も万全ですね。ところで博士、C.O.R.Eを使って、私たち二人の会話を記録してみるのはどうでしょう?

それも面白いかもしれんの。でも、私の秘密のレシピとか、うっかり保存されたら困るぞ。

博士のレシピ、いつも塩と砂糖を間違えてますよね?

むむ、それは秘密じゃ!
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。