複数のAI対話と思考の断片を結びつけ、あなただけの「外部記憶」を構築するAIナレッジハブ。思考プロセスを可視化し、新たな洞察を促します。
概要
YuiHub は、開発者の思考プロセスや意思決定をローカル環境に永続化する、自律エージェント専用の Semantic Memory Layer です。
従来の「メモアプリ連携」とは異なり、単なるテキストの保管庫ではありません。
YuiHub はエージェントの「脳外ワーキングメモリ」として機能し、内蔵された LanceDB とローカル埋め込みモデルを用いて、完全なプライバシーを保ったまま「意図の文脈」を管理します。
Why YuiHub? (従来のRAGとの違い)
| 特徴 | 従来のドキュメントRAG | YuiHub (Semantic Memory) |
|---|---|---|
| 対象データ | 完成したドキュメント、仕様書 | 流動的な思考、未精査のログ、決定の瞬間 |
| 目的 | 「知識」の検索 | 「文脈 (Context)」の復元と注入 |
| データ構造 | 非構造化テキスト (Markdown/PDF) | 構造化された Context Packet (Intent + State) |
| プライバシー | クラウド依存 (API送信必須) | 完全ローカル (Private Mode / Raw Thoughts) |
コア・コンセプト
Decision Anchor (意思決定の固定)
LLMが一度に扱える情報量(コンテキスト)は拡大しつつありますが、文脈が複雑になるにつれて「何が重要か」の判断が曖昧になり、意図を取りこぼすリスクが高まります。
YuiHubは、こうした流動的な対話や思考の過程が揮発してしまう「Context Hollow(文脈の空洞化)」を防ぐため、議論の結論を Checkpoint として明示的に構造化保存します。
これにより、エージェントは単なるキーワード検索ではなく、「なぜその実装になったか」という意図の源泉(Decision Anchor)へ、ノイズを排除して遡行可能になります。
Context Packet Generation
過去のメモ(Entry)やチェックポイントを統合し、LLM に注入するための最適化された Context Packet を自動生成します。
人間用のテキストをそのまま渡すのではなく、エージェントが解釈可能な構造(JSON/YAML)へ「翻訳」することで、コンテキストウィンドウを浪費することなく、必要な「意図の筋(Session)」だけを共有できます。
アーキテクチャ (Local RAG)
Local-First & Cognitive Safety
すべてのデータはローカルディスク(~/.yuihub/data)に保存されます。
未精査の思考プロセス(Raw Thoughts)を外部サーバーに送信することなく、心理的安全性を確保した状態で思考を外部化できます。これは「外部評価を気にせず、思考を自由に出力・整理するための保護領域」として機能します。
また必要に応じて、設定したプライベートリポジトリに同期することができます。
Protocol-Agnostic Interface
Model Context Protocol (MCP) に準拠しており、Visual Studio Code、Antigravity、Claude Desktop、Cursor といった MCP 対応クライアントから、ローカルの知識ベースを「Tool」や「Resource」として透過的に利用可能です。
技術スタック
Core Components
- Vector Store: LanceDB (In-process vector database / Serverless)
- Embedding:
all-MiniLM-L6-v2/bge-m3(Local Model via ONNX) - Runtime: Node.js (Local Server)
- Protocol: Model Context Protocol (MCP)
Engineering
- Semantic Chunking: Tree-sitter を用いた、言語構造(クラス・関数・メソッド)に基づく意味的な分割。
- Offline Context: 外部API依存ゼロで動作する自律型設計。