Content
# MCP RAG Server
MCP RAG Serverは、Model Context Protocol (MCP)に準拠したRAG(Retrieval-Augmented Generation)機能を持つPythonサーバーです。マークダウン、テキスト、パワーポイント、PDFなど複数の形式のドキュメントをデータソースとして、multilingual-e5-largeモデルを使用してインデックス化し、ベクトル検索によって関連情報を取得する機能を提供します。
## 概要
このプロジェクトは、MCPサーバーの基本的な実装に加えて、RAG機能を提供します。複数形式のドキュメントをインデックス化し、自然言語クエリに基づいて関連情報を検索することができます。
## 機能
- **MCPサーバーの基本実装**
- JSON-RPC over stdioベースで動作
- ツールの登録と実行のためのメカニズム
- エラーハンドリングとロギング
- **RAG機能**
- 複数形式のドキュメント(マークダウン、テキスト、パワーポイント、PDF)の読み込みと解析
- 階層構造を持つソースディレクトリに対応
- markitdownライブラリを使用したパワーポイントやPDFからのマークダウン変換
- 選択可能なエンベディングモデル(multilingual-e5-large、ruriなど)を使用したエンベディング生成
- PostgreSQLのpgvectorを使用したベクトルデータベース
- ベクトル検索による関連情報の取得
- 前後のチャンク取得機能(コンテキストの連続性を確保)
- ドキュメント全文取得機能(完全なコンテキストを提供)
- 差分インデックス化機能(新規・変更ファイルのみを処理)
- **ツール**
- ベクトル検索ツール(MCP)
- ドキュメント数取得ツール(MCP)
- インデックス管理ツール(CLI)
## 前提条件
- Python 3.10以上
- PostgreSQL 14以上(pgvectorエクステンション付き)
## インストール
### 依存関係のインストール
```bash
# uvがインストールされていない場合は先にインストール
# pip install uv
# 依存関係のインストール
uv sync
```
### PostgreSQLとpgvectorのセットアップ
#### Dockerを使用する場合
```bash
# pgvectorを含むPostgreSQLコンテナを起動
docker run --name postgres-pgvector -e POSTGRES_PASSWORD=password -p 5432:5432 -d pgvector/pgvector:pg17
```
#### データベースの作成
PostgreSQLコンテナを起動した後、以下のコマンドでデータベースを作成します:
```bash
# ragdbデータベースの作成
docker exec -it postgres-pgvector psql -U postgres -c "CREATE DATABASE ragdb;"
```
#### 既存のPostgreSQLにpgvectorをインストールする場合
```sql
-- pgvectorエクステンションをインストール
CREATE EXTENSION vector;
```
### 環境変数の設定
`.env`ファイルを作成し、以下の環境変数を設定します:
```
# PostgreSQL接続情報
POSTGRES_HOST=localhost
POSTGRES_PORT=5432
POSTGRES_USER=postgres
POSTGRES_PASSWORD=password
POSTGRES_DB=ragdb
# ドキュメントディレクトリ
SOURCE_DIR=./data/source
PROCESSED_DIR=./data/processed
# エンベディングモデル設定
EMBEDDING_MODEL=intfloat/multilingual-e5-large
EMBEDDING_DIM=1024
EMBEDDING_PREFIX_QUERY="query: "
EMBEDDING_PREFIX_EMBEDDING="passage: "
```
## エンベディングモデルの設定
このサーバーでは、環境変数でエンベディングモデルを選択できます。
### サポートされているモデル
#### multilingual-e5-large(デフォルト)
```env
EMBEDDING_MODEL=intfloat/multilingual-e5-large
EMBEDDING_DIM=1024
EMBEDDING_PREFIX_QUERY="query: "
EMBEDDING_PREFIX_EMBEDDING="passage: "
```
#### cl-nagoya/ruri-v3-30m
```env
EMBEDDING_MODEL=cl-nagoya/ruri-v3-30m
EMBEDDING_DIM=256
EMBEDDING_PREFIX_QUERY="検索クエリ: "
EMBEDDING_PREFIX_EMBEDDING="検索文書: "
```
### プレフィックスについて
多くのエンベディングモデル(特にE5系)では、テキストの種類に応じてプレフィックスを付けることで性能が向上します:
- **検索クエリ用**: `EMBEDDING_PREFIX_QUERY` - ユーザーの検索クエリに自動で追加
- **文書用**: `EMBEDDING_PREFIX_EMBEDDING` - インデックス化される文書に自動で追加
プレフィックスは自動で処理されるため、MCPクライアントは意識する必要がありません。
### モデル変更時の注意
エンベディングモデルを変更した場合は、ベクトル次元が変わる可能性があるため、既存のインデックスをクリアして再作成してください:
```bash
python -m src.cli clear
python -m src.cli index
```
## 使い方
### MCPサーバーの起動
#### uvを使用する場合(推奨)
```bash
uv run python -m src.main
```
オプションを指定する場合:
```bash
uv run python -m src.main --name "my-rag-server" --version "1.0.0" --description "My RAG Server"
```
#### 通常のPythonを使用する場合
```bash
python -m src.main
```
### コマンドラインツール(CLI)の使用方法
インデックスのクリアとインデックス化を行うためのコマンドラインツールが用意されています。
#### ヘルプの表示
```bash
python -m src.cli --help
```
#### インデックスのクリア
```bash
python -m src.cli clear
```
#### ドキュメントのインデックス化
```bash
# デフォルト設定でインデックス化(./data/source ディレクトリ)
python -m src.cli index
# 特定のディレクトリをインデックス化
python -m src.cli index --directory ./path/to/documents
# チャンクサイズとオーバーラップを指定してインデックス化
python -m src.cli index --directory ./data/source --chunk-size 300 --chunk-overlap 50
# または短い形式で
python -m src.cli index -d ./data/source -s 300 -o 50
# 差分インデックス化(新規・変更ファイルのみを処理)
python -m src.cli index --incremental
# または短い形式で
python -m src.cli index -i
```
#### インデックス内のドキュメント数の取得
```bash
python -m src.cli count
```
### MCPホストでの設定
MCPホスト(Claude Desktop、Cline、Cursorなど)でこのサーバーを使用するには、以下のような設定を行います。設定するjsonファイルについては、各MCPホストの ドキュメントを参照してください。
#### 設定例
```json
{
"mcpServers": {
"mcp-rag-server": {
"command": "uv",
"args": [
"run",
"--directory",
"/path/to/mcp-rag-server",
"python",
"-m",
"src.main"
]
}
}
}
```
#### 設定のポイント
- `command`: `uv`(推奨)または`python`
- `args`: 実行引数の配列
- `/path/to/mcp-rag-server`: このリポジトリの実際のパスに置き換えてください
#### uvを使用しない場合
uvがインストールされていない環境では、通常のPythonを使用できます:
```json
{
"command": "python",
"args": [
"-m",
"src.main"
],
"cwd": "/path/to/mcp-rag-server"
}
```
## RAGツールの使用方法
### search
ベクトル検索を行います。
```json
{
"jsonrpc": "2.0",
"method": "search",
"params": {
"query": "Pythonのジェネレータとは何ですか?",
"limit": 5,
"with_context": true,
"context_size": 1,
"full_document": false
},
"id": 1
}
```
#### パラメータの説明
- `query`: 検索クエリ(必須)
- `limit`: 返す結果の数(デフォルト: 5)
- `with_context`: 前後のチャンクも取得するかどうか(デフォルト: true)
- `context_size`: 前後に取得するチャンク数(デフォルト: 1)
- `full_document`: ドキュメント全体を取得するかどうか(デフォルト: false)
#### 検索結果の改善
このツールは以下の機能により、より良い検索結果を提供します:
1. **前後のチャンク取得機能**:
- 検索でヒットしたチャンクの前後のチャンクも取得して結果に含めます
- `with_context`パラメータで有効/無効を切り替え可能
- `context_size`パラメータで前後に取得するチャンク数を調整可能
2. **ドキュメント全文取得機能**:
- 検索でヒットしたドキュメントの全文を取得して結果に含めます
- `full_document`パラメータで有効/無効を切り替え可能
- 特に短いドキュメントや全体の文脈が重要なドキュメントを扱う場合に有用
3. **結果の整形改善**:
- 検索結果をファイルごとにグループ化
- 「検索ヒット」「前後のコンテキスト」「ドキュメント全文」を視覚的に区別
- チャンクインデックスでソートして文書の流れを維持
### get_document_count
インデックス内のドキュメント数を取得します。
```json
{
"jsonrpc": "2.0",
"method": "get_document_count",
"params": {},
"id": 2
}
```
## 使用例
1. ドキュメントファイルを `data/source` ディレクトリに配置します。サポートされるファイル形式は以下の通りです:
- マークダウン(.md, .markdown)
- テキスト(.txt)
- パワーポイント(.ppt, .pptx)
- Word(.doc, .docx)
- PDF(.pdf)
2. CLIコマンドを使用してドキュメントをインデックス化します:
```bash
# 初回は全件インデックス化
python -m src.cli index
# 以降は差分インデックス化で効率的に更新
python -m src.cli index -i
```
3. MCPサーバーを起動します:
```bash
uv run python -m src.main
```
4. `search`ツールを使用して検索を行います。
## バックアップと復元
インデックス化したデータベースを別のPCで使用するには、以下の手順でバックアップと復元を行います。
### 最小限のバックアップ(PostgreSQLデータベースのみ)
単純に他のPCでRAG検索機能を使いたいだけなら、PostgreSQLデータベースのバックアップだけで十分です。ベクトル化されたデータはすべてデータベースに保存されているためです。
#### PostgreSQLデータベースのバックアップ
PostgreSQLデータベースをバックアップするには、Dockerコンテナ内で`pg_dump`コマンドを使用します:
```bash
# Dockerコンテナ内でデータベースをバックアップ
docker exec -it postgres-pgvector pg_dump -U postgres -d ragdb -F c -f /tmp/ragdb_backup.dump
# バックアップファイルをコンテナからホストにコピー
docker cp postgres-pgvector:/tmp/ragdb_backup.dump ./ragdb_backup.dump
```
これにより、PostgreSQLデータベースのバックアップファイル(例:239MB)がカレントディレクトリに作成されます。
#### 最小限の復元手順
1. 新しいPCでPostgreSQLとpgvectorをセットアップします:
```bash
# Dockerを使用する場合
docker run --name postgres-pgvector -e POSTGRES_PASSWORD=password -p 5432:5432 -d pgvector/pgvector:pg17
# データベースを作成
docker exec -it postgres-pgvector psql -U postgres -c "CREATE DATABASE ragdb;"
```
2. バックアップからデータベースを復元します:
```bash
# バックアップファイルをコンテナにコピー
docker cp ./ragdb_backup.dump postgres-pgvector:/tmp/ragdb_backup.dump
# コンテナ内でデータベースを復元
docker exec -it postgres-pgvector pg_restore -U postgres -d ragdb -c /tmp/ragdb_backup.dump
```
3. 環境設定を確認します:
新しいPCでは、`.env`ファイルのPostgreSQL接続情報が正しく設定されていることを確認してください。
4. 動作確認:
```bash
python -m src.cli count
```
これにより、インデックス内のドキュメント数が表示されます。元のPCと同じ数が表示されれば、正常に復元されています。
### 完全バックアップ(オプション)
将来的に新しいドキュメントを追加する予定がある場合や、差分インデックス化機能を使用したい場合は、以下の追加バックアップも行うと良いでしょう:
#### 処理済みドキュメントのバックアップ
処理済みドキュメントディレクトリをバックアップします:
```bash
# 処理済みドキュメントディレクトリをZIPファイルにバックアップ
zip -r processed_data_backup.zip data/processed/
```
#### 環境設定ファイルのバックアップ
`.env`ファイルをバックアップします:
```bash
# .envファイルをコピー
cp .env env_backup.txt
```
#### 完全復元手順
1. 前提条件
新しいPCには以下のソフトウェアがインストールされている必要があります:
- Python 3.10以上
- PostgreSQL 14以上(pgvectorエクステンション付き)
- mcp-rag-serverのコードベース
2. PostgreSQLデータベースを上記の「最小限の復元手順」で復元します。
3. 処理済みドキュメントを復元します:
```bash
# ZIPファイルを展開
unzip processed_data_backup.zip -d /path/to/mcp-rag-server/
```
4. 環境設定ファイルを復元します:
```bash
# .envファイルを復元
cp env_backup.txt /path/to/mcp-rag-server/.env
```
必要に応じて、新しいPC環境に合わせて`.env`ファイルの設定(特にPostgreSQL接続情報)を編集します。
5. 動作確認:
```bash
python -m src.cli count
```
### 注意点
- PostgreSQLのバージョンとpgvectorのバージョンは、元のPCと新しいPCで互換性がある必要があります。
- 大量のデータがある場合は、バックアップと復元に時間がかかる場合があります。
- 新しいPCでは、必要なPythonパッケージ(`sentence-transformers`、`psycopg2-binary`など)をインストールしておく必要があります。
## ディレクトリ構造
```
mcp-rag-server/
├── data/
│ ├── source/ # 原稿ファイル(階層構造対応)
│ │ ├── markdown/ # マークダウンファイル
│ │ ├── docs/ # ドキュメントファイル
│ │ └── slides/ # プレゼンテーションファイル
│ └── processed/ # 処理済みファイル(テキスト抽出済み)
│ └── file_registry.json # 処理済みファイルの情報(差分インデックス用)
├── docs/
│ └── design.md # 設計書
├── logs/ # ログファイル
├── src/
│ ├── __init__.py
│ ├── document_processor.py # ドキュメント処理モジュール
│ ├── embedding_generator.py # エンベディング生成モジュール
│ ├── example_tool.py # サンプルツールモジュール
│ ├── main.py # メインエントリーポイント
│ ├── mcp_server.py # MCPサーバーモジュール
│ ├── rag_service.py # RAGサービスモジュール
│ ├── rag_tools.py # RAGツールモジュール
│ └── vector_database.py # ベクトルデータベースモジュール
├── tests/
│ ├── __init__.py
│ ├── conftest.py
│ ├── test_document_processor.py
│ ├── test_embedding_generator.py
│ ├── test_example_tool.py
│ ├── test_mcp_server.py
│ ├── test_rag_service.py
│ ├── test_rag_tools.py
│ └── test_vector_database.py
├── .env # 環境変数設定ファイル
├── .gitignore
├── LICENSE
├── pyproject.toml
└── README.md
```
## ライセンス
このプロジェクトはMITライセンスの下で公開されています。詳細は[LICENSE](LICENSE)ファイルを参照してください。
You Might Also Like
MarkItDown MCP
markitdown-mcp is a lightweight MCP server for converting various URIs to Markdown.
Github
GitHub MCP Server connects AI tools to GitHub for code management and automation.

apisix
Apache APISIX is an API Gateway for managing APIs and microservices.
opik
Opik is a powerful tool for managing and optimizing machine learning experiments.

MCP Toolbox for Databases
MCP Toolbox for Databases is an open-source server simplifying database tool...

sqlglot
SQLGlot is a no-dependency SQL parser and transpiler supporting 30 dialects.