多くのチームと同様に、私たちにも事業の成長とともにサイズも複雑さも急速に増していったスプレッドシートがありました。
そこには、顧客の受注実績、業界、競合、そしてなぜ勝てたのかという理由が記録されており、組織にとって非常に価値の高いナレッジの蓄積となっていました。
しかし時間が経つにつれて、大規模に管理・分析するのが難しくなっていきました。
チームにとって使いづらくなり、サードパーティのAIシステムを使ってクエリしようとしても、結果が一貫しなかったり、誤った回答が返ってくることが多くなっていました。

私たちは、もっと賢く、構造化された顧客データと顧客のコメント(引用)のようなリッチな情報を組み合わせ、さらに自然な英語で探索できる仕組みを求めていました。
「Science & Engineering 業界で、クエリ性能を改善した顧客」のように、厳密一致ではない、より柔軟な問いかけができることが理想でした。
そこで私たちは、SingleStore の Model Context Protocol(MCP)に目を向け、
LLM、MCPサーバー、そして自社データソースが実際にどの程度うまく連携できるのかを検証するための初期イテレーションとして、AIエージェント駆動のプロトタイプ構築を試すことにしました。
Model Context Protocol(MCP)を使い始める
SingleStore の MCP サーバー実装 を使えば、アイデアから動作するプロトタイプまでを数分で作成できます。MCP クライアントや Claude のような大規模言語モデル(LLM)を SingleStore 環境に直接接続し、自然言語の指示からコード、スキーマ、ノートブックを生成することが可能です。 SingleStore は 構造化データと非構造化データの両方を同一データベースで扱えるため、Postgres と pgvector のように複数のシステムを使い分ける必要がありません。 スキーマからベクトルまで、すべてが単一の高性能データベースに集約されます。
まず最初に、GitHub から SingleStore の MCP サーバーリポジトリ をクローンしました。
git clone https://github.com/singlestore-labs/mcp-server-singlestore.git
このリポジトリには、Model Context Protocol(MCP)サーバーをローカルで実行し、対応する MCP クライアントに接続するために必要なものがすべて含まれています。 クロ ーン後、次のコマンドで依存関係をインストールしました。:
1uv sync --dev 2 3uv run pre-commit install
環境のセットアップが完了したら、次のステップは AI搭載IDEである Cursor と MCP サーバーを統合することでした。 これにより、AIエージェントとして振る舞う LLM が Model Context Protocol と直接やり取りし、自然言語を通じてアプリケーションを構築できるようになります。
この2つを連携させるために以下を実行します:
1uvx singlestore-mcp-server init --client=cursor2 3uvx singlestore-mcp-server start
この時点で、SingleStore アカウントへのサインインを促すブラウザウィンドウが開きました。 認証が完了すると、ターミナルに 「Authentication Successful」 というメッセージが表示され、環境が正しく接続されたことが確認できました。
念のため確認するために、Cursor の設定画面を開き、次の場所へ移動しました。
Preferences > Cursor Settings > Tools & MCP
そこで singlestore-mcp-server のインジケーターが緑色でハイライトされているのを確認できた瞬間、すべてがつながったと実感しました。 MCP 接続が有効になり、サーバーが稼働し、自然言語コマンドを使って直接開発を始められる状態になったのです。

