MCP(Model Context Protocol)サーバーは、AI(とくに大きな言葉を扱うモデル:LLM)が、人間の代わりに外部の情報やツールとやりとりできる「通り道」をつくる仕組みです。たとえるなら「AI用のUSB-Cケーブル」です。 これはAnthropic(アンソロピック)という会社が2024年11月に公開した、誰でも使える(オープンな)仕組みです。(saketnkzw.com)
MCPは、以下3つの役割で成り立っています:
ホスト (Host) → AIアシスタントそのもの(例:Claude Desktop、IDEのAI機能) → ユーザーの命令を受けて、どの情報が必要か判断します。(Qiita)
クライアント (Client) → ホストとサーバーをつなぐ“橋渡し役”。 → ホスト側にあって、適切な指示をMCPサーバーに送ります。(Qiita, ウィキペディア)
サーバー (Server) → 実際の情報やツールを持っていて、それをクライアント経由でAIに提供する“情報の倉庫”。 → 必要なデータや機能(たとえば天気情報やファイル読み込み)を返します。(Qiita, ウィキペディア, ウィキペディア)
つまり、ホスト → クライアント → サーバー → クライアント → ホストという流れで、データのやりとりをする構成です。
共通ルールでつながる → どのAIとも、どのデータとも同じ形式でやりとりできるようになり、作る側も使う側もラクになります。(ウィキペディア, luenci.com, ubsecure.jp)
拡張性が高い → 新しいツールや機能を追加するのが簡単。道具を増やす感覚で、AIの能力を伸ばせます。(ubsecure.jp, クラスメソッド発「やってみた」系技術メディア | DevelopersIO, ウィキペディア)
**大手サービスでも採用中 ** → OpenAIやGoogle DeepMind、Microsoftなどの先進企業も採用しており、信頼性や注目度が高いです。(ウィキペディア)
まるで「AI用のUSB‑Cケーブル」のような仕組み。 USB‑Cで機器とつなげば、何でもデータがやりとりできるように、 MCPを使えばAIが遠くのツールや情報にアクセスできるようになります。(GitHub)
たとえばこんな使い方があります:
| 用語 | 説明(一言) |
|---|---|
| MCP | AIと情報をつなぐ共通ルール |
| Host | ユーザーの命令を扱うAI本体 |
| Client | HostとServerをつなぐ橋渡し |
| Server | 情報や機能を持つ倉庫 |
いいね!じゃあ「手を動かせる・非エンジニア向け」の超やさしい実例つきガイドいきます。コードは“貼って動かす”最短ルートにして、必要なところだけ軽く説明します。
初心者にやさしい順に3パターンあります。
まずは①→②→③と段階を踏むのがおすすめです。
Claude Desktop を開き、**Settings →(Developer または Extensions)からMCPサーバーを追加します。公式の「ローカルMCPサーバー接続ガイド」が画面つきで丁寧です。最近はワンクリックの“Desktop Extension(.dxt)”**にも対応してきています。 (Model Context Protocol, Anthropic Help Center, Reddit)
公式チュートリアルの流れを、初心者向けに最短コードに絞ったものです。 (Model Context Protocol)
# 任意の空フォルダで
npm init -y
npm i @modelcontextprotocol/sdk fastmcp typescript ts-node
npx tsc --initserver.ts)import { Server } from "fastmcp";
// 1) サーバー作成(stdioで動かす)
const app = new Server({ name: "weather-demo", version: "1.0.0" });
// 2) "get_weather" という道具(ツール)を1個だけ用意
app.tool("get_weather", {
description: "都市名を入れるとダミーの天気を返すよ",
inputSchema: { type: "object", properties: { city: { type: "string" } }, required: ["city"] },
execute: async ({ city }) => {
// 本当はAPIを呼ぶが、まずは固定値で体験する
return { summary: `${city} は 25℃ / 晴れ(デモ値)` };
},
});
// 3) 起動(stdio)
app.startStdio();npx ts-node server.tsClaude Desktop の設定で**「カスタム(ローカル)MCPサーバー」として今のプロセス(stdio)を登録します。手順は公式の「ローカルMCPをつなぐ」ドキュメントが確実です。登録後にClaudeを再起動すると、チャット画面のツール一覧にget_weather**が出ます。 (Model Context Protocol)
もしURL経由のリモート接続をしたい場合は、Custom ConnectorからURLを追加する方式が用意されています。 (Model Context Protocol)
Alex MercedさんのPythonによる基本MCPサーバー解説が読みやすいです。以下は「最低限の一個ツール」パターン。 (Medium)
pip install fastmcpserver.py)from fastmcp import Server
app = Server(name="weather-demo", version="1.0.0")
@app.tool()
def get_weather(city: str) -> dict:
"""都市名を受け取り、ダミーの天気を返す"""
return {"summary": f"{city} は 25℃ / 晴れ(デモ値)"}
if __name__ == "__main__":
app.start_stdio()python server.pyあとは手順4と同様にClaude Desktopへ登録して使えます。 (Model Context Protocol)
mcpdotdirect/template-mcp-server — stdio/HTTP両対応、ツールやリソース、プロンプトの雛形まで入っています。最短で“自分用サーバー”に化けます。 (GitHub)ローカルで動かせたら、次はVercelに置いてURL接続してみましょう。Functionsでスケールし、OAuth/認可もガイドあり。Claude側は**Settings→Integrations(またはDeveloper)**からURLを登録するだけ。 (Vercel, weavely.ai)
MCPは**「AIに手足を生やす」**ようなもの。ファイル操作、社内API、データベース、SaaSなど、一度“サーバー”として生やせば、Claudeなど複数のクライアントから共通ルールで使い回せるのが最大の効用です。背景や事例の概観はこちらが読みやすいです。 (The Verge)
必要なら、あなたのユースケース(社内データ参照、RAG呼び出し、業務システム連携、など)に合わせて具体的なツール設計まで一気に作ります。やりたいことを教えてくれれば、上の最小サンプルをそのまま“本番の骨格”に育てます。
このスクラップブックの人気トピック:
「k1ito-tech」の他のスクラップ
いい選択です 👍 diskcache は ディスクにキャッシュを保存できるライブラリ で、メモリを圧迫せずに大量のデータをキャッシュできます。しかも API がシンプルで、Webアプリや機械学習の前処理結果キャッシュなどにもよく使われます。 --- インストール bash pip inst...
If by “MCP server” you mean a server implementing the Model Context Protocol (MCP) to allow LLMs / AI agents to interact with external tools/data sour...
[2508.20722] rStar2-Agent: Agentic Reasoning Technical Report URL: https://www.arxiv.org/abs/2508.20722 Captured: 2025/9/6 17:39:22 --- Computer ...
Daytona Sandbox:開発環境の新たな可能性 Daytona Sandboxとは Daytona Sandboxは、開発者がクラウド上で瞬時に開発環境を構築・共有できる革新的なプラットフォームです。従来のローカル開発環境の制約を取り払い、どこからでもアクセス可能な統一された開発体験...
step-by-step E2B example in Python that shows stateful execution, installing packages, uploading a file, and doing a quick SQLite query—all inside a s...
Agentic workflow patterns integrate modular software agents with structured large language model (LLM) workflows, enabling autonomous reasoning and ac...
自分の投稿を作成してみませんか?
Get Started