AIエージェントの「手」はCLIかMCPか?
01導入:AIの未来は、半世紀前のインターフェースの上に築かれるのか
AIエージェントという新しい時代の幕が、いよいよ上がろうとしています。
ここで、私たちは一つの本質的な問いに直面します。
「最先端の"知能"に、どんな"手"を持たせるべきか?」
候補は2つ。
片方は、登場から半世紀以上を経てなお開発者の生命線であり続ける CLI(コマンドラインインターフェース)。
もう片方は、AI時代のために設計された構造化プロトコルの新星、MCP(Model Context Protocol)。
「そりゃ、新しい規格のMCPが優れているに決まっている」――そう即答したくなる気持ちはわかります。私も最初はそう思いました。
ところが、IBM Technologyが公開した最新の検証結果を読むと、話はそんなに単純ではありません。
https://www.youtube.com/watch?v=g9JIUM0MHgQ
技術の新旧ではなく、
アーキテクチャの選び方そのものが、
AIの"賢さ"を左右する。
伝統的な万能ナイフ(CLI)か、それとも高度な専用工具(MCP)か。今回はその選択の裏側を、4つの「意外な事実」から解き明かしていきます。
02意外な事実① CLIはAIにとっての"母国語"である
「MCPは余計な複雑さを持ち込んでいるだけだ」――そう主張する開発者は、決して少なくありません。
その根拠は、AIモデルの訓練データそのものにあります。
考えてみてください。AIが学習してきたのは、Stack Overflowに積み上げられた何百万もの投稿、manページ、GitHubのIssue......そのすべてです。
cat、grep -n、git rebase -i ――こうしたコマンドは、AIにとってすでに深く刻み込まれた"母国語"なのです。
つまり、わざわざ「このツールはこう使います」と取扱説明書(スキーマ)を読ませる必要がない。
さらに、CLIにはMCPには真似のできない決定的な武器があります。
それが、パイプによる合成能力です。
モデルはGitを完全に熟知しており、訓練データからフラグやフォーマット文字列も知っています。スキーマに頼ることなく、これらを自在に操ることができます。
grep | sort | uniq -c | head ――こんなふうに、複数のツールを | で繋ぎ、複雑な処理を一行で完結させられる。
各ツール呼び出しが独立したイベントになるMCPとは違い、CLIはAIに 「道具を組み合わせて、その場で新しい機能を作る」自由度 を与えてくれます。
訓練データに刻まれた知識は、最強の"事前装備"なのです。
03意外な事実② MCPが課す「認知リソース税」という重圧
一方、MCPは構造化された予測可能な対話を実現します。これは素晴らしい長所です。
ただし、代償もあります。それが「トークン税」。
しかも、これは単なるAPI利用料金の話では終わりません。
MCPを使うとき、会話の冒頭で大量のJSONスキーマをコンテキストウィンドウに流し込む必要があります。
たとえばGitHub MCPサーバーを導入すれば、80個のツール定義のために約55,000トークンが消費されます。
ここからが本題です。
このトークン消費は、AIの 「認知リソース(ワーキングメモリ)」を直接的に圧迫する のです。
整理するとこうなります。
| 項目 | CLI | MCP |
|---|---|---|
| 事前知識 | 訓練データから活用可能 | スキーマで都度説明が必要 |
| スキーマ消費 | ほぼゼロ | 数万トークン規模 |
| 推論に使えるメモリ | 広い | 取扱説明書で圧迫される |
人間で例えるなら――
机の上に分厚いマニュアルを80冊積み上げたまま、複雑な意思決定をしろと言われている状態。
ツールを"準備するだけ"で、AIの思考能力が削られていく。
これがMCP導入における、見落とされがちな"本当のコスト"です。
04意外な事実③ JavaScriptの壁――CLIが"迷宮"で理性を失う瞬間
ここまで読むと、「じゃあCLI一択でいいじゃないか」と思いたくなります。
ところが、CLIにも明確な弱点があります。
それが、モダンなウェブサイトです。
ある検証で、Next.jsで構築されたサイトを curl で取得しようとしたAIは、悲劇的な迷走を始めました。
返ってきたのは、整ったHTMLではなく、実行前のJavaScriptコードの塊。
そこからAIは何をしたか?
- JSフレームワークの内部構造を解析するためのPythonスクリプトを自分で書き始める
- リバースエンジニアリングを試みる
- 数分間と2,000トークン以上を浪費する
- 結果として得られたのは、断片的な情報だけ
まさに「狂気」とも言える迷走です。
一方、Headless Browserを備えたMCP(Fetcher)は、わずか250トークン、数秒で同じタスクを鮮やかに片付けました。
AIエージェントがウェブページを読むためだけにJSフレームワークのリバースエンジニアリングを始めたら、それは選択を誤ったサインだ。
慣れ親しんだ道具(CLI)に固執するあまり、不適切な手段で問題を解決しようとする。
これは人間でも、AIでも、起こりうる失敗です。
道具への愛着が、解決への最短距離を見失わせる。
05意外な事実④ エンタープライズがMCPを「要塞」として選ぶ理由
個人開発であれば、CLIの自由さは魅力です。
しかし、エンタープライズに視点を移すと、景色が一変します。
CISO(最高情報セキュリティ責任者)の目から見れば、CLIは――
エージェントがすべての鍵を握って自由に走り回る"ワイルド・ウェスト(無法地帯)" に映ります。
ここで、MCPの本領が発揮されます。
MCPは、エージェント個人に依存しない「インフラ中心のセキュリティ」への架け橋になるのです。
具体的には、こんな仕組みです。
- 認証の集約管理:エージェント自身にOAuthトークンを持たせず、MCPサーバー側で安全に認証を完結させる
- プロトコルレベルのアクセス制御:ユーザーごとに「どのツールが実行可能か」を厳格に定義できる
- 盤石な監査トレイル:誰が、いつ、どのリソースに触れたかを、プロトコルレベルで記録可能
これらをCLIに後付けしようとすれば、地獄のような労力がかかります。
しかしMCPは、最初からこれらを内包している。
MCPは単なるツール接続規格ではなく、AIエージェントを"本番運用"へと送り出すためのガバナンスの要塞なのです。
06結論:二項対立を超えた「ハイブリッド・アーキテクチャ」へ
ここまで読んでいただいた方は、もうお気づきだと思います。
CLIとMCPは、どちらかが勝つべきライバルではありません。
それらはAIエージェントに与えられた両腕なのです。
整理すると、こうなります。
| シーン | 適した道具 | 理由 |
|---|---|---|
| ファイル操作、Git、複雑なパイプ処理 | CLI | AIの事前知識が活きるローカル環境 |
| JSレンダリング、外部サービス連携 | MCP | 専用工具による効率と安全性 |
| 組織的なガバナンスが求められる場面 | MCP | 認証・監査・アクセス制御が標準装備 |
真に優れたAIソリューションとは、これらを適材適所で使い分ける知的なオーケストレーションの上に成り立ちます。
あなたのAIエージェントは、今そのタスクに最適な道具を選べているでしょうか?
スケールアップを検討する前に、まずは「ツールのアーキテクチャ」そのものを再評価してみてください。
そしてもし、次にエージェントがウェブサイトを読むためだけに複雑なリバースエンジニアリングを始めたら――
それこそが、MCPという"高度な手"を導入すべき、決定的な瞬間です。