Firecrawl CLIは、Webページのスクレイピングやサイトクロール、検索結果の取得を「LLMが扱いやすい形式」に整えて出力できるコマンドラインツールです。さらにClaude Codeでは、FirecrawlをMCP(Model Context Protocol)として接続すると、エディタ内から「検索・スクレイプ・クロール」を直接呼び出せます。本記事では、Firecrawl CLIの概要、Claude Codeへの導入手順、実務で効くポイントと注意点を整理します。 Firecrawlは「WebサイトをLLM向けのMarkdownや構造化データに変換する」ことにフォーカスしたWebデータ取得基盤です。単一ページのスクレイプ、サイト全体のクロール、サイト構造のマップ作成、Web検索といった機能を、API・SDK・CLI・MCP経由で使えます。公式の説明でも「LLM-ready markdown or structured data」への変換が中心コンセプトとして示されています。Firecrawl CLIとは?Claude Codeに導入する方法と何がすごいのかを解説
Firecrawl CLIとは
押さえるべき整理
- Firecrawl CLI:ローカル/CIから叩ける実行基盤(初期化、ブラウザ実行、デバッグなど)
- Firecrawl MCP:Claude CodeなどMCP対応クライアントから、ツールとしてFirecrawlを呼び出す接続方式
つまり「Claude Codeに入れる」観点ではMCPが主役ですが、CLIは手元検証・自動化・ブラウザ操作の再現性確保に効きます。
Claude Code導入手順
Claude CodeでFirecrawlを使う最短ルートは、Firecrawl公式が案内しているMCP追加コマンドを実行し、APIキーを環境変数として渡す方法です。公式ドキュメントでは次の形式で案内されています。
# 1) FirecrawlのAPIキーを用意(Firecrawlのダッシュボードで発行)
# 2) Claude CodeへMCPサーバーを追加
claude mcp add firecrawl -e FIRECRAWL_API_KEY=your-api-key -- npx -y firecrawl-mcpセットアップの確認
追加後はClaude Code側から「検索」「スクレイプ」などのコマンドが呼べる状態になります。Anthropicのプラグイン紹介では、Claude Code内でスクレイプ/クロール/マップ/検索ができることが明記されています。
Firecrawl integrates powerful web scraping, crawling, and search capabilities directly into Claude Code.
うまく動かない時の観点
- APIキー:環境変数名が正しいか(FIRECRAWL_API_KEY)
- ネットワーク:社内プロキシ/Firewallでnpxや外部APIがブロックされていないか
- 出力期待:動的サイトは「描画後の状態」を前提にする必要がある(後述)
CLIのインストール
Firecrawl CLIはドキュメント上、npxで最新を呼び出して初期化する手順が提示されています。環境を汚さず試せるため、まずはnpx実行がおすすめです。
# 例:CLIの初期化(ドキュメントの例)
npx -y firecrawl-cli@latest init --all --browserCLIはブラウザセッションを起動し、スナップショット取得やクリック、スクレイプなどをコマンドとして実行できます。公式CLIドキュメントでは、セッションの起動とコマンド実行、Playwrightコード(Node/Python)実行例がまとまっています。
# セッション起動(例)
firecrawl browser launch-session --ttl 600 --stream
# ページ操作〜スクレイプ(例)
firecrawl browser execute "open https://news.ycombinator.com"
firecrawl browser execute "snapshot"
firecrawl browser execute "scrape"// Playwright JavaScript実行(例)
await page.goto("https://example.com");
const title = await page.title();
console.log(title);何がすごいのか
Firecrawlの価値は「ページを取ってくる」だけでなく、LLMに食わせやすい形へ整形し、ワークフローに組み込める点にあります。Claude Codeと組み合わせると、調査・要約・比較表生成などの工程が一気通貫になりやすいのが強みです。
LLM向けに整形
Firecrawlは取得結果をMarkdownやHTML、メタデータ付きで返せます。GitHubリポジトリの例では、markdownやhtml、metadata(title/description/statusCode/sourceURL)を含むレスポンス例が示されています。
サイト全体を扱える
単一ページのスクレイプだけでなく、クロール(ジョブ化してステータスを確認)や、URL一覧の抽出(map)にも対応します。ドキュメントではクロールの開始とステータス確認、mapの例が提示されています。
動的ページに強い
Anthropic側の説明では、JavaScriptレンダリングやアンチボット対応、プロキシローテーションといった、実運用で詰まりがちな領域に手当てがある旨が紹介されています。ブラウザ操作を併用できるため、「静的HTMLでは目的の要素が取れない」ケースで打ち手を用意しやすいのもCLIの利点です。
Claude Codeから直呼び
Claude CodeにMCPとして繋ぐと、調査タスクを「エディタ内の指示→ツール実行→結果を踏まえて実装/文章化」まで寄せられます。たとえば仕様調査なら「公式ドキュメントの該当箇所をスクレイプ→要点を箇条書き→コード反映」という流れが作れます。
CLIとMCPの違い
| 観点 | Firecrawl CLI | Firecrawl MCP(Claude Code) |
|---|---|---|
| 主な用途 | 手元検証、CI自動化、ブラウザ操作の再現 | Claude Codeから検索/スクレイプ/クロールを呼ぶ |
| 操作方法 | ターミナルでコマンド実行 | Claude Codeのツールとして実行 |
| 導入難易度 | Node環境があれば比較的容易 | コマンド1本+APIキーで開始 |
| 強み | デバッグしやすい、ログ/出力管理が容易 | 調査と実装の距離が近い |
実務の使いどころ
要件定義の調査
競合サービスの機能一覧や料金ページの比較、仕様変更の差分把握など、「複数ページを短時間で読み込みたい」場面に向きます。mapでURLを列挙し、必要ページだけスクレイプする設計にすると無駄が減ります。
ドキュメント追従
SDK/APIドキュメントをクロールし、要点を抽出して社内Wikiに反映する運用にも適します。クロールはジョブ化されるため、完了待ちや取得ページ数の管理がしやすい設計です。
動的サイトの検証
「ヘッドレスだと要素が出ない」「ログイン後ページが必要」など、難易度の高い取得では、CLIのブラウザセッション+操作(クリック、スナップショット、スクレイプ)で原因切り分けがしやすくなります。
注意点とガイド
法務・規約面は必ず確認してください。
- 対象サイトの利用規約、robots.txt、プライバシーポリシーに反しないこと
- 個人情報や機微情報の収集・保存を避ける(必要ならマスキング/最小化)
- 過負荷を避ける(低頻度、キャッシュ、並列数制限)
FirecrawlのGitHub上でも「スクレイピング時にWebサイトのポリシーを尊重する責任は利用者にある」旨や、デフォルトではrobots.txtを尊重する旨が記載されています。運用設計の前提として押さえておきたいポイントです。
スクレイピングのご相談はお気軽に
「Firecrawlを使った自動化を検討しているが、設計や運用に不安がある」「対象サイトの構造が複雑で、自社だけでは対応が難しい」——そんなお悩みがあれば、スクレイピング専門の当社にご相談ください。要件整理から実装・保守まで一貫して対応いたします。
まとめ
- Firecrawl CLIは、スクレイピング/クロール/ブラウザ操作をCLIで実行でき、検証と自動化に強い
- Claude CodeにはFirecrawl MCPを追加するのが最短で、APIキー設定だけで検索・スクレイプが可能
- 「LLM向けに整形された出力」「サイト全体の扱いやすさ」「動的ページ対応」が実務で効く
公式ドキュメントも併せて確認し、用途に応じてCLI(検証/自動化)とMCP(Claude Code統合)を使い分けてください。