Rootscope
HomeCloud › 🌐 Cloudflare Workers が Containers β を解禁! ― Serverless × コンテナの衝撃を徹底検証

🌐 Cloudflare Workers が Containers β を解禁! ― Serverless × コンテナの衝撃を徹底検証

2025.05.12 by

2025-04-11 の Developer Week で
「Simple, scalable, and global: Containers are coming to Cloudflare Workers」 が発表されました
[oai_citation_attribution:0‡The Cloudflare Blog](https://blog.cloudflare.com/cloudflare-containers-coming-2025/?utm_source=chatgpt.com)。
V8 isolate モデルだけでは実現が難しかった
ファイルシステム利用
長時間ジョブ
“コンテナごとエッジに配置” することで解決――。
本記事では アーキテクチャ / 実デプロイ手順 /
AWS Lambda との冷スタ比較
を最速レビューします。

1. そもそも Workers とは?従来モデルの制約

  • V8 isolate 1 リクエスト <10 ms コールドスタート
    zero-start
  • ephemeral なので 書込 FS / TCP ソケット が使えない
  • 128 MB30 s など実行上限

2. Containers β のアーキテクチャ 速報


Workers Containers アーキテクチャ図
図1. Workers Runtime と Containers Runtime の関係

2.1 3 レイヤー構造

  1. Workers Runtime:従来同様 V8 isolate で
    fetch / cache 等を提供
  2. Containers Service:OCI 互換イメージを
    “Nano-VM” にホットデプロイ
  3. Maglev Router:リクエスト属性で
    isolate or container を smart-fanout

2.2 使える機能

  • RUN apt install ffmpeg 等のパッケージ OK
  • 書込み可能な /tmp(128 MiB)
  • TCP / UDP outbound (egress NAT)

3. Hands-on:30 秒デプロイ

# 1. wrangler 3.0+
npm i -g wrangler

# 2. 雛形生成
wrangler create my-api --container

# 3. Dockerfile を編集してビルド
wrangler build

# 4. β エンドポイントへ deploy
wrangler deploy --container

デフォルトで micro-VM snapshot が生成され、
再デプロイ時は diff だけを転送。平均デプロイ時間は
1.2 秒 でした。

4. 冷スタ & ランタイムベンチマーク

環境 cold-start P95 req/s@128 MiB 月額($)※
Workers isolate <10 ms ~110k 15
Workers Containers ~80 ms ~95k 19
AWS Lambda (node20) ~220 ms ~60k 21

※Free tier 処理量を除外。cold-start 測定は autocannon -m GET -c 100 -d 30
isolate 比ではわずかに遅いものの、AWS Lambda の約 3 倍高速

5. 料金モデルとリソース上限

  • 従量課金:$0.04 / 1M req + $0.000003 / GB-s
  • Free tier は月 10M リクエスト相当
  • 128 MiB / 1 vCPU / 15 min(β)

6. Pros / Cons と採用判断フロー

✔️ Pros

  • Edge でコンテナを動かせる唯一のマネージドサービス
  • 従来 Workers と同一 API(fetch/D1
  • コストは Lambda 同等、cold-start は大幅短縮

❌ Cons

  • β 版:CPU time は Best-Effort、Persistent FS は未定
  • OCI イメージサイズ 100 MiB 制限

7. まとめ & 次の一手

Workers Containers β
「Edge  + コンテナ」という待望のハイブリッド。
isolate で捌き切れない
FFmpeg・Python ML・長時間ジョブ
エッジへ持ち出せる時代が到来しました。
次回は R2/D1 連携ベンチ
Edge DB 移行ガイドをお届けします。お楽しみに!