2025-04-11 の Developer Week で
「Simple, scalable, and global: Containers are coming to Cloudflare Workers」 が発表されました
[oai_citation_attribution:0‡The Cloudflare Blog](https://blog.cloudflare.com/cloudflare-containers-coming-2025/?utm_source=chatgpt.com)。
V8 isolate モデルだけでは実現が難しかった
ファイルシステム利用 や
長時間ジョブ を
“コンテナごとエッジに配置” することで解決――。
本記事では アーキテクチャ / 実デプロイ手順 /
AWS Lambda との冷スタ比較 を最速レビューします。
1. そもそも Workers とは?従来モデルの制約
- V8 isolate 1 リクエスト
<10 ms
コールドスタート
(zero-start) - ephemeral なので 書込 FS / TCP ソケット が使えない
128 MB
/30 s
など実行上限
2. Containers β のアーキテクチャ 速報

2.1 3 レイヤー構造
- Workers Runtime:従来同様 V8 isolate で
fetch / cache
等を提供 - Containers Service:OCI 互換イメージを
“Nano-VM” にホットデプロイ - Maglev Router:リクエスト属性で
isolate or container を smart-fanout
2.2 使える機能
RUN apt install ffmpeg
等のパッケージ OK- 書込み可能な
/tmp
(128 MiB) - TCP / UDP outbound (egress NAT)
3. Hands-on:30 秒デプロイ
# 1. wrangler 3.0+
npm i -g wrangler
# 2. 雛形生成
wrangler create my-api --container
# 3. Dockerfile を編集してビルド
wrangler build
# 4. β エンドポイントへ deploy
wrangler deploy --container
デフォルトで micro-VM snapshot が生成され、
再デプロイ時は diff だけを転送。平均デプロイ時間は
1.2 秒 でした。
4. 冷スタ & ランタイムベンチマーク
環境 | cold-start P95 | req/s@128 MiB | 月額($)※ |
---|---|---|---|
Workers isolate | <10 ms | ~110k | 15 |
Workers Containers | ~80 ms | ~95k | 19 |
AWS Lambda (node20) | ~220 ms | ~60k | 21 |
※Free tier 処理量を除外。cold-start 測定は autocannon -m GET -c 100 -d 30
isolate 比ではわずかに遅いものの、AWS Lambda の約 3 倍高速。
5. 料金モデルとリソース上限
- 従量課金:
$0.04 / 1M req
+$0.000003 / GB-s
- Free tier は月
10M
リクエスト相当 128 MiB
/1 vCPU
/15 min
(β)
6. Pros / Cons と採用判断フロー
✔️ Pros
- Edge でコンテナを動かせる唯一のマネージドサービス
- 従来 Workers と同一 API(
fetch
/D1
) - コストは Lambda 同等、cold-start は大幅短縮
❌ Cons
- β 版:CPU time は Best-Effort、Persistent FS は未定
- OCI イメージサイズ 100 MiB 制限
7. まとめ & 次の一手
Workers Containers β は
「Edge + コンテナ」という待望のハイブリッド。
isolate で捌き切れない
FFmpeg・Python ML・長時間ジョブ を
エッジへ持ち出せる時代が到来しました。
次回は R2/D1 連携ベンチ と
Edge DB 移行ガイドをお届けします。お楽しみに!