订阅以接收新文章的通知:

宣布 Cloudflare Workers 支持 WASI

2022-07-07

4 分钟阅读时间
这篇博文也有 English繁體中文版本。

今天,我们宣布 Cloudflare Workers 试验性支持 WASI(WebAssembly 系统接口),并在 wrangler2 中提供支持,以便大幅提升工作便利性。我们一如既往对 Primer 整个 WebAssembly 生态系统充满希望,并十分积极地采纳新开发的标准。

Announcing support for WASI on Cloudflare Workers

WebAssembly 快速入门

那么,WASI 到底是什么呢?若要了解 WASI 以及我们对其充满希望的理由,就有必要快速回顾一下 WebAssembly 以及它周边的生态系统。

借助 WebAssembly,使用编译语言编写的代码未来有望能够编译为通用二进制格式并以接近原生速度的速度在安全沙盒中运行。虽然 WebAssembly 是围绕浏览器设计的,但模型迅速扩展到服务器端平台,例如 Cloudflare Workers(自 2017 年以来一直支持 WebAssembly)。

WebAssembly 最初设计为_与_ Javascript 一起运行,并需要开发人员直接与 Javascript 交互才能访问沙盒之外的内容。换句话说,WebAssembly 并没有为 I/O 任务提供任何标准接口,例如与文件交互、访问网络或读取系统时钟。这意味着,如果要响应外部事件,开发人员需要负责在 JavaScript 中处理该事件,并直接调用从 WebAssembly 模块导出的函数。类似地,如果要从 WebAssembly 中执行 I/O,就需要在 Javascript 中实现该逻辑并将其导入 WebAssembly 模块中。

Emscripten 等自定义工具链或 wasm-bindgen 等库应运而生,用于简化这一工作,但它们特定于语言,会带来极大的复杂度,并且使代码显得十分臃肿。我们甚至构建了自己的库 workers-rs,使用 wasm-bindgen 以试图让在 Rust 中编写应用程序感觉就像在 Worker 中原生那样 – 但最后我们发现,这不仅很难维护,而且还需要开发人员编写特定于 Workers 的代码,并且这些代码无法移植到 Workers 生态系统之外。

我们需要更强的功能。

WebAssembly 系统接口 (WASI)

WASI 旨在提供任何编译到 WebAssembly 的语言都可以作为目标的标准接口。点击此处阅读 Lin Clark 的原创文章,其中很漂亮地做了介绍 – 甚至还做了代码卡通。简而言之,Lin 将 WebAssembly 形容为适合“概念机器”的_汇编语言_,而 WASI 则是适合“概念操作系统”的_系统接口_。

这种系统接口标准化为现有工具链针对 wasm32-wasi 目标交叉编译现有代码库铺平了道路。通过 wasi-sdkRust 工具链已经实现了极大进展,尤其是在 Clang/LLVM 中。这些工具链利用某个版本的 Libc,它提供 POSIX 标准 API 调用,这些调用是在 WASI“系统调用”基础上构建的。甚至在 TinyGoSwiftWasm 这样更为边缘化的工具链中也有基本实现。

实际说来,这意味着现在可以编写的应用程序不仅能够与实现该标准的任何 WebAssembly 运行时互操作,还能与任何符合 POSIX 标准的系统互操作!这意味着,完全相同的“Hello World!” 可在本地 Linux/Mac/Windows WSL 机器上运行。

代码细节

WASI 听起来很不错,但它能真正简化编程工作吗?谁用谁知道。我们来看一个例子,看看它如何运用于实践。

首先,生成一个基本的 Rust“Hello, world!”应用程序,对其进行编译并运行。

这是再简单不过的了。可以看到,我们只定义了一个 main() 函数,接着是用一个 println 语句打印到 stdout。

$ cargo new hello_world
$ cd ./hello_world
$ cargo build --release
   Compiling hello_world v0.1.0 (/Users/benyule/hello_world)
    Finished release [optimized] target(s) in 0.28s
$ ./target/release/hello_world
Hello, world!

现在,我们针对 wasm32-wasi 目标编译这个程序,并在 Wasmtime 等“现成”的 wasm 运行时中运行。

fn main() {
    println!("Hello, world!");
}

太棒了!相同的代码在多个 POSIX 环境中顺利编译并运行。

$ cargo build --target wasm32-wasi --release
$ wasmtime target/wasm32-wasi/release/hello_world.wasm

Hello, world!

最后,来看看我们刚才为 Wasmtime 生成的二进制文件,但这次改用 Wrangler2 将其发布到 Workers。

不出所料,成功了!相同的代码兼容了多个 POSIX 环境,并且相同的二进制文件兼容了多个 WASM 运行时。

$ npx wrangler@wasm dev target/wasm32-wasi/release/hello_world.wasm
$ curl http://localhost:8787/

Hello, world!

在云中运行 CLI 应用

细心的读者可能会注意到,我们在通过 cURL 发出的 HTTP 请求中做了一点手脚。在这个例子中,我们实际上是分别使用 HTTP 请求和响应主体来与 Worker 之间进行 stdin 和 stdout 流传输。利用这个模式,可以实现一些非常有意思的用例,具体来说,设计为在命令行中运行的程序可以作为“服务”部署到云中。

“Hexyl”就是一个完全开箱即用的例子。这里,我们对本地机器上的二进制文件执行“cat”命令,并通过“pipe”命令将输出输送到 curl,后者会通过 POST 命令将输出发布到我们的服务,并流传输回结果。按照我们用于编译“Hello World!”的步骤,我们可以编译 hexyl。

无需任何修改,我们就能利用一个现实的程序来创建立即就能运行或部署的用例。同样,我们让 wrangler2 预览 hexyl,但这次给它提供一些输入。

$ git clone [email protected]:sharkdp/hexyl.git
$ cd ./hexyl
$ cargo build --target wasm32-wasi --release

点击 https://hexyl.examples.workers.dev,自己试一试。

$ npx wrangler@wasm dev target/wasm32-wasi/release/hexyl.wasm
$ echo "Hello, world\!" | curl -X POST --data-binary @- http://localhost:8787

┌────────┬─────────────────────────┬─────────────────────────┬────────┬────────┐
│00000000│ 48 65 6c 6c 6f 20 77 6f ┊ 72 6c 64 21 0a          │Hello wo┊rld!_   │
└────────┴─────────────────────────┴─────────────────────────┴────────┴────────┘

一个更有用、但也更复杂一些的例子就是将 swc (swc.rs) 等实用工具部署到云中并将其用作按需 JavaScript/TypeScript 跨平台编译服务。这里,我们可以执行几个额外步骤,确保编译的输出尽可能小,但除此之外,它基本上是开箱即用的。这些步骤在 https://github.com/zebp/wasi-example-swc 中详述,但目前我们只是粗略概括一下,看看托管示例。

echo "Hello world\!" | curl https://hexyl.examples.workers.dev/ -X POST --data-binary @- --output -

最后,我们还可以对 C/C++ 执行相同的操作,但需要做一些修改,将 Makefile 调整正确。这里有一个例子,说明如何编译 zstd 并将其上传作为流传输压缩服务。

$ echo "const x = (x, y) => x * y;" | curl -X POST --data-binary @- https://swc-wasi.examples.workers.dev/ --output -

var x=function(a,b){return a*b}

https://github.com/zebp/wasi-example-zstd

如果我想在 JavaScript Worker 中使用 WASI 该怎么办?

$ echo "Hello world\!" | curl https://zstd.examples.workers.dev/ -s -X POST --data-binary @- | file -

利用 Wrangler,可以非常轻松地部署代码,不用管 Workers 生态系统,但在一些情况下,可能实际上需要从 Javascript 调用基于 WASI 的 WASM 模块。这可以使用以下简单样板来实现。https://github.com/cloudflare/workers-wasi 中将保留一份更新的 README。

现在借助 JavaScript 样板和 wasm,我们可以利用 Wrangler 的 WASM 功能轻松部署 Worker。

import { WASI } from "@cloudflare/workers-wasi";
import demoWasm from "./demo.wasm";

export default {
  async fetch(request, _env, ctx) {
    // Creates a TransformStream we can use to pipe our stdout to our response body.
    const stdout = new TransformStream();
    const wasi = new WASI({
      args: [],
      stdin: request.body,
      stdout: stdout.writable,
    });

    // Instantiate our WASM with our demo module and our configured WASI import.
    const instance = new WebAssembly.Instance(demoWasm, {
      wasi_snapshot_preview1: wasi.wasiImport,
    });

    // Keep our worker alive until the WASM has finished executing.
    ctx.waitUntil(wasi.start(instance));

    // Finally, let's reply with the WASM's output.
    return new Response(stdout.readable);
  },
};

回到未来

$ npx wrangler publish
Total Upload: 473.89 KiB / gzip: 163.79 KiB
Uploaded wasi-javascript (2.75 sec)
Published wasi-javascript (0.30 sec)
  wasi-javascript.zeb.workers.dev

过去几十年积极关注编程发展的读者可能会注意到,这非常类似于 RFC3875,也就是我们常说的 CGI(公共网关接口)。虽然我们这个例子显然不符合该规范,但不难想象,完全可以加以扩展,将基本“命令行”应用程序的 stdin 转变为完全成熟的 http 处理程序。

在此,我们非常渴望了解开发人员对此有何看法。请在 DiscordTwitter 上与我们分享您所构建的成果!

我们保护整个企业网络,帮助客户高效构建互联网规模的应用程序,加速任何网站或互联网应用程序抵御 DDoS 攻击,防止黑客入侵,并能协助您实现 Zero Trust 的过程

从任何设备访问 1.1.1.1,以开始使用我们的免费应用程序,帮助您更快、更安全地访问互联网。要进一步了解我们帮助构建更美好互联网的使命,请从这里开始。如果您正在寻找新的职业方向,请查看我们的空缺职位
Cloudflare WorkersWebAssemblyWASM开发人员Developer Platform

在 X 上关注

Ben Yule|@bjyule
Zebulon Piasecki|@zebassembly
Cloudflare|@cloudflare

相关帖子

2024年10月09日 13:00

Improving platform resilience at Cloudflare through automation

We realized that we need a way to automatically heal our platform from an operations perspective, and designed and built a workflow orchestration platform to provide these self-healing capabilities across our global network. We explore how this has helped us to reduce the impact on our customers due to operational issues, and the rich variety of similar problems it has empowered us to solve....

2024年9月27日 13:00

Our container platform is in production. It has GPUs. Here’s an early look

We’ve been working on something new — a platform for running containers across Cloudflare’s network. We already use it in production, for AI inference and more. Today we want to share an early look at how it’s built, why we built it, and how we use it ourselves. ...

2024年9月27日 13:00

AI Everywhere with the WAF Rule Builder Assistant, Cloudflare Radar AI Insights, and updated AI bot protection

This year for Cloudflare’s birthday, we’ve extended our AI Assistant capabilities to help you build new WAF rules, added new AI bot & crawler traffic insights to Radar, and given customers new AI bot blocking capabilities...