订阅以接收新文章的通知:

简化企业通过 Express Cloudflare Network Interconnect 连接到 Cloudflare 的方式

2024-03-06

5 分钟阅读时间
这篇博文也有 EnglishFrançaisDeutsch日本語한국어Español繁體中文版本。

我们很高兴地宣布,Cloudflare 网络互联 (CNI) 迎来自推出以来最大的一次更新。我们正在使 CNI 变得更快、更容易部署,因此我们将其称为 Express CNI。在最基本的层面上,CNI 是客户网络路由器和 Cloudflare 之间的缆线,其促进了网络之间的直接信息交换,而无需通过互联网。多年来,CNI 始终快速、安全、可靠地将客户网络直接连接至 Cloudflare。我们在持续听取如何改善 CNI 体验的意见,今天我们将分享更多信息,让您更快、更轻松地订购 CNI 并将其连接到 Magic Transit 和 Magic WAN。

Simplifying how enterprises connect to Cloudflare with Express Cloudflare Network Interconnect

互联服务及需要考虑的因素

互联互通服务提供私有连接,使您能够直接将您的网络连接至互联网、云服务供应商和其他企业的网络。相较于通过互联网连接,这种私有连接能够获得更好的连通性,并降低常见威胁,如分布式拒绝服务 (DDoS) 攻击的风险。

成本是评估任何互联互通服务供应商时的重要考虑因素。互联成本通常包括根据端口容量(速度)和可变数据传输量计算的固定端口费。 某些云提供商还增加了复杂的地区间带宽费用。

其他关键考虑因素包括:

  • 需要多少容量?

  • 与端口相关的成本是可变费用还是固定费用?

  • 提供商是否与我的企业位于同一主机托管设施?

  • 它们是否能够根据我的网络基础设施进行扩展?

  • 您是否能够准确预测成本,避免出现重大疏漏?

  • 供应商还提供哪些产品和服务?

Cloudflare 既不收取 Cloudflare 网络互连的端口费,也不收取区域间带宽费。 将 CNI 与 Magic Transit 和 Magic WAN 等产品搭配使用,甚至可以降低互联网服务提供商的带宽支出。 例如,您可以使用 CNI 将经过 Magic Transit 净化的流量传输至您的数据中心,而不是通过互联网连接,从而减少您向互联网服务提供商支付的带宽费用。

为了凸显 CNI 的价值, 一家供应商对每秒 10 千兆比特 (Gbps) 的直连端口每年收费近 20000 美元。在 Cloudflare 上,同样的 10 Gbps CNI 一年的费用为 0 美元。其成本还不包括在不同地区或地理位置之间以及云以外数据传输量的相关费用。我们从未对 CNI 收费,并致力于让客户更容易地连接到 Cloudflare 以及开放互联网上的其他目的地。

3 分钟配置

我们的首个重大消息是引入一种新的、更迅速的 CNI 配置和部署方法。 所有 Magic Transit 和 Magic WAN 客户从今天起都可以直接从 Cloudflare 账户订购 CNI。 整个过程只需点击 3 次,耗时不到3分钟(大约是泡一杯咖啡的时间)。 我们将向您展示订购 CNI 有多么简单。

第一步是确定 Cloudflare 是否与您的路由器、服务器和网络硬件位于同一数据中心或主机托管设施。让我们导航到 Cloudflare 仪表板的新建“互联”区域,然后订购一个新的直接 CNI。

搜索您的数据中心所在城市,快速查找 Cloudflare 是否也在该城市。 我想要建立一个 CNI 来连接我位于弗吉尼亚州阿什本的示例网络。

看起来 Cloudflare 位于与我的网络相同的设施中,那么,我将开始选择我想要连接的位置。

当前,我的数据中心在 Magic Transit 上的流量仅为几百兆位每秒,因此我将选择 1 千兆位每秒的接口,这是可用的最小端口速度。若单个地点的流量超过 1 Gbps,我还可以订购 10 Gbps 链路。 Cloudflare 还支持 100 Gbps 的 CNI,但如果您需要与我们交换如此多的流量,则建议您与您的客户团队协调。

设定首选端口速度后,您可以为 CNI 设定一个名称,这样当您将 Magic Transit t或 Magic WAN 流量导向互连时就能方便地使用此名称。我们可以在确认 CNI 订单之前,验证一切看起来是否正确。

点击“确认订单”按钮后,Cloudflare 将在我们的路由器上为您的 CNI 提供一个接口,并分配 IP 地址,以供您在路由器接口上进行配置。Cloudflare 还将向您签发授权书 (LOA),以便您订购与本地设施的交叉连接。 Cloudflare 将在您下单后 3 分钟内在我们的路由器上为您的 CNI 提供一个端口,接口线路状态一旦就绪,您就可以通过 CNI 进行 ping 测试。

下载授权书 (LOA) 以订购交叉连接后,我们将回到互连区域。 我们在这里可以看到点对点 IP 寻址,以及在 Magic Transit 或 Magic WAN 配置中使用的 CNI 名称。 如有需要,我们还可以重新下载 LOA。

简化的 Magic Transit 和 Magic WAN 上机过程

我们的第二个重大消息是,Express CNI 大幅简化了 Magic TransitMagic WAN 客户连接 Cloudflare 的方式。以往,使用 CNI 将数据包接入 Magic Transit 或 Magic WAN 需要客户在其路由器上配置一个 GRE(通用路由封装)隧道。这些配置相当复杂,且并非所有的路由器和交换机都支持这些更改。由于 Magic Transit 和 Magic WAN 都能保护网络,并在网络层对数据包进行操作,客户会理所当然地发问:"如果我使用 CNI 直接连接 Cloudflare,为什么还需要为 Magic Transit 和 Magic WAN 安装 GRE 隧道?

Express CNI 从今天起不再需要 GRE 通道。 这意味着 Cloudflare 在 CNI 上支持标准 1500 字节数据包,无需复杂的 GRE 或 MSS 调整配置即可将流量导入 Magic Transit 或 Magic WAN。 对于可通过 Express CNI 进行连接的 Magic Transit 和 Magic WAN 客户来说,这大幅减少了路由器上所需的配置。 如果您对 Magic Transit 不甚了解,那么您可以从我们这里获得的重点是,我们已经降低了您为使用 Cloudflare 保护网络而必须对路由器所进行更改的复杂性。

CNI 的下一步计划是什么?

我们对 Express CNI 简化了连接到 Cloudflare 网络的方式感到高兴。 某些客户通过我们的互联平台合作伙伴(如 Equinix 和 Megaport)连接到 Cloudflare,而我们也计划将 Express CNI 功能提供我们的合作伙伴。

为了支持 Express CNI,我们已经升级了多个数据中心,并计划在未来几个月内升级更多数据中心。 随着新网络硬件的安装,我们正在迅速增加支持 Express CNI 的全球网点数量。 如果您有兴趣使用 Express CNI 连接 Cloudflare,但无法找到您的数据中心,请告知我们的客户团队。

如果您目前使用的是现有的经典 CNI,并且不需要 Express CNI 功能,则没有义务迁移到 Express CNI 的。 Magic Transit 和 Magic WAN 客户一直在要求使用 BGP 支持来控制 Cloudflare 将流量路由回其网络的方式。我们希望首先将 BGP 支持扩展至 Express CNI,因此请关注今年晚些时候发布的更多 Express CNI 的消息。

立即开始使用 Express CNI

正如我们在上文所演示的,通过 Express CNI,您可以快速、轻松地将网络连接到 Cloudflare。如果您是 Magic Transit 或 Magic WAN 客户,则新的“互连”区域现在已经在您的 Cloudflare 面板上可用。要部署您的第一个 CNI,您可以按照上面的截图进行操作,或者参考我们更新的 互联文档

我们保护整个企业网络,帮助客户高效构建互联网规模的应用程序,加速任何网站或互联网应用程序抵御 DDoS 攻击,防止黑客入侵,并能协助您实现 Zero Trust 的过程

从任何设备访问 1.1.1.1,以开始使用我们的免费应用程序,帮助您更快、更安全地访问互联网。要进一步了解我们帮助构建更美好互联网的使命,请从这里开始。如果您正在寻找新的职业方向,请查看我们的空缺职位
Security WeekNetwork Interconnect产品新闻Magic TransitMagic WANApplication Services

在 X 上关注

Ben Ritter|@bennetworks
Ammar Zuberi|@impl_u64
Cloudflare|@cloudflare

相关帖子

2024年10月24日 13:00

Durable Objects aren't just durable, they're fast: a 10x speedup for Cloudflare Queues

Learn how we built Cloudflare Queues using our own Developer Platform and how it evolved to a geographically-distributed, horizontally-scalable architecture built on Durable Objects. Our new architecture supports over 10x more throughput and over 3x lower latency compared to the previous version....