訂閱以接收新文章的通知:

Replicate 即將加入 Cloudflare

2025-11-17

閱讀時間:5 分鐘
本貼文還提供以下語言版本:EnglishDeutsch日本語한국어Español (Latinoamérica)NederlandsFrançais

我們今天想宣佈一則重大消息:領先的 AI 模型執行平台 Replicate 將加入 Cloudflare。

我們最初與 Replicate 接洽,是因為除了對鮮豔色彩的熱愛之外,我們還有很多共同點。Cloudflare Workers 開發人員平台的使命是讓建置和部署完整堆疊應用程式變得盡可能簡單。同時,Replicate 也致力於讓部署 AI 模型像編寫一行程式碼一樣簡單。我們意識到,若能將 Replicate 平台直接整合進 Cloudflare,就能共同打造出更強大的產品。

我們很高興與大家分享這一消息,更期待看到它將為客戶帶來的益處。將 Replicate 的工具整合到 Cloudflare 中,將使我們的開發人員平台繼續成為在網際網路上建置和部署任何 AI 或自主式工作流程的最佳平台。

這對您來說意味著什麼?

在我們花更多時間討論 AI 的未來之前,我們想先回答 Replicate 和 Cloudflare 使用者最關心的問題。簡單來說:

對於現有的 Replicate 使用者:您的 API 與工作流程將持續正常運作,不會中斷。您很快就能享受到 Cloudflare 全球網路所帶來的更高效能與可靠性。

對於現有的 Workers AI 使用者:準備迎接模型目錄的大幅擴充,以及直接在 Workers AI 上執行微調與自訂模型的全新功能。

現在,讓我們回到我們對這次合作的未來感到如此興奮的原因。

AI 革命沒有被電視轉播,但它始於開放原始碼

在「AI」被稱為 AI,並成為每一場對話的主題之前,它已經以「機器學習」的名稱存在了數十年。那是一個幾乎專屬於學術圈的專業領域。進展雖然穩定,但卻是封閉的,突破往往只發生在少數資金雄厚的大型研究實驗室內。當時的模型是整體式的,資料是專有的,而工具對大多數開發人員來說都是難以取得的。一切在開源協作的文化(也就是打造出現代網際網路的同一股力量)與機器學習相遇時開始改變。研究人員和公司不再只公開他們的論文,還公開了模型權重與程式碼。

這點燃了一場令人難以置信的創新爆發。光是在過去幾年間,變化的速度就已經很驚人;18 個月前(有時甚至感覺就像是幾天前)還是最先進的技術,如今已成為基礎標準。這種加速在生成式 AI 中尤為明顯。

我們幾乎在一瞬間,就從那些令人感到詭異、模糊不清的實驗性成果,進化到了能產生如照片般真實的影像。像 Stable Diffusion 這樣的開放原始碼模型,為開發人員立即釋放了創造力,而這還只是開始。如果您今天查看 Replicate 的模型目錄,您會看到數千個幾乎涵蓋各種類型的影像模型,每個模型都在前一個的基礎上不斷迭代改進。

這樣的進展不只發生在影像模型上,也出現在影片、音訊、語言模型,以及更多領域……

然而,這種由社群驅動、令人驚嘆的進展,也帶來了一個巨大的實務挑戰:您該如何實際執行這些模型?每個新模型都有不同的依賴項,需要特定的 GPU 硬體(而且還要有足夠的量),並且需要一套複雜的服務基礎架構來擴展規模。開發人員發現自己花了更多時間來處理 CUDA 驅動程式與 requirements.txt 檔案,而不是真正去打造他們的應用程式。

這正是 Replicate 解決的問題。他們打造了一個平台,將所有這些複雜性抽象化(使用他們的開放原始碼工具 Cog 將模型打包成標準化、可重現的容器),讓任何開發人員或資料科學家只需透過一個簡單的 API 呼叫,就能執行最複雜的開放原始碼模型。

如今,Replicate 的模型目錄已涵蓋超過五萬個開放原始碼模型與微調模型。雖然開放原始碼釋放了無數可能性,但 Replicate 的工具組更進一步,讓開發人員能在同一個地方取得他們所需的任何模型。就是這麼簡單。透過他們的市場平台,使用者還能透過同一個統一的 API,來無縫存取 GPT-5 和 Claude Sonnet 等領先的專有模型。

值得注意的是,Replicate 不僅僅建立了一個推斷服務,他們還打造了一個社群。許多創新都是透過受到他人作品的啟發、加以迭代改進,並讓它變得更好而產生的。Replicate 已經成為開發人員探索、分享、微調和實驗最新模型的首選樞紐,在這個公開的實驗場中,創意得以蓬勃發展。

強強聯手:AI 目錄與 AI 雲端的結合

回到 Workers 平台的使命:我們一直以來的目標,就是讓開發人員能夠打造完整堆疊應用程式,且不必為基礎架構而煩惱。雖然這個目標沒有改變,但 AI 卻改變了應用程式的需求。

開發人員正在建置的应用程式類型正在改變——三年前,沒有人會建置智慧體,也沒有人會製作由 AI 產生的宣傳影片。但今天,他們正在這麼做。因此,他們對雲端(或者說是 AI 雲端)的需求與期待也隨之改變了。

為了滿足開發人員的需求,Cloudflare 一直在打造 AI 雲端的基礎支柱,旨在在靠近使用者的邊緣執行推斷。這不僅是一款產品,而且是一整個技術堆疊:

  • Workers AI:我們全球網路上的無伺服器 GPU 推斷。

  • AI Gateway:用於快取、限速和監控任何 AI API 的控制平面。

  • 資料堆疊:包括 Vectorize(我們的向量資料庫)和 R2(用於模型和資料儲存)。

  • 協調流程:AI Search(前身為 Autorag)、Agents 和 Workflows 等工具,用於建置複雜的多步驟應用程式。

  • 基礎:所有的一切都建立在以 Workers、Durable Objects 為核心的開發人員平台,以及我們的其他技術堆疊之上。

在我們協助開發人員擴展他們的應用程式時,Replicate 也在進行類似的使命——讓部署 AI 模型就像部署程式碼一樣簡單。而這就是一切匯聚之處。Replicate 帶來了業界最大、最活躍的模型目錄與開發人員社群。Cloudflare 則帶來了極具效能的全球網路與無伺服器推斷平台。我們攜手合作,就能提供兩者最精華的部分:最全面的模型選擇,並且可以在快速、可靠且符合成本效益的推斷平台上執行。

我們的共同願景

社群:AI 探索中心

能夠分享模型、發布微調版本、收集讚數,以及在實驗場中進行實驗,這些都是 Replicate 社群的核心所在。我們將持續投資並壯大這個平台,使其成為 AI 發現與實驗的首選目的地,現在更透過 Cloudflare 的全球網路進行強化,為每一位使用者帶來更快、更即時的使用體驗。

推斷的未來:一個平台,所有模型

我們的願景是將這兩個平台的優勢合而為一。我們將把整個 Replicate 的模型目錄(包含超過五萬個模型與微調版本)帶入 Workers AI。這將為您帶來最完整的選擇:您可以在 Replicate 彈性的環境中執行模型,也可以在 Cloudflare 的無伺服器平台上執行,全部都可以從同一個地方執行操作。

但我們不只是擴充模型目錄。我們非常高興地宣布,我們將為 Workers AI 引入微調功能,這背後由 Replicate 在該領域的深厚專業知識所驅動。我們也讓 Workers AI 變得比以往更加彈性。不久後,您將能夠將您自己的自訂模型帶入我們的網路。我們將運用 Replicate 在 Cog 上的專業技術,讓這個過程變得無縫、可重現且簡單。

AI 雲端:不僅僅是推斷

執行一個模型,只是整體拼圖的一部分。真正的魔力,是在您將 AI 與您的整個應用程式連接起來時產生的。想像一下,當 Replicate 庞大的模型目錄與整個 Cloudflare 開發人員平台深度整合時,您能打造出什麼:執行一個模型,並將結果直接儲存在 R2Vectorize 中;從一個 WorkerQueue 觸發推斷;使用 Durable Objects 來管理 AI 智慧體的狀態;或是利用 WebRTC 與 WebSockets 打造即時的生成式使用者介面。

為了管理這一切,我們將把統一的推斷平台與 AI Gateway 深度整合,為您提供一個統一的控制平面,用於對所有模型進行觀察、提示管理、A/B 測試和成本分析,無論這些模型是在 Cloudflare、Replicate 還是任何其他提供者上執行。

歡迎加入團隊!

我們非常高興地歡迎 Replicate 團隊加入 Cloudflare。他們對開發人員社群的熱情,以及他們在 AI 生態系領域的專業能力無人能及。我們迫不及待地想要與他們攜手共創 AI 的未來。

我們保護整個企業網路,協助客戶有效地建置網際網路規模的應用程式,加速任何網站或網際網路應用程式抵禦 DDoS 攻擊,阻止駭客入侵,並且可以協助您實現 Zero Trust

從任何裝置造訪 1.1.1.1,即可開始使用我們的免費應用程式,讓您的網際網路更快速、更安全。

若要進一步瞭解我們協助打造更好的網際網路的使命,請從這裡開始。如果您正在尋找新的職業方向,請查看我們的職缺
併購開發人員平台開發人員AI

在 X 上進行關注

Rita Kozlov|@ritakozlov_
Ben Firshman|@bfirsh
Cloudflare|@cloudflare

相關貼文

2026年4月22日

Making Rust Workers reliable: panic and abort recovery in wasm‑bindgen

Panics in Rust Workers were historically fatal, poisoning the entire instance. By collaborating upstream on the wasm‑bindgen project, Rust Workers now support resilient critical error recovery, including panic unwinding using WebAssembly Exception Handling....

2026年4月20日

建置智慧體雲端:我們在 2026 年 Agents Week 期間推出的所有內容

2026 年 Agents Week 圓滿結束。我們來看看我們發布的所有內容,從運算和網路安全到智慧體工具箱、平台工具和新興的智慧體網路。我們針對智慧體雲端發布的所有內容。 ...

2026年4月20日

The AI engineering stack we built internally — on the platform we ship

We built our internal AI engineering stack on the same products we ship. That means 20 million requests routed through AI Gateway, 241 billion tokens processed, and inference running on Workers AI, serving more than 3,683 internal users. Here's how we did it. ...