本日、私たちはHugging Face社と提携することで、AIモデルを開発者の皆様にこれまで以上にアクセスしやすく、手頃な価格での提供をお知らせできることを嬉しく思います。
今後数か月間で開発者の皆様に提供できるものが3つあります:
Hugging FaceにサーバーレスGPUモデルを導入します。これにより、インフラにかかる手間や使われていない容量に対する支払いが不要になります。モデルを選択して進めるだけです。
人気のHugging Faceに最適化されたモデルをCloudflareのモデルカタログへ取り入れます。
Hugging Faceの推論ソリューションの一部としてCloudflare連携を導入します。
Hugging Faceは、50万以上のモデルをホストし、1日に100万以上のモデルがダウンロードされる開発者がアプリケーションにAIを追加するのに最適な場所です。
一方、Cloudflareは過去6年間、開発者の皆様が私たちの開発者向けプラットフォームでアイデアやアプリケーションをできるだけ簡単に実現できるようにすることを目標に活動してきました。
AIがあらゆるアプリケーションの重要な部分となった今、このパートナーシップは、開発者にAIを簡単かつ手頃な価格で導入できるツールを提供するための自然な組み合わせのように感じられました。
「Hugging FaceとCloudflareはともに、最新のAIイノベーションを開発者にとって可能な限りアクセスしやすく、手頃な価格にすることに重点を置いている点で共通しています。Cloudflareとの提携により、開発者がインフラストラクチャに煩わされたり、アプリケーションの将来のニーズを予測したりすることなく、モデルを選んでデプロイするだけで、AIアプリケーションをゼロからグローバルに拡張できるサーバーレスGPUサービスを提供できることを嬉しく思います」 — Hugging Face CEO、Clem Delangue氏
私たちの今後のエキサイティングな展開を少しだけご紹介します。
Hugging Faceモデルをすぐに利用可能に
開発者であれば、思いついたアイデアをできるだけ早く行動に移すことを望みます。このパートナーシップを通じて、どこから始めるかに関わらず、馴染みのあるモデルを提供することができます。
Cloudflareの開発者プラットフォームを使用してアプリケーションを構築している場合、Hugging Faceのモデルをネイティブなエクスペリエンスの一部としてフローに取り込むことができます。性能と速度に最適化されたHugging Faceモデルを、Cloudflareのダッシュボードからすぐにデプロイできるようになります。
また、Hugging Faceで自分のモデルをじっくりと探すのに慣れた方用に、近日中にHugging FaceのUIから直接Workers AIにモデルをデプロイできるようになります。
当社の両チームは共に可能な限り最高の開発者体験を構築することに尽力しており、開発者が次の大きなAIのアイデアを構築するのを阻害するあらゆるやり辛さを取り除き続けて行きます。それが私たちの喜びです。
Hugging FaceユーザーにサーバーレスGPU推論を提供
Hugging Faceはインフラ管理が不要なプラットフォーム上でホストされている50万モデルから予測を提供する複数の推論ソリューションを提供しており、レート制限のある無料の推論APIから、推論エンドポイントを使用した専用インフラのデプロイ、さらにはTransformers.jsを使用したインブラウザのエッジ推論まで提供しています。
Hugging Faceのチームと緊密に協力しながら、Cloudflareを活用した新しい体験の準備を進めてまいります。新しいサーバーレスGPU推論ソリューションから新しいエッジユースケースまで、ご期待ください!
またお会いしましょう!
私たちは、このパートナーシップに関するニュースをお伝えできることを本当に楽しみにしていました。また今後数か月間で開発者の皆様にこれらの体験を提供できることを待ちきれないほど楽しみにしています。