新規投稿のお知らせを受信されたい方は、サブスクリプションをご登録ください:

Workers AIを搭載したStream Generated Captionsの紹介

2024-06-20

4分で読了
この投稿はEnglish繁體中文한국어简体中文でも表示されます。

お客様は、Streamの最新機能であるAIによるキャプション生成機能を使用することで、オンデマンド動画やライブストリーミングの録画中に、ワンクリックで簡単に動画のキャプションを生成することができるようになりました。この機能は、より良いインターネットの構築を支援するというCloudflareの使命の一環として、すべてのStreamのお客様に追加料金なしでご利用いただけます。

このソリューションはシンプルさを重視して設計されていることから、サードパーティ製の文字起こしサービスや複雑なワークフローは不要です。キャプションなどのアクセシビリティ機能がない動画の場合、特に大規模な動画ライブラリでは、手作業による文字起こしは時間がかかり、現実的ではありません。従来、音声をテキスト化して動画と一緒に配信して再生時に表示できるように、専門サービス、時には専用チームが関わっていました。倫理的義務、法令順守、視聴者の嗜好の変化など、さまざまな理由でキャプションがより広く期待されるようになったため、私たちはこの負担を軽減したいと考えました。

Streamの統合ソリューションを使用することで、キャプション生成プロセスが既存の動画管理ワークフローにシームレスに統合され、時間とリソースの節約が可能となります。いつアップロードした動画でも、自動キャプションを追加してアクセシビリティを高めることができます。キャプションは、Cloudflareダッシュボード内またはAPI呼び出しを介して、すべて使い慣れた統合されたStreamプラットフォーム内で生成できるようになっています。

この機能は、プライバシーとデータ保護を最大限に考慮して設計されています。外部エンティティとコンテンツを共有する可能性がある他のサードパーティ製の文字起こしサービスとは異なり、お客様のデータはキャプション生成プロセス中を通してCloudflareのエコシステム内に安全に保持されます。Cloudflareは、モデルのトレーニング目的のためにコンテンツを使用することはありません。データ保護の詳細については、お客様のデータとWorkers AIを確認してください。

利用をはじめる

本機能のベータ版は2024年6月20日より、すべてのStreamのお客様、およびProプランとBusinessプランをご契約のお客様にご利用いただけます。ベータ版には100分間の動画ストレージが含まれます。

まず、(Cloudflare ダッシュボードからまたはAPI経由で)Streamに動画をアップロードします。

次に、動画の「キャプション」タブに移動し、「キャプションを追加」をクリックしてから、言語を選択して、「AIでキャプションを生成する」を選択します。最後に、「保存」をクリックすると、数分以内に、新しいキャプションがキャプションマネージャーに表示され、自動的にプレイヤーでも利用できるようになります。キャプションはAPIを介して生成することもできます。

キャプションは通常、数分で生成されます。キャプションの準備ができると、Streamプレーヤーは自動的に更新され、ユーザーにキャプションを提供します。HLSとDASHマニフェストも更新されるため、テキストトラックをサポートするサードパーティ製のプレイヤーでも生成されたキャプションを表示できるようになります。

オンデマンドの動画やライブストリーミングの録画は、作成時期を問わずサポートされます。ベータ版では、2時間以内の動画に限定され、生成可能なキャプションは英語のみです。文字起こしの品質は、音声が明瞭で背景の雑音が最小限の動画で最も良い結果となります。

私たちのテストでは、AIモデルがさまざまなタイプのコンテンツをうまく文字起こししてくれたことに満足しています。とはいえ、完璧な結果とはいかない場合もあるため、ユースケースによっては別の方法の方が有効な場合があります。生成されたキャプションの精度がニーズに適しているかどうかを確認することが重要です。

技術的な詳細

Workers AIで構築

Streamのエンジニアリングチームは、Workers AIを使用してこの新機能を構築しました。これにより、1回のAPI呼び出しでオープンソースの自動音声認識モデルであるWhisperモデルにアクセスできるようにしました。Workers AIを使用することで、追加作業なしにAIモデルのデプロイメント、統合、スケーリングを大幅に簡素化することができます。チームはインフラストラクチャの複雑性に対応する必要がなくなり、自動キャプション機能の構築のみに集中できるようになりました。

AIモデルを活用するソフトウェアの作成には、いくつかの課題が伴います。まず、適切なハードウェアインフラストラクチャを構成することの難しさがあります。AIモデルを効率的に実行するためには、膨大な計算リソースが必要であり、また、GPUなどの専用ハードウェアも必要とするため、高価で管理が複雑になる可能性があります。また、AIモデルを大規模にデプロイするという困難なタスクもあり、これには、ワークロード分散のバランスを取り、遅延を最小限に抑え、スループットを最適化し、高可用性を維持するという複雑さがあります。Workers AIは、基盤となるインフラストラクチャ管理の問題を解決するだけでなく、必要に応じて自動的にスケールします。

Workers AIにより、音声ファイルを文字起こしする困難な作業が30行にも満たないWorkerコードになりました。

大規模な動画への迅速なキャプションの付加

import { Ai } from '@cloudflare/ai'


export interface Env {
 AI: any
}


export type AiVTTOutput = {
 vtt?: string
}


export default {
 async fetch(request: Request, env: Env) {
   const blob = await request.arrayBuffer()


   const ai = new Ai(env.AI)
   const input = {
     audio: [...new Uint8Array(blob)],
   }


   try {
     const response: AiVTTOutput = (await ai.run(
       '@cf/openai/whisper-tiny-en',
       input
     )) as any
     return Response.json({ vtt: response.vtt })
   } catch (e) {
     const errMsg =
       e instanceof Error
         ? `${e.name}\n${e.message}\n${e.stack}`
         : 'unknown error type'
     return new Response(`${errMsg}`, {
       status: 500,
       statusText: 'Internal error',
     })
   }
 },
}

Streamチームはこの機能を大規模動画に対して高速かつ高性能にしたいと考えていました。これを実現するために、大量の動画を再生時間に関係なく処理できるようにするためのエンジニアリング作業が必要でした。

まず、わたしたちのチームは、入力がWhisperの入力フォーマットと要件に適合することを確認するために、AI推論を実行する前に音声を事前処理する必要がありました。

動画コンテンツには、携帯電話で撮影された短時間の粒度の粗い動画から、ハリウッドで制作された数時間にわたる高画質の映画まで、幅広いバリエーションが存在します。動画には無音のものや、アクションによって生じた雑音が含まれているものもあります。また、Streamのオンデマンド動画にはライブストリームの録画が含まれますが、ファイル全体としてアップロードされた動画とはパッケージ化が異なるものになっています。この可変性により、音声入力はさまざまなコンテナフォーマットで様々な持続時間、様々なファイルサイズで保存されます。私たちは、私たちの音声ファイルがWhisperの要件に適合する適切な形式にフォーマットされていることを確認しました。

前処理の1つの側面は、最適な推論のためにファイルの長さを適切に保つことです。Whisperでは文字起こしのために音声ファイルの長さは「30秒」が最適であるとされています。Githubでのディスカッションの中で、_「短すぎると周囲の文脈が不足し、文章が途中で切れ、多くの場合意味をなさなくなります。長すぎるとモデルが追跡すべき意味の複雑さを保持するために、ますます大きなモデルが必要になる、ますます大きなモデルが必要になります。」と記されています。_幸いなことに、Streamはすでに動画を小さなセグメントに分割して、Webでの再生中に高速配信を実現しています。私たちはWorkers AIに送信する前に、これらの小さなセグメントを30秒のバッチに連結する機能を作成しました。

処理速度を最適化するために、私たちのチームは可能な限り多くの操作をパラレル化しました。30秒の音声バッチの作成とWorkers AIへのリクエスト送信を同時に行うことで、Workers AIプラットフォームのスケーラビリティを最大限に活用します。これにより、キャプション生成にかかる時間は大幅に短縮されますが、多少の複雑性が増すことになります。Workers AIへのリクエストの送信は並行して行われるため、文字起こしの応答が順不同で届く可能性があります。たとえば、動画の長さが1分の場合、動画の後半30秒のキャプション生成リクエストが、動画の前半30秒のリクエストより早く完了することがあります。キャプションは順次動画と整合する必要があるため、当社のチームは最終的なWebVTTキャプションファイルが動画と適切に同期するように、音声のバッチ順序を把握し続ける必要がありました。受信したWorkers AIの応答を並べ替えて、最終的な正確な文字起こしのためにタイムスタンプの順序を再配置します。

その結果、より長い動画のキャプションを迅速かつ効率的に大規模に生成できるようになります。

今すぐお試しください!

本日、すべての契約者とProプランおよびBusinessプランのお客様にこの機能をオープンベータとして提供できることを嬉しく思います。まずはStreamに動画をアップロードしてこの機能を体験してください。チュートリアルやベータ版の制限に関する情報は、当社のドキュメントをご覧ください。今後は、対応言語の追加と、より長い動画のサポートに注力する予定です。

Cloudflareは企業ネットワーク全体を保護し、お客様がインターネット規模のアプリケーションを効率的に構築し、あらゆるWebサイトやインターネットアプリケーションを高速化し、DDoS攻撃を退けハッカーの侵入を防ぎゼロトラスト導入を推進できるようお手伝いしています。

ご使用のデバイスから1.1.1.1 にアクセスし、インターネットを高速化し安全性を高めるCloudflareの無料アプリをご利用ください。

より良いインターネットの構築支援という当社の使命について、詳しくはこちらをご覧ください。新たなキャリアの方向性を模索中の方は、当社の求人情報をご覧ください。
Developer Platform開発者Workers AIAI製品ニュースCloudflare Stream

Xでフォロー

Cloudflare|@cloudflare

関連ブログ投稿

2024年10月31日 13:00

Moving Baselime from AWS to Cloudflare: simpler architecture, improved performance, over 80% lower cloud costs

Post-acquisition, we migrated Baselime from AWS to the Cloudflare Developer Platform and in the process, we improved query times, simplified data ingestion, and now handle far more events, all while cutting costs. Here’s how we built a modern, high-performing observability platform on Cloudflare’s network....

2024年10月24日 13:05

Build durable applications on Cloudflare Workers: you write the Workflows, we take care of the rest

Cloudflare Workflows is now in open beta! Workflows allows you to build reliable, repeatable, long-lived multi-step applications that can automatically retry, persist state, and scale out. Read on to learn how Workflows works, how we built it on top of Durable Objects, and how you can deploy your first Workflows application....