お客様のチームがAIサービスを安全に使えるよう支援するCloudflare Oneのツール群

Cloudflare Oneを使えば、どんな規模のチームでもインターネット上にある最善のツールを安全に利用することができ、管理の問題やパフォーマンス上の課題に悩むこともありません。当社は、お客様のチームがZero Trustセキュリティ体制を維持しながら最新のAIサービスを構築できるよう支援する機能群、Cloudflare One for AIを新たに発表でき、大変嬉しく思います。
大規模言語モデル、セキュリティ問題の拡大
OpenAIのGPTやGoogleのBardといった大規模言語モデル(LLM)は、データセットに照らして訓練したニューラルネットワークから成り、プロンプトに基づいてテキストの予測と生成を行います。ユーザーは質問をしてフィードバックを求め、サービスを活用して韻文からCloudflare Workersアプリケーションまでさまざまなアウトプットを生成することができます。
また、こうしたツールは不気味なほど人間に似ています。現実の対人会話でもあるように、それらのAIサービスとの過剰な情報共有が深刻な問題になる可能性があり、LLMモデルが多用されるユースケースタイプではそのリスクが何倍にもなります。ツールは、開発者が難しいコーディングの問題を解決したり、インフォメーションワーカーがメモの寄せ集めを基に簡潔なレポートを作成したりするのに役立ちます。有用ではありますが、プロンプトに応じて入力するたびにデータが自社の制御範囲外へ出てしまうのです。
ChatGPTのようなツールに関しては、サービスの利用を全社的または全国的に一切禁止するという対応もありますが、当社はそういった対応を取る必要はないと考えています。Cloudflare Oneの目標は、お客様が必要なツールを、その所在地にかかわらず、パフォーマンスを犠牲にすることもなく、安全に使えるようにすることです。こうした機能は、既にCloudflare OneでZero Trust製品をお使いの場合はお馴染みでしょうが、ここではお客様のチームが現在利用可能なツールを使って最新のLLM機能を活用できるケースをご紹介していきます。
利用を測定
SaaSアプリケーションは、どんなユーザーでも簡単にサインアップして試せますが、そうした利便性故にIT予算やセキュリティポリシー上の負担にもなっています。この問題は「シャドーIT」と呼ばれ、組織内で承認された経路以外でアプリケーションやサービスを導入することを言います。
予算面について、早期に導入されたお客様からお話を伺いました。チームメンバーがLLMを試し始めたことは知っているが、商業ライセンスに関する決定をどうしたらいいのかわからないという声です。お客様のユーザーが必要とするサービスや機能は?購入が必要なシートの数は?
セキュリティ面では、AIを使えば作業が飛躍的に進むかもしれませんが、データ管理ポリシー上は大変なことになりかねません。チームメンバーはこれらのAIを難題解決のための共鳴板のように使います。AIサービスで、質問や課題を送ってくれるようユーザーに呼びかけるのです。そうしたプロンプトのコンテキストに、組織外へ決して出してはならない機密情報が含まれる場合があります。チームが単一のベンダーを選択し承認していても、組織のメンバーが別のAIを好んでワーフクロー内で使い続けるかもしれません。
Cloudflare Oneのお客様は、ご利用のプランを問わずAI利用のレビューが可能になっています。お客様のIT部門でCloudflare Gatewayをデプロイしていただき、何人のユーザーがどのサービスを選んでいるかを受動的に観測することで、企業ライセンスプランを詳細に調査することができます。
管理者はそれらのサービスの利用を1回のクリックでブロックすることもできますが、本日お伝えしたいのはそういうことではありません。ChatGPTが承認済みモデルとして選択されている場合は、この機能を使ってチームメンバーが他のツールの利用を止めるようにしたいと思われるかもしれません。だからといって、それらのサービスを軒並みブロックしてしまうことはお勧めしません。Cloudflareは、それらのツールを安全にお使いいただけるようにすることを優先しているからです。
APIアクセスを制御
OpenAIのChatGPTサービスを試し始めた時、ChatGPTがCloudflareについて既に持っていた知識に驚きました。Cloudflare Workersを使ったアプリケーションの作成やCloudflare Accessのポリシー設定方法の説明をChatGPTに依頼したところ、たいていの場合は正確で有用な結果が得られました。
的外れな結果となることも中にはありました。AIが使った情報が古かったり、こちらの質問がつい最近発表された機能に関するものだったりしたためです。有難いことに、AIは学習でき、当社は学習を手助けできます。当社が入力範囲を指定してモデルを訓練し、プラグインを接続することによって、Cloudflareサービスを利用されるお客様にとってより良いAI誘導型体験を実現することができるのです。
目的を同じくするお客様も当社と同様、訓練データを安全に共有し、AIサービスにプラグインアクセスを許可する必要があるとのことでした。Cloudflare Oneのセキュリティスイートの対象は人間のユーザーだけではなく、チームはAPI経由で機密データへのZero Trustアクセスを安全に共有することが可能になります。
チームはまず最初に、外部サービスがCloudflare One経由でデータにアクセスするために提示しなければならないサービストークンを作成することができます。管理者は、APIリクエストを送信するシステムにトークンを提示し、すべてのリクエストをログ記録することができます。チームは必要に応じて、クリック1回でトークンを取り消すことができます。
管理者は、サービストークンを作成して発行した後、特定のサービスが訓練データにアクセスすることを許可するポリシーを作成できます。そのポリシーはサービストークンを検証するものですが、拡大適用して国やIPアドレス、mTLS証明書の検証をすることもできます。また、機密の訓練データやサービスにアクセスする前にIDプロバイダーの認証とMFAプロンプトの入力完了を人間のユーザーに求めるポリシーの作成も可能です。