お客様のチームがAIサービスを安全に使えるよう支援するCloudflare Oneのツール群
Cloudflare Oneを使えば、どんな規模のチームでもインターネット上にある最善のツールを安全に利用することができ、管理の問題やパフォーマンス上の課題に悩むこともありません。当社は、お客様のチームがZero Trustセキュリティ体制を維持しながら最新のAIサービスを構築できるよう支援する機能群、Cloudflare One for AIを新たに発表でき、大変嬉しく思います。
大規模言語モデル、セキュリティ問題の拡大
OpenAIのGPTやGoogleのBardといった大規模言語モデル(LLM)は、データセットに照らして訓練したニューラルネットワークから成り、プロンプトに基づいてテキストの予測と生成を行います。ユーザーは質問をしてフィードバックを求め、サービスを活用して韻文からCloudflare Workersアプリケーションまでさまざまなアウトプットを生成することができます。
また、こうしたツールは不気味なほど人間に似ています。現実の対人会話でもあるように、それらのAIサービスとの過剰な情報共有が深刻な問題になる可能性があり、LLMモデルが多用されるユースケースタイプではそのリスクが何倍にもなります。ツールは、開発者が難しいコーディングの問題を解決したり、インフォメーションワーカーがメモの寄せ集めを基に簡潔なレポートを作成したりするのに役立ちます。有用ではありますが、プロンプトに応じて入力するたびにデータが自社の制御範囲外へ出てしまうのです。
ChatGPTのようなツールに関しては、サービスの利用を全社的または全国的に一切禁止するという対応もありますが、当社はそういった対応を取る必要はないと考えています。Cloudflare Oneの目標は、お客様が必要なツールを、その所在地にかかわらず、パフォーマンスを犠牲にすることもなく、安全に使えるようにすることです。こうした機能は、既にCloudflare OneでZero Trust製品をお使いの場合はお馴染みでしょうが、ここではお客様のチームが現在利用可能なツールを使って最新のLLM機能を活用できるケースをご紹介していきます。
利用を測定
SaaSアプリケーションは、どんなユーザーでも簡単にサインアップして試せますが、そうした利便性故にIT予算やセキュリティポリシー上の負担にもなっています。この問題は「シャドーIT」と呼ばれ、組織内で承認された経路以外でアプリケーションやサービスを導入することを言います。
予算面について、早期に導入されたお客様からお話を伺いました。チームメンバーがLLMを試し始めたことは知っているが、商業ライセンスに関する決定をどうしたらいいのかわからないという声です。お客様のユーザーが必要とするサービスや機能は?購入が必要なシートの数は?
セキュリティ面では、AIを使えば作業が飛躍的に進むかもしれませんが、データ管理ポリシー上は大変なことになりかねません。チームメンバーはこれらのAIを難題解決のための共鳴板のように使います。AIサービスで、質問や課題を送ってくれるようユーザーに呼びかけるのです。そうしたプロンプトのコンテキストに、組織外へ決して出してはならない機密情報が含まれる場合があります。チームが単一のベンダーを選択し承認していても、組織のメンバーが別のAIを好んでワーフクロー内で使い続けるかもしれません。
Cloudflare Oneのお客様は、ご利用のプランを問わずAI利用のレビューが可能になっています。お客様のIT部門でCloudflare Gatewayをデプロイしていただき、何人のユーザーがどのサービスを選んでいるかを受動的に観測することで、企業ライセンスプランを詳細に調査することができます。
管理者はそれらのサービスの利用を1回のクリックでブロックすることもできますが、本日お伝えしたいのはそういうことではありません。ChatGPTが承認済みモデルとして選択されている場合は、この機能を使ってチームメンバーが他のツールの利用を止めるようにしたいと思われるかもしれません。だからといって、それらのサービスを軒並みブロックしてしまうことはお勧めしません。Cloudflareは、それらのツールを安全にお使いいただけるようにすることを優先しているからです。
APIアクセスを制御
OpenAIのChatGPTサービスを試し始めた時、ChatGPTがCloudflareについて既に持っていた知識に驚きました。Cloudflare Workersを使ったアプリケーションの作成やCloudflare Accessのポリシー設定方法の説明をChatGPTに依頼したところ、たいていの場合は正確で有用な結果が得られました。
的外れな結果となることも中にはありました。AIが使った情報が古かったり、こちらの質問がつい最近発表された機能に関するものだったりしたためです。有難いことに、AIは学習でき、当社は学習を手助けできます。当社が入力範囲を指定してモデルを訓練し、プラグインを接続することによって、Cloudflareサービスを利用されるお客様にとってより良いAI誘導型体験を実現することができるのです。
目的を同じくするお客様も当社と同様、訓練データを安全に共有し、AIサービスにプラグインアクセスを許可する必要があるとのことでした。Cloudflare Oneのセキュリティスイートの対象は人間のユーザーだけではなく、チームはAPI経由で機密データへのZero Trustアクセスを安全に共有することが可能になります。
チームはまず最初に、外部サービスがCloudflare One経由でデータにアクセスするために提示しなければならないサービストークンを作成することができます。管理者は、APIリクエストを送信するシステムにトークンを提示し、すべてのリクエストをログ記録することができます。チームは必要に応じて、クリック1回でトークンを取り消すことができます。
管理者は、サービストークンを作成して発行した後、特定のサービスが訓練データにアクセスすることを許可するポリシーを作成できます。そのポリシーはサービストークンを検証するものですが、拡大適用して国やIPアドレス、mTLS証明書の検証をすることもできます。また、機密の訓練データやサービスにアクセスする前にIDプロバイダーの認証とMFAプロンプトの入力完了を人間のユーザーに求めるポリシーの作成も可能です。
AIサービスが自社インフラに接続することを許可できる状態になったら、チームはCloudflare Tunnelを使い、自社のファイアウォールに穴を開けることなく許可できます。Cloudflare TunnelがCloudflareネットワークへの暗号化されたアウトバウンド専用接続を確立し、Cloudflareネットワークでは、Cloudflare Oneで保護される単数または複数のサービス用に設定されたアクセスルールに照らし、各リクエストをチェックします。
お客様はCloudflareのZero Trustアクセス制御によって、それらのツールに提供すると決めたデータに対するすべてのリクエストについて、認証を実施することができます。それでも、チームメンバーが独自で過剰共有してしまうかもしれないデータをすべてカバーできるわけではありません。
データアップロードを制限
管理者はAIサービスを選択し、シャドーITの利用をブロックし、訓練用素材へのアクセスを慎重に制御することができますが、AIの実験にはどうしても人間が関与します。誰でも、AIサービス(承認済みのものであっても)を利用する過程で情報を過剰共有し、うっかりセキュリティインシデントを起こしてしまう可能性があります。
当社は、今後もAIの実験が進み、さらなるデータ管理機能が登場すると予想していますが、お客様がAIサービスをワークフローの一環として取り入れ始めるのに新機能の登場を待つ必要はないと考えています。 Cloudflareのデータ損失防止(DLP)サービスは、情報過剰共有がセキュリティチームにとってのインシデントになる前に阻止する安全策を提供できます。
まず、お客様にとって大切なデータは何かをお知らせください。社会保険番号やクレジットカード番号のように見えるものをお客様がチェックできるようにするシンプルな設定済みオプションを、当社から提示させていただきます。Cloudflare DLPは、お客様のチームが設定した正規表現に基づいてパターンをスキャンすることもできます。
決して社外に出してはならないデータを定義したら、そのデータをAIサービスと共有できる場合とできない場合について詳細ルールを設定することができます。おそらく、機密データを含むプロジェクトでの実験を認められているユーザーもいるでしょう。その場合は、Active DirectoryまたはOktaグループにのみその種の情報のアップロードを許可し、その他はブロックするルールを設定できます。
プロキシなしの利用を制御
本日のブログ記事で取り扱ったツールは、転送中データに適用される機能が中心になっています。当社では、アプリケーションの設定ミスがセキュリティ侵害につながらないようにすることにも力を入れています。例えば、ChatGPTの新しいプラグイン機能は、外部サービスのナレッジやワークフローをAIのインタラクションフローに取り込みます。しかし、それがプラグインの背後にあるサービスに意図したレベル以上のアクセスを許すことにつながる可能性もあります。
Cloudflareのクラウドアクセスセキュリティブローカー(CASB)は、お客様のSaaSアプリケーションをスキャンして、ユーザーが変更を加える際に起こり得る問題がないか調べます。誰かがつい先ほどうっかりインターネット上で公開してしまったファイルに関する警告から、お客様のGitHubリポジトリに適正なメンバーシップ制御があるか否かの確認まで、CloudflareのCASBは、お客様のSaaSアプリケーションに起こり得るセッティングの問題を手作業で逐一チェックする手間を省きます。
当社は現在、設定ミスのチェックによく使われるAIサービスとの新たな統合に取り組んでおり、近日発表する予定です。それらのサービスのユーザーのほとんどがそうですが、当社も事故が起こり得る箇所についてまだ学習中です。当社のCASBをご利用の管理者に、AIサービス用制御機能の第一弾をお届けできることを楽しみにしております。
今後の展開は?
AIツールの有用性は高まる一方でしょう。今後も、アウトプットを導き生成するAIサービスの力のおかげで、ビルダーの経歴を問わず、次のヒット作を生み出しやすくなるでしょう。
私たちの目指すところは同じです。ユーザーによるアプリケーションやサービスの構築を支援することを主眼としたCloudflare製品、Workersプラットフォームは、アプリケーションをどこにデプロイするか、サービスをどう拡張するかと心配するような面倒を排除します。Cloudflareはそうした悩みを解消し、ユーザーが創作に専念できるようにします。数千の新規ビルダーがAIサービスと併用し、AIの誘導と生成をヒントに、Cloudflare上に構築した新製品群を発表するようになると期待しています。
既に、ChatGPTなどのツールによる誘導を利用してCloudflare Workers上に構築された数十のプロジェクトが成功を収めています。当社では、それらのモデルとの新たな統合を発表し、シームレス化をさらに進め、チャット体験でCloudflareならではのより良い誘導を実現する計画です。
一方、AIツールのセキュリティリスクが増大することも当社は承知しています。今後も、AIサービスの進化に伴って高まるリスクの先手を打つための機能を、Cloudflare Oneに加えていきます。導入をご希望ですか?こちらでサインアップし、Cloudflare Oneの使用を開始してください。最高50ユーザーまで無料です。