
「Microsoft Copilot」は、Microsoft 365に組み込まれていることもあり、ビジネス用途で利用されることが最も多いAIアシスタントツールの一つです。しかし、機密情報の流出や不正利用を狙ったサイバー攻撃が増加する今、導入前に情報の流れを見直すことが不可欠となっています。
本記事では、Copilot導入前に対処すべきリスクを整理した上で、「権限」と「情報ガバナンス」をどのように整理するべきか実務的な視点から解説します。安全かつ効果的にAIアシスタントを活用するための実践的なガイドラインとしてご活用ください。
【関連記事】Microsoft 365 Copilotとは?AI技術が生み出す新たな働き方について解説
2023年11月から一般提供が開始されたMicrosoft 365 Copilot。WordやExcel、Outlookといった既存のOfficeツールに生成AIを組み込むことで、業務の効率化を強力に後押しします。
議事録の要約やメールの下書き、過去資料の検索・比較といった作業が自然言語だけで完結するようになり、「AIの力で作業が早く終わる」恩恵を感じている方も少なくないでしょう。
しかし、その一方で押さえておかなければならないのが、Copilotは社内に蓄積されたドキュメントやメールなどの「既存データ」をベースに動作するAIアシスタントということです。つまり、適切なアクセス制御がなされていなければ、以下のような事態が発生する可能性があります。
営業部の担当者が「四半期ごとの評価レポートを参考に提案書を作りたい」とCopilotに依頼しました。Copilotは担当者がアクセス権を持つ範囲でSharePointを検索し、関連する情報をもとに回答を生成します。
しかし、この依頼に含まれる「評価」というキーワードが、人事部の「人事評価資料.xlsx」と一致していたため、そのファイルに関する情報が回答に含まれてしまったのです。 Copilotは権限を超えてファイルを直接閲覧することはありませんが、Microsoft 365の仕組みに基づき、ユーザーがアクセスできる範囲の情報のみを利用するため、ファイルのアクセス権の設定を間違えてしまっていると読み込めてしまうのです。 そのため、権限設定を正確に設定していないと、意図しない情報が意図しないユーザーの回答に含まれる可能性があるのです
マーケティング部の担当者が「過去のキャンペーン事例を参考に、新しい提案書を作りたいです」とCopilotに依頼したところ、すでに契約が終了した顧客企業の社名や担当者名が、生成された文案の中に含まれてしまったケースです。 これは、過去の提案書やメールスレッドがOneDrive上に残っており、Copilotがそれらを“利用可能なデータ”として参照してしまったことが原因です。
この問題は人間によるチェックと修正により対処可能ですが、データのライフサイクル管理(削除・権限解除)が適切に行われていなければ発生する事は意識しておく必要があります。
退職を控えた社員が「過去の契約ドラフトを参考に新しい契約書案を作りたいです」とCopilotに依頼したところ、機密性の高い社内情報が検索結果として要約表示されてしまったケースです。
CopilotはMicrosoft 365全体に分散しているデータを横断的に参照できるため、退職予定者や異動者がまだ有効なアカウント権限を持っている場合、想定外のファイルにアクセスできてしまうことがあります。
このような事態を防ぐには、退職・異動前のアカウント権限棚卸しと自動失効ルールの運用が不可欠です。AIが関与する環境では、「いつまで・どの範囲までデータにアクセスできるのか」を従来以上に厳密に管理する必要があります。
Copilotを安全に活用するためには、AIそのものの精度や操作教育以上に「どのデータにアクセスできるか」を決める権限設計と情報ガバナンスの再構築が欠かせません。ここでは、前述の三つのリスクケースを踏まえ、導入前に見直すべき実務上のポイントを解説します。
個人単位で権限を付与する従来のアクセス管理が、他部署のデータや機密情報、過去のデータが意図せず見えてしまう要因となっています。Copilot環境では、AIが個人の権限を起点に社内データを横断的に検索・要約するため、「個人ベース設計」では管理コストとリスクが高まります。
そこでご提案したいのが、「RBAC(Role-Based Access Control:役割ベースアクセス制御)」です。「営業リーダー」「経理マネージャー」「法務担当」「開発プロジェクトメンバー」など、業務ロールごとに権限テンプレートを定義し、Microsoft Entra ID(旧Azure Ative Directory)のグループベースアクセス制御として運用します。
また、Microsoft Entra Privileged Identity Management(PIM)を活用すれば、「期間限定プロジェクト」「監査対応」などに対して一時ロール(Just-In-Timeアクセス)を発行し、終了後に自動失効させることができます。
AI時代の権限設計では、「人の動き」ではなく「役割の境界」で統制を取ることを基本と考えましょう。
AIアシスタントが参照できる範囲を適切にコントロールするためには、「どの情報をCopilotに見せてよいのか」をあらかじめ定義しておく必要があります。 そこで推奨されるのが、Microsoft Purview Information Protectionを活用した情報分類ラベル運用です。
例えば社内データを「公開」「限定公開」「非公開(機密)」の3階層に分類。契約書や人事資料などの機密ファイルには「社外秘」ラベルを自動付与し、一般的な社内共有資料には「社内共有可」といったラベルを付けるイメージです。Purviewの自動ラベリング機能を使えば、ファイル内容に応じた分類を自動適用でき、担当者の負担を軽減できます。
さらに、Microsoft Purview Data Lifecycle Managementの「保持ラベル」「保持ポリシー」を使えば、退職・契約終了・プロジェクト完了といったタイミングでファイルを自動アーカイブまたは削除可能です。 例えば「契約終了後90日で削除」「退職者フォルダは30日後に消去」などのルールを定義することで、不要データがCopilotの検索範囲に残り続けるリスクを防止できます。
このように、「情報分類」と「ライフサイクル管理」を両輪で運用することで、“参照されるべきではないデータ”がCopilotの検索範囲に残り続けるリスクを最小化し、安全なAI活用基盤を構築できます。
ゼロトラストの時代、万が一データの漏えいが発生した場合、「誰が・どのデータを・どのようにAIを通じて参照したのか」を追跡できなければ、原因特定が困難になります。そのため、Microsoft PurviewやMicrosoft 365 Defenderを活用し、Copilotの利用状況を可視化・監査する仕組みを整えることが重要です。
Purviewの「内部リスク管理」機能では、特定の操作や退職予定などユーザーの属性をトリガーとして、データのダウンロードから端末上での操作まで一連の行動を分析し、普段との活動量の違いやファイル内容も踏まえて不正・持ち出しのリスクを判定します。
さらに、人の目でAI活用の倫理性・透明性を担保するために、「AI利用監査委員会」や「データガバナンス部門」による定期レビューサイクルを設けることも有効です。AIを業務インフラとして活用する以上、システム面と組織面の両輪で継続的な監視と改善を行う仕組み化が求められます。
情シスが「権限設計」と「情報ガバナンス」の見直しを進めるにあたって、どのようなポイントに注意し、具体的にどんな機能を組み合わせるべきなのでしょうか? 実際の運用に落とし込むための設計手順を3ステップで整理します。
まず取り組むべきは、アクセス制御の基本方針を文書化し、Microsoft 365全体で一貫運用できる状態にすることです。 実務的には、以下の3層構造で整理すると分かりやすいでしょう。
| 階層 | 設計内容 | 主な設定ポイント |
|---|---|---|
| システム層(テナント全体) | Copilotが参照できるデータソース(SharePoint/OneDrive/Teamsなど)を明確化 | Microsoft Entra ID上でグループ単位のアクセスを定義 |
| 業務層(部門・役職) | RBACロールのテンプレート化 | 「営業リーダー」「法務担当」など業務別権限セットを定義 |
| ユーザー層(個人・期間) | 一時ロール付与・削除の自動化 | Microsoft PIMを使い有効期間を設定(Just-In-Timeアクセス) |
退職・異動時の自動失効ポリシーは「アカウント失効日」ではなく「最終業務日」で設定しましょう。これにより、退職直前の不正アクセスやAI経由での情報抽出リスクを抑止できます。
情報分類は「IT部門だけのルール」ではなく、全社員が理解し使いこなせる“共通言語”にする必要があります。 Microsoft Purview Information Protectionのラベル設計の一例としては以下のようなものが挙げられます。
| ラベル | 対象情報 | 自動適用ルール例 | 主な設定ポイント |
|---|---|---|---|
| 社外秘 | 契約書、人事・財務資料 | 「契約」「給与」「取締役会」などのキーワードを検出 | 外部共有禁止、コピー・印刷制限 |
| 社内限定 | マニュアル、社内報告書、議事録 | SharePoint「社内共有」サイトに保存された文書 | 社内共有可、外部送信時に警告表示 |
| 一般公開 | 製品カタログ、採用情報 | 公開Webや広報フォルダ内文書 | 外部共有可、アクセス制限なし |
さらに、「保持ラベル」「削除ポリシー」を組み合わせることで、データが不要になった段階で自動的にCopilotの参照範囲から除外されるようにします。 これにより、AIが誤って古い契約情報や退職者のデータなどを参照する事態を防げます。
最後に重要なのが、「設定したルールが本当に守られているか」を可視化・検証する仕組みです。 Microsoft Purviewの「内部リスク管理」や「監査」機能を組み合わせることで、次のような監査基盤を構築できます。
・AI利用の可視化:Copilot経由でアクセスされたファイルやクエリ履歴を分析
・アクティビティ異常検出:通常より多いアクセス量、退職予定者のファイル閲覧を自動検出
・アラート運用:異常検知時にセキュリティ担当・ガバナンス部門へ通知
加えて、これらのログ情報をPower BIやMicrosoft Sentinelと連携させることで、監査データをリアルタイムに可視化し、部門ごとのAI利用状況を定量的に把握できます。また、異常検知時の対応フローを自動化しておくことも有効です。例えば、退職予定者が高機密データにアクセスした場合に即座にアラートを発報し、アカウント権限を一時停止する、といったルールを設定しておくことで、対応スピードと精度を両立できます。
Microsoft 365 Copilotは、生成AIの力で業務効率を大幅に引き上げる可能性を秘めたツールです。しかしその情報機密上の安全性を確保するには、AIが「何を見て、何を出力するか」を制御する設計こそが鍵となります。
属人的なフォルダ管理やあいまいなアクセス設定が残っている状態は、AI経由での情報漏えいリスクに直結します。逆に言えば、Copilotをきっかけに社内の権限設計・ガバナンスを見直すことは、全社的な情報管理の底上げにもつながるでしょう。