「AIを使いたいけど、社内の情報を入力しても大丈夫なのか」。企業がAI導入を検討する際に、最も多く寄せられる懸念がこれです。実際、ある調査では企業のAI導入を阻む要因の第1位がセキュリティへの不安(68%)でした。

この不安は決して杞憂ではありません。しかし、正しい知識とルールがあれば、安全にAIを業務に活用できます。逆に、ルールなしに「各自の判断で使ってください」と放任するのが最も危険です。

この記事では、非エンジニアの経営者・管理職の方が「自社のAI利用ルールを作れる」ようになることを目標に、AIセキュリティの基本から実践的な対策まで解説します。

AIにデータを入力すると何が起きるのか

まず、AIチャットツールにテキストを入力したとき、裏側で何が起きているかを理解しましょう。

あなたがAIに文章を入力すると、そのテキストはインターネット経由でAIサービスを運営する会社のサーバーに送信されます。サーバー上でAIが回答を生成し、あなたの画面に返ってきます。つまり、入力した内容は一時的に外部のサーバーに送信されるということです。

ここで重要なのは「送信されたデータがどう扱われるか」です。大きく分けて3つのポイントがあります。

  1. データがAIの学習(トレーニング)に使用されるか
  2. データがサーバー上にどのくらいの期間保存されるか
  3. データが第三者(サービス運営会社の従業員や他のユーザー)に見られる可能性があるか

この3つのポイントは、AIサービスの種類やプランによって大きく異なります。

主要AIサービスのセキュリティポリシー

Claude(Anthropic)のセキュリティ

Claudeを提供するAnthropicは、企業向けのセキュリティに最も力を入れているAI企業の一つです。

データの学習利用: 有料プラン(Pro/Team/Enterprise)およびAPI経由で送信されたデータは、AIモデルの学習に使用されません。これはAnthropicの利用規約に明記されています。無料プランでも、2026年4月時点では入力データを学習に使用しない方針ですが、企業利用の場合は有料プランを選ぶことをおすすめします。

セキュリティ認証: SOC 2 Type II認証を取得しています。SOC 2とは、米国公認会計士協会が定めたセキュリティ基準で、データの機密性・完全性・可用性について第三者監査を受けていることを意味します。

データの保存: 会話データは最大90日間保存され、その後自動削除されます。Enterpriseプランでは、企業側でデータ保存期間をカスタマイズできます。

その他のセキュリティ機能:

  • 通信の暗号化(TLS 1.2以上)
  • 保存データの暗号化(AES-256)
  • Team/Enterpriseプランではシングルサインオン(SSO)対応
  • Enterpriseプランではデータ処理契約(DPA)の締結が可能

ChatGPT(OpenAI)のセキュリティ

OpenAIのセキュリティポリシーは、プランによって大きく異なります。

無料プラン・Plusプラン: デフォルトでは入力データがモデルの改善に使用される可能性があります。設定画面から「データを学習に使用しない」オプトアウトが可能ですが、この設定を知らないユーザーが多いのが実情です。

Team/Enterpriseプラン: データは学習に使用されません。SOC 2 Type II認証取得済み。

Gemini(Google)のセキュリティ

無料版のGemini: 入力データがサービス改善に使用される場合があります。18歳未満のユーザーの会話データは学習に使用されないなどの制限はありますが、企業の機密情報の入力は避けるべきです。

Google Workspace連携版: Workspaceのデータポリシーに準拠し、入力データは学習に使用されません。

Microsoft Copilot のセキュリティ

Microsoft 365 Copilot: 企業データはAIの学習に使用されないことが明記されています。Microsoft 365のコンプライアンス基盤(ISO 27001、SOC 2等)を活用しており、特にGDPRへの対応実績が豊富です。

5段階の機密レベルとAI利用ルール

「何をAIに入力してよいか」を判断するために、データを5段階の機密レベルに分類し、それぞれのルールを定めることをおすすめします。

レベル1: 公開情報(AIに入力OK)

自社のウェブサイトに掲載している情報、公開済みのプレスリリース、一般に入手可能な業界情報など。

ルール: 制限なくAIに入力してよい。

例: 「当社のウェブサイトの会社概要を基に、展示会用の紹介文を作って」

レベル2: 社内一般情報(AIに入力OK・注意あり)

社内の業務マニュアル(機密指定なし)、一般的な業務フローの説明、社内イベントの案内文など。

ルール: 有料プラン・企業向けプランのAIに入力してよい。ただし、固有名詞(社員名、取引先名)は伏せるか匿名化する。

例: 「以下の業務マニュアルをわかりやすく書き直して」(社員名は「担当者A」に置き換え)

レベル3: 社外秘情報(条件付きでAIに入力可)

未公開の事業計画、社内の売上データ、取引先との契約条件など。

ルール: 企業向けプラン(Claude Team/Enterprise、ChatGPT Team/Enterprise等)のみ使用可。データが学習に使用されないことが保証されているプランに限る。入力前に上長の承認を得る。

例: 「来期の売上目標に基づいて、部門別の予算案を作成して」(Enterprise プランで利用)

レベル4: 機密情報(原則AIに入力不可)

個人情報(氏名・住所・電話番号・メールアドレス)、顧客リスト、給与データ、人事評価データ、NDA(秘密保持契約)で保護された取引先情報。

ルール: 原則としてAIに入力しない。やむを得ず使用する場合は、すべての個人情報を匿名化してから入力する。情報セキュリティ責任者の承認必須。

例: ×「田中太郎さん(090-xxxx-xxxx)の契約内容を確認して」→ ○「顧客Aの契約内容(以下の条件)を分析して」

レベル5: 最高機密情報(AIに入力禁止)

パスワード・アクセスキー、クレジットカード番号、マイナンバー、医療情報、未公開の特許情報、M&A交渉情報。

ルール: いかなるAIサービスにも入力してはならない。

この5段階の分類を社内で共有し、すべてのAI利用者が「このデータはレベルいくつだから、AIに入れてよい/いけない」と即座に判断できるようにすることが重要です。

社内AI利用ガイドラインの作り方

AIを安全に使うためには、社内ルールを文書化し、全社員に共有する必要があります。以下は、中小企業向けのAI利用ガイドラインのテンプレート構成です。

1. 目的と適用範囲

ガイドラインの目的(AIの安全な活用と情報セキュリティの確保)と、対象者(全社員、業務委託先を含む)を明記します。

2. 使用を許可するAIツール

会社として利用を認めるAIツールを具体的にリストアップします。「許可していないAIツールの業務利用は禁止」と明記することで、いわゆる「シャドーAI」(社員が許可なく個人のAIアカウントで業務データを処理すること)を防ぎます。

例:

  • 許可: Claude Team(会社契約のアカウント)
  • 許可: Microsoft 365 Copilot(会社契約のアカウント)
  • 禁止: 個人アカウントでのChatGPT無料版での業務利用

3. データ分類と入力ルール

前述の5段階の機密レベルと、それぞれのAI利用ルールを記載します。

4. 出力の確認義務

AIの出力をそのまま社外に送信してはならないことを明記します。AIは間違った情報を自信ありげに出力する(ハルシネーション)ことがあるため、必ず人間が内容を確認してから使用します。

特に以下の場合は、ダブルチェック(2名以上の確認)を推奨します。

  • 取引先に送る文書
  • 法的な効力を持つ文書(契約書、規約等)
  • 数値データを含む報告書

5. 禁止事項

明確に禁止する行為をリストアップします。

  • 個人情報をそのままAIに入力すること
  • AIの出力を確認せずに社外に送信すること
  • 許可されていないAIツールを業務で使用すること
  • AIに生成させた文書を「自分が書いた」と偽ること(必要に応じて)

6. インシデント対応

万が一、機密情報をAIに入力してしまった場合の対応手順を定めます。

  1. 直ちにAIサービスから該当の会話を削除する
  2. 情報セキュリティ責任者に報告する
  3. 影響範囲を調査し、必要に応じて関係者に通知する

このガイドラインのテンプレートは、Claude Works のリソースページからダウンロードできます。自社の状況に合わせてカスタマイズしてお使いください。

Claude Team/Enterprise のセキュリティ機能

企業でClaude を利用する場合、Team プランまたは Enterprise プランのセキュリティ機能を活用することをおすすめします。

Claude Team の主なセキュリティ機能

  • 入力データがAIの学習に使用されない保証
  • チームメンバーの管理(招待・削除)
  • 会話データの保存期間管理
  • プロジェクト機能による情報の整理と共有範囲の制御

Claude Enterprise の追加セキュリティ機能

  • シングルサインオン(SSO): 自社のID管理システムとの連携。社員の入退社に伴うアカウント管理を自動化
  • SCIM プロビジョニング: ユーザーの自動追加・削除
  • 監査ログ: 誰がいつ何を入力したかの記録
  • カスタムデータ保持ポリシー: データの保存期間を企業側で設定
  • データ処理契約(DPA): GDPRや個人情報保護法への対応に必要
  • 専用のカスタマーサクセスマネージャー

従業員50名以上の企業や、個人情報を扱う頻度が高い企業(人材、医療、金融等)には Enterprise プランをおすすめします。

よくあるセキュリティミス5選と対策

実際の企業で起きている(または起きかけた)セキュリティミスを紹介します。

ミス1: 顧客の個人情報をそのまま貼り付け

「このお客様にお礼のメールを書いて」と、顧客の氏名・メールアドレス・購入履歴をそのままAIに入力してしまうケース。

対策: 「顧客A(30代女性、初回購入)にお礼メールを書いて」のように匿名化する。個人を特定できる情報はすべて伏せる。

ミス2: 契約書のNDA情報を無断で入力

取引先との秘密保持契約で保護された情報をAIに入力し、「この契約のリスクを分析して」と依頼するケース。

対策: NDAの対象情報はレベル4(原則入力不可)に分類する。やむを得ない場合は、Enterprise プランかつ情報セキュリティ責任者の承認を得た上で、固有名詞をすべて匿名化して使用する。

ミス3: 社員が個人アカウントで業務データを処理

会社が契約したAIツールではなく、社員が個人で登録した無料アカウントで業務データを処理するケース(シャドーAI)。無料プランではデータが学習に使用される可能性がある。

対策: ガイドラインで「会社契約のアカウント以外での業務利用は禁止」と明記する。同時に、会社契約のAIツールを十分な人数分用意する(使いたいのに使えない状況がシャドーAIを生む)。

ミス4: パスワードやAPIキーを入力

「このAPIキーを使って接続する方法を教えて」と、実際のパスワードやAPIキーをAIに入力するケース。

対策: パスワードやAPIキーはレベル5(入力禁止)に分類する。質問する場合は「APIキーを使った接続方法を教えて」のように、実際の値を入力せずに質問する。

ミス5: AIの出力を無確認で送信

厳密にはセキュリティミスではありませんが、AIが生成した誤った情報(ハルシネーション)を確認せずに取引先に送ってしまうケースです。AIが架空の法律名や存在しない統計データを出力することがあります。

対策: AI出力は必ず人間が確認してから使用する。特に数値・法律・固有名詞は入念にチェックする。

コンプライアンスへの対応

企業がAIを利用する際に、関連する主な法規制を整理します。

個人情報保護法(日本)

個人情報を取り扱う場合、利用目的の特定と通知が必要です。AIツールに個人情報を入力することは「第三者提供」に該当する可能性があるため、原則として本人の同意が必要です。匿名加工情報(個人を特定できない形に加工したデータ)であれば、より柔軟に利用できます。

GDPR(EU一般データ保護規則)

海外の取引先や顧客のデータを扱う場合、GDPRへの対応が必要になる場合があります。特にEU在住者の個人データをAIに入力する場合は、データ処理契約(DPA)の締結や、データの越境移転に関する法的根拠の確保が求められます。Claude Enterprise はDPAの締結に対応しています。

AI事業者ガイドライン(経済産業省)

2026年時点で、日本ではAI利用に関する法的規制は発展途上ですが、経済産業省が策定したAI事業者ガイドラインに沿った対応が推奨されています。透明性の確保(AIを使って作成した文書であることの開示)や、公平性への配慮(AIの出力に偏りがないかの確認)などが含まれます。

まとめ:セキュリティは「禁止」ではなく「ルール化」

AIのセキュリティ対策は、「危ないからAIを使わない」ではなく、「安全に使うためのルールを作る」ことが正解です。AIを禁止している間に、競合は着々とAI活用を進めています。

今日からできる3つのアクション:

  1. 自社のデータを5段階の機密レベルに分類する
  2. AI利用ガイドラインを策定し、全社員に共有する
  3. 企業向けプラン(Claude Team等)を導入し、データが学習に使われない環境を整備する

Claude Works では、AI導入研修の中でセキュリティルールの策定サポートも行っています。「自社のAI利用ガイドラインを一緒に作りたい」「セキュリティが心配で導入に踏み切れない」という方は、無料30分相談でお気軽にご相談ください。助成金を活用した研修で費用を抑えながら、安全なAI活用の基盤を整えることができます。他社の導入事例もぜひ参考にしてください。