「AIを使いたいけど、社内の情報を入力しても大丈夫なのか」。企業がAI導入を検討する際に、最も多く寄せられる懸念がこれです。実際、ある調査では企業のAI導入を阻む要因の第1位がセキュリティへの不安(68%)でした。
この不安は決して杞憂ではありません。しかし、正しい知識とルールがあれば、安全にAIを業務に活用できます。逆に、ルールなしに「各自の判断で使ってください」と放任するのが最も危険です。
この記事では、非エンジニアの経営者・管理職の方が「自社のAI利用ルールを作れる」ようになることを目標に、AIセキュリティの基本から実践的な対策まで解説します。
AIにデータを入力すると何が起きるのか
まず、AIチャットツールにテキストを入力したとき、裏側で何が起きているかを理解しましょう。
あなたがAIに文章を入力すると、そのテキストはインターネット経由でAIサービスを運営する会社のサーバーに送信されます。サーバー上でAIが回答を生成し、あなたの画面に返ってきます。つまり、入力した内容は一時的に外部のサーバーに送信されるということです。
ここで重要なのは「送信されたデータがどう扱われるか」です。大きく分けて3つのポイントがあります。
- データがAIの学習(トレーニング)に使用されるか
- データがサーバー上にどのくらいの期間保存されるか
- データが第三者(サービス運営会社の従業員や他のユーザー)に見られる可能性があるか
この3つのポイントは、AIサービスの種類やプランによって大きく異なります。
主要AIサービスのセキュリティポリシー
Claude(Anthropic)のセキュリティ
Claudeを提供するAnthropicは、企業向けのセキュリティに最も力を入れているAI企業の一つです。
データの学習利用: 有料プラン(Pro/Team/Enterprise)およびAPI経由で送信されたデータは、AIモデルの学習に使用されません。これはAnthropicの利用規約に明記されています。無料プランでも、2026年4月時点では入力データを学習に使用しない方針ですが、企業利用の場合は有料プランを選ぶことをおすすめします。
セキュリティ認証: SOC 2 Type II認証を取得しています。SOC 2とは、米国公認会計士協会が定めたセキュリティ基準で、データの機密性・完全性・可用性について第三者監査を受けていることを意味します。
データの保存: 会話データは最大90日間保存され、その後自動削除されます。Enterpriseプランでは、企業側でデータ保存期間をカスタマイズできます。
その他のセキュリティ機能:
- 通信の暗号化(TLS 1.2以上)
- 保存データの暗号化(AES-256)
- Team/Enterpriseプランではシングルサインオン(SSO)対応
- Enterpriseプランではデータ処理契約(DPA)の締結が可能
ChatGPT(OpenAI)のセキュリティ
OpenAIのセキュリティポリシーは、プランによって大きく異なります。
無料プラン・Plusプラン: デフォルトでは入力データがモデルの改善に使用される可能性があります。設定画面から「データを学習に使用しない」オプトアウトが可能ですが、この設定を知らないユーザーが多いのが実情です。
Team/Enterpriseプラン: データは学習に使用されません。SOC 2 Type II認証取得済み。
Gemini(Google)のセキュリティ
無料版のGemini: 入力データがサービス改善に使用される場合があります。18歳未満のユーザーの会話データは学習に使用されないなどの制限はありますが、企業の機密情報の入力は避けるべきです。
Google Workspace連携版: Workspaceのデータポリシーに準拠し、入力データは学習に使用されません。
Microsoft Copilot のセキュリティ
Microsoft 365 Copilot: 企業データはAIの学習に使用されないことが明記されています。Microsoft 365のコンプライアンス基盤(ISO 27001、SOC 2等)を活用しており、特にGDPRへの対応実績が豊富です。
5段階の機密レベルとAI利用ルール
「何をAIに入力してよいか」を判断するために、データを5段階の機密レベルに分類し、それぞれのルールを定めることをおすすめします。
レベル1: 公開情報(AIに入力OK)
自社のウェブサイトに掲載している情報、公開済みのプレスリリース、一般に入手可能な業界情報など。
ルール: 制限なくAIに入力してよい。
例: 「当社のウェブサイトの会社概要を基に、展示会用の紹介文を作って」
レベル2: 社内一般情報(AIに入力OK・注意あり)
社内の業務マニュアル(機密指定なし)、一般的な業務フローの説明、社内イベントの案内文など。
ルール: 有料プラン・企業向けプランのAIに入力してよい。ただし、固有名詞(社員名、取引先名)は伏せるか匿名化する。
例: 「以下の業務マニュアルをわかりやすく書き直して」(社員名は「担当者A」に置き換え)
レベル3: 社外秘情報(条件付きでAIに入力可)
未公開の事業計画、社内の売上データ、取引先との契約条件など。
ルール: 企業向けプラン(Claude Team/Enterprise、ChatGPT Team/Enterprise等)のみ使用可。データが学習に使用されないことが保証されているプランに限る。入力前に上長の承認を得る。
例: 「来期の売上目標に基づいて、部門別の予算案を作成して」(Enterprise プランで利用)
レベル4: 機密情報(原則AIに入力不可)
個人情報(氏名・住所・電話番号・メールアドレス)、顧客リスト、給与データ、人事評価データ、NDA(秘密保持契約)で保護された取引先情報。
ルール: 原則としてAIに入力しない。やむを得ず使用する場合は、すべての個人情報を匿名化してから入力する。情報セキュリティ責任者の承認必須。
例: ×「田中太郎さん(090-xxxx-xxxx)の契約内容を確認して」→ ○「顧客Aの契約内容(以下の条件)を分析して」
レベル5: 最高機密情報(AIに入力禁止)
パスワード・アクセスキー、クレジットカード番号、マイナンバー、医療情報、未公開の特許情報、M&A交渉情報。
ルール: いかなるAIサービスにも入力してはならない。
この5段階の分類を社内で共有し、すべてのAI利用者が「このデータはレベルいくつだから、AIに入れてよい/いけない」と即座に判断できるようにすることが重要です。
社内AI利用ガイドラインの作り方
AIを安全に使うためには、社内ルールを文書化し、全社員に共有する必要があります。以下は、中小企業向けのAI利用ガイドラインのテンプレート構成です。
1. 目的と適用範囲
ガイドラインの目的(AIの安全な活用と情報セキュリティの確保)と、対象者(全社員、業務委託先を含む)を明記します。
2. 使用を許可するAIツール
会社として利用を認めるAIツールを具体的にリストアップします。「許可していないAIツールの業務利用は禁止」と明記することで、いわゆる「シャドーAI」(社員が許可なく個人のAIアカウントで業務データを処理すること)を防ぎます。
例:
- 許可: Claude Team(会社契約のアカウント)
- 許可: Microsoft 365 Copilot(会社契約のアカウント)
- 禁止: 個人アカウントでのChatGPT無料版での業務利用
3. データ分類と入力ルール
前述の5段階の機密レベルと、それぞれのAI利用ルールを記載します。
4. 出力の確認義務
AIの出力をそのまま社外に送信してはならないことを明記します。AIは間違った情報を自信ありげに出力する(ハルシネーション)ことがあるため、必ず人間が内容を確認してから使用します。
特に以下の場合は、ダブルチェック(2名以上の確認)を推奨します。
- 取引先に送る文書
- 法的な効力を持つ文書(契約書、規約等)
- 数値データを含む報告書
5. 禁止事項
明確に禁止する行為をリストアップします。
- 個人情報をそのままAIに入力すること
- AIの出力を確認せずに社外に送信すること
- 許可されていないAIツールを業務で使用すること
- AIに生成させた文書を「自分が書いた」と偽ること(必要に応じて)
6. インシデント対応
万が一、機密情報をAIに入力してしまった場合の対応手順を定めます。
- 直ちにAIサービスから該当の会話を削除する
- 情報セキュリティ責任者に報告する
- 影響範囲を調査し、必要に応じて関係者に通知する
このガイドラインのテンプレートは、Claude Works のリソースページからダウンロードできます。自社の状況に合わせてカスタマイズしてお使いください。
Claude Team/Enterprise のセキュリティ機能
企業でClaude を利用する場合、Team プランまたは Enterprise プランのセキュリティ機能を活用することをおすすめします。
Claude Team の主なセキュリティ機能
- 入力データがAIの学習に使用されない保証
- チームメンバーの管理(招待・削除)
- 会話データの保存期間管理
- プロジェクト機能による情報の整理と共有範囲の制御
Claude Enterprise の追加セキュリティ機能
- シングルサインオン(SSO): 自社のID管理システムとの連携。社員の入退社に伴うアカウント管理を自動化
- SCIM プロビジョニング: ユーザーの自動追加・削除
- 監査ログ: 誰がいつ何を入力したかの記録
- カスタムデータ保持ポリシー: データの保存期間を企業側で設定
- データ処理契約(DPA): GDPRや個人情報保護法への対応に必要
- 専用のカスタマーサクセスマネージャー
従業員50名以上の企業や、個人情報を扱う頻度が高い企業(人材、医療、金融等)には Enterprise プランをおすすめします。
よくあるセキュリティミス5選と対策
実際の企業で起きている(または起きかけた)セキュリティミスを紹介します。
ミス1: 顧客の個人情報をそのまま貼り付け
「このお客様にお礼のメールを書いて」と、顧客の氏名・メールアドレス・購入履歴をそのままAIに入力してしまうケース。
対策: 「顧客A(30代女性、初回購入)にお礼メールを書いて」のように匿名化する。個人を特定できる情報はすべて伏せる。
ミス2: 契約書のNDA情報を無断で入力
取引先との秘密保持契約で保護された情報をAIに入力し、「この契約のリスクを分析して」と依頼するケース。
対策: NDAの対象情報はレベル4(原則入力不可)に分類する。やむを得ない場合は、Enterprise プランかつ情報セキュリティ責任者の承認を得た上で、固有名詞をすべて匿名化して使用する。
ミス3: 社員が個人アカウントで業務データを処理
会社が契約したAIツールではなく、社員が個人で登録した無料アカウントで業務データを処理するケース(シャドーAI)。無料プランではデータが学習に使用される可能性がある。
対策: ガイドラインで「会社契約のアカウント以外での業務利用は禁止」と明記する。同時に、会社契約のAIツールを十分な人数分用意する(使いたいのに使えない状況がシャドーAIを生む)。
ミス4: パスワードやAPIキーを入力
「このAPIキーを使って接続する方法を教えて」と、実際のパスワードやAPIキーをAIに入力するケース。
対策: パスワードやAPIキーはレベル5(入力禁止)に分類する。質問する場合は「APIキーを使った接続方法を教えて」のように、実際の値を入力せずに質問する。
ミス5: AIの出力を無確認で送信
厳密にはセキュリティミスではありませんが、AIが生成した誤った情報(ハルシネーション)を確認せずに取引先に送ってしまうケースです。AIが架空の法律名や存在しない統計データを出力することがあります。
対策: AI出力は必ず人間が確認してから使用する。特に数値・法律・固有名詞は入念にチェックする。
コンプライアンスへの対応
企業がAIを利用する際に、関連する主な法規制を整理します。
個人情報保護法(日本)
個人情報を取り扱う場合、利用目的の特定と通知が必要です。AIツールに個人情報を入力することは「第三者提供」に該当する可能性があるため、原則として本人の同意が必要です。匿名加工情報(個人を特定できない形に加工したデータ)であれば、より柔軟に利用できます。
GDPR(EU一般データ保護規則)
海外の取引先や顧客のデータを扱う場合、GDPRへの対応が必要になる場合があります。特にEU在住者の個人データをAIに入力する場合は、データ処理契約(DPA)の締結や、データの越境移転に関する法的根拠の確保が求められます。Claude Enterprise はDPAの締結に対応しています。
AI事業者ガイドライン(経済産業省)
2026年時点で、日本ではAI利用に関する法的規制は発展途上ですが、経済産業省が策定したAI事業者ガイドラインに沿った対応が推奨されています。透明性の確保(AIを使って作成した文書であることの開示)や、公平性への配慮(AIの出力に偏りがないかの確認)などが含まれます。
まとめ:セキュリティは「禁止」ではなく「ルール化」
AIのセキュリティ対策は、「危ないからAIを使わない」ではなく、「安全に使うためのルールを作る」ことが正解です。AIを禁止している間に、競合は着々とAI活用を進めています。
今日からできる3つのアクション:
- 自社のデータを5段階の機密レベルに分類する
- AI利用ガイドラインを策定し、全社員に共有する
- 企業向けプラン(Claude Team等)を導入し、データが学習に使われない環境を整備する
Claude Works では、AI導入研修の中でセキュリティルールの策定サポートも行っています。「自社のAI利用ガイドラインを一緒に作りたい」「セキュリティが心配で導入に踏み切れない」という方は、無料30分相談でお気軽にご相談ください。助成金を活用した研修で費用を抑えながら、安全なAI活用の基盤を整えることができます。他社の導入事例もぜひ参考にしてください。




