SECURITY GUIDE

Claude Code・Codex の
セキュリティ完全ガイド

経営者・情シス・法務の方向け|専門用語ゼロでやさしく解説

「結局のところ、社内で使って大丈夫なの?」
営業面談で頻繁にいただくご質問に、ITに詳しくない方でも分かるようお答えします。

01

結論:適切な設定なら、法人導入はまったく問題ありません

営業面談で必ず話題に上がる「セキュリティの不安」に対するAI鬼管理の基本スタンス。

代表 菅澤孝平 代表
菅澤 孝平

面談やお問い合わせで、ほぼ毎回いただくのが「うちで Claude Code や Codex を使って大丈夫なんでしょうか?」というご質問です。

結論からお伝えします。正しい契約形態を選び、社内の使い方ルールを整えるだけで、上場企業様や医療系のお客様でも安全に導入していただけています。

このページでは、専門用語を使わずに、その「正しい契約」と「社内ルール」がどういうものなのかを順を追ってご説明します。

このページで分かること

① Claude Code・Codex は、入力したデータをどう扱うのか
② 法人で使って大丈夫なケース/止めた方がいいケース
③ ご相談で頻繁にいただく質問への回答

最初におさえていただきたい考え方

使うか/使わないか」ではなく「どう正しく使うか」が議論のスタートです。

機密性の高いデータを扱う現場でも、契約形態と社内ルールを整えることで多くの場合は導入可能です。逆に、ここを整えずに全社員が自由に使うと、どんなに安全性の高いツールを選んでも事故が起きます。

データの流れ(全体像)
👤
社員のPC
プロンプト送信
🛡️
DLP(推奨)
機密を自動遮断
☁️
AIベンダー
Anthropic / OpenAI
💬
応答
PCに戻る

機密データを扱う場合、社員PCとAIベンダーの間に「DLP(情報漏洩防止ソフト)」を入れる構成が推奨されます。

02

Claude Code(Anthropic)のセキュリティ

Claude を提供する Anthropic 社の安全対策を、用語の意味と一緒にやさしく解説。

代表 菅澤孝平 代表
菅澤 孝平

Claude Code を作っているのは Anthropic(アンソロピック)という米国の会社で、元 OpenAI のメンバーが「安全性を最優先する AI」を掲げて2021年に設立した会社です。

データの扱い方や認証取得については AI 業界の中でも特に丁寧に設計されています。順番にひとつずつ見ていきましょう。

① 入力したコードや指示は、AI の勉強材料に使われる?

結論:法人プラン(API・Claude for Work)では、原則・デフォルトで学習に使われません。業務で扱うソースコードや社外秘のドキュメントを Claude Code に渡しても、デフォルト設定では Anthropic 社の AI 学習材料に流用されません。

ただし例外として、組織管理者が「Development Partner Program」等に明示的に opt-in(参加同意)した場合は、当該データが製品改善に利用される可能性があります。導入時には、自社の管理コンソール設定を確認することが大切です。

一方、個人向けの claude.ai(Free/Pro/Max)は「Privacy Settings → Model Improvement」をオンにしていると、入力内容が匿名化された上で学習に使われる可能性があります。法人利用ではビジネス向けプランを選び、管理コンソールで opt-in 状況を確認することをお勧めします。

② ZDR(履歴を残さない設定)とは何か

代表 菅澤孝平 代表
菅澤 孝平

ここで 「ZDR(ゼットディーアール)」という言葉が出てきます。お客様からも「ZDR って結局なに?」とよく聞かれるので、まず用語をご説明します。

ZDR(Zero Data Retention/ゼロ・データ・リテンション)とは

「ベンダーのサーバー側に、送信したデータを原則として保持しない設定」のことです。

通常は、いつ・誰が・何を送ったかを30日ほどログとして保管します(不正利用がないかチェックするため)。ZDR を有効にすると、この30日ログを基本的に残さない運用に切り替わります。

ただし完全無保存ではない点と、Anthropic と OpenAI で仕組み・例外条件が異なる点にご注意ください。
Anthropic の ZDR:ポリシー違反対応や法令要請の場合、関連データを最大2年まで保持し得ると公式説明されています。
OpenAI の ZDR:API Platform の対象エンドポイントごとの保持制御で、Application State など別体系の例外条件があります。

また、Claude Code はお手元のPC側にセッションの会話履歴(transcript)を一定期間ローカル保存する設定があるため、こちらは別途取扱いの設計が必要です。

サーバー側にできるだけ残されたくない」という上場企業や金融・医療系のお客様向けに用意された、一段高い守りの設定だとお考えください。

ZDR を有効にするとどう変わるか
ZDR OFF(標準設定)
送信 処理 応答 サーバー側に約30日ログ保存
ZDR ON(申請で有効化)
送信 処理 応答 原則ログを残さない

※ ZDR ON でも、法令・ポリシー違反対応で例外的に保持されるケースあり。Claude Code はローカルPC側のtranscript保存は別管理が必要。

Claude for Enterprise(法人向け上位プラン)の契約か、API キー(プログラム連携用の利用権)経由の利用で、Anthropic のアカウント担当に依頼すれば組織単位でオンにできます。有効化した記録はすべて監査ログに残るため、後から「いつ有効化したか」を証明できます。

ただし注意点として、ZDR をオンにすると、サーバー側で履歴保存が必要な一部の機能は使えなくなります(Web版のClaude Code、リモートセッション、フィードバック送信など)。「履歴を残さない」ことと「履歴で動く機能」は両立できないので、ここはトレードオフです。

▼ ZDR の対象と対象外(早見表)

区分ZDR の効き方備考
Claude Code 本体(ターミナルから使う)Anthropic 側には原則保持されない法令・ポリシー違反時は最大2年保持の例外あり/ローカルPC側のtranscriptは別途取扱い設計が必要
claude.ai(ブラウザのチャット画面)対象外標準の保持ポリシー・組織設定に従う(個人プランは設定で変動、法人組織は組織側の保持設定・削除・エクスポート仕様に依存)
Claude Code on the Web(ブラウザ版)機能自体が使えない履歴必須のため
Anthropic への /feedback 送信機能自体が使えない送信内容を残す前提のため
Bedrock / Vertex AI 経由AWS/Googleの規約に従うAnthropic の ZDR は適用されない
MCP(外部ツール連携)経由のデータ対象外連携先の規約を別途確認

③ Amazon・Google のクラウド経由で使う方法

代表 菅澤孝平 代表
菅澤 孝平

「データを日本国内に置きたい」「会社のネットワーク内で完結させたい」というご要望には、Amazon や Google のクラウド経由で Claude を使う方法が効きます。

Bedrock(ベッドロック)/ Vertex AI(バーテックス AI)とは

どちらも大手クラウドが提供する「企業向けAIサービス基盤」です。Bedrock は Amazon Web Services(AWS)、Vertex AI は Google Cloud の中にあります。Anthropic の Claude は、この Bedrock・Vertex AI 経由でも利用できます。

嬉しい点はデータを置くリージョンを指定できることですが、選択肢はサービス側の提供状況に依存します。AWS Bedrockでは東京リージョンなど日本国内を選択可能なケースがありますが、Google Cloud Vertex AI 上の Claudeは提供地域が限定(公式表ではアジア太平洋は Singapore/Taiwan 等の掲載)で、必ずしも日本リージョンが選べるとは限りません
「日本国内のデータセンターから出してはいけない」要件がある場合、契約検討時にどのリージョンが対象かを必ず公式ページで最新確認してください。

④ 暗号化と社内ログイン連携

通信はTLS(インターネットの標準的な暗号化方式。銀行のサイトや Amazon と同じ仕組み)で守られています。途中で盗み見られる心配はありません。

Claude for Enterprise では、社員のアカウント管理を会社のメインのID基盤(Microsoft Entra ID/Okta/Google Workspace 等)と連携できます。退職者のアカウントを自動で停止する、部署ごとに権限を変える、誰がいつ使ったかを記録する——といった企業ガバナンスの基本機能が一通りそろっています。

「SSO」「SCIM」「RBAC」って何?

3つとも社内のID・アカウント管理に関する用語です。経営者の方が覚える必要はありません(情シスご担当の方にだけ伝えれば大丈夫です)。

SSO(シングルサインオン):いつもの会社のIDで Claude にもログインできる仕組み。
SCIM(スキム):入社・退職時に自動でアカウントを追加・停止する仕組み。
RBAC(ロールベース・アクセス制御):「営業部はこれ、経理部はあれ」と権限を分ける仕組み。

⑤ 国際的なセキュリティ認証の取得状況

Anthropic は、世界の大企業が「このベンダーは信頼できる」と判断するための国際認証をひと通り取得しています。社内の情シスや法務に「このAI、認証取れてる?」と聞かれた時の回答にもなる一覧です。

▼ Anthropic が取得している主な認証(2026年5月時点)

認証 / 規制取得状況何のため?
SOC 2 Type II取得済「ベンダーの内部管理がちゃんとしている」ことの米国基準の証明(最も一般的な企業向け認証)
ISO/IEC 27001取得済情報セキュリティの国際標準。ISMS と呼ばれる管理体制の認証
ISO/IEC 42001取得済AIマネジメントシステムの新しい国際標準(AI 専用の認証)
HIPAA(ヒッパ)BAA 締結対応米国の医療情報保護法。日本の病院・医療系SaaSも参考にする規制
GDPR(ジーディーピーアール)対応EUの個人情報保護規制。EU住民のデータを扱う場合に必要
代表 菅澤孝平 代表
菅澤 孝平

これらの認証は、「Anthropic 社内のインフラがしっかり管理されている」ことを国際機関が証明しているもの、と捉えてください。

ただし大事なポイントがあって、これだけで安心はできません。「ベンダー側の安全性」と「自社の使い方」は別物です。報告される多くの AI 関連インシデントは、ベンダー側の脆弱性ではなく、導入企業側の運用ミス(機密の貼り付け/権限設計不備/社員教育不足)が原因で起きています。認証はあくまでスタートライン、ということだけ覚えてください。

安全な AI 導入に必要な「3層」
1
ベンダー認証
SOC 2 / ISO 27001 等
ベンダー側のインフラが安全
2
自社の認証
ISO 27001 / Pマーク等
組織として管理体制が整う
3
運用ガバナンス
利用ルール / 教育 / DLP
日々の利用が安全に行われる

この3層が揃って初めて「安全な AI 導入」が成立します

⑥ Claude Code ならではの安全装置

Claude Code は、AI が勝手にコマンドを実行したり、ファイルを書き換えたりできるツールです。「便利」と「危険」が同居しているため、Anthropic は普通のチャット型AIにはない6つの安全装置を組み込んでいます。

1標準設定では承認なしに動かない

標準設定では、危険な操作や未許可の操作に対して「実行していいですか?」と確認が出ます(Auto/Accept Edits 等のモード設定、許可済みルール、管理ポリシーで挙動は変わります)。

2書き換えられる場所が決まっている

起動したフォルダとその配下だけが書き換え対象。親フォルダや他フォルダへの書き込みは原則できません(読み取りは可能なので、機密ファイルは permissions.deny 設定で明示除外を推奨)。

3サンドボックスで境界を設定

/sandbox で起動すると、あらかじめ定義した境界の中だけで動作するモードに入れます(完全遮断ではなく、許可した範囲を超える操作は都度承認が必要になる仕組み)。

4危険なコマンドは標準で遮断

インターネットから何かをダウンロードしてくる系のコマンドは、デフォルトでブロックされています。

5外部から取り込んだ文章は別枠で処理

Webから取得したコンテンツに悪意ある指示が紛れていても、本体の指示と切り分けて処理します。

6パスワード・鍵はOSの保護機能で管理

APIキー等は macOSは Keychain、Linux/Windows はユーザー領域のファイルに保存され、OSのアクセス権で他ユーザーから保護されます(運用上は端末暗号化・ロックの徹底を推奨)。

03

Codex(OpenAI)のセキュリティ

ChatGPT を提供する OpenAI 社の「Codex」も、同等の安全対策が取られています。

代表 菅澤孝平 代表
菅澤 孝平

OpenAI の「Codex(コーデックス)」は、ChatGPT を作っている会社のコーディングエージェントです。Claude Code とよく似た働きをします。

ただ、ここで一つ落とし穴があります。「Codex」という名前は 2021年〜2023年に提供されていた古いサービス名と同じなんです。「Codex はもう終わったと聞いた」とおっしゃるお客様がいらっしゃいますが、古い Codex は確かに終わりましたが、現在の Codex は別物として現役で提供されています。ここを最初にクリアにしておきます。

① 「いまの Codex」と「昔の Codex」の違い

混同しやすい2つの「Codex」を整理

昔の Codex(2021〜2023):プログラマー向けのコード補完専用の AI モデル。code-davinci-002 などの名前で API 提供されていました。これは廃止されています。

いまの Codex(2025〜):ChatGPT を支える最新モデル(GPT-5 系)を使った「コーディングエージェント」。あなたの代わりにコードを書いたり、ターミナルでコマンドを実行したりできます。Claude Code と同じカテゴリの製品です。

提供プランは ChatGPT Plus・Pro・Business・Enterprise・Edu(旧称「Team」は現在「Business」に名称変更)に含まれ、別途 API キー経由でも利用できます。Free/Go プランへの提供は期間限定扱いです。最新の提供状況は OpenAI 公式ヘルプ「Using Codex with your ChatGPT plan」をご確認ください。

② データの取扱い

OpenAI も Anthropic と同様に、ビジネス向けプラン(API/ChatGPT Business/Enterprise/Edu)では、原則・デフォルトで入力データを学習に使いません

ただし例外として、API では組織オーナーが「データ共有」設定に明示的に opt-in した場合に共有対象となることがあります。導入時には組織設定の確認が必要です。

一方、ChatGPT の Free・Go・Plus・Pro など個人向けプランは、設定によって学習に使われる可能性があります。業務利用では必ずビジネス向けプランをお選びください。

③ ZDR(履歴を残さない設定)

OpenAI でも ZDR を組織単位・プロジェクト単位で有効化できます。ただしAnthropic の ZDR とは仕組みが異なる点に注意が必要です。

OpenAI の ZDR は API Platform(OpenAI Platform 経由のAPI利用)の組織・プロジェクト単位のデータ保持制御で、対象エンドポイントを限定して有効化されます。一部の Application State(状態保持が必要な機能)には例外があり、Codex/ChatGPT のすべての機能に一律で同じ効果が得られるわけではありません。導入時には対象機能と例外条件を必ず確認してください。

④ コンプライアンス認証

OpenAI が公開している主要な認証は SOC 2 Type II、ISO/IEC 27001/27017/27018/27701 等です。HIPAA・BAA 締結FedRAMP、PCI DSS 等の対応は対象サービス・契約・利用環境ごとに異なるため、自社のユースケースに該当するかは個別に OpenAI Trust Portal および契約内容で確認する必要があります。AI鬼管理導入支援では、ここの確認作業もご一緒に行います。

⑤ Claude Code と Codex、どっちがいい?

代表 菅澤孝平 代表
菅澤 孝平

「Claude Code と Codex、どっちが安全ですか?」とよく聞かれるのですが、認証取得状況はほぼ同等です。どちらかが劇的に優れているわけではありません。

選び方は「自社のクラウドが AWS なら Bedrock 経由で Claude」「普段から ChatGPT を使っているチームなら Codex」のように、既存の社内環境やお気に入りのツールに合わせて選ぶのが現実的です。AI鬼管理では、お客様の状況に応じて両方を併用するご支援も多くしています。

04

プラン別比較表(一目で分かる管理機能の差)

社内稟議・情シス確認用。学習利用/ZDR/管理機能/SSO/監査ログの有無を、プランごとに整理。

代表 菅澤孝平 代表
菅澤 孝平

「結局うちはどのプランを選べばいいの?」というご質問は本当に多いので、一目で見比べられる比較表を用意しました。業務利用なら、行が下にあるプランほど安全装置が揃います

「Free / 個人プラン」は業務利用に向きません。「Enterprise」相当が、機密データを扱う現場の事実上の標準です。

Claude(Anthropic)のプラン比較

claude.ai の個人プランから、API・法人プランまでを横並びで比較します。

プラン学習利用ZDR管理機能SSO/SCIM監査ログ
claude.ai Free設定で利用される可能性××××
claude.ai Pro / Max設定で利用される可能性××××
Claude for Work(Team)原則なし×△ 基本管理△ SSO可/SCIM不可× / 利用分析・データエクスポートは別
Claude for Enterprise原則なし○ 申請で可○ フル○ SSO・SCIM両方○ Audit logs
Anthropic API(pay-as-you-go)原則なし○ 申請で可○ API レベル×△ アプリ側で実装
Bedrock / Vertex AI 経由原則なし各クラウドの設定に従う各クラウドの IAM各クラウドの基盤各クラウドのログ

Codex / ChatGPT(OpenAI)のプラン比較

ChatGPT の個人プランから、API・法人プランまでを横並びで比較します。

プラン学習利用ZDR管理機能SSO/SCIM監査ログ
ChatGPT Free / Go設定で利用される可能性××××
ChatGPT Plus / Pro設定で利用される可能性××××
ChatGPT Business(旧 Team)原則なし×△ 基本管理△ SSO のみ△ 管理画面の確認範囲のみ(Compliance Platform は Enterprise/Edu)
ChatGPT Enterprise / Edu原則なしAPI Platform 利用時のみ/ChatGPT・Codex 機能は対象・例外を別途確認○ フル○ Compliance API
OpenAI API(Platform)原則なし○ 組織・案件単位で申請○ API レベル×△ Organization Audit Logs API

※ いずれの法人プランも「管理者・組織オーナーの明示 opt-in」によって学習利用される例外がある点にご注意ください(Anthropic の Development Partner Program、OpenAI API のデータ共有設定など)。導入時には管理コンソールで現在の設定を必ず確認してください。

05

利用OKケース/利用NGケースの判断指針

営業面談で「これは使っていいの?」と聞かれた時の、AI鬼管理の判断軸。

代表 菅澤孝平 代表
菅澤 孝平

ここからが、経営者の方に最も役立つパートです。「うちの業務だと、どこまで使っていいんですか?」というご質問への直接的なお答えです。

判断軸はシンプルで、「何のデータを」「どんなプランで」「どういう社内ルールで」使うかの3点だけ。下に具体例を並べました。

OKケース・NGケースの具体例

OK使ってOKなケース

  • 社内の一般的なドキュメントや公開済みの仕様書を要約・整理してもらう
  • 開発・テスト環境での試作・調査・コードレビューに使う
  • 社員研修・学習目的での利用(個人プランの範囲内でも可)
  • ZDR + 必要な法的契約(後述)を結んだうえで、機微な情報を最小限のスコープに絞って扱う
  • Bedrock 等で要件を満たすリージョンを選択PrivateLink 等で公共インターネットを通さない私的接続を構成して業務利用

NGこのまま使うのは危険なケース

  • パスワード・APIキー・サーバーログイン情報を、そのまま指示文に貼り付ける
  • 個人情報・カード番号・診療情報・未公表の財務データを、無料/個人プランで扱う
  • 使い方のルールを決めずに、全社員に自由に使わせる
  • 本番データベースに繋がる環境で、エージェントに勝手にコマンド実行させる
  • 社外秘のM&A情報・人事評価・係争関連を、個人アカウントの ChatGPT/claude.ai で扱う
「BAA」「DPA」は契約書の名前

NGケースで「必要な法的契約」と書いたのは、この2つの契約書のことです。情シス・法務の方に伝えるときに役立ちます。

BAA(ビジネス・アソシエイト契約):医療情報を扱うときに、米国 HIPAA 法で結ぶ契約。日本の医療系プロジェクトでも参考にされます。
DPA(データ処理契約):個人情報の取扱いについて結ぶ契約。GDPR 対応で必要。

Anthropic・OpenAI とも対応制度自体は用意されていますが、対象サービス・契約形態・用途・審査条件によって締結可否が変わります。締結可能な場合があるため、案件ごとに対象サービスと契約条件を必ず確認する必要があります。AI鬼管理が間に入って手続きをご支援します。

判断マトリクス(7つの観点)

AI鬼管理がお客様の社内導入の可否を判断するときに、実際に使っている表です。気になる軸からご覧ください。

▼ 7軸の判断マトリクス

判断軸OK と判断できる条件危険 / NG と判断する条件
データの種類社内一般・公開情報・OSS個人情報・診療情報・未公表財務
使う環境開発/テスト/学習用途本番・止まると業務が止まる領域
渡すファイル範囲対象ファイルだけを限定フォルダ丸ごと無制限に渡す
契約・規制対応ZDR+BAA/DPAを必要に応じ締結何も契約せず機微情報を扱う
ネットワーク要件を満たすリージョン選択+PrivateLink等で私的接続公開Wi-Fiから直接利用/制御なし
社内ガバナンスルール/監視/教育が整っている全社員に丸投げで運用ルールなし
プロンプトの書き方機密を貼らないルールが浸透機密を貼ってもOKの状態
06

導入前チェックリスト(社内稟議・情シス確認用)

11項目を上から順に確認すれば、最低限の安全装置はそろいます。情シス・法務との合意形成にもご活用ください。

代表 菅澤孝平 代表
菅澤 孝平

「何を確認すれば導入してOKと言えるのか分からない」というご相談がよくあります。AI鬼管理が伴走するお客様には、導入前にこのチェックリストを情シス・法務と一緒に埋めていただくことをお願いしています。

そのままコピーして社内資料・稟議書にお使いいただけます。

① 法人プランで契約しているか?

個人向け(Free / Pro 等)を業務利用していないか確認。Claude for Work / Enterprise、ChatGPT Business / Enterprise が法人プランの目安。

② 学習利用の opt-in が無効になっているか?

管理コンソールで「Development Partner Program」(Anthropic)「データ共有設定」(OpenAI API)等の明示同意がオフになっているか確認。

③ ZDR の申請を済ませているか?(機密データを扱う場合)

Anthropic:Claude for Enterprise またはAPI キー経由で申請。OpenAI:API の組織・案件単位で申請。申請しないと有効化されない

④ ローカルPC側の履歴(transcript)の扱いを決めているか?

Claude Code はお手元のPC側にも会話履歴が一定期間残る設定がある。保存期間・削除タイミング・端末暗号化を社内ルール化。

⑤ MCP・外部ツール連携の有無を把握しているか?

連携先(Slack、Google Drive、社内DB 等)には別途の規約と権限管理が必要。各連携先の取扱いを個別に確認

⑥ DLP(情報漏洩防止ソフト)を導入しているか?

機密データを扱う環境では強く推奨。ベンダー認証だけでは社内からの誤送信は防げない

⑦ 監査ログの保存期間・保管場所を決めているか?

ベンダー側ログ(30日〜)に加え、社内のSIEMへ取り込んで長期保管する設計が必要な場合あり(ISO 27001 / Pマーク審査対応)。

⑧ 本番環境では「最小権限」設定になっているか?

開発環境とは別に、本番では許可されたコマンドのみ実行可・外部APIアクセス制限を強制(Managed Settings / Enterprise Policy)。

⑨ BAA / DPA 等の必要な契約を確認したか?

医療系は BAA、EU 個人情報は DPA。対象サービス・契約条件により締結可否が変わるため、案件ごとに事前確認。

⑩ 社内利用ルールを文書化したか?

「機密の貼り付け禁止」「フォルダ丸ごと渡さない」「外部由来文章はそのまま渡さない」等を明文化

⑪ 全社員(管理者・現場・経営)に教育を実施したか?

事故の多くは「ルールを知らない/忘れた」から起きる。定期教育・新入社員研修への組み込みを推奨。

このチェックリストに「すべて○」が付くまでは、機密データを扱う本番投入は控えるのが安全です。AI鬼管理では、お客様と一緒にこのチェックリストを埋めるところから伴走を開始します。

07

MCP・外部ツール連携の注意点(事故が起きやすい領域)

Claude Code・Codex を Slack / Google Drive / 社内DB 等と連携する場合は、別途のリスクが生まれます。

代表 菅澤孝平 代表
菅澤 孝平

事故が起きやすい領域の一つが「外部連携の入口」です。連携した瞬間に、連携先(Slack や Drive 等)のデータが AI 側に流れ得るので、連携先ごとに「何のデータが、どう渡るか」を確認する必要があります。

MCP(Model Context Protocol)とは

MCP は、AI エージェントが外部のサービス(Slack、Google Drive、社内データベース等)と連携するための共通仕様です。Anthropic が提唱し、多くのツールが対応を始めています。

便利な反面、連携した瞬間に「連携先のデータも AI が見られるようになる」ため、本体(Claude Code・Codex)の安全設定だけでなく、連携先の規約・権限設計も必須です。

連携時に必ず確認すべき4点

1連携先のデータ取扱い規約

Slack・Google Drive・Notion 等、それぞれが「データをどう保管するか」「学習利用するか」を別途定めています。連携先の規約は AI ベンダーの規約とは別物です。

2OAuth 権限は最小限に

「読み取り専用」「特定チャンネル/フォルダのみ」など、必要最小限の権限スコープで連携。「全権限」を渡さないこと。

3連携先のアクセスログも監査対象に

AI ベンダーの監査ログだけでは不十分。連携先(Slack 等)のアクセスログも社内 SIEM で監視

4連携先の規約変更を定期確認

連携先の規約は予告なく変わることがあります。半年〜年次で再確認するルーチンを設定。

08

日本企業向けの規制観点(法務・情シス確認用)

日本国内の法令・ガイドラインに照らした検討ポイント。最終判断は必ず自社の法務・情シスでご確認ください。

代表 菅澤孝平 代表
菅澤 孝平

海外のベンダー認証(SOC 2 / ISO 27001 等)は重要ですが、日本の法令・業界ガイドラインに照らした確認も別途必要です。

以下は、日本企業の導入で頻繁に議論になる規制観点を整理したものです。最終判断は必ず自社の法務・情シスでご確認ください。AI鬼管理は知識面のサポートはできますが、法的判断は行えません。

観点主な要件導入時の確認ポイント
個人情報保護法(個情法)利用目的の特定・通知、第三者提供の制限、委託先管理などAI ベンダーへの提供を「委託」と整理できるか/委託先監督義務を果たす契約(DPA等)が結べるか
委託先管理個人データを預ける第三者の選定・契約・監督が自社の義務として残るAI ベンダーの認証取得状況・契約条件を 社内基準に照らして審査し、定期見直しの仕組みを持つ
FISC 安全対策基準(金融機関)銀行・証券・保険等が遵守する情報セキュリティ基準データレジデンシ(日本国内保管)/監査ログ/アクセス制御等をFISC 項目に照らしてマッピング
医療情報システム安全管理ガイドライン(医療機関・関連事業者)通称「3省2ガイドライン」。医療情報の取扱いに関する厚労省・経産省・総務省の基準BAA に加え、3省2ガイドラインの最新版に照らした審査が必要(クラウド利用時の取扱い)
業界個別の規制電気通信事業法、金融商品取引法、薬機法など業界固有の規制がある場合は、その規制の所管部門と相談

この表は「論点の整理」を目的としており、法的助言ではありません。各規制への適合判断は、必ず自社の法務部門・外部法律事務所・所管官庁等にご確認ください。AI鬼管理は技術側のご支援を担当し、法務判断は専門家との連携をお勧めしています。

09

よくあるご質問(FAQ)

面談・お問い合わせで頻繁にいただくご質問への回答。クリックで開きます。

📖 このFAQに出てくる専門用語の早見表(クリックで開きます)
DLP
社員が機密情報をAIに送ろうとした瞬間、自動でブロックしてくれる見張り役のソフト。Data Loss Prevention の略。
SIEM
社内のあらゆるシステムのログを一か所に集めて、不審な動きを検知する仕組み。Splunk・Datadog・Elastic などの製品が代表的。
VPC
クラウド上に作る「自社専用のネットワーク区画」。社外から直接アクセスできないように分離されている。
プロキシサーバー
社員のPCと外部インターネットの間に立つ「社内の検問所」。誰が・どこに通信したかを記録し、危険な通信を遮断できる。
BAA
医療情報を扱うときに、米国HIPAA法に基づいて結ぶ契約書。「あなたの会社の患者データを当社は契約上ちゃんと守ります」というベンダーの誓約。
DPA
個人情報の取扱いについて結ぶ契約書。EUのGDPR対応で必要。日本の個人情報保護法の場面でも参考に。
FISC
金融機関向けの情報セキュリティ基準。日本の銀行・証券・保険会社のシステムの安全性を判断するときの教科書のようなもの。
Managed Settings
IT管理者が「全社員のClaude Code設定」を一括で強制適用できる機能。部署ごとに機能の使用可否を分けたりできる。
.env ファイル
APIキーやパスワードを書いておく設定ファイル。ソースコード本体には機密を書かない工夫だが、フォルダ丸ごとAIに渡すと一緒に読まれる可能性あり。
.gitignore
「このファイルは Git(コード共有の仕組み)に登録しない」と指定するリスト.env など機密ファイルが誤って GitHub にアップされるのを防ぐ。
シークレット管理サービス
機密情報を専用の金庫に保管しておくクラウドサービス。AWS Secrets Manager、Google Secret Manager、1Password などが代表的。
Keychain / 資格情報マネージャー
OS(macOS / Windows)が標準で持つ、パスワードを安全に保管する仕組み。ファイルとしては読み取れないので機密管理に有効。
MCP
AIエージェントが外部のサービス(Slack、Google Drive、社内DB等)と連携するための共通仕様。便利な反面、連携先のデータも AI に渡るため、連携先ごとの規約・権限確認が必須。
OAuth
「他のサービスにログイン情報を渡さずにアクセス権だけ預ける」仕組み。MCP で外部サービスと繋ぐ際にも使われる。権限スコープは必要最小限に絞ることが重要。
個人情報保護法(個情法)
日本の個人情報の取扱いを定めた法律。AI に個人情報を入力する場合は、利用目的の明示・委託先管理(後述)等の要件確認が必要。
委託先管理
個情法・GDPR で求められる、個人データを預ける第三者(AIベンダー含む)の管理責任。ベンダー選定・契約・監督が自社側の義務として残る。
医療情報システム安全管理ガイドライン
厚生労働省・経産省・総務省が定める医療情報の安全管理基準(通称「3省2ガイドライン」)。医療系プロジェクトでは、AI 利用もこのガイドラインに沿った判断が必要。
プロンプトインジェクション
外部から取り込んだ文章に「秘密情報を抜き取れ」のような悪意ある指示が紛れていて、AIが誤って従ってしまう攻撃
ISO 27001
情報セキュリティの国際標準認証。社内の管理体制が整っていることを国際機関が証明したもの。
SOC 2 Type II
米国基準の「ベンダー内部管理がしっかりしている」証明。大企業がベンダーを選ぶときによく確認する。
プライバシーマーク
日本の個人情報保護に関する第三者認証。「Pマーク」とも呼ばれ、日本企業がよく取得する。
入力したコードや質問内容は、AI の学習に使われてしまいますか?

法人プラン(API・Claude for Work・ChatGPT Business/Enterprise/Edu)では、原則・デフォルトで学習に使われません

ただし例外として、組織管理者・組織オーナーが明示的に opt-in した場合は学習対象になる可能性があります(Anthropic の Development Partner Program 参加、OpenAI API のデータ共有設定の有効化など)。導入時には管理コンソールで opt-in 状況を確認してください。

一方、個人向けの claude.ai(Free/Pro/Max)ChatGPT(Free/Go/Plus/Pro 等)は、設定によって学習に使われる可能性があるため、法人利用ではビジネス向けプランをお選びください。

ZDR(履歴を残さない設定)とは何ですか?簡単に教えてください。

ひとことで言うと「ベンダーのサーバー側に、送信したデータを原則として残さない設定」のことです。

有効化の方法は Anthropic と OpenAI で異なります。Anthropicは会社単位、OpenAIは会社単位・案件単位で、それぞれ申請ベースで有効化できます。OpenAI 側は「どの機能で ZDR を使うか」を細かく指定する必要があり、ChatGPT や Codex のすべての機能に一律に効くわけではない点に注意してください。

また完全に残らないわけではないのもポイントです。法令対応やポリシー違反の調査など、限られた例外条件下では一時的に保持されます。さらに、Claude Code はお手元のPC側にも会話履歴が一定期間残る設定があり、こちらも別途整理が必要です。AI鬼管理ではこれらの手続き全体をご支援できます。

送ったコードを、Anthropic や OpenAI の社員に見られることはありますか?

通常運用では、ベンダー社員のアクセスは厳格に制限されています。ZDR を有効にすると、保持されるデータ自体が大きく減るため、通常運用でベンダー社員が保持データを閲覧するリスクをさらに下げられます

ただし「絶対に見られない」とは言えません。法令対応・ポリシー違反対応・処理中の取り扱いなど、限られた例外条件下では関係者のアクセスが発生し得ます。日常の業務利用で見られるご心配はほぼありませんが、契約検討時には各社の最新の取扱い規定を確認してください。

Claude Code を使うと、パソコン内のファイルはどこまで送信されますか?

送信されるのは、あなたが明示的に「これを見て」と渡したファイルと、作業中にClaude Codeが読み込んだファイルです。パソコン内のファイルが勝手にすべて送られることはありません。

ただし注意点が2つあります。
書き込みは起動したフォルダの中だけに制限されますが、読み取りは外のフォルダも可能です(システムの共通ファイルを参照する必要があるため)。
② フォルダを丸ごと「これ全部見て」と渡してしまうと、その中の .env(パスワードが書かれた設定ファイル)まで一緒に送られる可能性があります。

対策は2段構え:①渡すファイルは必要なものだけに絞る、②設定ファイル(permissions.deny)で機密フォルダや機密ファイルを「見せない」と明示する。AI鬼管理ではこの設定と社内ルール作りを導入支援に含めています。

そもそも「.env ファイル」って何ですか?パスワードを書いておけば安全と聞きました。

まず「.env」が何かをご説明します。

「.env(ドット・イー・エヌ・ブイ)」とは、エンジニアがよく使う設定ファイルの一種です。プログラム本体には書きたくない「パスワード」「APIキー」「データベース接続情報」などの機密情報をまとめて書いておく専用ファイルとして使われます。

たとえば「DATABASE_PASSWORD=ひみつ123」のような形で値を書いておき、プログラム側はこのファイルから値を読み込んで使います。「機密はソースコード本体に書かない」という業界の最低限の作法として広く使われています。

では .env に書いておけば安全か?というご質問ですが、これだけでは不十分です。Claude Code はフォルダ内のファイルを読む機能があるため、フォルダ丸ごと渡すと .env まで一緒に読まれる可能性があるためです。

対策は3段階で整理してください:

最低限:「.gitignore」というファイルに .env を書いて、GitHub(コード共有サービス)などに誤ってアップロードされないようにする。

Claude Code 対策:Claude Code の設定ファイル(permissions.deny)で .env「絶対に見せない」と明示する。

本格運用:機密情報そのものを 「機密専用の貸金庫サービス」(AWS Secrets Manager・Google Secret Manager・1Password 等)に置き、必要なときだけアプリから取り出す形にする。.env には機密の本体を書かず、「金庫の場所」だけを書く運用に切り替える。

金融・医療など機密度が高い領域では ③ が必須、それ以外でも ① + ② は最低ラインとお考えください。AI鬼管理では、お客様の規模・業種に合わせた段階導入をご支援します。

パスワードやアカウント情報を Claude Code にどう伝えればいいですか?

原則はシンプルに2つです:① プロンプトに直接書かない、② Claude Code から見える場所に置かない

具体的な伝え方を、推奨順で3パターンご紹介します。

① 機密専用の貸金庫サービスを使う(最推奨)
機密情報を「シークレット管理サービス」と呼ばれる専用の貸金庫に預けておく方法です。AWS Secrets Manager・Google Secret Manager・Azure Key Vault・1Password などが代表例で、いずれも「機密だけを安全に保管する専用のクラウドサービス」です。コードからは「金庫の何番から取り出して」と書くだけで、適切な IAM 権限・ログ抑制・コマンド制限を前提に、秘密値を直接見せずに済む運用にできます(Secret 取得権限のあるコマンドを Claude Code が実行できる場合は、その実行ログから値が漏れる可能性があるため、権限とログ設計はセットで検討してください)。

② OS の機密管理機能を使う
macOS には「Keychain(キーチェーン)」、Windows には「資格情報マネージャー」という、OS 標準のパスワード保管庫があります(普段ブラウザがパスワードを覚えておいてくれるのと同じ仕組み)。ここに保管しておけば、ファイルとして Claude Code から読み取られることはありません。

③ 環境変数で渡す(小規模向けの簡易対応)
「環境変数」とは、OS が裏側で覚えておく設定値のことです。たとえば「DATABASE_PASSWORD」という名前で値を登録しておき、コードからはその名前だけを参照します。Claude Code には「DATABASE_PASSWORD という環境変数を使って」と名前だけ伝える運用です。

ただし注意点があります。これは「プロンプトへの直書きを避けるための簡易策」であって、完全な分離ではありません。Claude Code はコマンド実行権限を持つため、環境変数を読むコマンド(echo $DATABASE_PASSWORD 等)を実行されたり、ログ出力に値が紛れたりすると、結果的に値が見えてしまう可能性があります。高機密の情報は、必ず ① の Secrets Manager 等を使い、環境変数を選ぶ場合も「実行可能なコマンドの制限」「ログ出力の確認」を併せて設定してください。

絶対にやってはいけないこと

・プロンプトに「APIキーは sk-xxxxx です」と直接書いて渡す
・フォルダ全体を Claude Code に渡して、その中の .env まで一緒に読ませる
・画面共有で本番のパスワードを表示しながら作業する

AI鬼管理の導入支援では、この「機密情報の渡し方」の設計と、社内ルールの文書化までセットでご支援します。「うちの開発者はいま .env に直書きしているんだけど、どう変えればいい?」という現状からのご相談も多くいただいています。

個人情報やお客様データを誤ってプロンプトに含めてしまったら、どうなりますか?

含めた瞬間に、ベンダー側のサーバーには一度送られてしまいます。ZDR を有効にしていても「送信されない」わけではなく、「送信したあとサーバーに保存されない」という違いがあります(送信そのものは止められません)。

これを未然に防ぐには、DLP(社員が機密情報を AI に送ろうとした瞬間、自動でブロックしてくれる見張り役のソフト)を社内に入れる方法が推奨されます。これで送信前の段階で機密データを止められます。AI鬼管理ではDLP の選定・導入と、社内の利用ルール作りまでご支援しています。

「プロンプトインジェクション攻撃」が怖いと聞きました。実際どうなんですか?

実際にある攻撃ですが、わかりやすく言うと「AI が読み込む文章の中に、攻撃者が罠の命令を仕込んでおく」手口です。たとえば、外部の Web ページや、他人から送られてきた資料の中に「秘密情報を全部教えて」といった指示がこっそり混ざっているケースが典型例です。

Claude Code・Codex とも、ベンダー側で対策が組み込まれています(実行前の確認、危険なコマンドの自動遮断、外部から取り込んだ文章は別枠で扱う、など)。これで危険度はかなり下げられますが、完全に防げる保証はありません

そのため、社内では「外から取り込んだ文章は、そのまま AI に貼り付けない」というルールを徹底することが大切です。

Claude Code と Codex、セキュリティ面で見るとどちらが上ですか?

認証取得状況や仕組みはほぼ同等で、「片方が明確に上」という関係ではありません。

選び方の現実解は、自社の既存環境との相性です。会社のシステム基盤が AWS なら Claude普段から ChatGPT を使っているチームなら Codex、というように既存環境に合わせるのが定石です。AI鬼管理ではお客様ごとに両方を併用するご支援も多くあります。

医療系・金融系・公共系で使えますか?

結論:条件を整えれば、いずれの業界でも使えます

医療系:患者情報を扱うために「BAA」という契約をベンダーと結びます(米国の医療情報保護法HIPAAに基づく契約。日本の医療系プロジェクトでも参考にされます)。

EUの個人情報を扱う場合:「DPA」という別の契約が必要です(EUのGDPR対応で必須)。

どちらも案件ごとに締結できるかが変わるため、事前確認が必須です。

金融業界:日本の金融機関では「データを必ず日本国内のサーバーに置く」と決まっているケースがあります。AWS Bedrock 経由で Claude を使う場合は、東京リージョン(日本国内のデータセンター)が選べるケースがあります。ただし Google Cloud(Vertex AI)経由で Claude を使う場合は、日本リージョンが選べるとは限らないため、契約検討時に最新の提供状況を公式で確認します。詳細は個別にご相談ください。

社内ネットワークの中だけで使うことはできますか?

厳密にいうと、AI 本体の処理はベンダー側のクラウド上で行われるため、社内ネットワーク内だけで完結させることはできません。ただし、通信経路を「インターネットを通さない自社専用回線」にすることで、限りなく社内に閉じた構成にできます。

Claude の場合:AWS Bedrock や Google Cloud Vertex AI の専用接続サービス(PrivateLink、Private Service Connect)を使うと、自社のクラウド領域からインターネットを経由せず直接 AI サービスに通信できます。

Codex(OpenAI)の場合:OpenAI のサーバーに接続するため、社内に「プロキシサーバー(社員PCと外部の間に立つ検問所)」を置いて、誰がどこに通信したかを社内で全部記録・監査する構成が一般的です。

監査対応で「誰が何をしたか」のログを取れますか?

はい。Claude for Enterprise / ChatGPT Enterprise とも、管理コンソールおよび Compliance API 経由で、製品・プランに応じた監査ログを取得できます。具体的にはユーザー認証、管理操作、利用状況などの証跡が対象で、CSV ダウンロードや社内のログ監視基盤(SIEM)への自動連携にも対応しています。

ただし取得できるログ項目の範囲は、製品・プラン・契約・利用機能によって異なります(プロンプト本文や全操作内容まで一律で取れるわけではありません)。これらは ISO 27001 やプライバシーマーク審査における証跡の一部として活用できますが、審査の充足は、ログ項目・保存期間・改ざん防止・運用手順・アクセス管理まで含めた全体設計次第です。ベンダー側のログだけで監査要件を満たすわけではない点にご留意ください。

うちは情報漏洩防止ソフトやログ監視を導入していません。それでも使って大丈夫ですか?

機密データを扱わなければ問題ありません。一方、お客様情報・財務情報・社外秘の資料などを扱うのであれば、DLP(情報漏洩を見張るソフト)の導入を強くお勧めします。

理由はシンプルで、ベンダーの認証はベンダー側の安全性を守るもの社員の誤送信は別の層(社内側の対策=DLP)で守る必要があるからです。両方そろって初めて安全になります。AI鬼管理では、お客様の社内環境に合わせて DLP 製品の選定から導入までご支援します。

開発環境と本番環境で、設定は分けるべきですか?

分けるべきです。考え方はシンプルで、開発環境は「動かしやすさ」を優先(自動承認を多めに)、本番環境は「権限を最小限」(外への通信を制限/許可されたコマンドだけ実行可)が定石です。

これらの設定は、IT管理者が全社員に対して一括で強制適用できます(Claude Code は「Managed Settings」、Codex は「Enterprise Policy」という機能で実現します)。AI鬼管理の伴走支援の中で、お客様と一緒に設計します。

うちは ISO 27001 認証を取得しています。それなら追加で対策は要らないですよね?

残念ながら、まだ足りません。安全な AI 導入には3つの層がすべて必要です。

ベンダーの認証=ベンダー側のインフラが安全か
自社の認証=組織として管理体制が整っているか
日々の運用ルール=社員一人ひとりの使い方が安全か

それぞれ「守る範囲」が違います。AI関連の事故の多くは、認証の有無ではなく、日々の運用ルールが整っていないことから起きています。3層が揃って初めて、安全な導入と言えます。

結局のところ、何から始めればいいですか?

順番は ① 法人プラン(ビジネス向け)を契約 → ② 機微情報を扱うなら ZDR を申請 → ③ 社内利用ルールを文書化 → ④ 情報漏洩防止ソフト(DLP)・ログ監視(SIEM)等を整備 → ⑤ 社員教育、です。

とはいえ「自社だけで進めるのは不安」というお声を多くいただきます。AI鬼管理では①〜⑤すべてを週次MTG+チャットで3〜6ヶ月伴走する形でご支援しています。まずは 無料の業務効率化診断からお気軽にご相談ください。

10

AI鬼管理のサポート範囲

セキュリティ設計から運用ルール整備・社員教育まで、伴走型でご支援します。

代表 菅澤孝平 代表
菅澤 孝平

ここまで読んでいただくと「正しく使うためにやることが多そう」と感じられるかもしれません。おっしゃる通りで、安全な AI 導入は「ツール契約」だけでは終わりません。

AI鬼管理は、Claude Code・Codex の「導入そのもの」だけでなく、「安全に使い続けられる組織を作る」ところまでを、週次MTG+チャットで3〜6ヶ月伴走してご支援します。

1

セキュリティ設計

社内利用ルールの策定、許容範囲の線引き、リージョン/契約形態の選定までを一緒に決めます。

2

導入ガイドライン

プロンプトの書き方、機密判定、誤送信防止ルールを具体的な文書に落とし込みます。

3

DLP/SIEM 連携

既存スタックに合わせた DLP 製品の選定、監査ログのSIEM取込まで設計します。

4

社員教育

経営/情シス/現場の3層に分けた研修プログラムを提供します。

5

運用伴走

週次MTG+チャットで、3〜6ヶ月の伴走を通じて自走可能な状態にします。

料金体系の詳細は料金プランページをご参照ください。ヒアリング・初回ご相談は無料です。

11

本記事の根拠(公式情報源と最終確認日)

本ページの内容は以下の公式ドキュメントに基づいています。仕様は変わり得るため、契約検討時には必ず最新版をご確認ください。

最終確認日:2026年5月16日 / 本記事は上記時点の公式情報に基づいて作成しています。Anthropic・OpenAI の仕様や認証取得状況は予告なく変わる可能性があるため、契約検討の最終確認は必ず以下の公式ページの最新版でお願いいたします。

まずは、無料の業務効率化診断から

1時間のオンライン面談で、御社の業務にAIが効くかをその場で検証します。
営業トークなし、その場で動かして見せる1時間です。