「ChatGPTに入力した情報が外部に漏れることはないのか」
「業務で使うとき、機密情報や顧客データは本当に安全なのか」
こうした懸念を抱きながらも、生成AIの導入を前向きに検討している企業は今、急増しています。実際に現場からは「便利だから使いたい」という声が上がり、一方で情報システム部門や法務部門は「情報漏洩のリスクは?」と社内調整に頭を悩ませている状況ではないでしょうか。
2023年には、ある大手企業で社内の機密コードがChatGPTに誤って入力され、情報が外部に流出するリスクが問題視されました。さらには履歴機能の不具合や、アカウント情報の流出といった事案も報告されており、「ChatGPT=危険」という印象を抱く人がいても不思議ではありません。
しかし、それらのリスクの多くは「正しい使い方」や「利用環境の整備」によって防げるものでもあります。つまり、ChatGPTは危ないツールではなく、「安全に使うための知識と設計」が求められる時代に入ったということです。
本記事では、ChatGPTの情報漏洩リスクの実態とその原因、企業として取るべき対策を体系的に解説します。さらに、セキュリティと生成AI活用を両立するための社内ルール作りや研修設計のポイントもわかりやすくご紹介します。
\ 組織に定着する生成AI導入の進め方を資料で見る /
ChatGPTに情報漏洩リスクはあるのか?
「ChatGPTに入力した情報は、外部に漏洩する可能性があるのか?」。結論から言えば、ChatGPTの使い方によっては情報漏洩リスクが発生する可能性があります。
特に、企業内で業務利用する場合は、入力した情報の扱われ方や利用形態ごとの仕様の違いを正しく理解しておくことが不可欠です。
リスクの源は「入力データの扱われ方」にある
OpenAIが提供するChatGPTは、ユーザーが入力した内容を「モデルの改善やサービス向上のために利用する」可能性があると明言しています(※履歴ON時)。
つまり、業務で機密情報をそのまま入力してしまうと、それがOpenAIのサーバーに保存され、将来的にAIの学習データとして活用される可能性がある、ということです。
ただし、これは「全てのChatGPT利用でリスクがある」という意味ではありません。以下のように、利用形態によってリスクレベルは異なります。
利用形態ごとのリスク比較
ChatGPTの情報漏洩リスクは、「ツールそのものに問題がある」というよりも、どう使うかによって大きく変わります。
特に見落とされがちなのが、「Web版」「API版」「Enterprise版」といった利用形態ごとの仕様の違いです。
同じChatGPTであっても、入力した情報がどのように扱われるかは利用環境によってまったく異なります。その違いを正しく理解しておかないと、社内で不用意にリスクの高い使い方が浸透してしまう恐れもあるのです。
まずは、主要な利用形態ごとの情報管理の違いを、以下の表で整理してみましょう。
利用形態 | リスクレベル | 主な特徴 |
Web版(無料/Plus)履歴ON | 高い | 入力内容が保存・学習対象になる |
Web版(履歴OFF設定) | 中程度 | OpenAIによる学習対象外になるが、保存はされる(30日間ログ保管) |
API版 | 低い | 入力データは保存されず、学習対象外(公式に明記) |
Enterpriseプラン | 低い | 管理機能・保存制御あり。SLAや契約で対応可 |
特に問題となるのは、Web版の履歴ON設定のまま、業務上の機密情報を入力してしまうケースです。この状態での利用は、まさに意図せぬ情報漏洩を招く温床となります。
OpenAIの規約でも明示されているポイント
OpenAIの利用規約では、以下のように記されています。
「履歴をONにしている場合、ユーザーが入力した内容は当社のモデルの改善のために使用されることがあります。」
つまり、履歴ONのままでは、業務情報がAIの学習素材として蓄積される可能性があるということです。
一方、API利用やEnterpriseプランでは、企業側がデータの保存・利用の可否を制御できるため、情報管理の観点ではより安全な選択肢となります。
要するに、ChatGPTは便利なツールである一方、使い方を誤ると“知らないうちに漏洩していた”という事態も起こり得るということです。
そのため、「どのプランで、どの設定で、どこまで情報を入力して良いか」という判断が、企業利用において極めて重要になります。
関連記事で仕組みをより詳しく理解したい方はこちら
👉 ChatGPTのセキュリティ問題とは?企業が知るべき8つのリスクと効果的な対策
実際に起きたChatGPT関連の情報漏洩事例【企業・個人】
生成AIを業務で使う企業が増えるなか、実際に「ChatGPTが関わる情報漏洩トラブル」はすでに国内外で発生しています。ここでは、信頼性の高い出典に基づく3つの実例を紹介します。
事例①サムスン電子:社内のソースコード誤入力
2023年3月、韓国サムスン電子の半導体部門で、エンジニアがChatGPTに社内のソースコードや内部議事録を入力し、コード改善や議事録要約を依頼したことが発覚しています。
OpenAIのWeb版ChatGPTは、初期設定では入力情報を保存・学習に使用する仕様であり、社内の機密データが意図せず外部に保存された可能性があると問題になりました。
この件を受け、サムスンは社内でのChatGPT利用を全面禁止に。現在は自社専用AIの開発を進めています。
出典:Samsung Bans ChatGPT Among Employees After Sensitive Code Leak
事例②履歴バグで他人のチャットが表示
2023年3月21日、OpenAIはWeb版ChatGPTの一部ユーザーにおいて、他人のチャット履歴タイトルが表示されるバグが発生したと公式に発表。
原因は、オープンソースライブラリ「Redis」のバグによるキャッシュ管理の不具合でした。
ユーザーが入力したプロンプトそのものが他人に見えたわけではないものの、タイトルに機密情報が含まれていた場合は情報漏洩とみなされかねない事象です。
出典:March 20 ChatGPT outage: Here’s what happened
事例③企業アカウント情報の不正流通
2023年6月、サイバーセキュリティ企業Group-IBは、ChatGPTアカウント情報がダークウェブで大量に売買されていることを発見。盗まれたアカウントのうち、91,000件以上が企業所属ユーザーのものだったと報告されています。
主な感染経路は、マルウェア「Raccoon Stealer」などの情報窃取型ウイルス。業務用アカウントが狙われており、企業がChatGPTを活用するならアカウント管理もセキュリティ設計に含めるべきであることを示しています。
出典:10万件のChatGPTアカウントが闇市場に、どう盗んだのか誰が欲しがるのか
信頼できる事例から見える本質
これらの事例はすべて、報道機関や企業公式発表に基づく信頼性の高い情報です。共通しているのは、ChatGPTというツールが危険なのではなく、使い方・管理体制・理解不足が情報漏洩の引き金になるという点です。
つまり、企業としてChatGPTを業務に活かすには、ガイドライン整備と社員教育が不可欠なのです。
関連記事:失敗しない導入設計をチェックするならこちら
👉 ChatGPT導入時の注意点10選|情報漏洩・失敗を防ぐチェックリスト付き
企業利用における主なリスクと見落としがちな落とし穴
ChatGPTの活用は、たしかに業務効率化や発想支援において大きなメリットをもたらします。しかし、企業として利用する際には、「うちは大丈夫」と思っていたことで大きなセキュリティリスクに発展するケースが少なくありません。
ここでは、企業利用の現場で実際に起こり得る主なリスクと、見落としやすい盲点を整理します。あなたの組織にも当てはまる項目がないか、ぜひチェックしてください。
リスク①履歴ONのまま業務利用している
ChatGPTのWeb版は、初期設定で「チャット履歴」がONになっています。この状態で利用すると、入力された内容がOpenAI側に保存され、将来的にAIの学習に使われる可能性があります。
問題は、利用者自身がこの設定の意味を理解していないケースが非常に多いということです。
「履歴ON=社外保存」と認識せずに、議事録、顧客対応履歴、コード、営業資料などを入力してしまうと、意図せぬ外部流出に直結します。
リスク②APIとWeb版の違いを把握していない
ChatGPTには複数の利用方法がありますが、Web版とAPI版ではデータの扱い方が大きく異なります。
- Web版(履歴ON):入力情報が保存・学習対象になる
- API版:入力データは保存されず、学習にも利用されない(OpenAI公式にて明示)
この違いを知らずに、Web版を業務に組み込む企業も存在します。導入前に、どのプラン・どの設定を選ぶべきか、明確に整理しておくことが必須です。
リスク③利用規約やデータポリシーを確認していない
OpenAIの利用規約には、入力データの取り扱いや保存方針がしっかり記載されていますが、多くの企業ではこの規約を精読せず、なんとなく「無料で使えるから安全だろう」と判断してしまうことがあります。
結果、「入力内容が保存・利用される前提である」ことを知らずに、内部情報を送信してしまうという事態が起きています。
リスク④ガイドライン未整備のまま現場任せ
生成AIは現場部門からの要望で急速に広まりやすいため、システム部門や経営層が追いつかないまま現場での“野良利用”が始まってしまうことがあります。
この状態でChatGPTを使い始めると、入力情報の取り扱いルール、許可された用途、禁止事項などが不明瞭なまま、現場判断での運用が常態化します。
リスク⑤管理・監査体制がない
管理や監査体制がないのも、以下のようなトラブルを引き起こす原因です。
- 誰がいつ、どの内容を入力したのか
- どのプロンプトが、どの部門で使われているのか
- 社外公開されているプロンプトを社員がそのまま流用していないか
こうした管理や監査の仕組みがない企業では、潜在的に大量の情報がChatGPT経由で社外に出ている可能性があります。見えないリスクこそが、最も深刻な問題になり得ます。
あなたの会社にも、この落とし穴があるかもしれません
これらのリスクは、どれも「特別なケース」ではなく、多くの企業が気づかないうちに陥っている落とし穴です。
リスクをゼロにすることは難しくても、「知らずに使っていた」状態を脱却することは、今すぐにでも可能です。
\ 組織に定着する生成AI導入の進め方を資料で見る /
情報漏洩を防ぐためのChatGPT対策
ChatGPTは業務効率化の大きな武器になりますが、「リスクを理解せずに使う」こと自体が最大のリスクでもあります。
ここでは、社内での導入・運用”を前提とした5つの具体的なセキュリティ対策を紹介します。
表面だけの注意喚起ではなく、実際に企業での導入を進める際に直面する課題への解決アプローチを中心にまとめました。
対策①履歴OFFだけで満足しない!保存される前提で使い方を設計する
よく言われる「履歴OFFにすれば安全」という認識。たしかに、履歴OFF設定を行えばOpenAIによる学習対象からは除外されます。しかし実は、「30日間の保存ログ」は履歴OFF時でも残り続けるという落とし穴があります。
そのため、履歴OFFは必須条件ではあるものの、それだけで安全とは限らないのです。そこで重要なのが、利用環境ごとの保存ポリシーの違いを踏まえた設計です。
以下の表は、ChatGPTの利用形態別における情報管理レベルを比較したものです。
利用形態 | 利用可否 | 管理性 | 推奨シーン |
無料版ChatGPT | ❌ | なし | 業務利用NG |
Web版Plus(履歴OFF) | △ | 最小限 | 検証・非機密用途 |
API連携 | ◎ | 否保存/コード制御可 | システム組込・BPO対応 |
Enterprise版 | ◎ | 管理画面・監査ログあり | 組織的導入・社内展開 |
このように、「どのプランをどの目的で使うか」を明確にした設計が、安全運用の出発点になります。
対策②社内ガイドラインには禁止情報リストを明記すべし
ChatGPTに情報を入力する際、「これは入力していいのか?」という判断を現場任せにしてはいけません。
そのためには、NG情報の具体例をリスト化してガイドラインに明記することが重要です。たとえば、以下のような情報は、原則としてChatGPTへの入力禁止としましょう。
<代表的な入力禁止情報リスト>
- 顧客名、電話番号、メールアドレスなどの個人識別情報
- 社員の評価、給与、異動などの人事関連情報
- 開発中のソースコードや仕様書などの技術機密
- 発表前の戦略資料や財務情報などの経営情報
- 社内イントラのURLやID、パスワードなどのアクセス情報
これらの情報が一度でも入力されてしまうと、意図せぬ外部保存や漏洩の原因になります。禁止情報は、業務カテゴリー別に整理し、OK/NGの判断基準も合わせて周知することが効果的です。
対策③プロンプトと出力のログを管理できる状態にする
ChatGPTの出力はあくまで参考情報であり、社内外への提示には裏付けやレビューが不可欠です。
そのため、企業としては以下のような「誰が/何を入力して/どんな回答を得たのか」を把握できる環境を構築しておく必要があります。
<管理すべきログ項目例>
- 利用ユーザー(アカウントID)
- 入力したプロンプト全文
- 取得した出力(バージョン管理含む)
- 活用先(社内文書、マニュアル、顧客資料 等)
- 監査履歴(チェック済みフラグ、差し戻し履歴)
これらの情報は、万が一のトラブル発生時の検証材料にもなり、情報漏洩リスクの抑止にもつながります。
対策④使って終わりにしない。定期的な教育とレビューが命綱
生成AIは便利ですが、その本質はブラックボックスでもあります。だからこそ、利用者自身が「どんな仕組みで動いているのか」を理解し、ルールの背景に納得できる状態が重要です。
特に有効なのが、以下のようなハンズオン研修形式での学習です。
<研修に含めるべき項目(例)>
- ChatGPTの情報処理構造(入力→保存→出力までの流れ)
- 実際の情報漏洩事例と“なぜ起きたのか”の分析
- 社内ルールと禁止事項の読み合わせワーク
- 安全に使えるプロンプト例/不適切な入力例の体験
- 利用記録の提出と簡易フィードバック
こうした取り組みを継続的に行うことで、一時的な理解から判断できる社員の育成へつながります。
ChatGPTの入力情報はどこに行くのか?保存と学習の仕組みを整理する
ChatGPTは非常に便利な生成AIですが、「入力した情報がどこへ行くのか」「保存・学習に使われるのか」は、社内利用における重要な論点です。以下では、OpenAIが提供するChatGPTの仕組みを、利用モード別に整理します。
Step 1|ユーザーがテキストを入力
業務でChatGPTを使用する際、プロンプト(質問や指示)を入力することで、AIが回答を生成します。この入力内容が、後続の保存・学習処理において判断の起点になります。
Step 2|OpenAIのサーバーで処理される
入力されたテキストは、OpenAIのクラウドサーバーでリアルタイムに処理されます。利用者のローカルPCで完結するわけではないため、情報は一時的にクラウド側で保管される構造になります。
Step 3|保存と学習の条件が分岐する
OpenAIでは、利用モードごとに「保存」および「学習対象への使用」の可否が異なります。
- 履歴ON(Web版Plus等)
→ 最大30日間サーバーに保存。学習データとして利用される可能性がある。 - 履歴OFF(設定変更済みのWeb版)
→ 一時的に保存はされるが、学習には使われない。30日後に自動削除。 - API経由(外部ツール連携や社内システム統合など)
→ 一切保存されず、学習対象にもならない。最もセキュリティ性が高い。
これらの挙動は、OpenAIの公式ドキュメントに明記されており、利用ガイドラインを策定するうえでの根拠にもなります。
Step 4|回答が生成され、ユーザーに返される
AIによって生成された回答は、ユーザーに返され、チャット画面などで確認できます。この出力は“正解”とは限らないため、業務活用においては裏付けやレビューを必ず挟むことが推奨されます。
まとめ|情報漏洩リスクは「使い方次第」で防げる!次に備えるべきは?
ChatGPTは、間違いなく業務効率を高める強力なツールです。しかし同時に、入力内容が第三者に渡る可能性がゼロではない以上、企業として“守るべきライン”と“使いこなすためのルール”を明確にしなければなりません。
今回ご紹介したように、
- 履歴のオン/オフ
- API経由の利用可否
- 利用ガイドラインの整備
- 社内への正しい理解と教育
といったステップを踏むことで、リスクを抑えつつ、活用効果を最大化することは十分可能です。
「導入したいけど、セキュリティが不安」
「ガイドラインづくりのベースが欲しい」
「現場にどう浸透させるか悩んでいる」
そんな方のために、SHIFT AIでは生成AIの社内活用を安全かつ着実に進める法人向け研修プログラムをご用意しています。
\ 組織に定着する生成AI導入の進め方を資料で見る /
よくある質問と誤解【FAQ】
- QChatGPTの履歴をオフにすれば情報は完全に漏れませんか?
- A
完全とは言い切れませんが、学習対象からは除外されます。履歴をオフにすることで、OpenAIのモデル学習に使用されることはなくなります。ただし、入力内容は最大30日間、セキュリティ監査目的で一時的に保存される可能性があります。そのため、社外秘情報や個人情報の入力は避けるのが原則です。
- QChatGPT APIを使えば安全に業務活用できますか?
- A
セキュリティの観点では、最もリスクの低い利用形態です。API経由での利用では、OpenAIは入力情報を保存せず、学習にも使いません。社内ツールや業務システムと連携する場合は、APIを通じて利用することで情報漏洩リスクを大幅に軽減できます。
👉 中小企業のChatGPT活用法15選では、APIの活用事例も紹介しています。
- Q社内でChatGPTの利用ガイドラインは必須ですか?
- A
必須です。ガイドラインがないと、現場の判断にばらつきが生まれ、事故につながります。
「どの部署で」「どの範囲で」「何を入力してよいか」を明文化することが、全社導入成功の鍵です。👉 そのためのステップはChatGPTを社内導入するには?で解説しています。
- QすでにChatGPTを使っている社員がいるが、放置して大丈夫?
- A
放置は危険です。リスク管理上、早急に状況を把握・整備すべきです。 「個人で勝手に登録して使っていた」ケースで、誤って機密情報を入力していた例もあります。
まずは実態調査を行い、必要に応じて研修やルール整備を進めましょう。👉 社員の“無自覚なリスク”を防ぐには:ChatGPT導入時の注意点10選
\ 組織に定着する生成AI導入の進め方を資料で見る /