ChatGPTをはじめとする生成AIの普及が進む中、「便利そうだけど、情報が漏れたりしないの?」と不安を感じたことはありませんか?実際に、企業の内部情報や個人データがAIツール経由で流出した事例は、国内外でいくつも報告されています。
生成AIは、今や業務効率化の強力なパートナーです。しかし、その便利さの裏にあるリスクを知らずに使ってしまうと、大きなトラブルにつながる可能性もあります。
この記事では、生成AIによる情報漏洩の原因や構造を解説しながら、実際に起きた5つの事例と、企業が取るべき防止策を紹介します。
安心して生成AIを活用するために、知っておきたいポイントをまとめました。ぜひ最後までお読みください。
SHIFT AIでは、企業の生成AI運用を支援しています。基本的な使い方から導入まで一貫してサポート可能です。また、生成AIの基礎知識に関するeラーニングコンテンツの提供やワークショップの開催も行っています。情報漏洩なく安心した運用を模索している方は、ぜひ一度お問い合わせください。
生成AIで情報漏洩が問題になっている背景

生成AIは大量のデータを解析し、新たなコンテンツや提案を自動で生み出す一方で、意図しない形で企業の内部情報が外部に流出してしまうケースがあります。
情報漏洩は、企業の信用を損なう深刻な問題であり、顧客や取引先からの信頼にも大きな影響を及ぼします。
また、一度情報が漏れた場合、その対応には時間とコストがかかります。漏洩の原因調査や被害の拡大防止、関係者への報告や謝罪、法的手続きなど、多岐にわたる対応が求められ、業務の停滞や経営への悪影響は避けられません。
そのため、企業は情報漏洩を防ぐ対策や事例の研究を進めているのです。
生成AIによる情報漏洩が企業にもたらす損害

続いて、情報漏洩が発生した際に企業側が受ける損害についても整理していきます。
顧客情報・機密情報の流出による社会的信頼の低下
生成AIによる情報漏洩が発生した際に最も深刻な影響のひとつが、企業の社会的信用の喪失です。顧客の名前、住所、連絡先などの個人情報や、開発中の商品情報、提携先との契約内容といった機密データが外部に流出すれば、企業ブランド価値に大きな打撃を与えるでしょう。
加えて、コンプライアンス違反と判断されるような事態に発展すれば、企業としての信頼性を大きく損なう可能性もあります。さらに、顧客対応窓口の混乱や取引停止など、多面的な影響に発展する恐れも否めません。「情報を預けて大丈夫か?」という不安が広がれば、企業の存続にも関わる問題となりかねません。
ダークウェブでのアカウント売買・二次被害の危険性
一度漏れた情報は、見えない場所で売られ続け、別の被害を生む恐れがあります。個人情報が一度でも流出すると、そのデータは「ダークウェブ」と呼ばれる匿名性の高い裏のネット市場で売買されることがあります。
そこでは、IDやパスワード、クレジットカード情報が商品として扱われており、それらがなりすましログインや詐欺メールなどに悪用されるケースが後を絶ちません。
情報が漏れた企業には、問い合わせが殺到したり、説明責任を求められたりと、アクセス制限やセキュリティ対応を含めた一連の危機対応が求められるでしょう。
法的責任・個人情報保護法違反への対応リスク
情報漏洩はコンプライアンス違反や法的制裁につながる重大なインシデントです。日本では「個人情報保護法」や「電気通信事業法」などにより、個人情報の取り扱いに関する明確な管理体制の構築が企業に求められています。
被害者から損害賠償を求められ、金銭的なトラブルに発展する可能性もあります。
生成AIによる情報漏洩の事例6選
実際にどのような場面で情報漏洩が起きたのか、具体的な事例を知ることが、対策の第一歩です。ここでは、国内外の企業で発生した代表的な情報漏洩事件を5つ紹介します。
- サムスン電子|社内コードがChatGPT経由で漏洩
- GenNomis:AI画像生成サービスのデータベースが公開状態に
- OpenAI社|ChatGPTのバグによる個人情報漏洩
- OpenAI社|ハッキングによりAI開発データが流出
- 世界各国|ChatGPTアカウントが闇市場で売買
- 香港|生成AIを悪用した37億円のディープフェイク詐欺事件
- リクルートキャリア|AIによる内定辞退予測データの無断販売
サムスン電子|社内コードがChatGPT経由で漏洩
2023年、韓国のサムスン電子で、開発中の機密データが外部に漏洩する事態が発生しました。
半導体部門のエンジニアがエラー修正のため、社内の機密コードをChatGPTに入力。
その情報がAIのサーバーに保存され、他のユーザーへの応答に使われる可能性があると判明しました。
この結果、意図せず第三者に機密データが渡るリスクが明らかになったのです。
同社はこの問題を受け、生成AIの業務利用を全面的に禁止するとともに、社内ガイドラインの見直しを実施しました。
生成AIの普及が進む中で、情報統制とコンプライアンス意識の重要性が改めて問われる事例となりました。
出典:サムスン、ChatGPTの社内使用禁止 機密コードの流出受け | Forbes JAPAN 公式サイト(フォーブス ジャパン)Forbes
GenNomis:AI画像生成サービスのデータベースが公開状態に
2025年3月、韓国のAI画像生成企業GenNomisが運営するデータベースが無防備な状態でインターネット上に公開されていたことが判明しました。このデータベースには、約9万3,000件のAI生成画像や関連するプロンプトデータが含まれていたことが分かっています。
社内でシステムを監視する体制に穴があり、生成AIのデータが流出してしまった事例です。生成AI側に原因がなくとも、社内体制が不十分な場合にはトラブルにつながることを示していると言えるでしょう。
出典:An AI Image Generator’s Exposed Database Reveals What People Really Used It For | WIRED
OpenAI社|ChatGPTのバグによる個人情報漏洩
2023年3月、OpenAIはChatGPTでバグが発生し、他ユーザーの個人情報やチャット履歴が一部のユーザーに表示される問題があったと公表しました。
影響を受けたのは、有料版「ChatGPT Plus」利用者の約1.2%にのぼります。
表示された情報には、氏名・メールアドレス・住所・クレジットカードの下4桁などが含まれていました。
原因は、インメモリデータベース「Redis」のライブラリに起因する技術的な不具合とされています。
この件は、生成AIのインフラ側にも情報漏洩リスクがあることを象徴する事例です。
大手企業であっても、想定外のトラブルに直面する可能性があるといえるでしょう。
出典:ChatGPTで個人情報漏えい OpenAIが原因と対策を説明 – ITmedia NEWS
OpenAI社|ハッキングによりAI開発データが流出
2023年、OpenAIの内部通信システムがハッキングされ、AI技術の設計に関する機密情報が盗まれる事件が発生しました。
盗まれたのは、従業員が最新の技術について議論していた社内フォーラム上のデータだったとされています。
生成AIそのものから情報が漏れたわけではありませんが、開発企業の内部システムが狙われるリスクを示す事例です。
万が一ハッキングを受けると、プロジェクトの中断や競合への技術流出など、大きな損害につながる可能性があります。
世界各国|ChatGPTアカウントが闇市場で売買
シンガポールのセキュリティー企業Group-IBは、ChatGPTのアカウント情報がダークウェブ上で売買されていた事例を報告しています。いろいろな国のアカウント情報が流出しており、主な原因はフィッシング詐欺やマルウェアによる不正ログインとのことです。
企業や個人のアカウントからは、チャット履歴や機密データが閲覧できる可能性があるため、アクセス制限のない管理は重大なリスクを招きます。
生成AIの活用が進むなかで、アカウントの適切な保護体制が欠かせないことを示す事例です。
出典:10万件のChatGPTアカウントが闇市場に、どう盗んだのか誰が欲しがるのか | 日経クロステック(xTECH)
香港|生成AIを悪用した37億円のディープフェイク詐欺事件
2024年、香港で発生したディープフェイクを用いた詐欺事件では、企業の経理担当者が偽装された上司の映像を信じ、約37億円を送金する被害に遭いました。
この事件では、生成AIにより作成された人物の音声・映像がオンライン会議上で使用されており、外見・話し方ともに上司本人と見分けがつかない精巧な内容でした。担当者は疑いを持たずに指示に従い、送金手続きを進めたといいます。
生成AIの悪用により、組織内部からの信頼を逆手に取った新たなサイバー犯罪の事例です。AI技術の進化が引き起こすセキュリティ上の課題を浮き彫りにしています。
出典:CNN.co.jp「会計担当が38億円を詐欺グループに送金、ビデオ会議のCFOは偽物 香港」
リクルートキャリア|AIによる内定辞退予測データの無断販売
2019年、リクルートキャリア(現・リクルート)が、就活生のウェブ行動履歴をもとにAIで算出した「内定辞退予測スコア」を、本人の同意なしに企業へ提供していたことが明らかになりました。
このスコアは個人名ではなくIDで管理されていましたが、企業が採用活動の判断材料として利用していたとされ、同意の取得や個人情報の扱いをめぐって大きな批判を受けました。
生成AIによる分析や予測データの活用が進む中でも、出力結果であっても人に関する情報は、倫理的・法的な観点から慎重に扱う必要があることを示す事例です。
出典:リクナビ問題、データ購入企業の情報管理に甘さ – 日本経済新聞
生成AIによる情報漏洩の原因とパターン

ここでは、情報漏洩が起きる主要なパターンを整理してご紹介します。事前に知っておくことで、トラブルの芽を摘むヒントになるでしょう。
ハッキングの被害にあう
生成AIを活用したシステムやサービスは、他のITインフラと同様にサイバー攻撃の対象となるリスクがあります。
生成AIを介して収集されたプロンプトや履歴データが、外部からのハッキングにより流出する可能性は否定できません。社内の生成AI活用環境に対する標的型攻撃なども想定され、AIそのものだけでなく、周辺インフラの脆弱性にも注意が必要です。
また、ハッカーによる能動的な攻撃に加え、従業員が不審なメールを開封するなどしてウイルスに感染し、情報が流出する可能性もあります。従業員がハッキングフローの一端を担ってしまうケースがあることも理解しておきましょう。
生成AI側にバグがある
生成AIを含むシステムにはどうしてもバグがつきものです。
OpenAI社の事例からも分かるように、バグがあった際には利用者の氏名やメールアドレスなどの情報が意図せず漏れてしまうことがあります。
企業側でコントロールするのは難しい事象ですが、なるべく生成AIを定期的にアップデートして、システムに問題がない状態を保つことが重要になるでしょう。
入力内容が学習に利用される
生成AIは、ユーザーが入力した内容を学習データとして活用し、性能を向上させていく仕組みを持っています。
そのため、社内の機密データや個人情報を入力してしまうと学習に利用され、将来的に別のユーザーへの応答に反映されることがあります。結果として情報漏洩につながる可能性があるのです。
無料版ツールの利用によるセキュリティの欠如
生成AIツールには、法人向けのセキュリティ対策が施された有償プランだけでなく、誰でも使える無料版も多く存在します。しかし、無料版ではデータ暗号化やアクセス制限、学習のオフ設定などが不十分であるケースが多く、情報漏洩のリスクが高くなります。
無料版を私物のPCやスマートフォンで使用してしまうと、社内ネットワークと無関係な場所で機密データが取り扱われることになり、企業としての統制が効かなくなりやすいです。
企業側が生成AIの使用ポリシーを定めるだけでなく、無料ツールの使用制限や業務端末の管理体制を強化することが重要になるでしょう。
生成AIによる情報漏洩を防ぐための5つの社内ルール

生成AIの安全な活用には、ガイドラインとルールの明文化、教育の仕組みづくりなど対策が欠かせません。
ここでは、社内に浸透させやすいルール設計のポイントを5つの観点から整理します。
1.入力禁止項目のルール策定
生成AIを業務で活用する際には、「入力してはならない情報」を明確に定義するルール作りが不可欠です。具体的には、顧客情報、契約内容、社内会議の記録、開発中のソースコードなど、外部流出によって企業に損害を与える情報が対象となります。
曖昧な基準のままAIを利用させると、従業員が判断に迷い、結果として情報漏洩を招くリスクが高くなるでしょう。そのため、禁止項目を明文化し、社内ガイドラインとして周知することが大切です。
2.生成AIツールの利用範囲と対象業務の明確化
生成AIの利用目的や対象業務が曖昧なまま運用されていると、不必要なリスクを抱えることになります。業務ごとに「使用してよいツール」「使ってよい場面」「求められる確認プロセス」を明示しておくことで、誤用の防止と責任の所在を明確化できます。
特に情報セキュリティ上の観点から、利用するAIの種類やバージョンを指定することも有効です。運用ルールを整えることで、安心して活用できる環境づくりにつながります。
3.ログの取得やアクセス制限による監視体制構築
ログ(利用履歴)の自動記録と保存で、万が一トラブルが起きた際でも、いつ・誰が・何をしたかを正確にたどれるため、原因の特定と再発防止につながります。
また、アクセスできる情報をユーザーごとに制限することも効果的です。社外秘の資料や顧客情報にアクセスできるのは一部の社員に限定し、二段階認証などの追加チェックを設けると、リスクをさらに抑えることができます。
4.法人向けサービスや学習無効設定の導入
生成AIには、入力内容を学習データとして使用しない設定を選べるツールや、企業専用のセキュリティ強化プランが用意されています。こうした法人向けサービスを導入することで、情報管理リスクを大幅に軽減することが可能です。
例えば、OpenAIの「ChatGPT Enterprise」では、エンドツーエンドで暗号化され、学習データにも利用されない設計になっており、ビジネス用途に特化した安全性が確保されています。
業務利用においては、無料版ではなくこうしたサービスの採用も検討すべきでしょう。
5.実際の漏洩事例を教材にして教育を行う
規定や仕組みだけでは、従業員に十分な意識が浸透しないこともあります。そこで有効なのが、過去に発生した情報漏洩の具体事例を社内教育に活用することです。たとえば、サムスン電子やリクルートキャリアなどの事例をもとに、「なぜ起きたのか」「なぜ問題となったのか」を解説することで、自分ごととして捉えやすくなります。
また、自社の業務に置き換えたロールプレイ型研修や、定期的なチェックリストの確認を通じて、継続的なリスク意識の醸成を図ることも重要です。
生成AI情報漏洩に関する法規制の動向

生成AIの活用にあたり、企業は法的リスクにも向き合わなければなりません。
ここでは、EU AI Act(欧州AI規制法)や日本のガイドラインなど最新の法規制動向を紹介します。コンプライアンスを守りながら、安心して生成AIを業務に取り入れるための視点を持っておくことが重要です。
EU AI規制法案の概要と影響
2024年に欧州連合(EU)で採択された「EU AI Act(EU内においてのAI使用ルールを定めた法律)」は、生成AIを含むAI活用全体に対して、世界で最も網羅的なルールを定めた画期的な法案として注目を集めています。
この法律では、AIをリスクの大きさに応じて分類し、「高リスク」に該当するシステムには透明性や説明責任、外部監査の義務が課される仕組みです。
生成AIは高リスクカテゴリではないものの、「汎用AI(GPAI)」という新たな枠組みで規定されており、以下のような義務が明文化されました。
- 出力情報の出所を明示すること
- 学習データの概要を開示すること
- 著作権に配慮した運用を徹底すること
EU圏内で事業を展開しているかどうかに関わらず、この法案は今後のグローバルなAI運用のスタンダードになり得る存在です。生成AIをビジネスに取り入れる企業にとって、EUの動向は無視できない指針となるでしょう。
日本のAI事業者ガイドライン
日本でも2024年、経済産業省が「AI事業者ガイドライン」を公表し、企業における生成AIの安全な活用が強く求められるようになっています。
このガイドラインでは、
- 利用者保護
- 説明責任
- セキュリティ
- プライバシー保護
といった観点から、AIを提供・活用する企業が守るべき基本方針が明記されています。
特に生成AIについては、
- 学習データの適法性の確保
- 出力内容の正確性と安全性の担保
といった要件が強調されており、開発だけでなく運用・提供段階におけるリスクマネジメントが求められています。
本ガイドラインに法的拘束力はないものの、将来的な制度整備を見越した備えとして、多くの企業が注視しています。
信頼性の高いAI活用体制を構築するための基礎資料として活用することで、企業のコンプライアンス対応や競争優位の確立にもつながるでしょう。
FAQ|生成AIと情報漏洩リスクに関するよくある質問

最後に、生成AIと情報漏洩に関するよくある質問を紹介します。
Q1. 情報漏洩が起きたときの初動はどうすべきですか?
まずは速やかにインシデント対応チームに通報し、AIツールの利用停止やアクセス制限などの拡大防止措置を講じます。その後、関係者や関係部署へ状況を共有し、被害範囲を技術的に調査しましょう。
最終的には、影響を受けた取引先・顧客への報告と、再発防止策の策定までを一貫して実施すると効果的です。事前にフローを整備しておくことで、被害の拡大を防ぎやすくなります。
Q2. 情報漏洩が起きにくい社内体制をつくるには?
大切なのは、「ルール」と「技術」の両方をバランスよく整えることです。
- 社内で生成AIをどう使うかを定めたガイドラインをつくる
- 機密情報を入力しない、無料ツールの利用は制限する
- アクセス権を制限できる法人向けプランを選ぶ
といったルールづくりが基本になります。社員一人ひとりに定着するよう、定期的なセキュリティ研修や情報モラル教育も行うべきでしょう。
Q3. 入力内容をAIに学習させないためには?
現在、多くの生成AIでは、ユーザーが入力した情報を学習に使わないよう設定できる機能が用意されています。
社内で導入を進める前に、学習を無効にしておくといいでしょう。ただし無料ツールではこの設定ができず、入力内容が学習に使われることがあります。有料ツールを利用するなどの対策を講じておきましょう。
まとめ:生成AIの情報漏洩リスクを理解し、安全に業務に活用しよう
生成AIは、業務の効率化や創造性の向上に役立つ一方で、情報漏洩というリスクも抱えています。実際の事例を見ることで、「どこに危険があり、なぜ問題になるのか」がより具体的に理解できたのではないでしょうか。
リスクを過度に恐れる必要はありませんが、無防備な運用は避けるべきです。
この記事で紹介した初動対応やルール整備のポイントを参考にしながら、ツール選びや社内ガイドラインの整備、従業員教育を進めていきましょう。
SHIFT AIでは、企業の生成AI運用を支援しています。生成AIの基礎知識に関するeラーニングコンテンツの提供やワークショップの開催を行っており、情報漏洩を防ぐための知識を身につけられます。無料相談を実施しているので、ぜひ一度お問い合わせください。