PSI CyberSecurity Insight

トップ> Insight Post一覧> PSI CyberSecurity Insight第46号:生成AIサービスへの誤入力による情報漏えい、便利さの裏に潜む「無意識の持ち出し」リスク

2026年1月21日

株式会社ピーエスアイ

生成AIサービスへの誤入力による情報漏えい、便利さの裏に潜む「無意識の持ち出し」リスク

背景

ChatGPTやCopilot、各種生成AIチャットサービスが業務に活用される中、従業員が機密情報を含むテキストやソースコードを誤って外部AIサービスに入力してしまう「無意識の情報持ち出し」リスクが顕在化しています。AIに仕様書の要約やメール文面の作成を依頼する際に、顧客名、社名、内部コード名、未公開の技術情報などをそのまま貼り付けてしまう事例が報告されており、これらのデータがどのように保存・学習・再利用されるのかがブラックボックスになっているサービスも少なくありません。特に、無料版や個人アカウントでの利用では、入力データがモデル改善のために利用されるケースがあり、将来的な情報漏えいリスクが懸念されています。

実態

実際に、海外企業では開発者がソースコードのバグ修正を生成AIに依頼する際、リポジトリのコード断片を大量に貼り付けた結果、機密性の高いアルゴリズムやAPIキーが外部サービスに送信されていた事例が報告されています。また、社内会議の議事録や顧客との商談メモを要約させる目的でそのままAIに入力し、顧客名や未公開プロジェクト情報が外部に渡ってしまうケースもあります。一部のAIプラットフォームでは、「入力データは一定期間保存され、モデル改善に利用される」「法執行機関からの要請に応じて提供される可能性がある」と利用規約に明記されている場合もあり、コンプライアンス上の問題となる可能性があります。さらに、最近では企業向けに「オンプレミス」「専用テナント」型の生成AIサービスも提供されていますが、個人アカウントと企業アカウントの使い分けが徹底されていない場合、従業員が誤って個人側のアカウントで業務データを扱ってしまうリスクも存在します。

影響と対策

生成AIサービスへの誤入力による情報漏えいは、従来の「外部送信ログ」では可視化されにくく、発覚が遅れる傾向があります。影響としては、営業機密や技術ノウハウの流出、個人情報保護法やGDPR違反、取引先との契約違反、将来的なモデルからの意図せぬ情報再生成などが考えられます。対策としては、まず社内でのAI利用ルールを明文化することが必須です。「顧客名・個人情報・未公開の財務情報・機密ソースコードなどは外部AIに入力してはならない」といった具体的な禁止事項を定め、定期的な教育を実施します。技術的には、FortiGateやCheck PointのCASB機能を活用し、許可された企業向けAIサービス(専用テナント)へのみアクセスを許可し、その他の外部AIサービスへのアクセスを制限・監視することが有効です。また、社内専用の生成AI環境(社内データのみを学習対象とし、外部と隔離された環境)を整備し、業務利用は原則としてそちらに限定する運用も推奨されます。加えて、DLP機能により、特定のキーワードやパターン(個人情報、機密プロジェクト名など)が含まれるテキストが外部送信される際にアラート・ブロックする仕組みを構築することも有効です。

まとめ

生成AIは業務効率化の強力なツールである一方、「入力した瞬間に社外持ち出し」となる側面を持ちます。利便性と引き換えに、どこまでの情報を外部AIに委ねるのかというガバナンスが問われています。ルール整備・技術的統制・専用環境の整備という三本柱で、安全なAI活用の基盤を構築することが重要です。PSIでは、ネットワーク製品とCASB・DLPソリューションを組み合わせたAI利用ガバナンスの実装支援を通じて、お客様の生成AI活用を「安全かつ貢献度の高いもの」にするためのご支援をいたします。

会社概要

社名:株式会社ピーエスアイ(PSI)
所在地:〒160-0022 東京都新宿区新宿5丁目5-3 建成新宿ビル4階
設立:1994年
TEL:03-3357-9980
FAX:03-5360-4488
URL:https://www.psi.co.jp
事業内容:サイバーセキュリティ製品の販売および導入支援、運用サポート、ITコンサルティング

報道関係者様からのお問合せ先

株式会社ピーエスアイ
広報担当:内藤
電話番号:(03)3357-9980
Eメールアドレス:psi-press@psi.co.jp