強い会社の着眼点(第33回) 生成AIで社内情報がダダ漏れ!?気をつけるべき落とし穴

リスクマネジメント

公開日:2025.10.08

 生成AIに関するニュースを毎日のように目にする今日この頃。「ChatGPT」や「Gemini」「Claude」「Grok」といった、テキスト生成AI(以下「生成AI」)を利用したことのある人は多いだろう。最近では10代の若者さえも、疑問があれば「ChatGPTに聞いてみよう」とスマホアプリを立ち上げるほどだ。筆者もブログ記事の作成やプログラムなど、何かと生成AIを利用している現状だ。

資料DLバナー_みえ~る.png

生成AIの企業利用で留意すべきポイントとは?

 ところでこうした生成AI、リスクを十分承知のうえで使わないと大変なことになりかねないのをご存じだろうか。一般的に生成AIに個人情報や社内情報を入力することは原則として避けるべきとされている。これは、入力されたデータが外部に流出したり、AIの学習データとして利用されたりするリスクがあるためだ。

 ChatGPTをはじめとする一般的な生成AIサービスは、インターネットを経由してクラウド環境にあるサーバーにアクセスする仕組みのため、いつでもどこでも手持ちの端末から、生成AIの高い能力を気軽に利用できる一方でデータを外部のサーバーに送信するため、ベンダーのシステム障害やプログラムのバグや第三者による攻撃などにより、情報が流出して悪用されるリスクも想定される。

 さらなる脅威は、入力した情報が生成AIの学習に使われ、意図せず他のユーザーへの回答に組み込まれるリスクだ。多くの生成AIサービスは、ユーザーとの対話履歴をAIの性能向上に利用する。これにより、企業が保有する機密性の高い情報を入力すると、それらがAIモデルに組み込まれ、不特定多数のユーザーに間接的に公開されてしまうおそれがある。実際に、機密情報がAIの回答に利用された例も報告されている。

 こうした生成AI利用におけるリスクについては、デジタル庁「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」や総務省「令和6年版 情報通信白書(AIの進化に伴う課題と現状の取組)」が参考になる。

企業で生成AIを安全に利用するには、どうしたらいい?

 では、企業で情報漏えいのリスクを避けて安全に生成AIを利用するには、どうしたらいいのだろうか。まずは個人を特定できる情報や具体的な社内情報を入力するのを避けるのが鉄則だろう。各種利用サービスの「セキュリティポリシー」を確認することも重要だ。生成AIサービスそれぞれでデータの扱いの方針が異なる。プライバシーポリシーや利用規約を読み、入力したデータがどのように扱われるか確認してから使いたい。

 そして重要なのは、専用の生成AI利用環境を利用すること。企業においては、セキュリティ対策が施された企業向けの生成AIサービスや、社内に構築したクローズドなシステムなど、企業向けのシステムを利用することが強く推奨されている。

T-14-33_調整版.jpg

 1つめに触れた、セキュリティ対策が施された企業向けの生成AIサービス(クラウド経由のオフィスサービス、生成AIのAPIで構築された専用システムなど)は、一般的な生成AIサービスに比べて安全性が高い。とはいえ、先述のようなクラウドサービスにおける情報流出の可能性は十分にあるので留意したい。この中で大切なのは、サービスが「入力したデータを生成AIの学習や回答に利用しない」ことを明確に保証しているか、確認することだ。さらには、「誰が、いつ、どんな指示を入力したか」を追跡できる監査ログ機能の有無に加え、データ保管場所なども確認が必要だろう。このシステムのメリットは、クローズドなシステムよりも導入や管理が容易、デメリットはクラウドサービスゆえのリスクだろう。

 社内に構築するクローズドな生成AIシステムは、特に機密情報を多く扱う企業や官公庁などで導入が進みつつある。インターネット上のクラウドサービスを利用せず、自社の施設内に物理的なサーバーやネットワーク機器を設置し、閉じたネットワーク内で生成AIシステムを運用する形式だ。

 大きなメリットは外部ネットワークから隔離されているため情報漏えいのリスクが低い、自社の業務などに合わせてAIモデルやシステムを自由に構築できる、データが学習に利用されても社内の専用AIのため問題がない、外部要因の影響が受けにくいなどがある。一方のデメリットは導入・構築および運用保守に大きなコストがかかること、機器が古くなった際の入れ替えなど柔軟な対応が難しいことなどが挙げられる。

生成AIによる企業の情報漏えいを防ぐ、さらなる「転ばぬ先のつえ」とは

 企業内での一般的な生成AI利用については、最近は「(無制限な)利用を禁止とする」のが定番だという。それには、VPN(仮想プライベートネットワーク)環境を構築してアクセスログを取得したり、情報漏えいのリスクが高いと判断されるサービスへのアクセスをブロック、セキュリティ対策が施された安全なサービスへのアクセスのみを許可したりする方法が有効だ。利用状況を分析・可視化し、リスクの高い生成AIの利用が確認された場合には、警告メッセージを表示することや、管理者に通知する仕組みを構築してもよいだろう。

 基本的に企業においては、社内に構築するクローズドなシステムが最も安全なのは言うまでもないが、コストもかさむため、まずは企業向けの生成AIサービスを利用するのが良いだろう。それに加えて、企業内で一般的な生成AIサービスを制限するシステムとルールの徹底、および社員のリテラシー教育をおすすめしたい。

※掲載している情報は、記事執筆時点のものです

執筆=青木 恵美

長野県松本市出身。独学で始めたDTPがきっかけでIT関連の執筆を始める。書籍は「自分流ブログ入門」「70歳からはじめるスマホとLINEで毎日が楽しくなる本」など数十冊。Web媒体はBiz Clip、日経xTECHなど。紙媒体は日経PC21、日経パソコン、日本経済新聞など。現在は、日経PC21「青木恵美のIT生活羅針盤」、Biz Clip「IT時事ネタキーワード これが気になる!」「知って得する!話題のトレンドワード」を好評連載中。

【MT】

あわせて読みたい記事

  • 強い会社の着眼点(第33回)

    生成AIで社内情報がダダ漏れ!?気をつけるべき落とし穴

    リスクマネジメント

    2025.10.08

  • 強い会社の着眼点(第30回)

    クラウド推進が招く"盲点"。管理コストのわな

    リスクマネジメント

    2025.10.07

  • 強い会社の着眼点(第31回)

    余計なアプリが入っていませんか? リスクと対策を解説

    リスクマネジメント

    2025.10.07

連載バックナンバー

強い会社の着眼点