ブログ

Home ブログ AI・クラウド時代のセキュリティ対策入門|情報漏洩リスクと企業が取るべき対応とは

AI・クラウド時代のセキュリティ対策入門|情報漏洩リスクと企業が取るべき対応とは

AIやクラウドサービスの普及によって、私たちの業務はこれまでにないスピードと効率を手に入れました。一方で、ツール同士が自動で連携する環境は、これまで想定していなかった形で情報が漏れたり、外部からの不正アクセスを受けるリスクも高まっています。

クラウドの設定や生成AIの使い方、情報の取り扱いに関する小さな見落としが、思わぬ情報漏洩につながることもあります。

さらに、関連法規の整備が進み、情報漏洩は単なるシステムのトラブルではなく、会社全体の法的責任に直結する経営課題となりました。

本記事では、AI・クラウド時代に実際に起きやすい情報漏洩パターンを整理しながら、企業が取るべき対策を「ルール」「技術」「人」「契約」の4つの視点からわかりやすく解説します。

「便利さ」と「安全性」を両立させるため、実務で使えるセキュリティ設計のポイントを押さえていきましょう。

なぜAI・クラウド時代は情報漏洩が起きやすいのか

まずは、実際の現場で起こりやすい情報漏洩の要因を、代表的な3つのパターンに分けて解説します。

① 設定ミスで情報が漏洩する

クラウドはたった数分で使うことができますが、共有・権限・外部連携の設定は細かく分かれています。たとえば次のようなよくある設定が、そのまま情報漏洩に繋がる入口となってしまうことがあります。

  • 共有リンクを「リンクを知っている全員が閲覧可」にしていた
  • フォルダの設定時に、別の資料まで一括で公開されていた
  • ゲスト招待を許可したまま放置され、退職者や外部アカウントが残っていた

クラウドの事故は「突破される」というより、自分たちが見える状態を作ってしまうことが多いのが特徴です。

②生成AIに入力した情報が漏れる

生成AIに関するトラブルの多くは、特殊な攻撃によるものではなく、日常業務での入力内容にに潜む、ちょっとした見落としから起こります。たとえば、AIに入力する文章の中に、次のような情報がそのまま含まれてしまうケースがあります。

  • 顧客名・住所・電話番号などの個人情報
  • 見積書・契約書・未公開資料などの機密
  • 問い合わせ履歴やカルテなどのセンシティブ情報
  • ソースコード・設計書・APIキーなどの技術情報

生成AIは「入力=共有」になり得ることを念頭に置きましょう。ここが従来ツールとの決定的な違いです。

③外部連携が漏洩の入口になる

クラウド運用では、社内の対策だけでは守り切れません。実際の現場では、次のような外部サービスとの連携が増えています。

  • 会計・チャット・ストレージなどのアカウント連携
  • 拡張機能やプラグインの追加
  • 開発・運用を外部委託するケース
  • 取引先が利用する共有フォルダのゲストアカウント

この状態で、どこか1つでも管理が甘くなると、そこが入口となり被害が一気に広がります。たとえば、取引先や外部ツールのアカウントが不正に使われると、その連携を通じて、自社のシステムやデータまでアクセスされてしまうことがあります。

会社が守るべきサイバーセキュリティ関連法

AIやクラウドの活用が当たり前になったいま、サイバーセキュリティは「IT部門だけの問題」ではなく、会社全体の責任に直結します。

情報漏洩や不正アクセスが起きた場合、「攻撃されたから仕方ない」では済まされず、管理側である会社の責任が、複数の法律によって問われます。

ここでは、企業が特に注意すべき代表的な法律と、その実務上の意味を整理します。

個人情報の保護に関する法律

サイバーセキュリティにおいて、会社が直接的に責任を問われやすい法律が個人情報の保護に関する法律です。この法律は、顧客や従業員などの個人情報を取り扱う事業者に対して、「安全に管理する義務」「委託先も含めて監督する義務」「漏えい時に報告する義務」などを課しています。

氏名や住所、電話番号だけでなく、医療情報、問い合わせ履歴、会員データなども対象になります。もし情報漏洩が発生すると、個人情報保護委員会への報告、本人への通知、場合によっては損害賠償請求を受けるリスクも発生します。

不正アクセス行為の禁止等に関する法律

この法律は、本来は「侵入する側」を処罰するための法律ですが、会社側にも侵入されにくい管理体制を整える責任が求められます。

たとえば、IDやパスワードの適切な管理、アクセス権限の見直し、セキュリティ設定が正しく機能しているかの定期的な確認などが含まれます。さらに、リスクが高まっていると判断した場合には、速やかに対策を強化し、不正アクセスを防ぐための備えを行うことが重要です。

さらに、不正ログインをきっかけに個人情報が流出すれば、個人情報の保護に関する法律違反にもつながります。

サイバーセキュリティ基本法

この法律は、企業や国に対して罰則を直接科すものではありませんが、日本全体のサイバーセキュリティ対策の「基本方針」を定めた法律です。ここでは、国・自治体・企業・国民それぞれが、サイバーセキュリティ確保に努めるべき責務を負うとされています。

サイバーセキュリティ基本法では、企業の規模に関係なく、すべての事業者にサイバーセキュリティ対策へ取り組む責務があるとされています。そのため、「小さい会社だから対象外」という考え方は、通用しないため、対策の徹底が重要です。

情報漏洩対策の基本設計

セキュリティ対策は、「人・ルール・技術・契約」の4つを組み合わせて運用することが重要です。どれか一つでも欠けると、その部分が弱点となり、思わぬ事故につながる可能性があります。

人(教育・習慣)

情報漏洩の多くは、悪意ではなく「うっかり」から起こります。だからこそ重要なのは、難しい規則ではなく、現場で迷わず行動できるルールを習慣にすることです。たとえば、共有リンクの作り方や社外に出してよい情報の範囲、生成AIに入力してはいけない内容などを、シンプルに整理し、周知しておくだけでも事故の確率は大きく下がります。

また、年に一度だけの集合研修よりも、短時間の勉強会を定期的に開き、実際に起きた事例を共有するほうが、現場の意識は定着しやすくなります。さらに、「危なかったかもしれない」というヒヤリとした体験を責めずに、組織全体で共有できる雰囲気があることも重要です。小さな気づきを早期に収集できれば、大きな事故は防ぎやすくなります。

ルール

すべてのデータを同じ厳しさで管理しようとすると、現場の運用には必ず無理が出ます。そこで現実的なのが、データを重要度で段階的に分ける考え方です。個人情報や医療情報、未公開の財務データのように外部へ出してはいけない情報もあれば、条件付きで社内利用のみ可能な情報、外部に共有しても問題ない公開情報もあります。

この分類を土台にして、生成AIに入力してよい内容、クラウドで共有してよい範囲、委託先に提供できるデータの基準を連動させておくと、現場は「これは大丈夫か?」と迷わずに判断できます。ルールは増やすことよりも、迷わなくて済む形に整えることが重要です。

技術

すべてのセキュリティ対策を一度に完璧にする必要はありません。まずは、事故を確実に止められる最低限の防御ラインを固めることが重要です。とくに、管理者や経理、人事、営業など、高い権限を持つアカウントには、パスワードに加えてもう一段階の確認を行う仕組みを必ず設定しておくことだけでも、アカウント乗っ取りの多くは防ぐことができます。

また、業務に必要な範囲だけ権限を与える「最小権限」の考え方を徹底し、例外的に強い権限を与える場合は、必ず期限を決めて管理します。あわせて、重要なデータへのアクセス、共有リンクの作成、管理者権限の変更といった操作は、あとから確認できるように記録しておくことが重要です。

さらに、通信中と保存中の両方でデータを暗号化し、万が一、システムが動かなくなるようなサイバー攻撃を受けた場合でも、確実に復旧できるよう、バックアップを複数で管理し、復旧訓練までを定期的に行っておくことが、実効性のある対策になります。

契約

クラウドや外部委託を利用する以上、「誰がどこまで責任を持つのか」を、契約や規約の中で客観的に明確にしておくことが不可欠です。情報漏洩が起きた場合の責任の所在、再委託の可否、事故発生時の報告義務や対応スピード、アクセス権限の管理方法、ログの保管や監査の可否などは、あらかじめ契約で確認しておく必要があります。

個人情報保護委員会も、クラウド利用においては、事業者がセキュリティ対策の内容を理解し、合意事項を契約や規約で明確にすることが重要であると示しています。「有名な会社やサービスだから安心」ではなく、契約まで含めて初めて対策が完成するという意識が求められます。

生成AIを安心して使うための社内ルール

生成AIを安全に活用するためには、個々の判断に任せるのではなく、企業としての方針や運用ルールを明確にすることが不可欠です。その考え方の土台となるのが、国が示す「AI事業者ガイドライン」の存在です。

AI事業者ガイドラインが求めていること

経済産業省はAI事業者ガイドラインとして、AIを安全・安心に活用するための共通の考え方や行動の指針を示しています。ガイドラインの位置づけについては、次のように説明されています。

「本ガイドラインは、AI 開発・提供・利⽤にあたって必要な取組についての基本的な考え⽅を⽰すものである。よって、実際の AI 開発・提供・利⽤において、本ガイドラインを参考の⼀つとしながら、AI 活⽤に取り組む全ての事業者が⾃主的に具体的な取組を推進することが重要となる。」

引用:経済産業省 AI 事業者ガイドライン(第1.1版)

このように、企業にはAIを安全に利用するための明確な方針や社内ガイドラインを自ら整備し、現場で運用していく姿勢が求められていることがわかります。

現場で迷わないための「OK・NG」判断基準

どれだけ立派なAIの使用方針を掲げても、現場で「どう行動すればよいのか」が分からなければ、実際の対策としては機能しません。そこで、社内ルールとして現場レベルに落とし込むうえで大切なのが、難しい専門用語ではなく、「この場面で使っていいのか、ダメなのかをすぐ判断できる基準」を用意することです。

実務で迷わないための判断基準を、次の表にまとめました。

区分

具体例

注意点

A:禁止

  • 氏名・住所・電話番号
  • 顧客名
  • 患者情報
  • 社外秘数値
  • 契約書原文
  • 未公開資料

絶対にAIに入れない。漏えい時は法的責任に直結する。

B:条件付き

  • 社内資料の要約
  • 議事録の整理
  • 事例分析

固有名詞や数値は、個人や会社が特定できない形に置き換えてから使用する。社内限定の環境でのみ利用可能。

C:OK

  • 公開情報
  • 一般論の文章改善
  • アイデア出し
  • 言い換え
  • 見出し案

社内業務利用でも最終チェック・管理は人が行う。

生成AIのツール利用に関する基本ルール

次に重要なのが、生成AIの運用ルールです。業務で使うAIは、会社が承認したツールのみに限定し、現場判断で外部サービスを勝手に使わないことが基本になります。また、そのAIが入力データを保存するのか、ログは残るのか、学習に使われる可能性があるのかは、事前に必ず確認しておく必要があります。

また、生成AIの出力は、そのまま正解として使わず、必ず人の目で最終確認することが欠かせません。とくに法務・医療・金融など、誤りが直接リスクにつながる分野では、人が判断する体制を崩してはいけません。機密性が高い業務については、社内環境や専用環境に限定するなど、情報が外へ漏れにくい運用が望まれます。

AI・クラウド時代に求められる「安全に使い続ける設計」

AIやクラウドは、業務を大きく効率化してくれる一方で、情報漏洩や法的責任といったリスクとも常に隣り合わせです。だからこそ大切なのは、「使わない」という選択ではなく、「どうすれば安全に使い続けられるか」を会社全体で仕組みとして整えていくことです。

人の意識やルール、技術、契約までを含めて運用を設計し、とくに生成AIについては「入力=共有される」という特性を理解したうえで、慎重な扱いと最終確認体制を徹底することが欠かせません。

こうした安全性と業務効率を両立させる方法の一つとして、「DIP Ceph」のように、専門業務に特化し、情報の取り扱いにも配慮されたAIサービスを活用するという選択もあります。現場の負担を減らしながら、診断の質や説明のわかりやすさを高めたい場合は、こうした専門特化型のツールを一度情報収集の対象にしてみるのもよいでしょう。

実際の機能や利用イメージについては、公式の紹介ページでご確認ください。

→詳細はこちら