シャドーAIは最大のセキュリティの盲点になり得る

この記事をシェア

意図しない情報漏えいからプログラムの不具合に至るまで、AIの使用には見過ごせないリスクが潜んでいる。本記事では、企業において承認されていないAIの使用に注意すべき理由について解説する。

この記事は、ESET社が運営するマルウェアやセキュリティに関する情報サイト「WeLiveSecurity」の記事を翻訳したものである。

シャドーAIは最大のセキュリティの盲点になり得る

シャドーITは、長らくセキュリティ部門における悩みの種であった。把握していないシステムを管理し、保護することは不可能だ。しかし、事態はさらに悪化する可能性がある。AI技術の進展と急速な普及により、IT部門やセキュリティ部門では「シャドーAI」が新たな懸念として浮上しているからだ。

利用規定で網羅しきれないグレーゾーンにこそ、サイバーリスクが潜んでいる。まだ対策を講じていないのであれば、セキュリティ上の盲点となり得るリスクに対して改めて目を向ける必要がある。

シャドーAIが今、注目を集めている理由

AIツールは長らく、企業のITシステムの一部として活用されてきた。セキュリティ領域では、2000年代初頭から不審な挙動の検知やスパムメールのような脅威への防御に役立てられてきた。しかし現在、その状況に変化が生じている。2023年にOpenAI社のChatGPTが大きな注目を浴び、わずか2カ月で1億人ものユーザーを獲得して以来、従業員の多くは生成AIが生産性向上に大きく寄与する可能性を実感した。一方で、企業側の対応は遅れているのが実情だ。

その結果、ユーザーのニーズが満たされない状況への不満が広がった。未承認利用という性質上、シャドーAIの実態を正確に把握するのは難しいが、マイクロソフト社はAIユーザーの78%が個人契約のツールを業務に利用していると推定した。AIツールを正式に採用する計画が欠けていると考えるIT部門長が6割に上っているのも、偶然ではない。

ChatGPT、Gemini、Claudeといった人気のAIツールは、BYODのスマートフォンや在宅勤務用のノートパソコンに簡単にダウンロードして利用できる。こうしたツールは、業務量の削減や作業の迅速化につながり、より付加価値の高い仕事に時間を割ける点が、従業員にとって大きな魅力となっている。

パブリックAIモデルにとどまらない問題

ChatGPTのようなアプリは、シャドーAI問題における要因の1つだ。しかし、問題はそれだけにとどまらない。この技術は、ブラウザー拡張機能を介して企業内に入り込むこともあれば、IT部門が把握しないまま、正規の業務ソフトに搭載された機能として紛れ込む可能性もある。

さらに厄介なのがAIエージェントだ。これは、人間に代わり特定のタスクを遂行する自律型のソフトウェアであり、独立して動作する点が特徴だ。次世代のAI革命を牽引する存在とも位置づけられている。こうしたソフトウェアに適切な制限を設けなければ、機密情報へアクセスしたり、承認されていない作業や悪意ある振る舞いを行ったりする可能性がある。問題が顕在化してからでは手遅れという事態もあり得る。

シャドーAIに起因するリスク

先述した問題は、企業にとって重大なセキュリティリスクやコンプライアンスリスクを引き起こす可能性をはらんでいる。まず、承認されていないパブリックAIモデルの利用について考えてみよう。従業員がプロンプトを入力するたびに、機密情報や規制対象データが共有されてしまうリスクがある。具体的には、議事録、知的財産、開発、顧客や従業員の個人識別情報(PII)など、あらゆる情報が含まれる。入力されたデータはAIモデルの学習に利用される場合があるため、将来、ほかのユーザーに表示されてしまう恐れがある。さらに、そのデータは、自社と同等のセキュリティ基準やプライバシー規制が及ばない地域に設置されたサードパーティのサーバーに保存される場合もあり得る。

こうした状況は、GDPRやCCPAなどのデータ保護規制当局にとって到底容認できるものではない。さらに、AIツール提供企業の従業員がユーザーの機密情報を閲覧できてしまう可能性があり、組織のリスクは一段と高まる。また、中国のDeepSeek社で報告された情報漏えい事案が示すように、AIツール提供元側で漏えいや侵害が発生する可能性も否定できない。

AIツール自体にソフトウェアの脆弱性バックドアが潜んでいる場合があり、組織が意図せず標的型攻撃にさらされるリスクもある。さらに、従業員が業務目的でAIツールをダウンロードした際、誤って機密情報の窃取を狙った悪意あるソフトウェアをインストールしてしまう恐れもある。こうした目的で公開された偽の生成AIツールは数多く存在している。

リスクは情報漏えいだけにとどまらない。例えば、プログラム開発で未承認のAIツールを使用した場合、回答内容の検証が不十分であれば、顧客向け製品に攻撃者が悪用可能なバグが残ってしまう。また、AIを活用した分析ツールであっても、学習データに偏りや品質上の問題があれば、誤った意思決定につながるリスクがある。

AIエージェントも例外ではない。誤情報や不具合を含むプログラムを生成したり、ユーザーが気づかないまま承認していないタスクを実行したりする恐れがある。さらに、AIエージェントが利用するアカウント情報の管理が十分でない場合、乗っ取りの標的となり得る。

これらのリスクの中には潜在的なリスクにとどまるものもあるが、すでに顕在化しているものもある。IBM社が2024年に実施した調査によれば、シャドーAIに関連するセキュリティ事故を原因とした情報漏えい事案を経験した企業は20%に達している。さらに、同社の試算によると、シャドーAIの利用度が高い企業では、平均的な漏えいコストに加えて、最大67万ドル(1億円相当)もの追加負担が発生し得るとされている。シャドーAIに関連する漏えいは、法令違反による罰金を含め、金銭的損失や評判の低下など、深刻なダメージをもたらす可能性がある。加えて、AIツールによる誤情報や問題のあるデータに基づいて意思決定が行われた場合、気づかないうちに同等かそれ以上の損害を被る危険性もある。

シャドーAIを明らかにする

シャドーAIに関連するリスクへの対策として、各AIツールを「使用禁止リスト」に追加するだけでは十分な効果を期待できない。実際にこれらの技術が使われているという現実を受け止め、利用目的や利用状況を把握した上で、現実的な利用規定を策定する必要がある。セキュリティやコンプライアンス上の懸念が、どのツールに存在するのかを見極めるためには、社内検証に加え、AIベンダーに対するデューデリジェンス(継続的なリスク評価、必要な技術的対策や定期監査の実施)が不可欠だ。

企業ごとに置かれた状況は異なるため、自社のリスク許容度に応じたポリシー設計が求められる。特定のツールを禁止する場合には、ユーザーが円滑に移行できるよう代替手段を用意しておきたい。また、IT部門が把握していないツールについては、従業員が利用申請できるようなスムーズなプロセスも整備しておくべきだ。

そして従業員に対する教育・研修の実施も欠かせない。シャドーAIがもたらすリスクを社内に周知しなければならない。深刻な情報漏えい事案が発生すれば、企業の活力は損なわれ、DXの停滞を招き、ひいては事業縮小につながる恐れもある。また、情報漏えいのリスクを軽減し、AI利用の可視性を高めるために、ネットワーク監視を担うセキュリティツールの導入を検討すべきだ。

サイバーセキュリティでは、リスク低減と生産性向上のバランスを常に取ることが求められる。シャドーAIの課題に向き合うことも、その例外ではない。IT部門の責務は、組織を安全かつコンプライアンス遵守の状態に保つことにある。同時に、ビジネスの成長を支えることも重要な役割だ。そして多くの組織にとって、今後数年間の成長はAIによって支えられることになるだろう。

この記事をシェア

生成AIのセキュリティ対策に

サイバーセキュリティ
情報局の最新情報を
チェック!