SPECIAL CONTENTS

特集 | ビジネスやITの最新動向/技術についてセキュリティ観点からレポート

人工知能が暴走する日

この記事をシェア

人工知能について、バラ色ではない未来も見えてきた。そう懸念するのは、パソコンやスマートフォンのセキュリティ専門家たちである。特に機械学習については、偽の情報や都合の良い情報を学習させることによってネット犯罪者に有利な操作を可能にするため、事態はより深刻である。

この記事は、ESETが運営するマルウェアやセキュリティに関する情報サイト「Welivesecurity」の記事を翻訳したものである。

人工知能が暴走する日

想像もつかなかったことが人工知能(AI)と機械学習によって可能となる。こうした事態がいかに広範囲にわたって見られるか、数多くの記事が紙面を(Webを含めて)にぎわしている。

現在、オックスフォード大学、ケンブリッジ大学、イェール大学、オープンAI、そして電子フロンティア財団に所属するメンバーから成る26人の人工知能専門家チームが、人工知能はいかに不正目的のために悪用されるのかについて集中的に研究を進めている。この専門家たちが打ち出す知見は、学界では長らく棚上げされてきたものである。

「人工知能の不正利用――予測、予防、緩和」と題された報告書で彼らが描き出しているのは、遠い将来に人工知能が乗っ取られる、といった類のことではない。

むしろ、数年後に実現する可能性のある攻撃や、適切な防衛策が取られなければ不正者が人工知能技術を勝手に悪用して行うであろう攻撃について、この報告書は描き出している。

こうしたシナリオは、今後5年のうちで利用可能な、あるいはおそらくは利用可能となるような人工知能技術(特に機械学習を利用したもの)をもっぱら念頭に置いたものだ。

悪意のある者の手に落ちた場合、人工知能は脅威の状況を3つの点で本質的に変える可能性がある、と彼らは言う。第一に、既存の脅威を拡大し、第二に、新たな脅威を招き、そして第三に、私たちの知っている脅威の本質を別の次元へ変化させる、というものである。

ほぼ100ページに上るこの文書は、セキュリティの領域を3つ設定している。1)デジタル領域、2)物理的領域、3)政治的領域である。考え得る人工知能の不正な使用はこれらの領域に特に関係してくる、というのだ。

以下では、人工知能と機械学習がデジタル分野ではどのように悪用されるのかを見てみよう。

より簡便化するサイバー攻撃

より簡便化するサイバー攻撃

データ量増大などに対応する人工知能システムの拡張性(スケーラビリティー)と効率性のおかげで、労働集約的であったサイバー攻撃はより効果的かつ簡便に実行できるようになったと言えるかもしれない。ここで言うサイバー攻撃とは、特定の標的を狙ったスピア型フィッシングソーシャルエンジニアリングを指している。それは報告書が拡大の可能性がある既存の脅威の例として強調しているものだ。

攻撃者が目的とする犯罪行為に手を付けるのに先立って、下準備として処理する必要のある煩雑な仕事を自動化することで、人工知能はより多くの不正者が、より少ない労力で犯罪を実行することを可能にする。

「被害者のオンライン情報を用いて、彼らがいかにもクリックしそうにアレンジされた不正なWebサイトやメール、リンクを自動的に作成する。こうしたメールの類は実在の連絡相手をまねた文章を用いて、その連絡相手を装ったアドレスから送られてくる」――これが、報告書が描き出す可能なシナリオである。

攻撃者は、現時点では実行不可能な方法で洗練されたスピア型フィッシングを行うことが可能となり、そのため、ターゲットをもっと無差別に選択できるようになる可能性がある、と報告書は述べる。友人を模倣したリアルなチャットを行うボットも、こうした脅威の新しい手段として加わる可能性がある。

「ネットワーク侵害の爆発的増加、個人情報の盗難、知性を備えるコンピューターウイルスの流行」などは人工知能による攻撃の結果として起こる可能性があるものだ。

さらに、この報告書は、欠陥を悪用する「不正コード」が作り出される前に、人工知能がソフトウエアの脆弱性を自動的に、かつ迅速に発見することができると考えている(この「不正コード」もまた人工知能に支えられたプロセスを経て生み出される)。

研究者たちは、「ばらばらに見える巨大な群れ」が遠隔操作されて一斉に1カ所にアクセスする「DoS攻撃」も、現に起こり得る域に達していると見ている。

膨大な量の集積データを利用することで、金銭を目的とする攻撃の犠牲者となりそうな者を、より効率的かつ大量に特定することもできる。そうした被害者のオンライン行動は、経済状況を推測して「ここまでならお金を出すだろう」という支払い意思額を判断するために利用され、結果、「ランサムウェア」攻撃の効果が増すのである。

人工知能システム自身の脆弱性は、「アドバーサリアル・イグザンプル」(=誤認識誘導)と不正データによるポイズニングを用いた不正利用にはうってつけのものとなる可能性もある。

「データ・ポイズニング攻撃は、ひそかに破壊を進めるか、または利用者の機械学習モデルにバックドアを仕掛けるために利用される」と、このシナリオは読んでいる。

行動する時は今

この報告書はまた、人工知能の不正使用に関連する脅威を軽減するための一連の一般的介入を示唆している。

報告書を作成した専門家は、技術研究者、コンピューター科学者、サイバーセキュリティコミュニティーと緊密に協力して、人工知能の不正利用の可能性について調査、理解、準備するよう政策立案者たちに要請している。

報告書はまた、リスクの予防と緩和に関わるステークホルダーの範囲を拡大するよう求めてもいる。

また、エンジニアや研究者は、人工知能の不正な適用を防ぐために、不正利用に関する考察を念頭に置き、それを関係するステークホルダーに周知する必要がある。

「この挑戦は困難で、賭け金は高額に上ることだろう」と、この報告書は語っている。

[編集者注] サイバーセキュリティの防御面に関して、機械学習の展開について詳細については、ESETの一連の記事の中でさまざまな切り口から述べられている。

この記事をシェア

業務PCのセキュリティ対策に

マルウェア情報局の
最新情報をチェック!