生成AIが台頭も、企業は安全性を懸念。2024年はセキュリティ解像度が高まり、教育とシステム構築が加速か。
〜ChillStack、「AIセキュリティに関する2023年の総括と2024年の展望」を発表〜
2023年は生成AIの開発競争が激化 企業は利用ガイドラインを模索
2022年11月30日、米OpenAIが生成AI「ChatGPT」を公開。それを受けて、2023年は生成AIの開発競争が激化した一年となりました。特に注目を集めたのは、Googleが発表した「Bard」や、Microsoftの新しい「Bing」(OpenAIのLLMを採用)でした。また、OpenAIは画像生成AI「DALL•E3」を発表。各社がしのぎを削る生成AIの世界でも、OpenAIは圧倒的な存在感を示しました。
生成AIの台頭に伴い、各企業はそれらを安全に活用するための方法を模索しました。特に、大企業を中心に生成AIの利用ガイドラインを整備する動きが活発化。ただ、何がリスクとなるのかを体系的に整理するためには大きなコストがかかります。具体的には、生成AIは日々進化しているため、その変化を常にキャッチアップし、整理することが必要となります。そのためには、生成AIに関する知識と経験が必要となるのです。
そのため、当社に寄せられる相談内容も、大きく様変わりしました。ChatGPT等のアプリを、社内でどう安全に運用すれば良いか。生成AIを導入するために、どのような観点でセキュリティ整備すれば良いのか等のご相談です。特に企業が懸念しているのは「情報漏洩」。ただ、リスクポイントを正しく認識すれば、安全に業務利用することは可能です。当社では、ご相談内容に応じて、生成AIを活用する際のリスク、気をつけなければならないポイントを、実際に活用する社員の方々にセミナー形式でお伝えしています。また、セキュリティ診断を実施した現状把握や、新たなセキュリティ体制の整備などをサポートしています。
ChatGPTのリリースから1年余りと、まだまだ不安材料の多い生成AI。しかし、オンプレミスからクラウドに移行し、それが当たり前になったように、これらの懸念も近い将来解消されると考えています。
世界的に生成AIへのリスク対応が加速 LLM活用のセキュリティ製品も
生成AIの台頭を受け、セキュリティ業界でも大きな動きがありました。アプリやソフトウェアに関するセキュリティ分野のガイドラインなどを作成する、米国の非営利組織OWASPが「OWASP Top 10 for Large Language Model Applications」を発表。LLMに関するセキュリティ上の重大リスクが整理されました。
情報セキュリティの研究やガイドラインの発行を行う、米国立標準技術研究所(NIST)では1月、AI技術のリスク管理のためのガイダンス「AI RMF」を発表しました。これは、AIを安全に作る、および使うためのリスクマネジメントフレームワークです。AIのライフサイクル全体に関して、どのように管理すれば安全か、管理する際に必要な視点は何か、などが体系的にまとめられています。
また、7月にはバイデン大統領がAIの安全性に関する大統領令に署名しました。AIを開発する企業に対し、安全性テストの結果の共有を義務付ける事などが明記されています。
11月には、世界で初のAIに関するサミット「AI安全サミット」が英国で開催されました。これは、AIの進歩によって人間がAIを適切に管理できるかという点にスポットを当てたものです。米国の実業家であるイーロン・マスク氏をはじめ、主要国の政府高官、大手AI企業の研究者らが登壇しました。
また、セキュリティ製品ではLLMを活用したものが発表されました。代表的なものに、「Google Cloud Security AI Workbench」や、「Microsoft Security Copilot」があります。セキュリティ製品にLLMが組み込まれた事により、マルウエアの判定スピードが上がるなど、技術的な面での大きな変化が見られました。さらには、セキュリティ製品がChatGPTのような役割を果たし、チャット形式でのサポートを受けられるようになりました。それにより、ITリテラシーが低かったり、セキュリティに詳しくなかったりする人でも、セキュリティシステムを扱う事ができるようになっています。
2024年はサイバー攻撃の「数」が増加か フェイク動画の精度向上も懸念
日本において、今後増加すると考えられるセキュリティリスクの一つに、生成AIを活用したサイバー攻撃があります。LLMの技術を活用すれば、専門知識が無くとも簡単に迷惑メールなどが作成できるため、攻撃の「数」は圧倒的に増えると予想しています。また、これまでのフィッシングメールやスパムメールは、「日本語がおかしい」という違和感で詐欺を回避できるケースも少なくありませんでした。これは、「日本語」という難解な言語特性により、これまでのAIでは自然な文面を生成しづらかった事にあります。しかしLLMを活用することで、より自然な日本語での表現が可能となっています。
世界的な動きとしては、7月に犯罪目的で開発された生成AI「WormGPT」が登場しています。そもそも生成AIには、基本的にプライバシーポリシーが設定されており、防御機構があります。それを取っ払い、制限を無くした生成AIといえるもので、不正コードやフィッシングメールの作成などに長けています。
また、「ディープフェイク」を使った犯罪も大きな脅威となっています。実際に日本でも、11月冒頭に岸田文雄首相の偽動画がSNSで拡散され、炎上しました。これらの技術が犯罪に悪用されないことを願うばかりです。
サイバー攻撃への対処は、セキュリティ教育とシステム構築から
高度なサイバー攻撃へ対処するためには、やはりセキュリティリテラシーの向上が必要不可欠です。具体的には、全社で「標的型メール訓練」を受講するなど、身近なセキュリティに関する正しい知識を身に付ける機会を設けるなどの方法があります。そして、知識を更新し続けることも大切です。
日本では、サイバーセキュリティに関する人手が圧倒的に不足しているといわれます。しかし、その人手不足も、生成AIの技術の進歩によって解消できるかも知れません。例えば、セキュリティに関する不明点を生成AIで確認し、サポートしてもらう。セキュリティリスクのチェック作業の大部分を生成AIに任せ、人間の作業工数を減らす、などの可能性があります。
もう一つは、サイバーセキュリティのシステム構築です。例えば、メールフィルターの設定、自社サイトを守るためのセキュリティ診断、マルウエアの検知システム導入など、方法は数多くあります。地道な作業ですが、自社のリスクをしっかり把握した上で適切な対策をとり、それを更新し続けることが重要です。
社内における詐欺や不正行為などの被害については、AIの活用で未然に防ぐことができると考えています。バックオフィスなど、これまであまりAIの技術が活用されず、テクニカルなリスク管理がされてこなかった領域に導入することにより、より高精度かつ高効率なリスク管理環境を構築することができます。当社でも、例えば経費精算の過程で、不正や異常が無いかAIが自動で検査するというサービスを展開し、多くの反響をいただいています。
今後は、国単位でAIに関する法律や規制の整備が進み、知識や技術の体系化も進み、AIに関連するセキュリティの解像度が全体的に高まっていくと考えられます。それに伴って、さらに生成AIの導入も増えていくでしょう。私たちが当たり前にGoogle検索を使うように、生成AIが日常に溶け込む日も近いのではないか、と期待しています。
筆者プロフィール
株式会社ChillStack 代表取締役 CEO 伊東 道明(Ito Michiaki)
6年間AI×セキュリティの研究に従事し、国際学会IEEE CSPA2018にて最優秀論文賞、IPAセキュリティキャンプ・アワード2018 最優秀賞を受賞している。
自身が国際セキュリティコンテストでの優勝経験をもち、IPA主催のセキュリティ・キャンプ2018 - 2022にてAIセキュリティ講義の講師を担当するなど次世代のAIセキュリティ人材の育成にも従事している。
株式会社ChillStackについて(https://chillstack.com)
所在地 :東京都渋谷区代々木一丁目54番4号 YS2ビル 3F
創業 :2018年11月
代表取締役:伊東 道明
事業内容:
ChillStackは「AIで守り、AIを守る」というビジョンの元、AIで進化させたサイバーセキュリティ技術、AI自身を守るセキュリティ等の技術開発および提供を行うとともに、それらAI技術を活用した高精度な不正検知システム 「Stenaシリーズ」を提供しています。
・ゲームにおける不正ユーザ検知AIシステム「Stena Game」の開発・提供
(https://stena.chillstack.com)
・個人立替経費における不正・不備検知AIシステム「Stena Expense」の開発・提供
(https://expense.stena.chillstack.com)
・Webアプリケーション、プラットフォーム、サービスのインフラシステム全体に対する脆弱性診断事業
(https://pentest.chillstack.com)
・AIのセキュリティ対策に関する研究開発およびコンサルティングサービス
すべての画像