『見えない生成AI利用リスク、情シスはどう統制すべきか』というテーマのウェビナーを開催
マジセミ株式会社は「見えない生成AI利用リスク、情シスはどう統制すべきか」というテーマのウェビナーを開催します。

■生成AI活用が現場で先行し、既存SASEでは想定していない利用が広がる現実
生成AIの業務活用が急速に広がる中、多くの企業で現場主導の利用が先行しています。ChatGPTなどの生成AIは手軽に業務へ取り込める一方で、従来のセキュリティ設計では想定されていない使われ方が増えており、既存のSASE環境だけでは十分に対応しきれないケースが増えています。AI活用は今後さらに拡大することが見込まれる中で、情報システム部門には「どこまで許容し、どのように統制すべきか」という判断が求められています。
■ChatGPTなどへの入力内容が把握できず、機密情報の流出有無が分からない課題
生成AIの利用において特に問題となるのが、従業員がどのような情報を入力しているか把握できない点です。業務効率化のために活用が進む一方で、機密情報や個人情報が意図せず入力されている可能性を否定できず、情報漏えいリスクが“見えないまま”存在している状態にあります。既存のSASEでは通信の可視化や制御が限定的で、「許可するか、遮断するか」という二択にとどまり、現実的な運用との乖離が生じています。その結果、情シスとしてリスクをどこまで許容し、どのように統制すべきか判断できないまま、運用が続いている企業も少なくありません。
■既存SASEを活かしたまま、生成AI利用の実態を可視化・制御する現実的な進め方を解説
本セミナーでは、こうした課題を踏まえ、既存のSASE環境を大きく変更することなく、生成AI利用の実態を可視化・制御するアプローチについて解説します。Check Point Browser Securityを活用することで、ブラウザを起点にAI利用の実態を把握し、リスクに応じた柔軟なポリシー制御を行う方法をご紹介します。従来の「許可/拒否」の二択ではなく、AI活用を止めることなくセキュリティを担保するための考え方を整理し、「まず何を把握すべきか」「どこまで制御すべきか」といった、情シスが判断するための軸を持ち帰っていただける内容です。
■このような方におすすめ
・生成AIの業務利用が広がる中で、情シスとして統制のあり方に不安を感じている方
・ChatGPTなどへの入力内容を把握できず、情報漏えいリスクに課題を感じている方
・既存SASEではAI利用の可視化・制御が不十分だと感じている方
・AI活用を止めずに、現実的な統制方法を検討したい方
・SASEを更改せずに、追加施策でAI対応を実現したいと考えている方
■主催・共催
チェック・ポイント・ソフトウェア・テクノロジーズ株式会社
■協力
株式会社オープンソース活用研究所
マジセミ株式会社
マジセミは、今後も「参加者の役に立つ」ウェビナーを開催していきます。
過去セミナーの公開資料、他の募集中セミナーは▶こちらでご覧いただけます。
すべての画像

