半数超の企業でAIガバナンスの主管部門が不在・機能不全。サービスへのAI実装の機運が高まるも、「責任の押し付け合い」への懸念あり

〜現場エンジニアは「基準・ルール不足」、情報システム・監査部署は「責任の所在の曖昧さ」に課題意識〜

株式会社ChillStack

AIを用いた高精度な不正検知サービスやサイバーセキュリティサービスを開発・提供している株式会社ChillStack(本社:東京都渋谷区、代表取締役:伊東 道明、以下「ChillStack」)は、自社サービスの開発に携わるエンジニアを対象に「AIガバナンスに関する実態調査」を実施し、200名から回答を得ました。あわせて、一部の設問については情報システムや監査部署などガバナンスに関わる部署の担当者100名にも調査を行い、部門間での課題意識の違いを比較しました。

【調査結果概要】

・56%が自社サービスにAIを実装

・サービスへのAI実装による効果、1位「顧客体験の向上」2位「開発スピードの向上」3位「新機能の実現・サービス差別化」

・エンジニアは技術的課題を、情シス・監査はリスク管理を強く懸念

・半数以上の企業で、AIガバナンスの主管部門が「不在・機能不全」

・主管部門の不在で、エンジニアは「ルール未整備」、情シス・監査は「責任の押し付け合い」を問題視

・約半数がAIインシデント対応フローが機能せず

・86%が、サービスの競争力強化にはAI実装が不可欠と回答

【調査結果詳細】

◼️56%が自社サービスにAIを実装

自社サービス・システムへのAIの組み込み状況を尋ねたところ、「サービスの主要機能として組み込んでいる」が30.5%、「一部機能として組み込んでいる」が25.5%で、あわせて56.0%がすでにAIを組み込んでいることがわかりました(n=200/エンジニア)。

主要機能への適用も3割に達しており、企業がAIを本格的にサービスへ実装する段階へ進んでいる様子がうかがえます。

◼️サービスへのAI実装による効果、1位「顧客体験の向上」2位「開発スピードの向上」3位「新機能の実現・サービス差別化」

AIを自社サービス・システムに組み込んだことで得られた効果を尋ねたところ、「顧客体験の向上」が55.4%で最も多く、「開発スピードの向上」が49.1%、「新機能実現・サービス差別化」が43.8%と続きました(n=112/自社サービス・システムへAIを組み込んでいるエンジニア)。

データ活用の高度化や運用コスト削減といった効果も見られ、多岐にわたるメリットを実感していることがわかりました。

◼️エンジニアは技術的課題を、情シス・監査はリスク管理を強く懸念

AIを自社サービス・システムに組み込む際の課題・不安を尋ねたところ、エンジニアは「モデルの再現性確保の難しさ(※1)」が49.0%で最も多く、「品質保証の基準が不明確(※2)」が40.0%、「リスク評価や許容基準の不明確さ(※3)」が34.0%と続きました(n=200/エンジニア)。

一方、情報システムや監査部署の回答を見ると、「モデルの再現性確保の難しさ」と「リスク評価・許容基準の不明確さ」がともに34.0%、「品質保証の基準が不明確」が27.0%でした(n=100/情報システムや監査部署)。

両部門を比較すると、いずれも「リスク評価・許容基準の不明確さ」や「インシデント発生時の責任の所在」といったリスク関連の項目を共通して大きな懸念として捉えていることがわかります。

※1:「モデルの再現性確保の難しさ」とは、AIに同じ入力・条件で実行しても結果がぶれ、過去と同じ結果を再現しづらいことを指します

※2:「品質保証の基準が不明確」とは、どのようにテストすべきか、合格ラインをどう設定するかがわからないことを指します

※3:「リスク評価や許容基準の不明確さ」とは、エラー発生時の許容範囲、リスク判断の基準が不明確なことを指します

◼️半数以上の企業で、AIガバナンスの主管部門が「不在・機能不全」

AIガバナンスの主管部門が明確に定められているか尋ねたところ、「定められているが機能していない」が23.5%、「明確に決まっていない」が27.0%で、あわせて50.5%の企業において、AIガバナンス体制が未整備または形骸化している実態が浮き彫りになりました(n=200/エンジニア)。

◼️主管部門の不在で、エンジニアは「ルール未整備」、情シス・監査は「責任の押し付け合い」を問題視

AIガバナンスの主管部門が明確に定められていない企業のうち、「特に問題は起きていない」と回答したのは、エンジニアで28.0%、情報システムや監査部署で31.7%でした。この結果、主管部門が未整備・機能不全の企業においては、約7割で既に何かしらの問題が起きている実態が明らかになりました。

その上で、主管部門が明確に定められていないことで実際に起きた問題を尋ねたところ、エンジニアは「AI活用のルールやガイドラインが整備されない」が25.4%で最も多く、「意思決定が遅延し、対応が後手に回る」が22.9%、「責任の押し付け合いになる」が21.2%と続きました(n=118/主管部門が「明確に定められている」以外を回答したエンジニア)。

一方、情報システムや監査部署の回答を見ると、「責任の押し付け合いになる」が31.7%で最も多く、「リスク判断の基準が統一されず、現場が混乱する」が30.0%、「AI活用のルールやガイドラインが整備されない」が28.3%と続きました(n=60/主管部門が「明確に定められている」以外を回答した情報システムや監査部署)。

両部門の回答を比較すると、AI実装を担うエンジニアは「指針や基準がないこと」を主な問題として挙げる一方、情報システムや監査部署はインシデント発生後のリスク対応に関わる問題をより深刻に捉えていることが明らかになりました。

◼️将来のリスク、情シス・監査部署の43.3%が「責任の押し付け合い」を懸念

AIガバナンスの主管部門が明確に定められていないことで、今後起こり得る問題を尋ねたところ、エンジニアは「リスク判断の基準が統一されず、現場が混乱する」が19.5%で最も多く、「責任の押し付け合いになる」が17.8%、「意思決定が遅延し、対応が後手に回る」が17.8%と続きました(n=118/主管部門が「明確に定められている」以外を回答したエンジニア)。

一方、情報システムや監査部署の回答を見ると、「責任の押し付け合いになる」が43.3%と突出して高く、「AI活用のルールやガイドラインが整備されない」が33.3%、「必要なリソース(予算・人材)が確保できない」が28.3%と続きました(n=60/主管部門が「明確に定められている」以外を回答した情報システムや監査部署)。

なお、「心配なことはない」と回答した割合は、エンジニアが25.4%だったのに対し、情報システムや監査部署は16.7%でした。

これらの結果から、エンジニアは現場での基準・ルール不在による混乱を懸念している一方で、情報システムや監査部署は、責任の所在やガバナンス不備といった組織・リスク面の影響を、より重いリスクとして捉えていることが明らかになりました。

◼️約半数がAIインシデント対応フローが機能せず

AIに起因するインシデントが発生した際の対応フローが整備されているかを尋ねたところ、「整備されており、機能している」が54.5%で最も多く、「整備されているが、実質的には機能していない」が18.8%、「整備されていない」が13.4%と続きました(n=112/自社サービス・システムへのAIを組み込んでいる企業のエンジニア)。

約5割の企業では、AIインシデント発生時の対応フローが未整備または形骸化しており、リスク対応が遅れる可能性があることがうかがえます。

◼️86%が、サービスの競争力強化にはAI実装が不可欠と回答

今後、自社サービスの競争力を維持・強化するために、AIの組み込みが不可欠か尋ねたところ、「とてもそう思う」と「ややそう思う」が合わせて86.0%となり、多くのエンジニアがAI実装の重要性を認識していることがわかりました(n=200/エンジニア)。

<AI実装が不可欠だと思う理由/一部抜粋>

・開発スピードの向上、高品質製品の生産サイクルの向上を目指しているため

・競合他社との差別化にはAI機能が不可欠だと感じるため

・多くの製品においてAI対応が前提になっており、顧客もその前提でいるため

<AI実装が必要ないと思う理由/一部抜粋>

・情報の信頼性や著作権の問題などの課題が多く、実用化には到底至らない

・AIは一時的なブームだと考えているため

・必要性がまだ不透明なため

◼️組織としてのAI推進方針は強く、慎重派も含め88%が拡大を志向

今後、サービスへのAI組み込みを推進する方針かどうかを尋ねたところ、「積極的に推進」が49.0%、「慎重に推進」が39.0%となり、あわせて88.0%が拡大の意向を示しました(n=200/エンジニア)。

◼️AI推進に必要なものは「現場で運用できるガバナンス支援」

AI組み込みを推進するうえで必要なことを尋ねたところ、「現場で運用できるガバナンス支援」が45.5%で最も多く、「リスク評価の自動化・効率化」が38.0%、「品質モニタリング」が34.5%と続きました。(n=200/エンジニア)。

◼️株式会社ChillStack 代表取締役 CEO 伊東 道明 コメント

本調査は、サービスへのAI実装が一般化する一方で、その“前提条件”が組織内で十分に整っていない現状を示しています。特に、AIガバナンスの主管部門が機能不全または未整備の企業が半数にのぼることは、運用判断・リスク評価・対応フローの整理が曖昧なままプロジェクトが走り出してしまう状況を生みやすく、現場にとって大きな不安要因になっています。

また、エンジニアは「技術的不確実性」や「品質基準の曖昧さ」を、情シス・監査部門は「責任所在の不明確さ」や「体制の未整備」をそれぞれ懸念しており、立場によって見えているリスクが異なることが今回の調査で浮き彫りになりました。重要なのは、これらの懸念を個別に扱うのではなく、共通の前提・基準・判断軸で整理し、組織として扱える状態をつくることです。

今後求められるAIガバナンスには、ユースケースに応じたリスク区分、評価プロセスの標準化、ログの整理、監視とエスカレーションのルールなど、現場で実際に使える仕組みが不可欠となるでしょう。

◼️【調査概要】

調査名称:AIガバナンスに関する実態調査

調査機関:Freeasy

調査対象:自社サービスの開発に携わるエンジニア/情報システムや監査部署などガバナンスに関わる部署の担当者

調査方法:Webアンケート

調査日:2025年11月28日~2025年11月30日

有効回答数:エンジニア:200件、ガバナンスに関わる部署の担当者:100名

※各回答項目の割合(%)は、端数処理の関係上、合計が100%にならない場合があります

・調査結果の引用時のお願い

※本調査内容を転載・ご利用いただく場合は、出典元の表記をお願いします。

例:「ChillStackの調査によると」「ChillStack調べ」など

◼️株式会社ChillStackについて

【会社概要】

会社名  :株式会社ChillStack

所在地  :東京都渋谷区千駄ヶ谷五丁目16番10号 代々木エアハイツ 206

創業   :2018年11月

代表取締役:伊東 道明

コーポレートサイト:https://chillstack.com/

事業内容:

「社会のイノベーションを、AIとセキュリティの最先端技術で支える。」

ChillStackは、AIやDXの発展にともなうリスクを包括的に解決する、世界トップレベルのAIセキュリティ技術によるソリューションを提供しています。企業向けには、不正・異常分析や安全なAI活用を支えるサービスを展開。官公庁とも連携し、より複雑で高度な社会課題の解決に向けた研究開発や社会実装も進めています。

<サービス>※一部抜粋

・経費の不正・不備を自動で検査するAIシステム「Stena Expense」

 https://expense.stena.chillstack.com

・不正利用の自動検知で生成AI活用を促進するサービス「Stena AI」

 https://ai.stena.chillstack.com

・サービスのセキュリティリスクを洗い出す「セキュリティ診断」

 https://pentest.chillstack.com

・AIのセキュリティ対策に関する研究開発、コンサルティング「AIディフェンス研究所」

 https://jpsec.ai

◼️代表取締役CEOプロフィール

伊東 道明(Ito Michiaki)

AI×セキュリティの研究に従事し、国際学会IEEE CSPA2018にて最優秀論文賞、IPAセキュリティキャンプ・アワード2018 最優秀賞を受賞している。

自身が国際セキュリティコンテストでの優勝経験をもち、セキュリティ・キャンプ2019 - 2025にてAIセキュリティ講義の講師を担当するなど次世代のAIセキュリティ人材の育成にも従事している。「Forbes 30 Under 30 Asia 2025」選出。

◼️採用情報

現在ChillStackでは、ミッション&ビジョンに共感し、共にチャレンジしてくれる仲間を募集中です。ChillStackを知っていただくための情報交換やカジュアル面談も随時行っておりますので、お気軽にご連絡ください。ご応募お待ちしております。

◼️note

ChillStackのnoteでは、社員インタビューや「Stena Expense」の誕生秘話などを掲載しています。ぜひご覧ください。

このプレスリリースには、メディア関係者向けの情報があります

メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。

すべての画像


会社概要

株式会社ChillStack

10フォロワー

RSS
URL
https://chillstack.com
業種
情報通信
本社所在地
東京都渋谷区千駄ヶ谷五丁目16番10号 代々木エアハイツ 206
電話番号
-
代表者名
伊東 道明
上場
未上場
資本金
-
設立
2018年11月