【生成AIのウソ発見器?】PARAs AI、「人間が発信する虚偽情報」の検知機能を追加

マスメディア・SNSのフェイクニュース検知に対応、生成AIバブル崩壊の兆候を受けて実装

株式会社Accel Brain

AI時代の情報信頼性確保を目指す株式会社Accel Brainは、AI分析プラットフォーム「PARAs AI(パラス エーアイ)」において、「人間が発信する虚偽情報」を検知する新機能を追加したことをお知らせいたします。

本アップデートにより、PARAs AIは生成AIのみならず、マスメディアのニュース記事SNSで拡散されるポストインフルエンサーの発言などのように、人間が生成したコンテンツに対しても、同一の科学的基準で信頼性を検証できる統合的なプラットフォームへと進化いたしました。

生成AIの構造的限界、「AIバブル崩壊」の懸念、フェイクニュースへと悪用される実態に即して、本サービスでは、生成AIと人間の両方が生み出す情報の信頼性を科学的に検証し、「情報の民主化」と「デジタル社会における信頼インフラ」の構築を目指していきます。

生成AIの構造的限界と新たな情報信頼性の課題

生成AI研究の第一線では、以下のような構造的限界が指摘されています。

1. ノーフリーランチ定理の適用

あらゆるモデルは必ず何らかのバイアスを有し、あらゆる問題に対する万能な解決策として機能するモデルは存在しません。これは生成AI、RAG、AIエージェントといったあらゆるモデルに当てはまる原理的な制約です。

2. ハルシネーション問題の原理的解決困難性

現行の生成AIアーキテクチャでは、虚偽情報生成を完全に防ぐことは技術的に不可能です。RAG(検索拡張生成)のようなフレームワークは、この問題を検索モデルの最適化問題へと変換することで「隠蔽」しているに過ぎず、根本的な解決には至っていません。

3. 探索の欠如問題

強化学習を用いた微調整においても、「洗練された探索の欠如」という構造的問題が確認されています。これは、生成AIが既知の解を超えて新たな最適解を発見する能力に制約があることを意味します。

4. 再帰の呪い

生成AIの出力がインターネット上に蓄積され、それが再び学習データとして利用されることで、誤った情報が再帰的に増幅される現象が観測されています。

5. スケーリング則(Scaling Law)の限界

AIのモデルは、当初はその規模を大きくすればするほど性能が向上しますが、ある程度大規模化すると、それ以降、規模と性能の関係が鈍化してしまいます。データ量や計算リソースを高めれば、ただそれだけでAIの性能が向上すると考えることには、初めから無理がありました。この関連から、大規模言語モデル(Large Language Model: LLM)の性能改善は、既に費用対効果の低い挑戦になっています。

参考記事:

GEO(生成エンジン最適化)がもたらす新たな課題 

近年、検索エンジン最適化(SEO)に代わり、生成AIチャットボットに紹介されることを目指した「生成エンジン最適化(GEO)」という戦略が広まっています。

GEO戦略の構造的問題:

ポジショントークの代弁者化:

チャットボットは、GEO戦略に長けたコンテンツ配信者による主張を、中立的な「回答」として提示してしまう

合成の誤謬:

個々のコンテンツ配信者にとってGEO戦略は合理的である一方、全員が実践した場合、チャットボットユーザーは偏った情報や誤情報に晒される不合理な結末を迎える

ユーザー体験の劣化:

引用されることで利得を得るコンテンツ提供者の利益と、正確な情報を求めるユーザーの利益が必ずしも一致しない

参考記事:

投資家・エコノミストが警告する「生成AIバブル崩壊」 

技術的限界に加え、経済面でも深刻な兆候が顕在化しています。

1. 大手投資家の離脱

大手投資ファンド会社がGPUやAI関連の半導体を開発・研究・販売している企業の株式を全売却し、AIインフラの将来的収益性への疑問が表面化 

2. IT大手の財務リスク

AIのインフラに多額の資金を投入していた某大手ソフトウェア会社の債務格付け引き下げとなり、巨額のAI投資に見合う収益見込みが欠如している現実が露呈

3. ビジネスモデルの不透明さ

1兆ドル規模の債務を抱え、返済計画が不明確なAI系企業も話題となり、AI関係の投資対効果の低さと投資額回収期間の不透明性が顕在化

4. 市場心理の冷え込み

 AIインフラ企業の株価が急落する事例が散見され、投資家の信頼の揺らぎと市場の冷静化が進む

こうした状況を受け、企業や個人は「AI生成コンテンツと人間生成コンテンツの両方」において、情報の信頼性を確保する基盤を必要としています。

アップデート情報 

本プロダクトアップデートにおける新機能をお知らせします。

 ■ 人間の虚偽情報検知機能の追加 

従来の生成AIハルシネーション検知技術を応用し、人間が発する虚偽情報、事実誤認、論理的誤謬、客観的エビデンス不足を検知する機能を新たに実装しました。

主な活用シーン:

  •  マスメディアのニュース記事の信頼性検証 SNSで拡散される投稿のファクトチェック

  • インフルエンサーの発言における論理的整合性の分析

  • GEO戦略によって最適化されたコンテンツの偏り検出

  • フェイクニュースの早期発見と拡散防止 

 ■ 比較分析機能の強化 

同一トピックに関する複数の情報源を横断的に比較し、矛盾点や整合性を自動検出します。チャットボットが特定のコンテンツのみを推奨している場合の偏りも可視化します。

今後の展望 

直近ではYoutubeのチャンネル配信者や各種メディア向けの大容量処理プランをリリースしたばかりで、フェイクニュースの早期発見や拡散防止のためのサービス提供を継続しております。

今後は、メディア向けの大容量処理プラン、API連携機能の拡充、多言語対応の強化などを予定しており、生成AIと人間の両方が生み出す情報の信頼性を科学的に検証し、「情報の民主化」と「デジタル社会における信頼インフラ」の構築を目指してまいります。

株式会社Accel Brainについて

会社名称: 株式会社Accel Brain(アクセルブレイン)

設立: 2019年12月6日

代表取締役: 木村 正彬

住所: 東京都板橋区板橋2-64-10 板橋新生ビル201

メールアドレス:info@accel-brain.co.jp

電話番号:03-5944-1934

本件に関するお問い合わせ先

Email: support@paras-ai.com

公式サイト: https://paras-ai.com/landing

---

以上


会社概要

株式会社Accel Brain

0フォロワー

RSS
URL
https://accel-brain.co.jp/
業種
情報通信
本社所在地
東京都板橋区板橋2-64-10 板橋新生ビル201
電話番号
-
代表者名
木村正彬
上場
未上場
資本金
-
設立
2019年12月