マカフィー、「ディープフェイクが選挙に及ぼす影響に関する調査」を発表
ディープフェイクへの疑念は6割越え、選挙への影響に対して4割以上が懸念を抱いていることが明らかに
誤報と偽情報は米国人にとっての重要な懸念事項であり、バイデン大統領の声を用いた偽のロボコールという自動音声による電話(英文: https://www.mcafee.com/blogs/internet-security/was-the-fake-joe-biden-robocall-created-with-ai/)をめぐる最近の事件は、広範囲にわたって偽情報が拡散する可能性のある問題の一例となりました。最も懸念されるディープフェイクの利用法についての質問で米国では、選挙関連のトピックが上位を占め、具体的には、43%が「選挙に影響を与える」、37%が「メディアに対する国民の信頼を損なう」、43%が「公人(例えば政治家や有名メディア関係者)になりすます」、31%が「歴史的事実を歪曲する」と回答しました。日本では、21%が「選挙に影響を与える」、27%が「メディアに対する国民の信頼を損なう」、40%が「公人(例えば政治家や有名メディア関係者)になりすます」、21%が「歴史的事実を歪曲する」と回答しています。
米国マカフィー(McAfee, LLC、本社:米国カリフォルニア州)の最高技術責任者(CTO)であるスティーブ・グロブマン(Steve Grobman)は、次の通り述べています。
「世界各地で選挙が相次ぐ選挙イヤーにディープフェイクを作るのは、今や半日もあれば誰でもできます。クローン音声やディープフェイク動画を作るツールは簡単に入手でき、使いこなすのに数時間かかり、そして、それが本物であるかのように見せて人々を信じ込ませるのはほんの数秒しかかかりません。生成AIが音声や映像を簡単に操作できるようになったことで、特に重要な選挙イヤーである今年は、コンテンツや情報の信憑性について重大な疑問が投げかけられています。
マカフィーは、特に選挙時においては、消費者に健全な懐疑心を持つことを勧めます。マカフィーでは、AIにはAIをもって打ち勝つようなディープフェイク音声検出技術から、テキストメッセージ、ソーシャルメディア、ウェブブラウザ上の危険なリンクを分析し、ブロックするといったオンラインセキュリティまで、プライバシーや個人情報の保護に役立つ様々なソリューションを提供しています。」
消費者は真実と虚構を慎重に見分けることがますます求められるように
生成AIコンテンツが広く出回り、リアルな映像や音声を複製できるようになった現代において、本物と偽りのニュースを見分けるのに、人間の目や直感はもう頼りになりません。
米国では10人中7人近く(66%)が、日本では2人に1人(51%)が、1年以上前からディープフェイクに懸念を抱いている。
米国では回答者の半数以上(53%)が、日本では4人に1人以上(27%)が、AIによってオンライン詐欺を見破るのがさらに難しくなったと回答。
米国では72%、日本では97%とソーシャルメディアユーザーの回答者の大多数がフェイクニュースや詐欺などのAIが生成したコンテンツを見分けるのは困難だと感じている。
AIで生成されたボイスメールやボイスメモを誰かがシェアした場合、本物と偽物を見分ける自信があると思う人は米国ではわずか27%、日本ではわずか3%であった。
選挙シーズンに白熱化する音声ディープフェイク
世界で選挙が繰り広げられる今年は、政治的情勢が激化する中で、ディープフェイクがもたらす選挙への影響についても懸念が高まっています。AIによって生成された著名人の声のクローンしかり、政治家の声を模したAI生成の音声に騙されることは、政治的な議論や選挙結果に大きな影響を与える可能性があります。
(米国)
過去12ヶ月の間に、43%の人がディープフェイクコンテンツを見たことがあり、26%の人がディープフェイク詐欺に遭遇し、9%の人がディープフェイク詐欺の被害に遭ったことがあると回答
ディープフェイク詐欺に遭遇した、または被害に遭った人のうち:
約3人に1人(31%)が、何らかのAI音声詐欺(友人や恋人のように聞こえる電話、ボイスメール、ボイスメモを受け取ったが、実際はボイスクローンであった、など)を経験したことがあると回答。
約4人に1人(23%)が、政治家候補者のなりすまし動画、画像、録音に遭遇し、最初は本物だと思ったと回答。
40%が、有名人の動画、画像、録音を目にしたことがあり、本物だと思ったと回答。
(日本)
過去12ヶ月の間に、8%の人がディープフェイクコンテンツを見たことがあり、2%の人がディープフェイク詐欺に遭遇し、3%の人がディープフェイク詐欺の被害に遭ったことがあると回答
ディープフェイク詐欺に遭遇した、または被害に遭った人のうち:
37%が、何らかのAI音声詐欺(友人や恋人のように聞こえる電話、ボイスメール、ボイスメモを受け取ったが、実際はボイスクローンであった、など)を経験したことがあると回答。
18%が、政治家候補者のなりすまし動画、画像、録音に遭遇し、最初は本物だと思ったと回答。
18%が、有名人の動画、画像、録音を目にしたことがあり、本物だと思ったと回答。
安全性を保ち、情報の確実性の確認を高める方法
情報の共有前に情報源を確認:友人や家族に情報を伝える前に、事実確認ツールや信頼できるニュースソース(情報・取材源)を使って情報を確認しましょう。
歪んだ画像には要注意:例えば、余分な指や、ぼやけて見える顔など、捏造された画像や動画は完璧ではなく、つぶさに見れば本物と偽物の違いを見分けることが出来るでしょう。
ロボットのような機械的な声:政治家の本物のスピーチはプロフェッショナルなトーンであり、周到に準備されたものに聞こえるでしょう。一方で、AI音声は、しばしばぎこちない間を作ったり、言葉を短く切り取ったり、間違った場所で不自然な強調をするなどの傾向にあります。
感情的な内容に注意:政治はデリケートな話題であることが多いですが、信じられないほど腹を立てたり、とても悲しくなるような投稿や報道を見かけたりしたら、その場から離れましょう。何も考えずに行動するよう読者に促すフィッシング・メールのように、フェイク・ニュースは、人々の思考や感情を揺さぶります。
オンライン詐欺を防ぐセキュリティツールに投資:マカフィーの製品には、「マカフィー 詐欺メッセージ対策」などの革新的な保護機能が含まれており、テキスト、電子メール、検索結果、ソーシャルメディアで共有される危険なリンクなど、これまでに見たことのない脅威や詐欺をリアルタイムで検出して保護しています。さらに、マカフィーは、ディープフェイクの検出技術に力を入れており、AIを活用してAI詐欺と戦い、ディープフェイクを検出する能力で消費者を守るというマカフィーのコミットメントをさらに強化しています。
マカフィーのディープフェイク検知技術「プロジェクト・モッキンバード」
マカフィーが独自に開発し、AIを活用した音声ディープフェイク検知技術「プロジェクト・モッキングバード (Project Mockingbird)」は、AIが生成した偽の音声を利用して、金銭や個人情報の盗難、ネットいじめを助長したり、著名人のパブリックイメージを悪用するサイバー犯罪者の急増する脅威から消費者を守るために開発されました。業界をリードするこのAI検知技術は、マカフィーのイノベーションおよび脅威インテリジェンス部門であるマカフィーラボによって開発・学習させたもので、AIを搭載した文脈、行動、カテゴリの検出モデルを組み合わせてAI生成音声を検出し、動画内の音声がAIによって生成された可能性が高いかどうかを識別します。これにより人々がデジタル世界を理解し、コンテンツが見た目と異なる可能性を評価するのに役立ちます。
マカフィーについて
マカフィーは、消費者と中小企業向けのオンライン保護のグローバル・リーダーです。デバイスだけでなく人を保護することにも重点を置くマカフィーの消費者および中小企業向けのソリューションは、常時オンラインの世界におけるユーザーのニーズに適応し、適切なタイミングとセキュリティで家族、地域社会、ビジネスを保護する、総合的で直感的なソリューションを通じて、ユーザーが安全に生活できるよう支援します。詳細情報については、https://www.mcafee.com/ja-jp/index.html をご覧ください。
*McAfee、マカフィー、McAfeeのロゴは、米国およびその他の国における米国法人 McAfee, LLCまたはその関連会社の商標又は登録商標です。
調査方法
調査は2024年1月と2月、市場調査会社MSI- ACIが、米国、英国、フランス、ドイツ、オーストラリア、インド、日本の7ヵ国から合計7,000人以上の消費者を対象に実施。
将来予測に関する声明
本文には、開発中の製品、サービス、プロセスに関する情報が含まれています。ここに記載されているすべての情報は、マカフィーの独自の判断により予告なく変更される場合があります。本文内のいかなる内容も、マカフィーによる申し出とみなされたり、マカフィーに義務を負わせたり、現在の購入やパートナーシップの決定に影響を与えるような将来のリリースに対する期待を抱かせたりするものではありません。
このプレスリリースには、メディア関係者向けの情報があります
メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。