「広報PRにおけるChatGPTの影響」への見解をお伺いするこの企画。基礎研究により「知能」を作り、最先端の技術を社会へと実装することをミッションとする、松尾研究室(通称:松尾研)の上田さんに伺った「情報加工が得意なChatGPT。クリエイティブの量産が可能に」に続き、後編をお届けします。
前編では、広報PR業界で親和性の高い仕事について伺いましたが、後編では、ChatGPTが浸透した後に起こる影響や人間の役割など、少し幅広くお話いただきました。
AI研究を行う松尾研究室について
松尾研では、基礎研究・社会実装・人材育成の3つのミッションを掲げています。基礎研究ではDeepLearningを始めとしたAI技術の研究開発を行っており、社会実装ではそれらの技術を用いて企業様にソリューションを提供しています。また、人材育成ではDeep Learningの実践的な講義や、起業のためにアントレプレナー教育にも力を入れています。
半年しないうちにAIで適正な一次対応が実現
ここまでお話したことは、特に凝ったツールではなく、Webからの操作ですぐに実施できるでしょう。その先を少し考えてみると、プレスリリースを発表することをはじめ広報PR活動を行うと、問い合わせが返ってきますよね。問い合わせ対応といっても、いくつも同じような内容の問い合わせがきたり、一方で誰しもが回答できず上長に指示を仰がなければならない内容だったり、ということがあると思います。
問い合わせ対応の一次受付として、必要な情報をデータベースに格納し、その内容を参照しながら答えるということが外部のツールを使うことですでにできるようになっています。問い合わせに対し、関係しそうな質問をデータベースから抽出し、文脈情報に入れる。「その内容を参照して答えてください」と、AI(人工知能)に投げかける。ある程度の質問には答えられると思います。「検索するものではない」「知識が埋め込まれているわけではない」というのは、一部では、その通りなのですが、外部のツールと組み合わせることによって、情報を検索、参照して答えることができるようになりつつあります。
おそらく、今後こういったものが簡単にできるサービスはどんどん出てくるでしょうし、オープンソースですでに「DocsGPT」というものがあります。ChatGPTを使用し、データを参照して答えることができるオープンソースですので、リテラシーが高い企業さまは着手しているでしょう。これから半年もしないうちに、一次対応ができる仕組みが完成するだろうと思っています。
AIの文脈下でのSEO競争が始まる
ここからは、私見もかなり入りますが、「情報をつくる(=仕入れる+加工する)」「流通させる(=提供する)」が効率化され、世の中のコンテンツ量が増えることが予想されます。情報を仕入れる、加工する、提供するというAIの一連の流れがある際に、一次情報はAIが収集しサマライズして見る、興味・関連がありそうな情報を出してくるなど、できることが増えます。そうすると、AIにとって読みやすい情報を発信することが重要になる可能性があるわけです。
非常に膨大な量の情報から、ある情報をピックアップして、テキストに入れて出力するとなると、情報を加工する際に優先的に取り入れられなければならないため、SEOみたいなものがAIの文脈でも発生し、競争が激化するのかなと思っています。
まずは「選ばれる」、次に「選ばれたあとに望まれた回答をする」と、二段階あると思うんですよね。「選ばれる」という点は、従来のGoogleと同じく検索エンジンで上位になるようなロジックがあると思いますし、今後どう変わってくるかは検索部分の精度や技術の発展によると思っています。
この辺りは、どういうマーケットになるのかまだまだわからないところではありますが、情報を収集するAIに選ばれるようにコンテンツを生成することが競争優位になるでしょうね。
具体の充実を図るための文脈情報
そこから「選ばれたあとに望まれた回答をする」となると、文脈情報として適切な形でコンテンツを生成し続けることが重要で、プロンプトエンジニアの世界に近づいてくると思います。例えば、情報がいろんな所に分散しているとコンテンツとして切り出す際にほかの情報が欠落してしまうため、できるだけ一つの情報を伝えるのは一つの段落にするなど、まとめておく必要がありそうです。
ChatGPTは、Web上にある情報や書籍の中の情報など、膨大な量の情報を事前学習していますが、ハルシネーション※3という存在していないことをもっともらしく回答することもあるんです。
そこで、文脈情報を入れることが重要になってくるのですが、その文脈情報に出典が書かれていれば、当然出てくると思います。しかし、入れられる文脈情報のサイズには制限があり、すべての外部情報をそこに含めることは難しいんです。そのため、引用元や出典元などの正しい情報が出てくるほうがまれだと思います。
人間で例えると、多くの書籍から学習した際に、ピンポイントでこの情報はどこから得た情報かを問われても、何も見ずに答えるのは難しいですよね。数学問題に対して、正しい公式を理解し解くことができたとしても、公式がどのページに載っていたかは覚えていないでしょう。概念などの抽象的なことに関しては非常に賢いですが、具体的なことになると、文脈情報で思い出させてあげないといけない、ということです。
※3 ハルシネーション:ハルシネーション(Hallucination: 幻覚)とは、もっともらしいが事実とは異なる内容を人工知能が出力する現象。「AIが幻覚を見る、AIが嘘をつく」と表現されることもある。
整理・精査・真偽判定は人間が得意
ChatGPTは、膨大なテキストの中から、次の単語を予測することをひたすら訓練しています。それを事前学習と言いますが、人間からの問いに対し、次にどういう単語が出てくるかを予測、厳密に言うと確率として高いものを取ってきています。
よく例に挙げられるものとして、「フランスの首都は?」に対して「フランスの首都はパリ」という情報が世の中の文章にたくさんあるため、「フランスの首都はパリ」と予測しているわけです。テキストを丸覚えしていると誤解されていることがありますが、次にどの単語が来るかを重み付けしているんです。丸覚えしている、知識を覚えているというよりも、重み付けされた中に、知識が埋め込まれているという考え方が正しいかもしれません。
ハルシネーションが起きる、つまり、間違った情報を頻繁に生成すると言われますが、次に出現する単語を単純に予測するという動作原理に基づいて生成しているため、高い確率のものを選んでいたとしても100%ではありません。これをできる限り解消するために、プロンプトの指示を正確にする必要があるのです。
そして、最後は人間がファクトチェックをする必要があります。いったん、書いたものに対してファクトチェックすべき項目をAIに一覧化させ、それを人間が確認し赤入れをする、それを元に再修正させるという使い方も今後は出てくるかと思いますね。人間も間違えることはありますが、まだまだ情報の確からしさや真偽判定は、人間のほうが得意。膨大な情報の処理ではなく、目の前の情報を整理・精査する、真偽判定する、というものは人間のほうが得意だと思っています。
情報の信頼度は人間が量るべき
各媒体の特性に応じたプレスリリースに加工する場合は、プレスリリースのテキストの情報以外にメタデータを見て判断することになると思います。LLM(大規模言語モデル)、ChatGPTのみで情報収集まで行うことは、結構先になるでしょう。
現在、人間が何かを調べる際、Googleで検索し、少なくとも2~3ページは見るでしょうし、検索するキーワードを変えてみることも試すでしょう。しかし、現在既出の大規模言語モデルを使い、Web検索できるようにしようという外部ツールを見ていると、答えらしいものが出ているとすぐに飛びつく。これで答えられる、と断定してしまうわけです。一概には言えないですが、ツールの性能向上が想定されるため、情報源が10ある中で選ばれるライティングが重要になってくるでしょう。人間であれば、学術論文、新聞、テレビなど複数の情報源の信頼度を自ら量ることができますが、AIにはまだまだ難しく、どこに、誰が書いたものだから正しい、正しくない可能性があるなどの判断は獲得できていないですね。
さいごに
松尾研究室の上田さんによる「広報PRにおけるChatGPTの影響」への見解を前後編でお届けしました。
広報PR活動でのChatGPT活用のヒントになれば幸いです。
【前編はこちら】
PR TIMESのご利用を希望される方は、以下より企業登録申請をお願いいたします。登録申請方法と料金プランをあわせてご確認ください。
PR TIMESの企業登録申請をするPR TIMESをご利用希望の方はこちら企業登録申請をする