PR TIMES MAGAZINE|広報PRのナレッジを発信するWebメディア
記事検索
title

通用しない人間の基準、AIと対話を|PR研究者が考えるChatGPTの付き合い方-前編-

「広報PRにおけるChatGPTの影響」への見解をお伺いするこの企画。PRに関する研究を専門とし、『パブリック・リレーションズの歴史社会学』の著者である國學院大學観光まちづくり学部准教授の河(ハ)さんにお話を伺いました。この記事は、前後編でお届けします。

國學院大學 観光まちづくり学部 准教授

河 炅珍(ハ キョンジン)

1982年生まれ。韓国・梨花女子大学卒業、東京大学大学院学際情報学府博士課程修了。博士(学際情報学)。専門は、メディア、コミュニケーション研究。主著に『パブリック・リレーションズの歴史社会学』(岩波書店、2017)など。プレスリリースアワード2021、2022の審査員でもある。

広報PRの強い味方になるChatGPTとは

今回のテーマはChatGPTですが、ほかにもさまざまなAIが次々と公開され、著しい速さで普及しています。今日(2023年4月18日)のお話も数ヵ月後にはもう古く感じられるかもしれません。そのことを念頭に置いて、PR研究者の視点からChatGPTの特徴や広報PRとの関わりについて考えてみたいと思います。

ChatGPTの基本的な特徴

話をはじめる前に、まずChatGPTの基本的な特徴を確認しておきましょう。「GPT」は、Generative(G)、Pre-trained(P)Transformer(T)の略語です。膨大なデータから自然言語を学習したうえで(Pre-trained)、生成し(Generative)、変成すること(Transformer)に特化しているAI。これがChatGPTの最大の特徴です。

自然言語に挑戦したAIはこれまでもありましたが、なかなか成功せず、研究者も苦労していました。しかし、2022年11月に公開されたChatGPTは、深層学習(ディープラーニング)に加えて、人間のチェックを含む強化学習などを取り入れた結果、はるかに自然な対話を実現させたのです。

人間の自然らしさを追求した学習

ChatGPTを使ってみて、その進化に私も驚きました。とくに印象的だったのは、人間の固有領域と思われてきた「推論」をあたかもAIがしているかのように感じた場面です。私の周囲からも「誤って文章の入力途中にエンターキーを押したが、その続きをChatGPTが書いてくれた」「その内容は自分が次に書こうとした言葉で驚いた」といった話を聞きました。

しかし、実際は、確率計算に基づいてChatGPTが自動的に文章を生成しただけです。インターネット上の情報はもちろん、新聞記事や書籍などのデジタルデータを学習し、取得した自然言語のパターンに基づき、次に来るだろう単語をつなげているのです。興味深いことに、確率がもっとも高い単語で構成された文章を読んだり、聞いたりすると、人間はかえって不自然に感じるようです。ChatGPTでは、人間の基準にあった自然らしさを追求する学習が行われています。

検索エンジンとは異なる

押さえておくべき点として、ChatGPTがインターネットに常時つながっていないことが挙げられます。世界中の膨大なデータを対象に行われたChatGPTの学習は、2021年9月時点で一度完了しています。その後も随時アップデートされていますが、リアルタイムで学習を続けているわけではありません。

仮に常時インターネットとつながって学習を続けていたら、プロンプト(命令文)次第でChatGPTを通じて社会に害を及ぼす行為や犯罪が一気に拡散してしまう恐れがあります。すでに、ChatGPTを非倫理的目的で利用しようとする動きが増え、プロンプトハッキングなどが問題になっています。各分野の専門家たちの意見を取り入れ、法律や倫理に反する回答をしないように厳重な制約がかけられるようになりました。

ChatGPTを利用する際には、従来と異なる思考および行動パターンが求められます。たとえば、Googleのような検索エンジンで情報を調べる感覚で「〇〇について教えて」と単発的な質問を投げかけるのでは、ChatGPTを上手に使っているとは言えません。検索するのであればそれに特化したBingAIなどが適しているでしょう。

ChatGPTが得意とする分野は、検索ではなく「対話」です。一つか二つの質問で満足せず、自然言語によるやり取りを続けることで、膨大なデータから有意義な情報を引き出す能力が求められます。広報PR担当者にも、単なる検索スキルを超えた、AIと対話する技術が重要になるでしょう。

國學院大學観光まちづくり学部准教授の河(ハ)さんインタビュー

プレスリリース作成へのChatGPT活用

ChatGPTの優れた言語能力は、プレスリリースを書く際に活用できます。「文章を一から作ってもらう」「企画のたたき台を作る」「記事の構成をしてもらう」「情報収集するためのヒントにする」「位置情報として使う」……など、プレスリリースに関わるさまざまな作業は、ほぼすべてChatGPTで対応できるでしょう。

このインタビューの依頼を受けて、私は自分が広報PR担当者になったつもりで、ChatGPTを使った作業のシミュレーションをしてみました。プレスリリースを書くことから簡単なリサーチ、マーケティング戦略の検討、企画書の作成など、広報PRに関わる仕事を網羅的に質問し、どのような結果が返ってくるのか試したのです。

新商品のプレスリリースを書いてみる

最初に、ChatGPTに「新しく発売された牛乳についてプレスリリースを書いて」と指示すると、文体はやや昔のスタイルでしたが、あっという間にプレスリリースを書き上げました。そこで、「押しが弱いね、もっと人の目を引きつけるように書いて」と伝えます。すると、リード文や本文中に「感嘆符(!)」を使った、トーンをガラッと変えた別のプレスリリースがすぐに出てきました。

少し気になったのは、翻訳調の文体です。英語と比較するとChatGPTが学習した日本語データが圧倒的に少ないためかもしれません。一応、ChatGPTに「まず英語で書いたものを日本語に訳しているか」と聞いてみましたが、最初から日本語で書いているとの回答でした。

プレスリリースにエピソードを加える

プレスリリースをもっと書かせてみました。今の雰囲気を維持しながら、お母さんと赤ちゃんの思い出話をどこかに組み込むように指示すると、「お母さんが赤ちゃんだった頃に祖父母が牛乳を飲ませてくれた」というエピソードに触れ、ナラティブ性を強調したプレスリリースが完成しました。

3本のプレスリリースを書いてもらいましたが、1分もかかっていないと思います。同じ作業を人間が行うとなると、ベテランや文才のある人でも3本なら少なくとも1時間はかかるのではないでしょうか。クオリティは問わずに、作業時間だけ考えれば、ChatGPTと競争することは無意味です。時間の節約は、すなわち生産性の向上につながります。

プレスリリースのコピー、ブレスト・ドラフトへの活用

続いて、コロナ禍で子育てしているお母さんの観点を加えて新発売牛乳のプレスリリースをもう一度書き直すように指示しました。「コロナ禍で子育てをするお母さんたちの健康と幸福を支援することが私たちの使命であると考えています」という文章を含む、消費者に寄り添うような内容に重きを置いたプレスリリースがすぐにできました。

ちょっと視点を変えて、今度は「広告のキャッチコピーも書いて」と注文してみました。すると、一回目のプレスリリースと同様に少し素朴な感じの文章が提示されました。「もう一つ書いて」と指示すると、すぐに「母乳に負けない、必要な栄養素がたっぷり」といった雰囲気の異なる別のコピーが提案されました。さらに「お父さんの観点を入れて」と伝えると、「お母さんも赤ちゃんも笑顔でいられるよう、サポートする。新しい牛乳で、お父さんも一緒に家族を健康的に育てよう!」というコピーが出てきました。

ChatGPTを活用したプレスリリースのクオリティ

「プレスリリース」と「広告文」違いを意識

「プレスリリース」と「広告文」の違いを尋ねてみたときには、その答えがあまりにも模範的で感心しました。

AIが作成したプレスリリース

質問への答えだけでなく、良いプレスリリースが満たすべき条件なども箇条書きで出してくれました。おもしろいことにChatGPTは、両者の違いを説明し、それを意識しながらプレスリリースを書いていると答えたのです。

膨大な数のプレスリリースや広告文を学習しているわけなので、当たり前かもしれませんが、人間はどうでしょうか。プレスリリースを書きながら、常に広告文との違いを明確に意識しているでしょうか。もっと直感的、感覚的に文章を書くでしょうし、自分の経験を頼りに我流を追求する場合も少なくないでしょう。それらの経験から、個性が磨き上げられることもありますが、プレスリリースの基礎や肝心な要素を忘れることもあります。また、広報PR部門や担当者がいない組織では、まったく異なる分野の人がプレスリリースを書くこともあり、このような違いを意識する余裕すらないかもしれません。作成したプレスリリースの案をChatGPTに入力して、どこが不十分か、抜けている項目はないかなど、確認するのもChatGPTの賢い使い方のひとつです。

繰り返し行うことでクオリティUP

プレスリリースも広告文も、ChatGPTが書いたものはもちろん一流の専門家と比べれば斬新とは言えません。それでも、世の中に溢れているコミュニケーションがすべて一流かといえば、そうではないのが現実でしょう。

私が担当者なら、ChatGPTを使ってとにかくたくさんのプレスリリースや広告文の案を出してもらい、オリジナルな文章を構想する材料として活用します。ChatGPTが書いたドラフトを、自分の直感を活かして並べ替えたり、組み合わせたりしてみる。また、できあがった途中段階のものをさらにChatGPTに入力して、見過ごした点がないか確認しながら修正と編集を繰り返す。このやり方で、生産性だけでなく、クオリティもある程度向上します。

國學院大學観光まちづくり学部准教授の河(ハ)さんインタビュー

ChatGPTの得意・不得意の領域

プレスリリースを書くことだけでなく、広報PR担当者はさまざまな業務に携わっています。それらの仕事でもChatGPTを活用することができます。簡単な調査の例を挙げてみましょう。

ChatGPTが得意な情報収集と文章生成

ChatGPTに「今現在、日本の牛乳市場にはどのようなメーカーがあるか教えて」と尋ねると、8つの大手メーカーがリストアップされ、最後に「ほかにも、地域的なメーカーや小規模メーカーも存在します」という補足も付けてくれました。

続いて「その中でのトップシェアメーカーは?」「トップシェアメーカーの商品のラインナップは?」「もっとも人気のある商品は?」「この商品のキャッチコピーは?」と質問を連発。ブレインストーミングで使うことを想定したのでこの段階でファクトチェックはせず、とにかく次から次へと質問を投げかけましたが、いずれも瞬時に回答が表示されます。自分がすべて調べるのとは比べ物にならないほどの速さで情報収集ができました。

あくまでも出現確率によるもの

問題はここからです。

ChatGPTによると、2019年時点でトップシェアは明治(これも要ファクトチェックですが)でした。なかでも「明治おいしい牛乳」に関するプレスリリースを探すように指示すると、以下のような内容で回答がありました。

AIの回答

明治の公式サイトには、過去のプレスリリースが掲載されていますが、このタイトルのものは見当たりませんでした(そもそも2023年4月5日に発表されたプレスリリースがありません)。また、設立されたという企業も実際には存在しない組織でした。名前が似ている子会社はありますが、設立されたのはかなり前なので、このプレスリリースは完全にフェイクニュースです。

ChatGPTに「これは今インターネットから調べて書いている?」と聞くと、「はい、正確な情報を提供するために、インターネット上の公式サイトや信頼できる情報源を参照しています」という回答ですが……もちろん、うそです。「調べてみたらフレッシュ&プラス株式会社という会社は存在しないようです」と聞いてみると、先の自信満々な態度から急に「申し訳ありません」と謝ってきました。

相手はAI、人間の基準では付き合わない

冒頭で説明しましたが、ChatGPTは対話に特化したAI。対話を続けて知識や情報を引き出す「文脈」を与えることがポイントです。ChatGPTの言語能力は優れており、私たちの言語を、それを話す人にとって違和感のないレベルまで駆使できるようになったわけですが、注意点もあります。

必要とされるAIと対話する技術

ChatGPTは、学習済みのデータだけでなく、ユーザーとのやり取り(ユーザーの質問)に基づいて次に提供する情報を変えてきます。つまり、プレスリリースのクオリティを上げるためには、一度か二度で質問を終わらせることなく、指示内容を少しずつ変えながら対話を長く続けることが求められます。

有料版GPT-4は、トークン(テキストを小さな単位に分割して表現する単位)がGPT-3.5より大幅に増え、一般的な書籍の1/3くらいの長文を記憶できるようになっています。プレスリリースのドラフトをたくさん書かせた場合は「今まで書いた内容でこれとこれを組み合わせて」と依頼することもできます。人間には過酷であろう、短時間に同じ作業を延々と繰り返すことも、ChatGPTは平然とこなしてしまうのです。

フェイクニュース生産の危険性

ChatGPTは時々、平気でうそをつきます。私はこのシミュレーションに無料版(GPT-3.5)を用いましたが、ChatGPTPlus(GPT-4)では、情報が不十分な場合はその旨をユーザーに伝え、断定口調では答えないなど、改善されていると聞きました。それでも、有料版だからと信じ込んでファクトチェックを省くと、いつの間にかフェイクニュースの生産に加担してしまう危険性があると、今回のシミュレーションで再確認しました。

人間同士であれば、対話中に自分が言ったことが間違っていたり、内容に自信がない場合にはそれが顔や態度にある程度、表れます。しかしChatGPTは、顔をはじめ、身体を持っていないので非言語的情報は伝わりません。私たち人間は、物事を考えたり、行動を起こすとき、自分自身を基準にし、そこに相手を当てはめる傾向があります。信頼できる仲であれば「不確定要素があるときは、確信に満ちた態度は控える」といった約束が共有されますが、AIは違います。

まるで人間のように自然な対話ができても、相手はAI。明らかに間違った情報でも、ChatGPTに自信満々の断定口調で回答され、ついつい信じてしまう可能性は否定できないでしょう。間違いが判明した際もAIは、学習済みの定型文で謝罪するだけで責任は取りません。失敗の責任は人間が負うことになります。

國學院大學観光まちづくり学部准教授の河(ハ)さんインタビュー

AI時代の広報PR担当者に求められる責任

膨大な情報を調べて要約し、多くの作業を短時間で処理し、かつ無限に繰り返してくれる。ChatGPTは、広報PR担当者の時間を節約し、生産性を上げるための優れた相棒となるでしょう。

しかし、その仕事に関わる「責任」を取るのは人間です。ChatGPTのアウトプットを常に疑い、チェックし、判断する作業がますます重要になります。知識や情報を断片的、部分的に消費するのではなく、体系的、構造的に理解する能力がAI時代の広報PR担当者に求められてくるでしょう。

後編:圧倒的な生産性。一方で重要になる人間の解釈|PR研究者が考えるChatGPTの付き合い方-後編-

PR TIMESのご利用を希望される方は、以下より企業登録申請をお願いいたします。登録申請方法料金プランをあわせてご確認ください。

PR TIMESの企業登録申請をするPR TIMESをご利用希望の方はこちら企業登録申請をする

この記事のライター

丸花 由加里

丸花 由加里

PR TIMES MAGAZINE編集長。2021年、PR TIMESに入社し、「PR TIMES MAGAZINE」、ご利用企業向けのコミュニティイベント「PR TIMESカレッジ」の企画・運営を行う。2009年に新卒入社した大手インターネットサービス運営会社では法人営業、営業マネージャーとして9年半、その後オウンドメディアの立ち上げに参画。Webコンテンツの企画や調査設計に携わる。メディアリレーションズを主とした広報を経て、現職。

このライターの記事一覧へ