記者がChatGPTや画像生成AIを味方につけるには?そして「人にしか作れないコンテンツ」とは?【AI勉強会レポート】

ChatGPTや画像生成AIが大きな注目を集め、今後広い分野で活用されていくことが期待されている。一方で、それらのAIによって人間の仕事が奪われてしまうことを懸念する声も少なくない。これまで、みずからの手でコンテンツを生み出してきた人たちは、生成AIとどのようにつき合っていけばよいのだろうか?

note社は、「生成AIがもたらすマスメディアの進化〜次世代ツールをどう使いこなす?編集・報道の未来〜」と題したメディア関係者向けの勉強会を開催。noteプロデューサーの徳力基彦氏をモデレーターに、note株式会社CXOの深津貴之氏、Stability AI Head of Japan・Jerry Chi氏が登壇し、生成AIをとりまく現状やその可能性、注意すべきことなどを語った。

「嘘をつく」ChatGPTも、工夫次第で活用できる

第一部の「テキスト編」では、深津氏がChatGPTの基本的なしくみや「嘘や知ったかぶりをする」といった利用時の注意点について解説。

そのうえで、「“嘘をつくAI”を、メディアで使えるのか?」というテーマに対し、「嘘をつくことをあらかじめ知っていれば、工夫次第で使いようはいくらでもある」という。

ChatGPTのメディアでの活用アイデア

具体的なChatGPTの活用アイデアについて、深津氏は以下のような例を挙げた。

  • 自分が調べたファクト情報を渡し、それを記事としてまとめてもらう

→ChatGPTは、「確率で“もっともらしい続き”を書く」しくみなので、ファクト情報に続く文は、高確率で正しくまとめられる。

  • ChatGPTに「経済メディアの編集長として」などの役割を与え、原稿や企画をチェックしてもらう

→役割を与えて具体的な聞き方をすることで回答の精度を上げることができる。ただし、この使い方をする場合、情報漏えいにつながらないよう注意が必要。

  • 記事を要約する

→Twitter投稿用の文章を作るときや、記事の冒頭にサマリーを入れたい場合など。

  • タイトルを考える

→たくさんのパターンを生成し、さらに「その順位付けとその理由」を出してもらうことも可能。

  • 質問票を作る

取材時の質問を考える、自分が作った質問票に抜け・漏れがないかチェックしてもらう。

「コンテンツの飽和」への対策が必要

ChatGPTを活用するにあたっては、フェイクニュースや情報漏えいリスクといった、向き合うべき課題も当然ある。ただし、「リスクを懸念してAIを使わないことによるデメリットのほうが大きい。将来的に生産性に大幅な差がついてしまう可能性がある」と深津氏はいう。

また、AIで容易にコンテンツが生成できるようになることで起きる、コンテンツ量の飽和も懸念すべき課題だという。

「大量のAI生成テキストが世の中に出回るなかで、人間が書いたテキストを読んでもらうためには、読むべき記事・読まなくてもいい記事を読者に提案するしくみが必要。AIを使ったパーソナライズされた編成員のような存在が求められる」

調査報道や対談はAIにはできない仕事

質疑応答で挙がった「人間にしかできないことは?」との質問には、「言語として普遍的に存在する範囲のものなら、AIで代行できるようになってしまう。AIができないのは、物理空間に密着したもの。たとえばインタビューや対談、調査報道などはAIにはできない領域。それをベースに、編成や編集の価値を考え直す必要があるかもしれない」と回答。

さらに、「記者にとってのAIの最高の価値は、“ひとり編集部”になれること」だと深津氏はいう。

「AIを使いこなすことで、企画、編成、編集、執筆、調査、報道などを1人でまかなえるので、行動力があっておもしろい切り口ができる記者なら、1人でメデイアとして成立するようになる」

メデイアは画像生成AIとどうつき合えばいいか

第二部の「画像編」ではまず、Jerry氏がStable Diffusionのしくみや画像生成AIの特性、どんなことができるのかを解説。それを踏まえて、画像生成AIをメディアでの活用方法を提案した。

画像生成AIのメディアでの活用アイデア

画像生成AIには、すでにさまざまなサービスが登場しており、実際の広告などにもすでに使われ始めているという。

  • 広告クリエイティブ・プロモーション

→KDDIのメタバースサービス「αU」のプロモーション動画には、画像生成AIが活用されている。

  • 写真内の顔出しできない人だけを、架空の人物に差し替える

→単に消したり、モザイクをかけたりするより自然。

  • Webサイトやアプリのデザインのたたき台を作成

→「Galileo AI」などのスマホアプリのUI作成に特化したサービスも存在する。

  • 記事中の画像として使う

→画像が増えることで、同じ記事でも見栄えが変わる。

AI生成物であることの明示は不可欠

メディアが画像生成AIを使う場合に発生しうる課題しては、「本物と識別できない写真が出回ることで、記者自身がリサーチ時に誤認する可能性がある」「記事中にAI生成画像を使った場合に、読者が勘違いする」といった真正性の問題や、著作権侵害の問題、生成物の品質担保などがあるとJerry氏は話す。

自身がだまされないための対策としては、提供元に確認をとるなどの従来と同様のファクトチェックに加えて、今後は技術面で真正性を証明するしくみも広がっていく可能性があるという。

また、記事中にAI生成画像を使う場合には、読者を誤解させないためにAI生成物であることの明示が不可欠になる。

さらに、「AIを使うことで効率が上がったことで生まれた時間をどう使うかも課題になる。これは文章生成AIにも共通する問題」だという。

さらに、既存の絵を学習元にしていることに対するユーザーのネガティブな反応に対しては、「AIの民主化のためにはモデルをオープンにすることは必要。その上で、学習元を明確にしたモデルを作ることや、クリエイターやアーチストを支援するしくみを整えることも検討できる」と話した。

文章、画像ともに、今後は「AIにできることはAIに任せる」という流れが当たり前になっていく可能性が高い。今回語られたことは、メディア関係者に限らず、情報発信をするすべての人にとって重要な知見だと感じた。

AIとの共存は、情報発信者にとってチャンスでもある

セミナー中、「AIにさまざまな役割を担ってもらいながら運営するメディア形態」の可能性について言及があったが、それはまさに当サイトがめざす姿だ。「小規模だからこれしかできない」と諦めるのではなく、従来なら多くのマンパワーがないとできなかったことを、「AIの仕事仲間」と共につくりあげていく形を模索できるようになった。これは本当に大きなチャンスだと感じている。

Adobe Firefly(Beta)で生成

ただし、AI活用のベストな形をつくりあげるまでには多くの試行錯誤が必要になる。じつは当サイトでも、企業のプレスリリースを元にしたニュース記事について、長いリリースを短くまとめたり、文体を変えたりといった作業にAIを活用する試みを始めているが、その程度の作業であっても狙った結果を出すには工夫が必要だ。

また、どのニュースを掲載するかの選定などは、やはり人による最終判断が重要だと感じている。どんな作業をどこまでAIで行うのかを見極め、その方法を固めていくにはまだ時間がかかりそうだ。

AIにできる作業をAIに委ねたうえで、取材やレビューといった人の手によって作ることが価値をもつコンテンツの制作に注力したり、テキスト記事に限らず、読者がより楽しめるコンテンツの提供をしていけるようになったら理想的だと考えている。

Pocket