大新聞から個新聞への転換
人と会話しているような文書を生成する対話型AI(人工知能)サービス「チャットGPT」などに対して、議論が沸騰しています。なかでも紙の新聞に頼っている新聞界の危機感にはただならぬものがあります。
生成AIの技術を駆使すれば、個人の志向、嗜好に合わせた新聞を個人ごとに編集することさえできるようになるに違いない。「大新聞」ではなく、「個新聞」です。読者の傾向が分かる「個新聞」なら広告もとれる。
記者の手作業を減らし、AIを駆使するデータジャーナリズムを重視する。人材を他業界からも集め、大変革期を迎えた新聞作りに向け、組織改革し、予算、人材を重点的に投入する。失敗すれば、新聞社の序列も一気に変わるでしょう。
新聞各紙の中で、大々的にキャンペーンを張っているのが最大手の読売新聞です。「衝撃、生成AI」と題する連載は「犯罪に悪用。質問次第で爆発物の作り方や詐欺メール」(上)、「著作権の保護が曖昧、アーチストは絶望」(中)、「前のめりで規制は後まわし、利用範囲の議論を欠く」(下)と、これでもかこれでもかと、生成AIの負の部分を叩いています。
デジタル化と憲法の関係に詳しい山本龍彦・慶大教授のインタビュー記事を1面肩に大きく載せ、裏の2面まで使っています。「国会活用に憲法上の問題も」「人間の認知をゆがめる恐れ」とのタイトルです。
記事を読んでみますと、「チャットGTPを活用するにしても、国会で審議を十分に行うことが重要で、おろそかにすると、AIが立法権を握ることになりかねない」、「どこまでAIが判断し、どこまで人間が考えたのか境界が曖昧になってくる」、「AIに判断を委ねることは、いわば『神の言葉に従う』というようなもので、中世の時代に引き戻されてしまう」など。
そこまでいうのかという過激な反AI論です。担当記者の一存でインタビューをし、記事化したのではないでしょう。読売はデジタル教科書の導入に対しても、度肝を抜くような猛反対のキャンペーンを繰り返しました。新聞社の最高トップの意向が働いているのでしょう。
チャットGPTが収集するデータの情報源が明示されていないし、不正確な情報、偽情報、有害情報などが拡散される恐れは十分にあります。そういう問題点は規制しつつ、AIの優れた能力を新しい時代に組み込んでいくという姿勢でなければなりません。
日経新聞は同じく1面の連載「AI Impact」で、「AI進化は人類の真価を問う。比類なき言語能力を10年で獲得。秩序揺るがす存在に」(①)、「自由な発想は人の特権か、まだ初期レベル」(③)などと指摘しました。こうした姿勢こそメディアに求められているのでしょう。
グーテンベルクによる印刷技術の発明、18世紀の産業革命の蒸気機関車、情報の流れを革命的に変えたインターネットの普及のように、生成AIは情報流通、社会や生活様式のあり方を変え、従来型の産業・企業システムの創造的破壊を推し進め、世論誘導を受ける政治的行動に多大な影響を与える。G7サミット、主要国閣僚会議のテーマに浮上しました。
論じるべきテーマが多岐にわたる中から、デジタル化が最も遅れている日本の新聞への影響を取り上げたいと思います。「定時(締め切り時間)に定量の情報(ページ数)」を時間をかけて「紙に自前の工場で印刷」し、系列会社の「トラックで配送」し、傘下の販売店が「オートバイで戸別配達」する。この古典的な情報伝達のビジネスモデルは最終段階にきています。
そこからくる焦りでしょうか。日本新聞協会が5月17日、報道機関の記事写真、画像の無断、無秩序の利用を懸念し、「健全な言論空間が混乱し、社会の動揺を招く」とし、政府に対し生成AIが社会と調和するような法律、制度の整備を求めました。さらにAIが学習した報道内容の情報開示を開発者側に義務付けることなどを求めました。
新聞協会の指摘は、著作権の法的な保護の無視、開発者の情報開示や告知義務の欠如など、当然の要求です。そこまではいいにしても、新聞社自ら、生成AIをどう新聞ビジネスに組み込み、新時代に適合していくのかの将来ビジョンが示されていないのはどうしたことか。
AIがネット上を巡回して、データを収集、保存(クロール)する際に、メディアが提供した記事、写真、画像などの無断使用を阻止できるようにする技術開発などできそうなものだと思います。虚偽情報を阻止、指摘する機能をメディアが開発すれば、流通する情報の質的向上につながります。政府や開発者に規制を要求するばかりでは脳がありません。
AIの専門家は「記者や編集者の業務も自動化や効率化が進む」、「記事のインタビューであれば、取材中に音声認識機能を使うと、リアルタイムで文字化する」、「人間は問いをたてる力、問題を見つける能力が重要になる」(松尾豊・東大教授)といいます。
記者会見、インタビュー、シンポジウムなどでは、AIが打ち出してきた文章を編集者や記者がチェックすればいい。単純な記事はデータを入力すれば、文章ができあがり、それに人間が手を入れる。
政権支持率を調べる世論調査の手法も革命的に進歩するのではないでしょうか。現在は多額の予算を使って、下請けの世論調査会社が電話や郵便で有権者の意識調査をしています。AIによる音声質問で代行し、データを分析、処理できるでしょう。
世論調査の質問事項をたくさん用意し、それに従って有権者に答えを聞く方法もいづれはなくなるでしょう。時空にあふれるデジタルデータをAIで処理して、政権、政党支持率、関心のある政策課題を探れるようになる。主に選挙、政治に限っている世論調査の対象を消費生活、ライフスタイル、世相に広げていく。今の手法はもったいない限りです。
先の松尾東大教授は「オープンAI、マイクロソフト、グーグルなどが先に行っているように見える。今後10-20年のことを見据えれば、AI技術はまだまだ黎明期に過ぎない。これから一大市場が生まれる」といいます。
日本の課題として、「チャットGPTのような技術を自分たちで開発することだ」とも、指摘しています。日経新聞はデータジャーナリズムの分野で先行しています。様々なデータを集め、何が起きているのかを探る。新聞社はせっかく世論調査をしながら、選挙、政局に絞って使ってきました。もっと幅広いデータジャーナリズムへの転換をなぜ図らなかったのか。
これからの新聞社は、低劣な国会審議、政治家の不祥事、目先の政局を追うのが仕事になっている政治部記者を減らし、データジャーナリズム、AI活用部門の人材、予算を増やしていくべきでしょう。記者の再配置です。
ジャーナリズムにおけるAI技術開発を一社で取り組むのが無理なら、日本新聞協会に新し部署を作り、外部の人材を求めたらよい。そうであるべきなのに、「AIが記事無断利用の懸念」という見解発表が真っ先に飛びだしてきました。やることの順序が違うのです。視野が狭すぎる。
編集部より:このブログは「新聞記者OBが書くニュース物語 中村仁のブログ」2023年5月13日の記事を転載させていただきました。オリジナル原稿をお読みになりたい方は、中村氏のブログをご覧ください。