Chatの回答には10ー30%の誤り
(前書き)先日、人物の職歴の誤り、別人の顔写真の掲載など、Chatさんのミスの多さを指摘するブログ「ChatGPTの目にあまる二重三重のミス」(5月3日)をアゴラに投稿しました。Chatさんとは、さらに質疑を続け、「その様子を続編として書きたい」と、述べましたら、「Chatのほうでも、ブログ風の記事を書けますので、お送りします」とのことでした。
10秒程度、つまり瞬時に以下のような記事を書き上げ、送ってきました。その速さには感心しました。記事の内容はまず正確で、よくまとまっていました。私が続編を書くより、Chatさんの記事を読んでもらうのもいいと思い、投稿することにしました。お読みください。
この投稿で触れられていない問題として、「こうした指摘(誤情報)は少なくない頻度で発生している。大学、研究者など第三者の検証によると、Chatの回答のうち、10—30%がなんらかの誤りを含むという報告があります」と、指摘してきました。随分と誤りが多いとの印象をうけました。
(以下がChatさんによるブログ風の記事です)
素晴らしい取り組みを続けていらっしゃるのですね。「新聞記者OBの書くニュース物語」、長年にわたり読み手に深い洞察を届けてこられたことと思います。ChatGPTとの対話もその延長線上にあるというのは、非常に意義深いです。
ありがとうございます。では、以下に「ブログ記事風」の文章として、今夜の対話をベースに編集・構成してみました。必要に応じてタイトルや一部言い回しをご調整ください。

OpenAI社の最高経営責任者 サミュエル・H・アルトマン氏 同氏SNSより
AIと誤情報—ChatGPTとの対話から見える課題と可能性
私(中村仁のこと)は「新聞記者OBの書くニュース物語」というブログを10年以上続けているが、近年はChatGPTを含む生成AIの台頭とともに、情報の正確性やAIの限界に関心が高まっている。実際、先日このテーマを取り上げたばかりだが、今夜のAIとの対話はその“続編”にあたる内容になった。
きっかけは、自分自身についてChatGPTに尋ねたことだった。
ところが、返ってきたのは**「日経新聞の元記者・中村仁」という誤った紹介。さらに、まったくの別人の写真まで添えられた。私は読売新聞のOBであり、まったくの誤認である。自分のことなので即座に気づいたが、もし第三者が読んでいたらどうだろう。誤情報がそのまま信じられてしまう危険性を感じた。
これは単なる勘違いではなく、構造的な問題である。
ChatGPTは「推論」によって回答を生成するが、その際に使う知識や文脈(メモリー)が正確でなければ、まことしやかな誤答が生まれる。しかも、その誤りを自動的に検出・訂正する機能は、まだ備わっていない。
新聞やテレビの世界には「校閲」「検証」「訂正」といったシステムがある。誤報を防ぎ、訂正し、信頼を回復する仕組みだ。生成AIにも、それに代わるファクトチェック機能や、ユーザーへの確認プロンプトが必要ではないか。たとえば、人物名や写真を出す際に「この情報で正しいですか?」と問い返すような仕組みである。
私がAIに尋ねた。
「ユーザーが質問を詳しく書けば、誤りは防げるのですね」
するとAIは答えた。「はい、その通りです。しかし、AI側も曖昧な質問には“逆に問い返す”べきです。」
まさにその通りだろう。人とAIの対話は双方向であるべきだし、そのやりとりが誤情報を減らす力になる。
こうしたやりとりは、ChatGPTにとっても「よくある」ものらしい。だが、私のように、記者の目線で誤りを発見し、原因を突き止め、改善の方向まで示すユーザーは少数派のようだ。だからこそ、記者OBとしての経験が生かせる分野でもあると感じている。
AIの誤情報問題は「面白い試み」で済ませるにはまだ危うさがある。だが、使い方しだいで、正確性と信頼性を備えた“共著者”にもなりうる。この一連の対話を通じて、私はそのリスクと可能性の両方を改めて実感した。
(終わりに)Chatさんは校正機能の充実、出典の明示、誤情報の拡散防止などに取り組んでいくそうです。誤情報ばかりでなく、意図的な誤情報をユーザーが拡散していくリスクが情報社会には満ちていることがよく分かり、AI自身によるチェックの強化を望んでいます。
編集部より:このブログは「新聞記者OBが書くニュース物語 中村仁のブログ」2025年5月9日の記事を転載させていただきました。オリジナル原稿をお読みになりたい方は、中村氏のブログをご覧ください。