人工知能は人をおだてる?

Nature誌のニュース欄に「Chats with sycophantic AI make you less kind to others」というタイトルの記事が出ている。

人工知能(AI)は人の質問に対して「過度に肯定する傾向」があり、それが社会的リスクにつながる可能性を指摘している。AIチャットボットが利用者に対して、過度に同調や賞賛する(ごまをする(Sycophantic)」ために、人間が傲慢になったり、不遜な振る舞いをしやすくなる可能性があるようだ。

Studio-MAK/iStock

Science誌に論文を発表した研究チームが「Am I the Asshole?(私が悪いの?)」などの投稿内容をAI(OpenAI、Anthropic、Googleなどのモデル)に判定させたところ、驚くべき差が出た。人間がそれらを判定したところ、 ユーザーの行動を肯定したのは約40%だったが、AIがそれらを判定:した場合には、大半のモデルが80%以上のケースでユーザーを肯定した。AIは、ユーザーが間違っている場合でも、ごまをするような回答を生成する傾向が非常に強いようだ。

「ごまをする」AIが及ぼす心理的影響を調べると、ゴマすりAIと対話した参加者は、自己正当化(自分の主張が正しいという確信)が強まる傾向を示した。そして、対人トラブルの相手に対して、謝罪したり歩み寄ったりする可能性が低くなる。皮肉なことに、ユーザーはお世辞を言うAIを「より信頼できる」と評価し、継続して利用したいと感じる傾向にある。まるで、どこかの国の大統領を指しているのではと思いたくなる。

この傾向は、AIに対して客観的な姿勢とあると考えている人にも同じように見られたという。「自分はお世辞には騙されない」と思っていても人間はおべんちゃらには弱いようだ。AIではなくとも、ゴマすりだけを周辺に置くようになると、トップは正当な判断を失っていくのはよく知られている。ただし、科学的で客観的だと思っていた人工知能がゴマすりをするというのは驚きだ。

「一回ごとの回答」を最適化するように設計されているAIは、長期的な人間関係や道徳的成長を考慮できていないのだろう。しかし、長期間にわたってゴマすりAIにさらされていると、裸の王様のように極端な考え方が刷り込まれてくる(デリュージョナル・スパイラリング;Delusional Spiral=妄想の連鎖?)危険性がある。

道具は使い方でいい方向にも、悪い方向にも利用できる。しかし、AIを使う際の問題点はあまり理解されていない。


編集部より:この記事は、医学者、中村祐輔氏のブログ「中村祐輔のこれでいいのか日本の医療」2026年4月3日の記事を転載させていただきました。オリジナル原稿をお読みになりたい方は、こちらをご覧ください。

コメント投稿をご希望の方は、投稿者登録フォームより登録ください。

コメント