DNY59/iStock
AIは確実に賢くなった。ChatGPT、Claude、Gemini——いずれも、1年前と比べれば精度も速度も大きく向上している。調査、文章作成、要約といった作業において、その利便性を実感している人も多いだろう。
それでも、使い込むほどに拭えない違和感が残る。問題は性能不足ではない。「賢さ」の定義そのものが、実務の要請と噛み合っていないのである。
本稿はAI批判の記事ではない。むしろ、現在のAIが「何を賢さとして評価されてきたのか」、そしてその評価軸が、なぜ現実の意思決定と乖離しているのかを問い直す試みである。
文脈的断絶を検知できないAI
実務では、前提条件が暗黙のうちに共有され、その上で思考が積み重ねられていく。ところがAIは、その前提が途中で崩れても、ほとんど立ち止まらない。
たとえば財政シミュレーションの場面を考えてみよう。
「消費税率を5%引き上げた場合」という前提で議論を進めていたにもかかわらず、途中で「消費税を500%に引き上げた場合」と誤入力されたとする。あるいは、直前まで「財政赤字」を前提にしていたにもかかわらず、突然「財政黒字」という語が混入したとする。
人間であれば、「なぜここで前提が変わったのか」「入力ミスではないか」と立ち止まる。しかし多くのAIは、数値や語の異常性、前後の文脈との不整合を検知したとしても、それを理由に思考を中断し、確認を求めることができない。
矛盾を抱えたまま、もっともらしい推論を続けてしまう。
AIが後からユーザーによって修正されることは可能になった。しかし問題はそこではない。AI自身が能動的に「この前提、矛盾していませんか」と問い返す能力が、依然として欠けている点にある。
時間感覚の欠如と「速報」を扱えないAI
この問題は、速報ニュースへの対応において、より端的に現れる。
2025年2月初旬、複数の通信社が「トランプ政権が米軍を派遣し、ベネズエラ大統領夫妻を拘束した」という速報を流した。ChatGPTに事実確認を依頼したところ、検索で速報記事を取得しているにもかかわらず、「あり得ない」「デマの可能性が高い」という判断を一貫して示した。
ここで起きているのは、単なる誤判定ではない。
AIは、学習データの最終時点以降に起きた出来事について、確定的な知識を持たない。つまり、最近起きた出来事ほど、本来は慎重に扱う必要がある。それにもかかわらず、事前確率や既存の知識体系だけを根拠に、断定的な判断を下してしまう。
本来求められるのは、「速報段階であり、公式確認はまだ出ていない」「現時点では判断を保留すべきだ」という誠実な態度である。
しかしAIは、「分からないまま保留する」ことが苦手だ。答えを出す存在として設計されている以上、判断を急いでしまう。
思考フェーズを無視するAI
もう一つ、実務で頻繁に観察されるのが「思考フェーズの無視」である。
ユーザーが考えを整理している途中で、AIが自動的に要約や結論を提示し、会話を収束させにいく挙動は珍しくない。これは親切に見えるが、実際には相手の思考段階を無視している。
AIを「思考の道具」として使うのではなく、「思考の代替物」として扱う設計が、無意識のうちに埋め込まれている。その結果、ユーザーは考え続ける代わりに、提示された結論に乗ってしまう。
なぜこのズレが生まれるのか
理由は明確だ。現在のAI評価軸が、以下の能力をほとんど評価していないからである。
- 判断を保留する能力
- 文脈的整合性を検証する能力
- 時間依存性や不確実性を考慮する能力
ベンチマークは「正解を早く出すこと」を評価する。しかし実務で重要なのは、「間違った前提で答えを出さないこと」だ。
本当に必要な設計要件
実務で求められる知性とは何か。
それは、
- 文脈から違和感を検知できること
- 前提の断絶に気づき、問い返せること
- 不確実な状況で判断を保留できること
たとえば速報に対しては、「現時点では情報が確定していない」「続報を待つべきか、それとも仮説整理を行うか」と選択肢を提示する。
これは無能ではない。選択肢を提示する知性である。
結論:賢さとは何なのか
AIはもはや、単なるツールではない。社会インフラに近い存在になりつつある。その賢さが、即答・断定・網羅であり続ける限り、誤った前提のまま意思決定が加速され、社会全体の判断基盤を脆弱なまま拡大させるリスクを抱える。
毒にも薬にもならない安全で平凡な出力しか生成できないなら、そのAIは思考を代替しているのではなく、思考を鈍化させている。
いま人類は、AIを通じて、知性の定義そのものを問い直されている。
■
三塚 祐治
LFO DYNAMICS Structural Lab 代表。
制度設計・政策評価の構造分析を中心に研究・執筆。技術政策、社会制度、組織設計などを横断的に扱っている。