はじめに
世の中は知っていれば役に立つことに満ち溢れています。投擲の筋肉の使い方もけん玉の技も、日本の歴代総理大臣も知っているに越したことはないでしょう。
しかし、何となく役に立つものを集めて使うには、我々の人生はあまりにも短いため、分からないことは多々あるものです。
分からないこと自体が問題なのではありません。
本当に厄介なのは、分からない状態にある自分を、分からなくなっていることです。
調べれば答えが出る。
聞けばそれらしい説明が返ってくる。
AIに投げれば、整った文章で要点が示される。
こうした環境が整うほど、人は「理解していない可能性」を自分で検知しなくなります。本稿では、この「分からない自分」を検知できなくなった社会が、どのように成立し、どこに歪みを生んでいるのかを整理します。
第1章 分からない状態は、本来どうやって分かっていたのか
かつて、分からなさは身体感覚に近いものでした。
話についていけないときの焦り。
説明を聞いても腑に落ちない違和感。
手を動かしてみて初めて気づく理解不足。
理解とは、頭の中だけで完結するものではなく、行動や失敗を通じて確認されるものでした。分からない自分は、試行錯誤の途中で自然に露呈します。
しかし、説明が高度に整理され、要約され、場合によってはAIに先回りして提示される環境では、行動に移る前に「分かった感じ」が成立します。この時点で、分からない自分は検知されません。
悪路を歩く脚腰が弱まり、舗装された知の高速道路を走ることになるのです。
第2章 なぜ今は見抜けなくなったのか
現在の情報環境は、理解の手応えを代替する要素で満ちています。
構造化された文章、専門用語の正確さ、注意書きや但し書きの丁寧さ。
これらは本来、理解を助けるためのものです。しかし、揃いすぎると逆効果になります。人は内容ではなく、形式を見て納得してしまうからです。
特にAIの出力は、読みやすさと一貫性が高いため、「分からない」という感覚が生じる前に思考が止まります。分からない自分を検知する前に、分かった気分だけが先に到達します。
第3章 分からないことより危険なもの
分からないこと自体は、実はそれほど危険ではありません。
分からなければ、人は止まり、質問します。
分からないという感覚は、生存のために培われてきた人類屈指の経験値であり、判断のブレーキとして今なお機能します。
問題は、分からないまま進めてしまう状態です。
AIの説明を読んで「なるほど」と思う。
会議資料を一通り眺めて「理解したつもり」になる。
判断を下したあとで、違和感が残らない。
この状態では、判断は進んでいるのに、理解は置き去りになります。
しかも厄介なのは、本人にその自覚がほとんどないことです。
なぜなら、
・文章は整っている
・論点は網羅されている
・反論まで用意されている
こうした要素が揃うと、人は理解したかどうかを検査しなくなるからです。
理解の代わりに、「納得した感じ」だけが残ります。
このとき起きているのは、判断ミスというより、検知不全です。
どこが分からなかったのか。
どこで理解が抜け落ちたのか。
それ自体が記録されていません。
結果として、問題が起きたときに人はこう言います。
「聞いていなかったわけではない」
「説明は受けた」
「資料には書いてあった」
どれも事実です。
ただし、それらは理解していた証拠にはなりません。
分からない自分を検知できない状態では、
失敗は偶然に見え、再発は防げません。
なぜなら、修正すべき地点が、自分の中に存在していないからです。
第4章 分からない自分を再び検知するために
この問題は、注意力や能力の低下ではありません。設計の問題です。
人は本来、
・自分が分かっていない
・まだ判断を引き取れていない
という状態を、感覚的に察知できる生き物です。
しかし現在は、その察知が起きる前に、
「分かったことにして次へ進める仕組み」
が整いすぎています。
そこで必要なのは、理解を証明させる設計ではありません。
理解を疑わせる設計です。
例えば、
説明を聞いた直後に「結論を書かせる」のではなく、「この説明で一番不安な点は何か」を一行で書かせる。
AIの出力に対して、「正しいか?」ではなく、
「どこが怪しそうか?」を先に問う。
重要なのは、正解を当てることではありません。
分からなさが表に出るかどうかです。
AIを使う場合も同様と考えます。
AIを答えを返す装置ではなく、人間の理解状態を炙り出す鏡として使うほうが、実は相性が良いのではないでしょうか。
・この説明を他人に伝えるとしたら、どこで詰まるか
・自分が反対意見を出すなら、どこを突くか
・前提が一つ崩れたら、結論はどう変わるか
こうした問いは、AIの性能を試しているようで、
実際には自分の理解を試しています。
分からない自分を検知するとは、
無知を責めることではありません。
判断を引き取る前に、立ち止まる位置を持つことです。
効率のよい社会では、
分からないことは早く消されます。
しかし、健全な社会では、
分からない自分が、ちゃんと残ります。
AIが普及した今、
求められているのは「より賢い答え」ではなく、
分からなさを残す余地を、意図的に作る設計なのかもしれません。
おわりに
分からない自分を検知できなくなった社会は、効率的です。
しかし同時に、修正が遅れる社会でもあります。
理解とは、常に不完全です。
だからこそ、本来は分からなさに気づく仕組みが必要でした。
AIや便利な道具が増えた今こそ、「分からない自分」を検知する感覚を、設計として取り戻す必要があります。それは知識の問題ではなく、判断を引き取る位置の問題です。
知らないことは、調べようもありません。調べても、月並み以下しか把握できません。
知の高速道路を走る世界で、分からない自分というメタ認知は快適なドライブを助けることでしょう。


