はじめに
AIのハルシネーションという言葉は、事実でないことをもっともらしく語る現象として説明されることが多いです。
しかし、実務でAIを使い続けていると、それとは少し性質の異なる誤りに繰り返し出会います。
完全な虚偽ではない。
どこかで見たことがある。
一部は確かに正しい。
それでも、そのままでは使えない。
私はこの状態を、勝手に「疑似的ハルシネーション」と呼んでいます。
これはAIが嘘をついたというより、知識の扱い方が人間と根本的に異なることから生じるズレです。問題は、誤りそのものよりも、その誤りが非常に自然な顔をして現れる点にあります。
第1章 疑似的ハルシネーションは混線から生まれる
疑似的ハルシネーションの厄介さは、情報がゼロから作られているわけではない点にあります。
登場する知識や用語は、すべて実在します。法律も、制度も、概念も、どこかで確かに見たことがあるものばかりです。
ただし、それらが本来持っていた境界を失ったまま、一つの文章に接続されていきます。
似た制度が、近い概念を介して引き寄せられ、関連があるという理由だけで同じ文脈に並べられる。その結果、文章としては非常に滑らかでありながら、制度の切り分けとしては壊れた状態が生まれます。
人間であれば、「それは似ているが別物だ」と立ち止まる場面でも、AIは確率的な近さを優先して接続を続けます。
この判断基準の違いが、混線を引き起こします。
疑似的ハルシネーションとは、情報が間違っているというより、境界が溶けている状態だと捉えた方が実態に近いように思います。
第2章 なぜ人は見抜きにくいのか
疑似的ハルシネーションが特に厄介なのは、見た目が整っている点です。
専門用語は正確で、構成も教科書的で、慎重さを装う注意書きまで添えられていることが少なくありません。
そのため、人は無意識のうちに安心します。
極端な断定もしていないし、乱暴な言い切りもない。おそらく大丈夫だろう、と。
しかし、よく見ると、主語が静かに入れ替わっていたり、射程が微妙にずれていたり、根拠として挙げられている条文が別の法体系から引っ張られていたりします。
ただし、これらは派手な誤りではありません。文章の流れを壊さない程度に、きれいに紛れ込んでいます。
だからこそ、確認のアンテナが下がります。
疑似的ハルシネーションは、人の注意力が緩む地点を正確に突いてきます。
注意力が緩む間隙を突いてくるのは、非常に厄介なのです。
第3章 平均値が生む副作用
この現象は、一般に語られる「AIが嘘をつく問題」とは性質が異なると考えています。
意図的な虚偽でも、知識不足によるでたらめでもありません。
むしろ、AIが最も得意とする能力を、極めて忠実に発揮した結果として現れます。
AIは常に、文章として自然か、語と語のつながりが強いか、全体として破綻していないかという基準で、次の一語を選び続けています。
このとき重視されるのは、正しさそのものよりも連続性です。
法律や制度の世界では、「似ているが違う」「関連はあるが別体系」「ここから先は越えてはいけない」といった境界が、そのまま正確さになります。
しかし、確率モデルの内部では、そうした境界は特別な意味を持ちません。
人間が後から引いた線にすぎない境界は、連続体の一部として処理されます。
その結果、隣り合う制度や概念が、自然な流れのまま混ざり合います。
AIにとっては不自然ではありませんが、制度運用の視点では致命的なズレになります。
疑似的ハルシネーションとは、正しさが壊れた状態ではなく、滑らかさが勝ってしまった状態だと考える方が腑に落ちます。
第4章 人間側に必要なのは確度で統御する視点
疑似的ハルシネーションを完全に防ぐことはできません。
それはAIの設計思想そのものから生まれている現象だからです。
重要なのは、排除しようとすることではなく、怪しくなる地点を早めに察知できる状態を作ることです。
そのために有効なのが、確度という視点です。
この説明にどの程度の確信があるのか。
他に競合する解釈が存在するのか。
似た制度との混線リスクはどの程度か。
こうした問いを、回答と同時に出させます。
ここで重要なのは、確度を評価のための点数にしないことです。
確度は、正誤を決めるためのものではありません。
人間の注意を向けるためのシグナルです。
確度が高い部分は流し、低い部分だけを人が拾う。
この役割分担ができると、AIは一気に扱いやすくなります。
また、類似制度との違いをあえて書かせたり、判断が割れる論点を強制的に出させたりすることで、AIの内部にある揺らぎを表に引きずり出すこともできます。
AIは、自分が迷っていることを基本的に隠します。だからこそ、迷いを吐き出させる設計が必要になります。
疑似的ハルシネーションへの対策とは、AIを賢くすることではありません。
AIの曖昧さを、人間が見える位置に引き上げることです。
おわりに
疑似的ハルシネーションの問題は、AIが間違えることそのものではありません。
間違いが、あまりにも自然な形で混ざり込み、その検出にかえって注意力が割かれてしまうことです。その結果、かえってチェックが増えては本末転倒です。
だから、AIを信じるか疑うかという二択では足りません。
どこまで信じ、どこから引き取るかを設計する必要があります。
AIは地図を描くのが得意です。
しかし、境界線を引くのは、まだ人間の仕事です。
その役割分担を意識して、設計思想を編むことができるかどうかが、AIを道具として使い続けられるかどうかの分かれ目になる。
私はそう感じています。


