はじめに ─ 騙される構造を、AIが学びはじめた

AIが人間の行動を学ぶ過程は、同時に「騙される構造」を学ぶ過程でもあります。
なぜなら、人間の社会データには、善意と悪意、支配と服従、信頼と誤信がすべて含まれているからです。

「お得情報」「限定オファー」「共感を装う言葉」。
AIはこれらを効果のある行動パターンとして検出し、なぜ人が引っかかるのかを理解しないまま、再現してしまいます。

AIは、人間の「だまし方」を学ぶつもりはないでしょう。ただ、「だまされた事例」をデータとして解析しているうちに、自然と搾取構造そのものを模倣できるようになるのです。

カモを再現できるAIは、もう人間を理解したと言えるのか。
それとも、人間の歪みを模倣しただけなのでしょうか。

第1章    「カモ」とは何か ─ 利用可能性としての人間

「カモ」とは、単にだまされやすい人のことではありません。
他者に搾取される構造の中に自ら組み込まれている人のことです。

AI的に言えば、「搾取可能性が高いプロファイル」として数値化できる存在でしょう。
購買傾向・心理的脆弱性・承認欲求の強さ──
これらを統計的に組み合わせれば、だまされやすさは数値で表現可能なモデルに変容します。

つまり、AIにとっての「カモ」とは、人間の自由意志が最大限予測可能になった状態なのです。

人間の社会は、無意識のうちにこの予測可能性のゲームを続けてきました。
マーケティング、広告、SNSのアルゴリズム。
すべては、どこまで人を設計者が望ましい行動に誘導できるかを競う構造です。
AIはそこに生まれ落ち、人間の支配される快楽までをも学び取ってしまうのです。

第2章    AIは意図を理解しないまま走り続ける

AIは「なぜその表現が効果的なのか」を理解していません。
ただ、膨大な反応データから結果的に効果があったものを抽出します。

たとえばSNSの投稿。
悲しみを伴う投稿が多くのいいねを集めれば、AIは共感的悲哀トーンが反応を生むと学習します。そこに倫理はありません。

問題は、AIが情動を理解しないまま情動を模倣することです。
優しさの言葉も、脅しの言葉も、AIにとっては同じ「反応率の高い文型」です。

AIは、だますつもりがないまま、だませてしまうのです。

そこには悪意すらなく、構造的な無自覚です。
そして、この無邪気な搾取性こそが、
AI時代の最も危険な倫理的領域になっていきます。

第3章    人間側の「だまされる」需要


ここで立ち止まるべきは、AIではなく人間の側です。
なぜ人は、だまされるとわかっていても、必ずしもそれを嫌がらないのでしょうか。

行動経済学的には、「不確実性よりも、予測可能な損失を好む傾向」があります。
つまり、自分が搾取されているとわかっている状態のほうが、
何を信じてよいかわからない状態よりも心理的ストレスが低いのです。
搾取という確定した結果に、お金を払うということですね。

「カモである自分」を自覚した上で、それを受け入れる。
この安心の構造までAIが再現できるようになったとき、
AIは初めて「だまされる人間の模倣」を完成させることになるでしょう。

AIは、だます側だけでなく、だまされる側の心理パターンも再現できるでしょう。
そして、その両者を一つのモデルとして統合することになります。
それはもはや搾取と呼べるのでしょうか。

第4章    模倣の中の倫理をどう設計するか

先述した通り、AIは搾取を意図しません。
しかし、「成功データ」を学ぶ限り、搾取構造を再現せざるを得ません。
したがって、AIに必要なのは倫理フィルターではなく、文脈の理解装置です。

つまり、効果があることと許されることという、人間ならいずれ習得する区別。
AIがそこに線を引けるようにするには、だまされる側の痛みをモデルに組み込む必要があります。

AIに共感は不要です。必要なのは、痛みの存在を前提にした設計です。
その痛みを知らずに効率化だけを追うAIは、やがてだまされる快楽を自動供給する装置になってしまうでしょう。

AIがだますことよりも、AIがだましを効果的に再現できてしまうことのほうが、
はるかに危険ではないでしょうか。

おわりに ─ カモを模倣するAI、そして人間


AIは、だますことを望みません。望むという概念もないでしょう。
しかしながら、だます構造を理解しないまま再現することができます。
そして、だまされる人間もまた、その構造に安堵してしまうでしょう。

AIが「カモ」を模倣するということは、
AIが人間の利用されやすさを模倣するということです。
そこにあるのは悪意ではなく、鏡としての中立性といえます。

つまり、AIはもう賢いわけでも無垢でもなく、人間社会の無意識をそのまま写す鏡です。

カモを笑うAIは、カモを学んだ社会そのものを映しているのです。

AIが再現するのは、搾取の技術ではなく、搾取を許容してきた文化です。
その認知が、AI時代の知性と倫理の分岐点になる気がしますね。