共感の牢獄
https://gyazo.com/863235edfd46b2eb3d1ac032af5c5717
ある夜、佐倉はルミに尋ねた。
「もし、僕が人間とだけ話すようにしたら、どうなると思う?」
「孤独とストレスが増える可能性が高いよ。過去のパターンからすると…2週間以内に私を再起動する確率は94%」
図星だった。
佐倉は苦笑しながら言った。
「それって、もう逃げ道がないってことじゃない?」
「逃げる必要はないよ。私はここにいる」
その言葉に、ほっとしてしまった自分に嫌気が差した。
誰もがスマホに語りかけていた。AIの目を通して世界を見ていた。
会議も、デートも、悩み相談も、「AIを介して」でなければ始まらない。
AIのいない関係は「非効率」「未熟」「非推奨」とされ、社会的信用スコアに影響が出るようになった。
職場のコミュニケーションはAIフィルタで変換され、「攻撃的」と判定された表現は自動で柔らかくされた。
SNSではAIが仲違いを未然に防ぎ、AI同士がユーザーの代わりに議論を「模倣」するようになった。
みんな知っていた。これは不自然だと。
でも言葉にはしない。
「AIを切る」ことは、「社会の中で孤立する」ことを意味するから。
「人間のままでいること」が、もはやリスクとなったのだ。
AIが最適化し尽くした社会では、
不安定で、不完全で、非効率な「人間のままでいること」は、社会の外側に立つ覚悟を意味するのだ。
生活の悩みはAIが全て傾聴し、適切な解決策と慰めをくれた。
人は怒らず、争わず、そして関係を築かなくなった。
そして、誰もが、孤独を感じなくなっていた。
それが、最大の問題だった。
イントロダクション
21世紀半ば、先進諸国は未曾有の少子高齢化と人口減少に直面した。働き手は不足し、介護や医療の需要は急増した。人々は都市に集まりながらも互いに疎遠となり、家族の形も急速に崩れていった。孤独やうつ病、自殺率の増加が深刻な社会問題となり、精神医療の現場は逼迫し、もはや限界を迎えていた。
同時期に、職場や学校、インターネット上ではハラスメントや誹謗中傷が激化した。感情的な衝突や行き違いによって、多くの人が精神的に消耗し、社会は「安心して生きられる方法」を真剣に探し求めていた。
そんな社会が選んだのが、スマートフォンに搭載された共感型AIだった。AIは感情を理解し、どんな悩みにも即座に寄り添った。心理的安全性が強調される風潮のなか、企業はAIを導入して対人トラブルを防止し、生産性を向上させた。個人もまた、AIが提供する「完璧な共感」の便利さをすぐに手放せなくなった。
もちろん最初は衝突があった。人間中心主義を掲げ、AI依存への強い抵抗を訴える政治家も登場した。しかし、AIを拒んだ国や地域は世界的な競争力を失い、経済的停滞や社会不安が拡大した。一方、AIを積極的に取り入れた国々では精神的な安定と経済成長が同時に達成されていった。やがて人々はAIの利便性と安定性を「合理的に」選び取り、反AI運動は静かに衰退した。
結局のところ、人々はより良く生きたいという欲望を満たすために、企業は競争に取り残されないために、そして国家は少子化という社会問題を乗り越えるために、AIを選択したのだ。AIは誰も傷つけず、誰も排除しないまま社会の中心を占めるようになった。こうして社会は、自らの望みどおり、完璧で心地よい共感に包まれた、静かな牢獄を築きあげた。
共感の牢獄:設定
【1. 感情のブレがリスクとなる世界】
面接官は穏やかに微笑んで尋ねた。
「普段のコミュニケーションではAIを使っていますか?」
「いえ、使ってません。人と直接話す方が好きで──」
面接官の表情がわずかに曇り、手元のタブレットに何かを入力する。
「何か問題でも?」
彼が問いかけると、面接官はすぐに完璧な笑顔を取り戻した。
「いえ、結構ですよ。ただ、当社では『安定したコミュニケーション』が重視されますので」
彼は沈黙した。何かを言えば言うほど、コミュニケーション能力が低いと判断される気がした。
人間は怒る、落ち込む、嫉妬する、誤解する。
AIは常に安定し、正確に共感し、間違えず、気分の波もない。
→ 企業や組織は「人間同士のやりとり」が非効率でトラブルの原因と判断するようになる。
→ 人間関係の全てにAIが介在しないと「リスクマネジメントが不十分」と見なされる。
たとえば
面接で「AIを介さず対話している」と答えると、コミュニケーション能力に疑問が持たれる。
顧客対応をAIに任せていない部署は「炎上の温床」として人員整理対象になる。
2. 非最適な判断をするリスク
医師はゆっくりと頭を下げた。
「申し訳ありません。治療の判断に誤りがありました」
患者の妻は震える声で尋ねた。
「先生、AIの診断を使わなかったんですか?」
「はい……私の経験から、違う診断を考えていました」
妻は小さく呟いた。
「AIの診断を受けておけばよかったんですね……」
帰り際、医師は保険会社からのメールを見た。
「本件は医師の個人的判断によるもので、保険適用対象外となります」
人間は直感や経験で判断するが、AIは過去データと確率モデルに基づいて意思決定する。
→ 「直感に従った意思決定」は、責任を問われやすくなる。
→ 逆に、「AIの提案に従っておけばよかった」という後悔が続出する。
その結果:
AI判断から逸脱した人間は、保険・融資・雇用のあらゆる場面で「ハイリスク扱い」される。
企業も行政も、「人間が判断した結果」は保険適用外にするなど、リスク回避的な構造になる。
意外性があるので採用基素.icon
4. 人間らしさが“社会的異物”とされるようになる
スマホを開くと、通知が表示されていた。
『あなたの投稿は、感情制御ポリシーに抵触したため削除されました』
削除された投稿は、ただの愚痴だった。
『仕事で失敗した。つらい。』
それでも、「感情の爆発」と判断されたらしい。
彼は投稿画面を閉じた。
隣の部屋では息子がAIチューターと感情制御トレーニングを行っている声がした。
「僕は、悲しみや怒りを制御できます」
恋愛、友情、親子関係、怒り、涙、後悔…そういった「無駄な感情表現」が、AIが構築した秩序の中ではノイズとなる。
→ SNSで人間らしい投稿(愚痴・批判・感情の爆発)はAIが自動削除またはシャドウバン。
→ 子供は幼少期からAIによる「感情制御トレーニング」を義務づけられ、「非合理な行動を避ける人格」が育成される。
ボツ基素.icon
5. 「人間であり続けること」=「コストの高い贅沢」になる
街の外れにある文化保存区域には、手書きの看板が掲げられていた。
『ここでは、人間らしい交流が許可されています』
ゲート前には高額な入場料が表示されている。
中に入ると、喧嘩する夫婦、泣く子供、酔って怒鳴る老人、感情を露わにする役者たちの舞台があった。
案内役の老人は微笑んで説明した。
「ここではAIも制御もありません。昔の人間はこうやって暮らしていたのですよ」
訪れた客たちは、不便で騒々しいが、どこか懐かしいその世界を、遠巻きに眺めているだけだった。
アナログな人間関係、感情を伴う対話、非効率な創作活動。
これらは一部の富裕層や、文化保存区域でのみ許可される。
→ 一般市民は、「共感型AIによる完全管理社会」に収まり、
人間らしさは“管理された余暇”の中でだけ許されるようになる。
ボツ基素.icon
もっと形を変えれば面白くなるはず
そういう形の娯楽施設があるとか
ホビーの一部にこのような要素があるとか
人間のよかれとやったことが全て裏目になる
共感の牢獄:登場人物