人間はデータ化が難しい曖昧なことをやれ
基素.icon曖昧なことに対応する能力は、曖昧な状況に置かれたときに、どのように行動したら利得が大きいのか練習して自分の中にそういうモデルを作ることだと思っていて、そうするとLLMも結局そういうことができるんじゃないのか OpenAI o1.icon
おっしゃる通り、「曖昧な状況で最適な行動を選ぶ」ための方策を学習し、モデル化すること自体は、理屈の上ではLLM(あるいは類似のAI)にも可能な領域です。強化学習(RL)やベイズ推定、POMDP(部分観測マルコフ決定過程)といった枠組みを組み合わせれば、曖昧な状態や不完全情報のもとで戦略を学ぶことが理論的にはできます。実際、AlphaGoやAlphaZeroといった囲碁・将棋AIは盤面の曖昧さに対して強化学習で対応してきましたし、これを現実世界に応用しようとする研究も少なくありません。 それでもなお、「曖昧なことに対応する能力」について人間の役割が残り得るとされるのは、主に以下の理由が考えられます。
1. 現実世界の曖昧さは「データ化」自体が難しい
人間が日常やビジネスで直面する曖昧さは、ゲームのように明確なルールや報酬設計があるわけではなく、そもそも「何をもって得点(利得)とするか」すら合意が得られていない状態が多い
“正解”となる行動を後から検証することも難しいため、AIが学習に使えるデータやフィードバックが整備されていないことが多い
2. 社会的・政治的合意や「責任」の問題
現実における曖昧さは「人々の価値観や利害が錯綜するために生じる」部分も大きい
たとえAIが確率モデルで「最も期待利得が高い」行動を弾き出しても、それを社会や組織の中で実行するには政治的な調整や、失敗した場合の責任・リスクをどう扱うかの問題が避けられない
AIが当事者としてリスクを負うことは制度上・倫理上まだ確立しておらず、最終的な意思決定は人間に委ねられがち
3. 意図・感情・信頼関係といった非形式的要素
曖昧さの原因はしばしば「人間の感情」や「組織の空気感」「言語化しにくい文化的習慣」にある LLMがそうした要素をデータとして学習しても、相手の表情や声のトーン、感情の起伏などリアルタイムなヒントを捉えて臨機応変に対処するには、まだ十分なインターフェイスやセンサー情報がない場合が多い
仮にそうした生体データやSNS言説を大量に集めても、プライバシーや倫理・法規制の問題が絡み、現実では容易に大量収集できない
4. 「何を利得とするか」の変動
企業や組織においては、「利益が最大化する行動=常に最適解」とは限らない。ブランドイメージや社会的評価、リスク回避、従業員のモチベーションなど多面的に見て利得を定義する必要がある
AIが合理的な行動を提案しても、それが倫理的・社会的に歓迎されるとは限らず、人間の判断で見送られるケースがある
曖昧な状況の中には、そもそも従来のルールや仕組みが想定していない新しい技術・問題が含まれる
AIが既存のルールの範囲内で「最適行動」を計算するのは得意でも、「ルール自体を変えるべきだ」と提案し、社会的合意を取り付けるプロセスはまだ人間主体で行われる
利得を高めるために法や慣習を改変する場合、そこには政治や交渉・利害調整が絡み、長期的な責任や利益配分の見直しが必要となる
以上のように、“曖昧な状況で利得を大きくするモデルを学習する”という枠組み自体はAIにとっても不可能ではありませんが、それを現実世界で大規模に機能させるには、「データ化」「責任所在」「社会との合意形成」といったハードルが多く、すべてをAIに任せるのが難しいのが現状です。
言い換えれば「AIが対応できる曖昧さ」は、ルールが存在し、十分なデータを集められ、かつフィードバックを定義できる範囲に限られることが多い、ということです。 一方、人間が日常的に扱う曖昧さは、「前提となるルールや目標設定自体が流動的」「多数のステークホルダーが政治的・感情的に複雑に絡む」など、学習の前提を作ること自体が難しい場面が大半を占めます。
したがって、AIが理論上は“曖昧な状況の利得最大化”を行い得るとしても、実務や社会のリアルな場面では「人間が意思決定するしかない要素」がまだ相当数残るだろう、というのが現在多くの人が想定しているシナリオです。もちろん、今後の技術や制度の進化によっては、AIがこの領域にも深く入り込んでくる可能性はあります。しかし少なくとも、すべてが自動化されるまでは、人間の政治力・交渉力・価値判断が介在し続ける場面が多いだろうと考えられます。
まだ考えてないこと
社会構造が変化してAIへの信頼度が上がったら、この領域も小さくなるのでは?
AIが学習が難しい領域は、人間も学習=獲得機会が少ないはずだ
究極的には、人間にできて機械にできないことなんてどんどんなくなっていく
最終的には人間を煽って特定の目標に走らせるカリスマは残る
非倫理的な行動もAIはできない傾向にあるので(政府のOSとして選定されるようなLLMは特にこの傾向が強くなるはずだ)、人間の専業になるかもしれない
全ての生活に必要な仕事が機械化されたら、人間はベーシックインカムで暮らすことになり、好きなことをやることになる しかしこの時代は自分が死ぬまでには来ない。だからこれを前提にできない