Preference by Association: How Memory Mechanisms in the Hippocampus Bias Decisions|Science(2012)
G. Elliott Wimmer, Daphna Shohamy
DOI: https://doi.org/10.1126/science.1223252
感覚性先行条件づけ(sensory preconditioning)
海馬(hippocampus)
連合学習(Associative learning)
意思決定(decision making)
fMRI
unconscious bias
Retrospective integration
我々は過去にいい結果になった選択を再び選ぶようになる
これは主に線条体(Striatum)における報酬学習(reward learning)
一方で、今までに経験したことのない選択を迫られる場面は多々ある
初めての場面にもかかわらず、つまりどの選択肢がいい結果になるかは不明
この時別に選択肢自身を知っていても良いが、直接報酬と結びついていない
この状況においても選択にバイアスが存在する
報酬と結びついていないなら、ランダムに選ばれそうだがそうではない。
仮説:海馬が報酬と結びついたことのないアイテムと報酬の情報を結びつける
1. 線条体(Striatum)における報酬学習(reward learning)
2. 海馬(hippocampus)における記憶されたアイテムの価値推論
海馬(hippocampus)の役割:
1. イベントやアイテム間のつながりを形成する
Memory Encoding
2. 連想記憶
アイテムに再び遭遇した時に関連したアイテムを呼び起こす
これと同様に、海馬は新たな報酬の経験を介して、過去に報酬と結びついていなかったアイテムの価値を変化させる?
手順:
1. 画像 AとBをペア学習(報酬なし)
2. 画像Bの一部と報酬を結びつける
3. A同士から選択(A自体は報酬と直接結びついていない)
線条体(Striatum)での報酬学習のみであれば、Aは報酬と結びつかない
つまりAの画像はランダムに選ばれるはず
海馬(hippocampus)も報酬時に駆動されていれば、Aは報酬と結びつく
報酬と結びついてるBとペアになってるAが選ばれやすいはず
被験者内および被験者間でばらつきがあったものの、
被験者内では報酬と結びついてるBとペアのAに選択がバイアスされた
意思決定バイアスの強さは、報酬学習中の海馬の活動増加と、海馬と線条体の機能的結合の強さによって予測された
この関係はA→Bの連合を明示的に思い出せない場合でも見られた
予測:
1. 連想記憶の働きが価値判断の変化の基盤になっているならば
報酬学習中の海馬の活動から意思決定のバイアスの大きさが予測できる
2. 再活性化された連想に対して価値が転送される仕組みだとしたら、
報酬学習中にS1刺激を表現している視覚野の神経活動が再活性化される
3. もし意思決定のバイアスが海馬と線条体の相互作用で生じているならば、
意思決定バイアスの大きさは、海馬と線条体の機能的結合(functional connectivity)の強さと関連している
この3つが実験で確認された
面白いことに、この実験後にS1-S2ペアを覚えているかをテストしたところ、ほとんど覚えていなかった
つまり、このプロセスは大部分無意識(Unconcious)に行われている可能性
海馬は自動的な価値推論システムとしても働いている?
Naa_tsure.icon宣言的記憶(Declarative memory)のみと捉えるのは良くなさそう