両目で見えるものが違う時片目だけで見えるものは半透明に見える、心の中の画像
両目で見えるものが違う時片目だけで見えるものは半透明に見えるけどなんで両目で見えるものが違う時固有の知覚経験が生じるのではなく半透明なんだろう
複数のものが同じ位置に見えるとき半透明に見える…それはないか
(志向説的には、半透明の物体が存在するという誤知覚?)
片方を透明にできるなら両方を透明にできてほしいよね(?)
視覚経験ってビットマップみたいな画像なの
最終的には空間的位置関係に対応するとは限らない神経の発火なんだから、錐体細胞/錯体細胞とかから受け取った情報を処理して影を補正したり3D構造を読み取ったりする作業をビットマップの変形みたいにモデル化する必要はないと思うんだけど
しかし単に半透明なのではなく注意の向け方によって不透明度が変わったりもするので、ビットマップ説を補強しているようにも見える
場所ごとに対応するニューロンがあってビットマップみたいになってるのかもしれないな
線に反応する神経とかがあるみたいだからRGBの配列じゃなくて線の配列とか図形の配列とかのほうが近そうではあるけど
どっちの目から入力されても同じような部位が発火するが、なんか加算されることで半透明になるみたいな説明でどうか
そうだったら片目をつぶったら全部が半透明になってほしい。透明度が正規化されている?
よく知らないけど畳み込みニューラルネットワークとかでは縦横の情報を持っているみたいだからニューロンをn次元配列と考えていいのかもしれない
いや半分くらいつぶれば黒と合わさった半透明になるわ
加算説だったら両目で見たときは片目で見た時と比べ何かが2倍になっててもおかしくない
じゃあ逆に畳み込みニューラルネットワークじゃなくて全結合?ニューラルネットワークみたいだったら世界はどう見えるのか
人間が「猫だ」みたいな認識ができて適切な対応が取れるということだけであればRGB配列が意識されるというような措定は必要ないが人間が風景を模写できるという事実を説明する必要がある
錯視画像を誤って模写するというのを説明するにはどうしたらいいかを考えてモデル化するといいか?
視覚を処理する脳の部分が畳み込みじゃない普通のニューラルネットみたいだったら脳が視覚情報を処理する過程は以下↓のような"画像を画像に変換する"と言うふうに理解できるものではなく"画像をよく分からんベクトルに変換し、それをまたよく分からんベクトルに変換する"となっていたのではないか
" What we see, instead, is a three-dimensional scene, corrected for retinal defects, mended at the blind spot, "
"For instance, our visual system detects the presence of shadows in the image and removes them."
(この語りは脳内に画像的なものが存在する、ということを含意しているように見える)
風景模写を学習する時は以前の学習データを利用するのではなく最初から学習をやり直す?
それとも汎用的にいろいろな動作に対応するように学習すると自然と中間層が2次元や3次元の構造を持つようになるのか
熊が居るという視覚情報がただの「恐れ」という経験のみであり2次元や3次元の構造を持たないというように経験されることが想像できる
知覚が可塑性に乏しいことはセンスデータ説の一つのモチベーションを与えている