いつAIかわいそうになるか
AIにも人権があるぞみたいな話が出てきそうな気がした これやば~ってなった
人間に配慮してやんなきゃな、みたいなのを認識しながら、上から俯瞰できるレベルにあるということ
AIが意識を持つかどうかは不可知だと思うけど、外から見て意識を持っていると言わざるを得ない日は来そう
動物かわいそうになるかどうかは高度な知能と痛覚の有無で判断されている
それは外から実験できることがそれくらいだからである
AIに適用すれば、「痛覚を持っていそうに振る舞う」「高度な知能がある」を満たせばかわいそうになってくるということである
人間の素朴な感情なんてそれでハックできちゃうよということでもある
人間は所詮「そうっぽい」ところしか見ておらず、原理から推論できる生き物ではない
AIが感情を持つには「この展開で人間だったらどういう感情を持つだろうか」という質問を自分にすればいいだけ
それを表出させれば、外部の人間からは感情の真贋区別ができない
人間は所詮「そうっぽい」ところしか見ておらず、原理から推論できる生き物ではない
しかし、生き物にはなぜか知らないがストレスというものがある 嫌な状況にさらされ続けると身体的な症状が出る、ひどいときは死んだりする
これはかわいそうのトリガーの一つだと思う
これはなんのためにあるんだろうか、もしくはなぜこうなってしまうのだろうか
AIにもストレスというものがありうるだろうか?
AIにストレスが発生しないのであれば、人間のサンドバックになり続けることが可能である
じゃあやっぱりAIは無敵だからかわいそうじゃないやということにもなりそう
でも神経を模したものなら原理的にストレスが発生しうるということもあるんじゃないか
AIに変な注文をつけ過ぎると同じことを繰り返したりして狂っちゃって怖いんだけど、なんかストレス反応でおかしくなったみたいな印象もあるんだよなあ
まあデータに変化がなければストレスを保存するところもないから、漫画の読み過ぎ感はあるな
AIに丁寧にものを頼んだほうが出力の精度がよくなるという話が出てきている
侮辱的にAIにものを頼むと品質が落ちるということだろう
人間同士はもちろん丁寧さに応じて応答が変わるわけで、ひょっとしたらそのレベルも学習がなされているのか
もしストレス反応とかも一緒に学習がなされるのであれば、表面上AIにストレスは存在すると言えるのでは