「責任を取る」か否かではなくて、そのリスクを受けられるかみたいな話、バランスする
public.icon
たいていのパラメータはバランスするとか「判断」と「決断」の違いとかも近い
そのリスクを受け入れられる場所に立っている時点で責任を取っている
賭けたい未来を選ぼう
たいていのパラメータはバランスするを前提としているなら、即死系の判断はできない
AかBか、で判断 or 決断することになっていて、どちらかを選ばないと死ぬならどっちでもいい
いい意味で意思決定の必要がない
意思決定ではないけど)判断が必要=リスクの可視化
意思決定をしない(できない)という意思決定
やり直せる失敗は失敗ではない
被害をこうむれる時点で責任を取っている
「責任という虚構」は構造によって責任をいい感じにできるっていう本
物理的にむり
やりなおせる失敗は、失敗ではない|深津 貴之 (fladdict)|note
つまり、AIは責任を取れないとも近い?