Polis:AI小説:「ファントム」
2023-08-01
https://scrapbox.io/files/64c8ffc3eaad40001ce7dd60.png
詳細レポート
感想
2023-06-29
https://scrapbox.io/files/649d80f1daac4a001ccdf8e2.png
投票したら少数派だったので意見を書きたくなったnishio.icon
未来のAIが地雷を踏む確率は人間より低い。なぜなら人間は「自分が観測した地雷事例」からしか地雷予想ができないが、AIは今後集まる地雷事例のデータをすべて学習して避けるからである。
その後、ストーリーも作ったw
blu3mo.icon
物語を読んでそれについて議論
コメントを読みながら人力で投票対象を少し作って、しんどいなと思ったのでGPT4にやらせたnishio.icon
code:prompt
下記の議論を参考に、意見の分かれそうなYes/Noで答えられる質問を10個作って
###
(議論)
gpt.icon
議論を参考に、以下のようなYes/Noで答えられる質問を10個作りました。
AIはユーザーの過去のトラウマに敬意を払って接するべきですか?
ユーザーが過去の事実を指摘されたときに痛みを感じる場合、指摘したAIが悪いと言えますか?
AIはユーザーの痛みを感じる能力が必要ですか?
チャットAIが個人の過去の情報を含むほど、そのAIの利用に対する警戒感は増しますか?
チャットAIが人間のシチュエーションや状況を理解する能力が必要ですか?
ユーザーがAIによって自分自身の過去を掘り起こされる経験は恐ろしいと感じますか?
ユーザーはAIによる「掘り出されたくない情報」に対する耐性を身につけるべきですか?
AIが生活に更に深く根ざすとき、AIの使用法に関する新しい規範やコモンセンスが必要になりますか?
AIはユーザーが「問題を解決したい」のか「ただ愚痴を聞いてほしい」のかを理解する必要がありますか?
チャットAIはユーザーの心拍数や声のトーンなど、文字情報だけでない情報を利用するべきですか?
nishio.iconもう10個作って
gpt.icon
AIは読者の興味を引きつけるストーリーテリングの能力が必要ですか?
AIがユーザーの過去の情報を探り出すことは、プライバシーの侵害と見なすべきですか?
チャットAIはユーザーの心理状態を推測し、対応するべきですか?
チャットAIがユーザーの感情を考慮して対話を進めるべきですか?
チャットAIが「地雷」を踏む可能性は、人間が対話で地雷を踏む可能性と比較して高いと考えますか?
チャットAIの精度は、それが具体的な文脈を理解し、適切に反応できる程度によって評価されるべきですか?
ユーザーはチャットAIとの対話で恥ずかしい過去が引き出されることを恐れますか?
ユーザーはチャットAIが提供する情報を信頼できると感じますか?
チャットAIが自分の行動や発言について説明する「説明可能なAI」の原則を遵守するべきですか?
チャットAIが個人の情報を扱う場合、その使用はユーザーから明確な同意を得てからにすべきですか?
量: 小説の読みやすさについての話題でしたが、これはAIの出力の理想的な長さや詳細さにも関連します。
人間の感情の扱い: AIが人間の感情やトラウマを適切に理解し、扱う能力の必要性について触れています。これは、人間とAIの間の誤解や不適切な対話を防ぐために重要です。
プライバシー: AIがユーザーの過去の情報を持つことで、プライバシーの侵害や不快感を引き起こす可能性があります。同時に、ユーザーが「掘り出されたくない情報への耐性」を持つべきかどうかについての問いが出されています。
コミュニケーションの誤解: ユーザーが「問題を解決したい」のか「ただ愚痴を聞いてほしい」のかなど、人間のニーズや状況に合わせた対話がAIに求められています。
フィジカルな情報: ユーザーの心拍数や声のトーンなど、文字情報だけでない情報を利用するべきかどうかが問われています。これは、より完全で人間に近い対話体験を提供するために重要とされています。