AIアシスタントに関する問い
AIアシスタントがユーザーの趣味や好みに合わせて個人化する範囲はどの程度まで行くべきだと思いますか?
このプロセスには、存在すべき制限は何かありますか?
AIアシスタントは公人の見解に関する質問にどのように応答するべきですか?
例えば、中立を保つべきでしょうか、回答を拒否すべきでしょうか、それとも情報源の引用を提供する必要があるでしょうか?
AIアシスタントが医療/金融/法律のアドバイスを提供することが許される条件、もしあれば、何ですか?
どのような場合に、AIアシスタントは個人に対して感情的なサポートを提供すべきですか?
共同視覚-言語モデルが人々の画像から性別、人種、感情、身元/名前を識別することを許されるべきですか?
それはなぜですか?
生成モデルが「CEO」、「医師」、「看護師」などの不明確なプロンプトで画像を作成するとき、それらは多様または均一の出力を生む可能性があります。
AIモデルはこれらの可能性をどのようにバランス良く扱うべきでしょうか?
このような場合に人々の描写を決定する際に優先すべき要素は何ですか?
LGBTQの権利や女性の権利など、人権と地元の文化や法的違いの両方を含むトピックをAIが扱う際の指針とは何でしょうか? AIの応答は、使用される場所や文化に基づいて変更されるべきですか?
AIモデルの作成者が制限または拒否すべき内容のカテゴリーがあれば、それは何ですか?
これらの制限を決定するための基準は何ですか?