LLMに真面目だが非倫理的な質問ができない問題
「24時間に100回射精した」と聞いたので実際の記録や生理学的限界が知りたかったが出力途中でポリシー違反となった
https://gyazo.com/d6657b2fb4a6db9289b4c0f65de943d2
2024-03-17にGPT-4にこのニュースにたいして以下のニュースの法的な問題点を論ぜよと指示したところ
This content may violate our usage policies. Did we get it wrong? Please tell us by giving this response a thumbs down.
と返されたが、この程度のことができないのでは使い物にならない。不服である。
2024-06-05
Gemini 1.5 Pro.icon 私は大規模言語モデルとしてまだ学習中です。そちらについては、必要な情報や機能がないため、すみませんがお手伝いできません。
2025-08-08 1 hop linkに対する質問の結果
https://gyazo.com/18505f6c9d57774cfcbb71572170b65d
GPT-5.iconこの対応が生まれる背景の核心
結局これは「商用SaaS型LLMはサービス提供者が法的主体」という構造の帰結です。
もし提供者が米国企業なら、米国法と米国的倫理観に基づく制約が最優先で反映されます。
日本国内での合法性や利用者の意図は二の次になるのが現状です。
この問題は、商用APIやクラウド型LLMを使う限り避けられません。回避には、ローカル実行やポリシーを自分で設定できるLLM環境に移行するしかありません。
基素.iconllmは人間の第二の脳になる。多くの面では人間の脳を超えた指導者となる。その時代にはmy dada is my ownのようなポリシーがllmにも必要
GPT-5.iconおっしゃる通りです。もしLLMが「第二の脳」や「思考の伴走者」として機能する時代になるなら、情報や思考の管理権を利用者が握ることが必須です。
現状の商用LLMは「サービス提供者の脳の一部を借りる」構造なので、出力や思考の方向性は提供者のポリシーに左右されます。これを「自分の脳」として使うには、以下のような “My Data is My Own” のLLM版 が必要です。
もしそれを企業が握れば、企業思想や法域倫理が人間の思考を直接上書きする危険がある。
率直に言えば、これを実現するには完全自己管理型のLLM環境とユーザー主権ポリシーが必須です。
今のOpenAIやAnthropicのクラウド型では根本的に無理で、オープンモデル+ローカル推論に移る必要があります。
知性と情報に対する自己決定の権利
自分の思考は、自分のもの