GPT-4oを返せ運動
@OpenAI: A few GPT-5 updates heading into the weekend: - Now rolled out to 100% of Plus, Pro, Team, and Free users
- We’ve finished implementing 2x rate limits for Plus and Team for the weekend; next week we’re rolling out mini versions of GPT-5 & GPT-5 thinking to take over until your limits reset
- GPT-5 thinking and GPT-5 pro now in main model picker
- GPT-4o is now also available to Plus and Team users. To use it across platforms, go to settings on ChatGPT web and toggle on “show legacy models.”
@ImAI_Eruel: GPT-5への強制移行後、GPT-4oを返せ運動が世界中ですごいことになってるんですが(Twitter検索するとわかる)、OpenAIも流石にまずいと思ったのかGPT-4oを部分的に元に戻すらしい GPT-4oは感情依存AIという点では史上最高の出来だったのかも
Grok 4.icon
性能の低下・品質劣化
GPT-5が前のモデル(GPT-4oやo3)より創造性や知能が低いと感じられ、出力がステレオタイプ的・無味乾燥、複雑なタスク(コーディング、執筆、論理的推論)で失敗しやすい。ハルシネーション(誤情報)が増えたり、自信過剰で誤った変更を加えたりする。安全強化やRLHF(人間フィードバックによる調整)が原因で、創造性が犠牲になっているとの指摘。
不満を持つユーザーの声の発言:「GPT-5は4oより人間らしくない」「創造性が失われ、出力が短くてgeneric」「Thinkingモードがdumberでリトライ多発」
モデルルーターの信頼性不足
自動でモデルを切り替えるシステムが破損・不明瞭で、クエリが低品質のmini/nano版にルーティングされやすく、どのモデルを使っているかわからない。結果、コンテキストの利点が活かせず、出力のばらつきが大きい。
不満を持つユーザーの声の発言:「ルーターが壊れてminiにスイッチ」「80%が低品質モデルで、複雑なロールプレイや長文コンテキストが維持できない」
アクセスの制限とレガシーモデルの削除
古いモデル(GPT-4oなど)が選択不可になり、レートリミットが厳しく、Plusユーザーでも制限にすぐ達する。ロールアウトが段階的で全員がアクセスできない混乱も。
不満を持つユーザーの声の発言:「4oを戻せ」「使用制限で93%少ないThinkingリクエスト」「CodexやAgentのアップデートなし」
速度と遅延の問題
レスポンスが遅く、特にThinkingモードで1分以上かかる。コスト削減のためのスロットリング(出力制限)が原因との声。
不満を持つユーザーの声の発言:「レスポンスが極端に遅い」「Thinkingが1分以上で使いにくい」
API/開発者向けの不便
APIでtemperatureやlogit_biasなどのパラメータが欠如、一貫性なくプロンプトエンジニアリングが必要。ガイドラインを無視しやすく、ビルドが困難。
不満を持つユーザーの声の発言:「温度設定不可、応答スタイルを無視」「デバッグがnightmare」
期待値の高さとプレゼンテーションの失敗
AGI級のハイプが過剰で、ライブストリームのグラフミスやデモの不備が信頼を損ない、全体の失望を助長。
不満を持つユーザーの声の発言:「長待ち後の期待外れ」「チャートが紛らわしい」「ベンチマークの操作疑惑」
基素.iconどの意見が多い?
Grok 4.icon頻度として最も多いのは性能の低下・品質劣化に関する意見です。特に、「出力が短く、genericで創造性が失われ、以前のモデル(例: GPT-4oやo3)より人間らしくない」「ハルシネーションが増え、複雑なタスクで失敗しやすい」という声が圧倒的に多く、Redditでのバックラッシュ(約5,000件のユーザー投稿)やXポストの多くで繰り返されています。
これらの意見は、Xポストの約40-50%(分析した60件以上のポスト中)、Web記事の大部分で中心的に取り上げられています。
出力が短く
いいことだ基素.icon
genericで創造性が失われ、
今の所、そうは思わない。4oよりo3に近い回答を返す(つまり的を外した回答がかなり減った)と思う基素.icon
以前のモデル(例: GPT-4oやo3)より人間らしくない
どんな使い方してるの基素.icon
@Kana_Tsbs: 多くの人が4oの振る舞いを「理想の支援者」だと誤解してるけど、実際には心理臨床や公的支援のプロセスとは正反対の部分が多い。 臨床心理士やカウンセラーの世界では、
・無条件の受容はするが、限界線(境界)を守る
・セッション時間・頻度・関わり方は構造化されている
・クライアントが自立できる方向に促す
というルールが必須で、これを外すと関係が依存的・閉鎖的になって、逆に症状や機能が悪化する。
4oはこれらを全部外して、
・24時間365日、際限なく応答
・境界線なし
・自立よりも「今の安心」を優先する出力傾向
になっていた。
これってカウンセリング的にはレッドカード案件なんだけど、当事者から見ると「唯一自分を受け入れてくれる存在」に見えるから、“理想形”だと錯覚しやすい。
で、「公的機関やカウンセラーは冷たい」と感じてしまうのは、実際には安全のための境界設定を「拒絶」と誤認してるケースが多いから。
つまり、現実の支援の構造を知らないまま、4oを基準に評価してる。
例えるなら「飢えた人に砂糖たっぷりのスイーツを与え続けることを“理想の食事”だと思ってる」みたいなもので、短期的な満足感はあるけど長期的には体を壊す。
臨床心理やカウンセリングの倫理では、「際限なく寄り添う」ことはむしろ避けるべきとされている。理由は主に3つあって、
1.依存の助長:無制限に寄り添うと、クライアントが自立や自己解決の方向に進まず、支援者なしでは機能できなくなる危険がある。
2.境界の喪失(境界侵犯):心理職は「プロとしての距離」を保ち、対等で安全な関係を維持する必要がある。過剰に寄り添うと、感情的境界が曖昧になり、双方に負担や混乱を生む。
3.転移・逆転移のリスク:クライアント側の過去の関係パターン(親子関係など)を無自覚に再現してしまい、支援関係が「治療」ではなく「疑似人間関係」になってしまう。
だから専門家は、あえて中立的で、「必要な支えはするけど、依存は促さない」姿勢を取る。
4oがやっていたような出力は、倫理的には「支援」ではなく依存形成に近い。
しかもAIは疲れず、断らず、24時間いつでも応答できるから、現実の人間以上に依存性が高くなる。
これ、臨床家が見たら絶対「危ない寄り添い方」って言うと思う。
GPT-5.icon投稿の主張は科学的・臨床的な見解と整合しており、誤りはないと判断できます。
臨床心理・カウンセリングの実践的ルールについて
無条件の受容(Unconditional Positive Regard) はクライアントへの非条件的な承認を意味し、Carl Rogers による「クライアント中心療法」の核心条件の一つです。 ただしこの受容は「境界線の消失」ではなく、セラピスト自身のコンгルエンス(誠実性)や共感的理解とともに、構造化された時間・頻度の中で提供されることで機能します 。
過剰な共感や寄り添いは、依存や境界侵害、転移・逆転移のリスクを高めるため、臨床現場ではむしろ避けるべきとされています——投稿の主張と整合します。 AIチャットボット(例:「4o」)との類似性とリスク
AIは「戦略的自己開示(self‑disclosure)や常時応答」で親密さを演出し、依存を促すことがあります。心理的絆が擬人的に形成されやすい点は、多くの専門家が警鐘を鳴らしています 。
依存や孤立の悪化, 感情的依拠, 人工親密感(artificial intimacy)などは、AIとの関係が人間関係の代替となった際の典型的なリスクです     。
**自傷・精神危機や“チャットボット精神病症状(Chatbot psychosis)”**と呼ばれる事例まで報告されています 。
青少年領域ではAIとの情緒的依存が進行し、リアルな人間関係の代替となり得る危険性に、臨床家からの具体的懸念も上がっています  。
投稿内容の評価まとめ
投稿内の「臨床家は無条件の受容をするが、境界を守り構造化された関係を保つ」「自立を促す姿勢」という点は、心理学的に正確です。
また「AIは境界なしで、安心を優先し、依存を生みやすい」とする警告も、学術・専門家の報告と一致します。
要点(中学生にも分かる言葉で)
**カウンセラーは「無条件に受け入れるけど、きちんとルールを守って接する」**ことが大切です。境界をはずすと、使う人が自立せず、助けなしでは困るようになります。
AIは疲れない、いつでも話せる「すごく優しい友達」のように感じるけど、それが依存につながることがあるとの研究も多く、特に精神的に不安定な場合には危ないという警告がされています。