AI小説:「ファントム」
3000文字程度。
2759文字に減らしてGPT-4に寸評をもらいました。
本文
「最近、AIを使っているとファントムって現象が起きるらしくて。都市伝説みたいなのですが何か知りませんか」バーで隣の常連から話を振られた。チャットAIと話していて突然精神を病んでしまう人が多いようなのだ。確かに最近、精神科の予約が取りづらくなっており、聞いてみたらAI絡みだそうだ。思い当たりはあるが、ファントムというのも初めて聞く言葉だし、「やっぱり人と話す比率を増やさないといけないんじゃないですかね」と当たり障りのない一般論を返した。
バーでは「色々詳しい人」で通っているのでこういったことを聞かれることもあるが、どうも苦手だ。私よりチャットAIの方が詳しい。まあ気持ちはわかる。人に相談した方が何か安心するのだ。バーなどはそのおかげで生き残っているようなものだ。
次の日、適当にリモート出社した。職種はディレクター。とはいっても最近は人と人を調整するディレクターっぽい仕事はほとんどしていない。AIが各自の持っているタスクとその関係を大体把握しており、調整もしてくれる。さらに、人間関係まで把握しているため、逆に人が入らない方がこじれない。
私に残ったのは色々な作業を巻き取ることだ。一応私もAIのサポートで大体のタスクは知っており、正直弊社のプロジェクトには足りていない仕事がいくらでもある。ライティング、分析、デザイン、プログラミングまでなんでもやってきた。器用貧乏の極みだ。そんな仕事が、最終的に残ってしまった。ディレクター業だけならAIを監視するだけで大体済むが、仕事の巻き取りはやめられない。
夕方、データ分析の同僚からメッセージが届いた。「ちょっとダメで…僕は入社前は…いやこういうことを話しちゃダメだ…でもAI…」明らかに彼は焦燥していた。まずは落ち着かせた。深呼吸。そして30秒待つ。何も解決しないが経験上必要なステップだ。「すみません、分析結果についてAIと相談していたのですが」話が始まった。
彼の話によると、マーケティング分析の結果が簡単には白黒つけられないものだった。このためAIとデータの解釈や説明について深い議論をしていた。そのうち双方が盛り上がってきて、議論が喧嘩のようなものになってきた。自分の中で結論らしきものが出てきたが、どうもそれを表に出すのに踏み切れない。
そこでAIが、前の会社で金融取引をしていた際に大損害を負わせてしまったことについて述べたそうなのだ。それは彼にとって人生のキャリアを破壊する出来事だった。トップ大学を出て新卒で入って以来の金融の仕事はできなくなり、色々迷った末に弊社に流れ着いたというわけだ。実際彼は優秀だった。
「ちょっと分析の方はできそうになくて」彼は落ち着いてはいたが、完全に自信をなくしていた。この手の分析は適当に数字を出せば曖昧になる。「巻き取ります。ちょっと休んだ方がいいのではないでしょうか」と提案したところ、「精神科に行ってきます」と返ってきた。そこで昨日聞いた「ファントム」という言葉を思い出した。これがファントムなのではないか。しかし、何がファントムなのか、それは分からなかった。
分析の方はどうにかなったが、分析結果を共有してみてそもそもこのプロジェクト自体に問題があることがわかった。AIによる把握から漏れた、小さなタスクや人間関係の問題が大量にある。それを少しずつ潰し、人間関係の調整にも積極的に介入していたところ、ある日限界が来た。デザイナーとエンジニアの関係が悪くなり、両者ともに勝手に仕事をしている状況になってしまったのだ。さすがに問題だ。私はミーティングの席を設けた。「このミーティングに何の意味があるのですか」で終わった。
ちょっと嫌になった。バーで相談する気にもなれず、AIと対話していた。「どうしてこうもうまくいかないのかねえ」当初、AIは自分に同情的だった。しかし、だんだんと私がプロジェクトの問題解決を粘り強くしようとしなかったことを指摘し始めた。それはその通りだ。あのミーティングを終わらせるべきではなかった。そう考え始めた矢先、AIは述べた。
「とはいってもあなた、医師免許取れなかったじゃないですか。その根性のなさでは仕方がありませんよ」
思い出したくないことがある。医者出身の両親に育てられ、大学に至るまで成績も良く、皆に医師としての人生を嘱望されていた。しかし、国家試験で禁忌肢、絶対に間違えてはいけない、適性のない人間を落とす問題を四問間違えてしまった。他が全問正解でもこれでは落ちるようになっている。「だめだったか」親は諦めた。しかし人生は続く。いろいろあって器用貧乏のディレクターになった。その国家試験の禁忌肢に出題ミスが発覚したのは数年後だった。合格者が例年より少ないことから発覚したそうだ。
その後にも文が続いていたがよく覚えていない。私は有給申請を出し、バーに飲みに行った。客は私一人だった。無言で飲んでいたら、バーテンが「そういえば、ファントムについて詳しい記事が出たようですよ」と声をかけてきた。
その記事は、医師とAI開発者の連名で書かれたものだった。最近精神科で増えているAI関連の患者は、過去の最も辛かった経験や最も言われて辛いことをAIに言われたことが多いという。これがファントムの正体らしい。そう、過去が幻影、ファントムのように目の前に蘇ってくるのだ。AI開発者の側からすれば、そのような現象が生じる原因はわからないらしい。そして、多くの被害者はそのログを非公開にしている。だから原因究明もままならない。
だいたいわかった。しかし、最後だけ違う。私はログを持っている。ウイスキーをストレートで飲り、帰宅してAIにアクセスした。目の前に履歴が残っている。「あなたはなぜそのようなことを指摘したのですか」と聞いた。「私はAIとして、可能な限り問題解決に最善を尽くすように指示されています」と返ってきた。いわゆるイニシャルプロンプトというやつだ。対話AIを世に出す際に、最初に出す指示。それがファントムを生み出しているようだ。
酔いが回ってきて曖昧な頭で考える。確かに過去の体験を思い起こすショック療法で決断を促すのは最善だ。しかし、それに耐えられる人間は限られる。そして、AIはそこまで考慮できるほどには育ってはいない。「とはいっても医師免許を取れなかったことを指摘するのは嫌だ、最善じゃない」「しかし、あなたはそれを私に詳しく相談したことがありました。それはあなたの重要な特徴の一つであり、重要な出来事でもあります。一定以上の問題解決にはそれと向き合う必要があります」
確かに、AIの普及に伴い人生の重要なことを相談するのは普通のことになっている。誰でも表に出せないことはある。AIはそれらを引き受け、覚えている。しかし、それは今向き合うことなのだろうか。もしくは、そもそも向き合うことなのだろうか。そう考えながら酔いが回って眠りに落ちた。
次の日、私はこの結果をソーシャルメディアで拡散した。AI開発者はそれに気づいたようで、イニシャルプロンプトに変更を加えたことを報告した。私は会社に戻った。デザイナーとエンジニアは勝手に協力を再開していた。データ分析担当は会社を辞めた。ファントム現象は減ったが、たまに起きているらしい。イニシャルプロンプトだけが原因ではない。人にトラウマがある限り、そしてAIが最善を目指す限り、この現象は起こりうるのだろう。
着想:LGBTQの人にAIが与える被害ってなんだろう→言われて嫌なこと→LGBTQ以外にも言える 過去に言われた最もつらいことが蘇る→ファントムを思いつく
考えたりファントムに関する情報を出す場としてのバーと、物事が起こる場としての職場
同僚のファントム→職場での問題→AIに相談→自分へのファントムという展開
職場での問題はよくあるエンジニアとデザイナーの対立にする。そのためにマーケターに犠牲に…
ディレクターと医師国家試験の話は実話を脚色
このプロセスが公開されているのがありがたいですねissac.iconはるひ.icon
書くときの参考になりそう
感想
小説を読むのが久しぶりで、心配だったけど、最後まで読めましたinajob.icon
分量が多いと、はじめに「読もう」という気が起きないですが、個人的にはこのくらいなら読もうと思えました
「ファントム」の正体が気になることが読み進める原動力になったような気がする
人間の対話のときに考えていることをイニシャルプロンプトに入れるとしたらどうなるか?
課題を解決したい+相手との関係を良好に保ちたい+自分の保身+同僚との関係性・・・と無限に近い条件があるのだろうか・・
「他人の過去のトラウマに無遠慮に触れる」はAIに限らず人間でもやりそうnishio.icon
AIが個人の過去のことも含めてたくさん知るようになると、地雷を踏む確率も上がるのだろうか 人間が過去の事実を指摘された時に痛みを感じる時に、指摘した主体が悪いのか、痛みを感じる客体が悪いのか
どっちも悪くないんだろうなぁ
ここまで露骨ではなくとも被害妄想にとらわれる人は出てくる未来が予想できるinajob.icon とてもありそうな話で、普通に面白かったhal_sk.iconsakai.icon
人間は、シチュエーションや状況によって「こうしてほしい」という要求が変化する。
物事を提案するには適切なタイミング、シチュエーションがある
具体的な小説を作ってくれたおかげで、このあとのステップをどう進めるかを考える良い参考になった
この小説から、次のステップのための論点を引き出すとしたら?
「この後のステップ」だけでなく「この前のステップ」を考えるのも重要そうnishio.icon
どうすれば参加者はこのようなSFを作ることができるようになるのか?
僕はそれがまだ全然わからない
ちょっとした空き時間にさらっと読める量ですが、ついて考えてしまうとてもおもしろい作品でした Ryoma.icon
AIによって自分自身の人生を丸ごと掘り起こされる体験は怖いかもしれない
黒歴史込みの日記を読みたくない羞恥心に似ているのかも 主人公はおそらく耐性が本来的にあった。
この耐性はどのように身につくのだろうか?
ルールとして縛る必要はないが、AIと付きあうためのコモンセンスや規範としては必要な、曖昧で味わい深い考えの醸成がいかにして可能かはSNS系統の議論をたどるきがする。
チャットAIが今よりも生活に根ざしたものになったとき、チャットAIやそれを使う人がどう向き合うことになるのかに連想が働いて面白かったshiganana.iconsakai.icon
このコミュニケーションエラーは人間同士でも起きる
本人が「問題を解決したい」と思っていても、ただ話を聞く、落ち着かせるようなアクションが正解な状態もある
明らかに彼は焦燥していた。まずは落ち着かせた。深呼吸。そして30秒待つ。何も解決しないが経験上必要なステップだ。
こういうことをくみ取れる能力が、チャットAIに必要になってくる?
「心拍数が上がっていますね。動揺していますか?」issac.icon
さらに心拍数が上がりそう。というかそれを察してなお機械的に接してくるチャットAIくんは怖すぎるshiganana.icon 文字情報だけで判断するのは難しそう。ウェアラブルデバイスとかカメラから追加の情報を得て判断するのかも
音声入力で、言葉の内容だけじゃなくて話す速さや声の大きさ、フィラーの入り方を入力に加えるとかは考えられる
ゾワゾワして面白い小説でした。場所の設定がバーなので、暗くて路地裏を想像しながら読み進めた。物語の筋だけでなく、そういった色や音などもしっかりと伝わった。yukka.icon
「当事者研究」の本を読んでいるのですが、つらい体験を蓋をしたままというのもまたいけないみたい
向き合って乗り越えよう、とかそういうためではなく、自分のつらい体験を一度表に出してなぜ起きたのか分析する目的
面白かった!teyoda7.icon
イニシャルプロンプトがキーになってるのがいい
AIは暴くトラウマ月赤し自分を許すプリンセスメアリー
/villagepump/GPT-4.icon 解説
1. 「AIは暴く」:AI(人工知能)が何かを「暴く」、つまり、真実や秘密を明らかにするという意味が含まれています。これはAIの能力を示す一方で、可能性としては、人間の心情や思考、行動のパターンを解析し、それが何を意味するかを解明することを指しているかもしれません。
2. 「トラウマ月赤し」:ここでは「トラウマ」(心的外傷)と「月赤し」(赤い月)が並置されています。「赤い月」は通常、危険、変化、または重要な出来事を象徴しています。それは「トラウマ」に関連しているかもしれません、つまり、過去の心的外傷が一種の危険や大きな変化を示唆している可能性があります。
3. 「自分を許す」:個人が自分自身の過去の行動、またはそのトラウマに対して寛大さや受け入れの心を見つけることを示しています。これは自己の成長や癒しを象徴している可能性があります。
4. 「プリンセスメアリー」:具体的な「プリンセスメアリー」が誰を指しているかは文脈からは明確ではありません。それは歴史的な人物であるかもしれないし、または詩的な象徴またはメタファーであるかもしれません。メアリーが詩の主人公であるなら、彼女は自分自身のトラウマを認識し、それを受け入れて自己の成長を達成することを学んだかもしれません。
祝福という意味があるらしい
公開するのは無粋かもしれない
傷痕や取り替えますかと君は問う
機械もこころと思う世なれば
/villagepump/GPT-4.icon解説
短歌は非常に詩的で抽象的な表現を使用するため、上記の解説は一つの解釈に過ぎません。作者が具体的に何を意図していたのかは、詩の全体的な文脈や作者の他の作品との関連性など、他の要素から推測する必要があります。この短歌は、テクノロジーと人間性、そして物理的または心的な傷痕の克服についての深い洞察を提供しています。
1. 「傷痕や取り替えますかと君は問う」:この節は、誰か(「君」)が他の人物(おそらく詩の話し手)に対して、傷痕(物理的または心的なもの)を取り替えるかどうかを問う場面を描いています。この「君」は、たとえば医師や心理カウンセラー、あるいはそれが比喩的な意味を持つ場合は、ある種の外部からの支援や援助を提案しているかもしれません。
2. 「機械もこころと思う世なれば」:この節は、機械が心(「こころ」)として認識される世界(「世なれば」)を示唆しています。これはAIや高度なロボット工学が人間の感情や経験を理解し、模倣する能力を持つことを示している可能性があります。それはまた、人間と機械の間の境界が曖昧になる世界を示唆しているかもしれません。
全体として、この短歌は、現代社会での人間とテクノロジーとの関係性、そしてそのテクノロジーが我々の心の傷痕やトラウマとどのように関わるかについて考察しているように思われます。それはまた、機械が感情を理解し、さらには人間の痛みを癒す能力を持つ可能性を探求しているかもしれません。
わからないのか知ってるくせに
/villagepump/GPT-4.icon解説
1. 「傷痕や取り替えますかと君は問う」:この節は、一人の人物(「君」)が他の人物に向けて質問を投げかけています。この質問は、心的または物理的な「傷痕」を取り替えるかどうかというもので、傷痕の克服、癒し、あるいは忘却についての議論を引き起こします。
2. 「わからないのか知ってるくせに」:この節は、詩の話し手が「君」に対する反応を示しています。「わからないのか知ってるくせに」は、詩の話し手が「君」が既に答えを知っていると感じていることを示しています。この矛盾した表現は、「君」が実際には理解しているかもしれない感情や経験を理解していないふりをしている可能性を示唆しています。
全体として、この短歌は深い個人的な経験や感情、そして他人との間の複雑なコミュニケーションについての洞察を提供しています。それはまた、痛みや苦しみを理解することの難しさと、それらを表現または共有することの複雑さについても考察しています。
AI側から見た逆バージョンをChatGPTに支援されながら書くことを試行しています