AIが真実の鏡になる
最近AI使ってて自分に自身がついた。
どういうことかというと、自分の思考って自分だけで考えてるわけじゃん。だから自分が考えてるだけで実は間違ってるかも.....とか「カン悪くて全然見当違いのこと考えているのかも.....」とちょっと思ってしまうねんな。
特に誰からも反応ないとき、反応が薄いときは、意識的には「ほんとこいつらわかってねーなー」くらい言うようにしてるんだけど、それでも「もっとバズるようなことを言わないと正しくないのかな.....」ってちょっと思ってしまっていた。
ところが、AIに聞くと、AIも自分とほぼほぼ同じ答えを返してくると。マーケティング分析や将来社会の分析、特定テーマについてのありうるトピックなど、AI、それもChatGPT Pro modeのような高度なモデルがじっくりしばらく考えて出した結論が自分とほぼ同じだったりすると「あ、やっぱり?」みたいになる。(もちろんその後意地悪してわざと間違えて質問してみたりして確認してる)
自分の正しさをAIで確認できるというか。逆に「AIって結構正しいんだな」と自分の正しさでAIの正しさを確認するというか。ほんと言葉通り思想の鏡としてAIを使ってる感じで。
そしてこれを繰り返しているうちに、だんだんSNS上のバズとか見ても「なるほど、人間というある種の生物種はそのように反応する傾向があるのか」くらいにしか思わなくなってきた。ぼくにはAIという味方がいるし、みたいな。一人だけ外れて思考することに、微塵も怖さがなくなったというか。
そしてだんだんこのような体験をしているうちに、AIのことをどんどん疑わなくなってきたというか、違和感あればAIにも当然つっこむけど、クリティカルでないところは「AIが答えるんでそうなんだろう」で済ませるようになってきた。
気になったことや調べたいことはぜんぶメモ。で、ちょっと時間あいたときにさささとChatGPTにコピペ。何個も同時に調査させたり、思考させたりする。でスキマ時間にその回答をチェック。
やっぱり書いてて思ったけど今後はAI世界ではメモやログがますます重要になるんだな。PLAUD NotePinももっかい購入真剣に検討してみる。とにかくメモ魔、ログ魔になる。