ChatGPTは偽りの情報をあたかも本当かのように出力する
@sasakitakanori: え!?ちょっと待って!!さっき ChatGPT に教えてもらった先行研究の論文、全部存在しない架空の論文だったんだけど!あと詳しく紹介してくれた AGORA なるオープンコードも存在しない!置いてある場所を聞いたら架空の GitHub のリンクを送ってきました。一体全体どういうこと... 存在しない論文、GitHubのリンクすらも生成する
@Yh_Taguchi: ChatGPTは基本、「アウトプットが正しいかどうか判断できる」人しか使えない。ということは専門家はますます楽が出来て、専門家じゃない人との格差が拡大する。AIっていうのは本当は専門知を誰もが簡単に使えるようにして格差の縮小に働くことが期待されていたがChatGPTは真逆に働いている。 専門家じゃない人ほど、嘘アウトプットに騙されてマイナスの勉強をしてしまう
むしろ、情報格差の拡大に働いてしまう恐れ
@TJO_datasci: ChatGPTに限らず人類は「どれほどの嘘っぱちでもそれっぽく取り繕って流暢かつ自信たっぷりに言い切れば結構な割合の人々が信じてしまう」(それは陰謀論の受容過程でもある)のだけど、これは「会話AIに悪意ある人間が手動で嘘知識を混ぜておけば陰謀論を簡単に広められる」ということでもあるわけだ