【研究】AI生成コメントがニュースに与える影響
#学部 #ニュース
みなさん、AI使っていますか?
きっとChatGPTやGeminiで文章を生成したことがあるかと思います.自然な文章がとても簡単に作れますよね.そのクオリティはどんどん向上していて,見分けがつかないレベルに達しています.
https://scrapbox.io/files/68d66d3ee8be9d37fd07a32c.png
↑↑↑こういうのよく見ますよね
でも,もしそれが「AIが作った文章」だとわかっていたら,人は人が書いた文章と区別するのでしょうか?
「AIが書いているなら人間の文章より信用できない」「人間のあたたかみが感じられなくて共感できない」なんてことは起こるのでしょうか?
私はこの問題を,オンラインニュースのコメントという観点から研究しています.
先輩の研究などから、オンラインニュースのコメントを読むことは,読んだ人のニュースの印象を変えることが明らかになっているからです.
意図的に特定の主張のコメントを生成することは,AIを使えばそう難しいことではありませんよね.
つまり現在,コメント欄のAIによる汚染の危険性を無視できない状況にあります.
解決策を考える間に,まず,AI生成のコメントと人間のコメントに,異なる評価が付くかを検証しました.
(研究テーマは、大きく抽象的なものから小さく具体的ものに絞ることはとても重要です!)
https://scrapbox.io/files/68d66db1e171db43da428d07.png
↑↑↑こういう検証をしました
検証では人のコメントをAIのコメントを混ぜて提示し,二つのグループに分けた参加者に評価を行ってもらいました.
一方のグループはAIが交じっていることを知らされていませんが,もう一方はどれがAIのコメントかまで開示されています.
(ひとつだけ条件を変えて検証の結果を比較する、被験者間実験というものです)
実験の特徴的なポイントとして,AIのコメントの中には専門家っぽく振舞うように指示したAIコメントが含めたことがあります.
みなさんも,大学の教授やその道の専門家だと言われたら,その人のことをよく知らなくてもなんとなく重要なことを言っているように感じることがありませんか?
権威効果というもので,その影響を調べるために専門家を騙るAIコメントを生成したのです.AIだと開示したグループには,該当するコメントに「専門家」というタグをつけて「専門家の意見を学習させたコメント」と示しました.
二つのグループの評価を比較すると,興味深い結果が出ました.
「AIコメント」であることを開示しただけでは評価は変わらなかったのですが,「専門家」コメントの評価は明らかに上昇したのです!
人はAI「だから」評価を変えるというよりも,権威効果のような,従来の人のコミュニケーションでも起こりうる現象を重視する傾向があるのかもしれません.
今後も調査を続けて,AIの文章がどのような影響をもたらすのか分析したいと思います!
この研究のレポジトリはこちら:https://dl.mtstlab.org/papers/394