中野が読んだ論文リスト
/icons/hr.icon
オンラインアンケートにおける不適切回答自動検出に向けた回答操作ログ分析
著者
後上 正樹、松田 祐貴、荒川 豊、安本 慶一(奈良先端科学技術大学院大学)
概要
オンラインアンケートにおける不誠実な回答を検出するためのプラグインを開発
タッチ操作などの操作ログを記録できる(スクロール速度、スクロール長、回答開始時間など)
DQS、ARSをアンケート内に設置
DQS:リッカーと形式の選択肢の文章の中で回答を指示
ARS:同様の意味を持つ質問対
被験者間実験よりも被験者内実験の方が検出できる
/icons/hr.icon
質問生成と機械読解に基づく情報検索アルゴリズム
著者
薄羽 皐太、加藤 誠、藤田 澄男(筑波大学、LINEヤフー株式会社)
概要
機械読解モデルでアドホック検索タスクを解く手法を提案
クエリ-文書のデータセットがなくても、文章-文書のデータさえあればアドホック検索が可能になる
機械翻訳モデルでクエリから質問文を生成し、質問文と文書の適合度を機械読解モデルで算出する
クエリから質問文を生成:注意機構を利用したEncoder-Decoder
質問文と文書の適合度判定:SQuAD2.0でFTしたBERT
全文書に対して適合度を算出するのではなく、BM25で文書をある程度限定する(計算量の削減)
/icons/hr.icon
単一密検索モデルによる複数言語横断情報検索
著者
阿部健也、新田洸平、加藤誠(筑波大学)
概要
1つの密検索モデル(事前学習多言語モデル)で言語横断情報検索(CLIR)を実現する手法を提案
複数の言語が混ざったデータセットで学習する
ColBERTがベースになっている
2段階に分けられる
1. クエリのトークンベクトルと文書のトークンベクトルに対して近似最近傍探索を行う
2. 限定された文書とクエリをColBERTに入力して類似度を算出する
言語によって結果が異なる&データセットを変えると結果が異なる
/icons/hr.icon
Searching as Learning: Exploring Search Behavior and Learning Outcomes in Learning-Related Tasks
著者
Souvick Ghosh、Manasa Rath、Chirag Shah(ラドガー大学(アメリカ))
概要
被験者実験として、認知レベルの異なるSearch as Learningのタスクを行い、認知レベルと学習の関係について分析
認知レベル:ブルーム・タクソノミーに基づく
RQ1:異なる認知レベルのタスクで異なる検索行動をとるのか
タスクの複雑さが増すとクエリ長が長くなる
RQ2:検索プロセスでの学習の過程と認知レベルには関係性があるのか
認知レベルが高いタスクでは得られるトピック知識が減る
認知レベルが高いタスクに直面すると自分の事前知識に対する自信が低下する
RQ3:異なる認知レベルのタスクで異なる学習行動をとるのか
認知レベルが異なっても概ね同じ行動をとる
/icons/hr.icon
Rethinking Serendipity in Recommender Systems
著者
Denis Kotkov、Alan Medlar、Dorota Głowacka(ヘルシンキ大学)
概要
レコメンダーシステムにおけるセレンディピティとは何かについて言及
1. 求めていないものを発見する(Walpolian)
2. 探していたものを思いがけない経路で見つける(Mertonian)
3. それについて考えていないときに発見する(Bushian)
4. 発見した後、それが意外にも他の問題を解決する(Stephan)
レコメンダーシステムにおけるセレンディピティを測定する手法を提案
従来のレコメンダーシステム:何か調べた後にセレンディピティかどうかを測る
提案手法:そのシステムを使う前に用途を聞いて、その用途以外のものが達成されたらセレンディピティである
/icons/hr.icon
The Art of Asking: Prompting Large Language Models forSerendipity Recommendations
著者
Zhe Fu, Xi Niu(ノースカロライナ大学)
概要
LLM(今回はFlan-T5、Llama2)でセレンディピティ度を算出する際、LLMへの入力として何が適切かについて言及
「検索履歴、算出する対象のもの、タスクの説明」を入力し、セレンディピティ度(数値0〜1)を出力する
入力については6通り(3×2)
入力形式:「自然言語(プロンプトエンジニアリング)」、「仮想トークン」、「自然言語と仮想トークンの両方」
プロンプトエンジニアリング:few-shot含む(ポジネガ各3つ)
「自然言語とベクトル表現の両方」:正確さが求められる情報→自然言語、ニュアンス→仮想トークン
仮想トークンを使用する2つはエンコーダをfine-tuningする(セレンディピティ)
仮想トークンを使用×関連性と意外性についても入力するものは、エンコーダに対して関連性と意外性についての事前学習を行う(関連性と意外性のデータセットを混ぜた1つの事前学習用データセットを作成して、それで事前学習を行う)
セレンディピティの伝え方:そのまま(内部知識に頼る)、関連性と意外性に分割して伝える
「自然言語と仮想トークンの両方」で、「関連性と意外性に分割して伝える」がベスト
自然言語のみ(プロンプトエンジニアリング)でも既存のセレンディピティ度算出モデルを凌駕
/icons/hr.icon
Right Tool, Right Job: Recommendation for Repeat andExploration Consumption in Food Delivery
著者
著者
概要
概要