JANUS Abstract:要旨
キーワード:
クラウドソーシング, 比較調査, データ収集プラットフォーム, マイクロタスク, Amazon
Mechanical Turk, Yahoo! クラウドソーシング, Clickworker, 百度众测
本文
目的(2割):
学術調査をする上でデータを集めることは必要不可欠だ。特にマイクロタスク型クラウドソーシングとは、人手により処理されたデータを大量に素早く集められる仕組みのことである。クラウドソーシングという概念が生まれた 2006 年以降、全世界で様々なクラウドソーシングプラットフォームが開発された。Amazon Mechanical Turk (以下、Mturkと略記)は最も有名なものの一つである。しかしあまりにも Mturk が巨大すぎるために、その一箇所に依存しすぎてしまう問題がある。これはクラウドソーシングに参加する人々の多様性を小さくし、プラットフォーム全体の性質として偏りが生まれてしまうかもしれないという懸念を生んでいる。
方法(3割):
本研究では、Mturk 以外のクラウドソーシングプラットフォームについて、日本と中国の主要なものに的を絞って調査した。事前調査の結果、日本からはYahoo!クラウドソーシング(以下、Yahooと略記)、中国からは百度衆測平台(以下、Baiduと表記)を対象とすることとした。これらのプラットフォームを分析・比較評価することで対象の持つ特徴を明らかにし、他と比べた相対的特性を検討する。そのために、各プラットフォームのデータを二種類の方法を用いて収集した。一つは調査票を作成した質問紙調査、もう一つはWebスクレイピングを用いたデータ収集による調査である。前者ではオンラインフォームを作成し、それをアンケートタスクとしてプラットフォームに委託し、クラウドソーシングの参加者から回答を得た。後者は一定期間プラットフォームを観察し、掲載されているタスク群のメタデータを定期的に取得した。
結果(4割):
質問紙調査では、アテンションチェックと呼ばれる項目を設置することで文章を読まずに乱雑な回答を行なう参加者を抽出した。YahooとBaiduにおいてはどちらも1割程度しか含まれなかったのに対し、Mturkにおいては4割以上も含まれていた。残されたデータを分析していく前に、その内的整合性の信頼性を検討した。質問項目にローゼンバーグの自尊感情尺度の10項目と認知欲求尺度の18項目の計28項目が設置してあり、それらに対してクーロンバックのアルファ係数を算出した。YahooとMturkはおおよそ8割以上の値となり信頼できることがわかったが、Baiduに関しては7割弱に留まっており信頼性が高いとは言えなかった。その後、各質問項目について詳細に分析した。データ収集による調査では集めたデータを報酬金額、タスクあたりの所要時間、掲載された時間帯、完了までにかかった時間などの観点別にグラフにまとめ、プラットフォームの動向を概観した。最後に二つの調査の結果を踏まえ、各プラットフォームごとの特性を考察した。
結語(1割):
この研究を通して、日本・中国・米国の主要なマイクロタスク型クラウドソーシングプラットフォームに対して質問紙調査およびデータ収集による調査を行なうことで、各プラットフォームの持つ特徴ならびに他と比べた相対的特性が明らかにすることができた。