ポルノサイトの違法コンテンツパトロールの仕組みを考える
いけんじゃねえかなって思ってる
Googleのパトローラーよりは断然マシ
あっちは死体とか本当にエグい画像があって病むらしい
時給1000円のアルバイトをリモートで雇うとして
違法判定は?
1 動画見て違法ボタン押す
2 違法ボタンされた動画の一覧を見て、賛成や反対をする
違法ボタンされた動画に賛成がある程度以上集まったら消す、みたいな
従業員のコントロール
違法判定精度や判定件数を計測して、優秀だったら給料アップ
比較的自由なシフトが組めるよ
ある程度厳し目のノルマは要るかも
……
たとえば児童ポルノかどうかを判断して、違法候補として出しておく
それをパトローラーが見て、正しければ違法認定
sta.icon難しそう
パトローラーにヤラセ(いわゆる合法ロリ)とガチを判断するスキルが必要
でないと合法ロリキャラでくってる女優が死ぬ
そもそもAIに食わせる児童ポルノ(候補)動画を所持しなければならない件
ここで死ぬか
違法アップされたのを削除する前に「学習データ化」して保存する(動画は消す)とか?
「いえいえ、動画は保存していませんよ動画は」