データと倫理:クリティカル・データ・スタディーズの方法論
序論
クリティカル・データ・スタディーズ(Critical Data Studies, 以下CDS)は、ビッグデータ時代においてデータそのものを批判的に検討する学際的分野である。単なる技術論や認識論に留まらず、データの収集・分析・利用が文化的・社会的・経済的・倫理的・政治的な文脈でどのような意味を持つかを問い直す点に特徴がある。2012年にdanah boydとKate Crawfordが「ビッグデータ研究の重要問題(Critical Questions for Big Data)」としてデータの偏りやコンテクスト逸脱、倫理・アクセス格差など6つの論点を提起し、これが大きな反響を呼んだ。これを受けて地理学者のCraig DaltonとJim Thatcherが2014年にCritical Data Studiesという名称を提唱し、ビッグデータの台頭に伴う権力性や社会影響を体系的に研究する新領域として位置付けた。彼らは「データは決して生のままではなく、中立でもない」と述べ、ビッグデータ解析が常に文化的・社会的・政治的バイアスを帯びること、そしてデータ技術が人間の行動や社会動態を形作り得ることを指摘している。本稿では、CDSの理論的背景、主要な研究者、中心的な概念と争点、関連する社会運動や政治的実践、代表的な作品・事例、そして医療・都市・教育・AIといった応用分野への影響について概観する。
理論的背景:ポスト構造主義・STS・批判理論との関係
CDSの思想的源流には、ポスト構造主義、STS(科学技術社会論)、批判理論といった20世紀後半の批判的知的伝統が横たわっている。まず批判理論の観点からは、フランクフルト学派が指摘した道具的理性への批判が重要である。マックス・ホルクハイマーは、近代における技術合理性の発達が人間の自主性を奪い、大規模な操作と非人間化をもたらすと警告した。データ主導の管理社会はまさに道具的合理性の極致であり、CDSはこのような技術中心主義に対する倫理的・価値論的な省察の欠如を批判する。次に科学技術社会論(STS)や社会構築主義からは、データや科学的事実の構築性への洞察が取り入れられている。CDSは「データは研究過程から独立した客観的実体ではない」とする立場をとり、あらゆるデータは収集方法や文脈によってその意味が規定される(いわゆる「理論負荷性」)ことを強調する。例えばLisa Gitelmanの編著『Raw Data Is an Oxymoron』(2013年)は「生のデータ」という概念自体を否定し、データには常に背景となる想像力や解釈が不可欠であると論じた。こうした見解は、ブライアン・ウィンスやラトゥールらSTS研究者の示す「科学的事実の社会的構成」と軌を一にする。最後にポスト構造主義の影響として、ミシェル・フーコーの権力/知識論が挙げられる。フーコーは、知識体系や分類が権力と結びつき人間を「対象化」する過程を分析したが、CDSでもデータを単なる情報でなく社会秩序を構成するディスクールとして捉える。実際Rob KitchinとTracey Lauriaultは、フーコーおよびイアン・ハッキングのアイデアに基づき、「データ・アセンブラージ」という概念枠組みを提唱した。これはデータを取り巻く技術的・政治的・社会的要素の集合体を分析するもので、データが生み出す新たな管理手法(データベイランス=データ監視、プロファイリング、予測的ガバナンスなど)を権力論の視座から解明しようとする試みである。以上のように、CDSは批判理論からの権力批判、STSからの構築主義的知見、ポスト構造主義からのディスクール分析を統合し、現代のデータ社会を総合的に批判する理論的基盤を築いている。
主要な理論家と研究者
CDSは多様な分野の研究者によって発展してきたが、特に以下の人物が主要な論者として知られる。
• ケイト・クロフォード (Kate Crawford) – メディア研究者としてデータの社会的側面を早くから批判的に分析した。danah boydとの共同研究ではビッグデータの問題点を「知識の定義の変容」「客観性の神話」「データ規模と質の逆転現象」「文脈喪失の危険」「アクセス格差による倫理問題」など6つに整理し、ビッグデータ神話への警鐘を鳴らした人物である。近年の著書『Atlas of AI』(2021年)ではAI技術を支えるデータ収集が環境資源の収奪や人的労働の搾取によって成り立っていることを暴き、データ駆動型AIの地政学的コストを明らかにしている。またクロフォードはAI Now研究所を共同設立し、政策提言を通じてアルゴリズムの説明責任や公平性の確保に尽力している。
• ダナ・ボイド (danah boyd) – 情報社会学者で、マイクロソフトリサーチの研究員も務める。2014年にニューヨークに独立研究機関「Data & Society」を設立し、データ駆動型技術が社会にもたらす影響について幅広い研究と対話の場を提供してきた。彼女は青少年とソーシャルメディアの研究で著名だが、ビッグデータ研究に関してもCrawfordとの共同論文(前述)で先駆的な議論を提示したほか、プライバシーと監視、アルゴリズムによる社会的選別といったテーマに関する論考を発表している。boydはテクノロジー企業と政策立案者の橋渡し役として、データ倫理や情報ガバナンスに関する提言活動も精力的に行っている。
• ヘレン・ニッセンバウム (Helen Nissenbaum) – 情報倫理学者で、プライバシー概念の再定義と技術設計への応用で知られる。彼女の提唱した「コンテクスト整合性(Contextual Integrity)」理論は、データ共有の適切性は社会文脈ごとの情報フローのルールに依存するという枠組みを提供し、プライバシーを単なる公開・非公開の二分法では捉えない画期的視座を与えた。またBatya Friedmanとの共同研究では、コンピュータシステムに内在するバイアスを先在的バイアス(設計者や社会の偏見に由来)、技術的バイアス(アルゴリズムやデータセットの特性に由来)、発現的バイアス(システム使用の文脈で顕在化)の3類型に分類し、技術に潜む不公平の構造を分析した。ニッセンバウムの研究は、プライバシー保護策(例えばプライバシー表示や同意モデルの限界の指摘)や監視社会への抵抗手段(暗号技術やデータ撹乱=Obfuscationの提唱)など、CDSの実践的側面にも大きな影響を与えている。
• デイヴィッド・ビア (David Beer) – イギリスの社会学者で、データによる社会的監視と人々の認知の変容について研究する。彼は著書『The Data Gaze: Capitalism, Power and Perception』(2018年)において、フーコーの「まなざし(gaze)」の概念をデータ社会に応用し、我々が常に抽出・分析・予測のレンズ=「データの凝視」の下に置かれている現状を批判的に考察した。Beerによれば、現代のデータ解析産業は日常生活を細部に至るまでデータ化し、それによって得られた知見が新たな社会秩序の正当化に用いられている。彼はまたMetric Power(指標による権力)という概念で、ランキングやスコアリングといった数値指標が人々の行動や自己認識を形づくる力学を分析している。こうした研究は、データを用いた評価や可視化が中立ではなく権力作用の一形態であることを示し、CDSの枠組みにおける「データの権力性」の具体相を明らかにしている。
この他にも、地理学のRob Kitchin(「データ・アセンブラージ」の理論化)、Jim Thatcher&Craig Dalton(CDS命名者)、メディア研究のLisa Gitelman(「Raw Data is an Oxymoron」編集)、社会学のStefania Milan、文化理論のWendy Hui Kyong Chun、デジタル社会学のDeborah Lupton、データ批評家のCathy O’Neilなど、多くの研究者がCDSの発展に寄与している。彼らはいずれも異なる領域からデータ社会に鋭い批判を加え、その知見はCDSの多面的な議論を形作っている。
主要な概念と争点
CDSが取り扱う中心的な概念や論点には以下のようなものがある。
• データの権力性:データは現代社会における新たな権力の源泉と見做される。政府や巨大IT企業は、人々の行動履歴や嗜好といった膨大なデータを収集・解析することで、個人や集団を影響・管理する能力を手にしている。データはしばしば「21世紀の石油」と称され、その支配を巡る構造は植民地主義になぞらえて「データ植民地主義」とも呼ばれる(Couldry & Mejias, 2019)。CDSにおいては、誰がデータを掌握し分析するかによって生じる権力格差や、不当な監視・操作への批判が重要なテーマである。特にプラットフォーム企業による個人データの独占が、市民の自治や民主主義プロセスを侵食しうる点が問われている。
• アルゴリズムの透明性と説明責任:検索エンジンの順位決定、ソーシャルメディアのニュースフィード、与信審査や雇用選考、量刑判断に至るまで、社会の重要な決定がブラックボックス化したアルゴリズムに委ねられている現状がある。CDSは、こうしたアルゴリズム支配に透明性と説明責任(accountability)が欠如していることを問題視する。Cathy O’Neilは社会に大きな影響を及ぼしながら内部が秘匿され検証困難なモデルを「数学的破壊兵器(WMD)」と呼び、それらが貧困層やマイノリティに一方的な被害を与えていると指摘した。アルゴリズムには設計者の主観や組織の利害といった「意見が数学に埋め込まれたモデル」が多数存在し、客観的なフリをした主観として機能している。これに対し、アルゴリズムの決定過程を人間が理解・検証できるよう開示せよというアルゴリズム透明性や、判断に異議申し立てできるようにするアルゴリズム的説明責任の要求が高まっている。
• バイアス(偏り):データやアルゴリズムに内在する偏見も大きな論点である。AIや機械学習モデルは過去のデータを学習するが、そのデータが人種・性別・階級など社会的偏見を含んでいれば、モデルもそれを再生産・増幅してしまう。実際、商用の顔認識AIが白人男性に比べ黒人女性を誤認識する率が極めて高いことが研究により示され、大きな波紋を呼んだ。また米国の医療現場で広く用いられていた患者リスク予測アルゴリズムは、医療費を健康状態の代理指標に使ったために黒人患者のリスクを過小評価し、同程度に病状が悪いにもかかわらず黒人には追加ケアが割り当てられにくいという人種バイアスを生んでいた。このようにデータ分析システムが既存の差別や格差を不可視の形で組み込み、「公正」を装いながら不公平をもたらす危険性が各分野で報告されている。CDSはバイアスの検出と是正を重要課題とし、訓練データやモデル結果の監査、公平性(Fairness)確保の手法などに関する研究も活発である。
• プライバシー:あらゆるデジタル活動が記録され分析対象となる社会では、個人のプライバシー概念も変容を迫られる。ビッグデータ時代には「匿名化されたデータだから安全」という神話も崩れ去った。異なるデータセットを突き合わせることで個人を再同定できてしまうためである。CDSは、大規模データ収集による個人監視(データベイランス)の進展や、それに気付かぬ市民の状況に警鐘を鳴らす。プライバシーは基本的人権の一部であり、その侵害は個人の尊厳や社会的信頼を損なうだけでなく、創造性や反体制的言論を萎縮させ民主主義をも危うくすると論じられる。特に商業目的で収集された個人データが同意なく二次利用される問題、国家による大量監視(エドワード・スノーデンの暴露したNSA監視など)の問題、そしてプライバシーを侵害するテクノロジー(例:顔認識カメラや位置追跡)の規制の遅れが批判の対象となっている。CDS研究者はこれに対し、プライバシーの再定義(前述のコンテクスト整合性など)や、市民によるデータ主体性の回復(自分のデータの使われ方をコントロールする権利)を主張している。
• 監視資本主義:ハーバード大学の社会科学者ショシャナ・ズボフは、グーグルやフェイスブックに代表される現代の情報資本主義を「監視資本主義」と名付けた。その定義によれば、「監視資本主義とは、私的な人間の体験を行動データへと一方的に転化し、それを経済的成果に結びつける新たな秩序」である。具体的には、プラットフォーム企業がユーザーの日常行動から莫大なデータを収集し、それを解析してユーザーの関心や性向を予測・操作し、標的広告や行動誘導に利用するビジネスモデルを指す。このモデルでは利用者は顧客ですらなく「原料」に過ぎず、収集されたデータから抽出された洞察が企業の独占的利益となる。監視資本主義は経済合理性の名の下にプライバシーを侵害し、人間の経験世界を商品化するものであり、その台頭は市民の自律や民主主義に対する深刻な脅威と見做される。CDSの文脈では、ズボフの議論を踏まえて監視資本主義への制度的規制(データ保護法や独占禁止法の適用など)を求める声や、企業のデータ収集・利用の実態を透明化する取り組みが議論されている。
• プラットフォーム経済:監視資本主義と関連するが、さらに経済構造に着目した概念としてプラットフォーム経済がある。プラットフォームとは、ユーザーとサービス提供者を仲介し膨大なデータを吸い上げるデジタル基盤(例:Amazon、Google、Uberなど)であり、現代資本主義の主導的形態となっている。ニック・スルニチェクは著書『Platform Capitalism』(2016年)で、プラットフォーム企業の価値創出はユーザーデータの収集と分析に依存していると論じた。プラットフォーム経済では、データがネットワーク効果によって集中し勝者総取りの市場を形成するため、富と情報が一部企業に寡占化されやすい。さらに労働の面でも、Gigエコノミー(UberやDeliverooのようなアプリ労働)に見られるように、働き手の活動が常時データ監視されアルゴリズムによって管理・評価される傾向が強まっている。CDSはプラットフォーム経済に内在する権力勾配――利用者の知らぬ間に行われるデータ収集と、その利活用による市場支配――を批判し、プラットフォーム企業への規制(データ携帯性の義務化、API公開、アルゴリズム審査など)や代替となる分散型プラットフォームの模索といった議論を展開する。
関連する社会運動や政治的実践
CDSの知見は学術を超えて社会運動や政策提言とも結びついている。データ技術に対する批判的視座は、下記のような様々な市民運動・政治実践に影響を与えている。
• データ・フェミニズム:ジェンダー平等と社会正義の観点からデータのあり方を問い直すアプローチで、Catherine D’IgnazioとLauren F. Kleinによる著書『Data Feminism』(2020年)で提唱された。データ・フェミニズムは、従来のデータ科学が見落としてきた権力構造やジェンダー・人種間格差に光を当て、データ収集・分析・可視化のプロセスにフェミニストの視点を組み込むことを目指す。具体的な原則として「権力を分析せよ」「既存の権力構造に挑戦せよ」「感情や身体性を尊重せよ」「二分法や階層を再考せよ」「多元的な知を受容せよ」「文脈を考慮せよ」「労働を見える化せよ」など7つが掲げられている。例えば、女性やマイノリティに不利なバイアスを含むデータセットを批判的に精査したり、可視化デザインにおいて抑圧的なステレオタイプを再生産しないよう留意するといった実践がある。データ・フェミニズムは、「データは権力であり、その権力が不公正に行使されているなら変革すべきだ」という信念に基づき、学界のみならず技術産業や市民社会にも変革を促す行動の呼びかけとして機能している。
• データ正義(Data Justice):データ正義は、データ化(Datafication)がもたらす影響を人権や社会正義の観点から捉え直し、公平でインクルーシブなデータ活用を追求する概念である。リナ・デンチックらによれば、この概念は従来のデジタル権利(プライバシー保護やネット自由など)の枠を超えて、データ化による構造的な不平等に注目するシフトを示している。データ正義は、データ収集やアルゴリズム活用の影響が社会集団ごとに不均等であること(例えば監視技術がマイノリティに過剰適用される、AIが貧困層に不利益を集中させる等)に焦点を当て、被支配者の視点からデータ政策を問うアプローチだ。具体的には、データへのアクセスと利益配分の公平性、監視テクノロジーが地域社会にもたらす負担の軽減、AIによる差別の防止、さらには植民地主義的なデータ搾取(グローバル南から北へのデータ収奪)の是正といった課題が含まれる。データ正義の運動は欧州を中心に展開し、Data Justice Lab(英カーディフ大学)などの研究組織や、Data for Black Livesのようなコミュニティ主体のプロジェクトとも連携している。これらはCDSの研究成果を踏まえつつ、政策提言(差別的アルゴリズム規制の法律化要求等)や住民運動(監視機器の設置反対運動など)を展開し、データの扱いに関する社会的な「正義(Justice)」を実現しようとしている。
• 反監視運動:エドワード・スノーデンによる2013年の暴露により、政府による大量監視(Mass Surveillance)が白日の下に晒されると、市民社会でプライバシー保護と監視制限を求める運動が急速に高まった。電子フロンティア財団(EFF)や各国のデジタル人権団体は、政府機関の通信傍受や公安監視に対する法的規制、企業による個人情報の無断提供の禁止を訴えた。また一般市民による暗号ツールの利用(Signalなどのエンドツーエンド暗号化メッセージング、Torブラウザによる匿名化)も「セルフディフェンス」の手段として広まった。近年では、AIを用いた顔認識監視や予測的ポリシング(犯罪予測)への反対運動も活発である。CDS研究者のRuha Benjaminは「監視技術は個人より集合体の把握と分類に注力しており、社会的なプロファイリングを通じて管理を強化している」と指摘し、監視の問題を単なるプライバシーの侵害に留めず、社会的少数者への抑圧と捉える視点を提供している。こうした批判的視座は、各国での顔認識技術停止要求(サンフランシスコ市の警察による顔認識使用禁止条例など)や、EU一般データ保護規則(GDPR)による監視資本主義への牽制といった具体的成果にもつながっている。反監視運動は今やグローバルな広がりを見せ、CDSの理論はその思想的支柱の一つとなっている。
展覧会・アートプロジェクト
CDS的な批評は、アートの領域でも表現されている。その代表例が「Training Humans」展(2019年)である。これはAI研究者のKate CrawfordとアーティストのTrevor Paglenがミラノのプラダ財団オッソルヴァトーリオで開催した世界初の大型写真展で、機械学習の訓練データセットに使われてきた人間の写真に着目したものだ。ImageNetをはじめとする有名データセットに含まれる人々の顔写真とそのカテゴリー(「負け犬」「犯罪者」「美容師」等、クラウドソーシングで付与されたラベル)を壁一面に展示し、アルゴリズムがどのような恣意的分類で人間を認識しているかを可視化した。この展示はAI開発の背後にある偏見や倫理問題を直観的に観客に訴え、大きな反響を呼んだ。また同展示の関連プロジェクトとして公開されたImageNet Rouletteは、ユーザーが自分の写真をアップロードするとImageNetの人間カテゴリ分類を実行して結果を返すウェブアプリで、AIの不適切なラベリングを誰もが体験できる試みであった(のちに人権上問題のあるカテゴリが多数露呈したため公開停止)。他にも、アーティストのインスタレーション作品(例えばロンドンのV&A博物館で2018年に開催された「The Future Starts Here」展における「死者のデータからAIを生成する」展示など)や、映像ドキュメンタリー(Netflix映画『監視資本主義:デジタル社会がもたらすもの』2020年)など、データ社会を批判的に問う作品が多数登場している。これらの芸術表現は、学術論文とは異なる形で一般市民に問題提起を行うものであり、CDSのメッセージを広く伝播する役割を果たしている。
https://gyazo.com/0fad41fe72f6b899f83986df80612b77
Training Humans展
https://gyazo.com/de7184ba9103782cd6bc037ca21026f7
Trevor Paglen - ImageNet Roulette
応用分野における影響と批判的視点
• 医療分野: 医療におけるデータ活用は、診断支援AIから病院の経営管理、保険数理まで多岐に及ぶ。ビッグデータ解析により医療の効率化・精密化が期待される一方で、CDSはその落とし穴を指摘する。具体例として2019年に報告された病院用アルゴリズムの人種バイアス問題がある。ある大手医療アルゴリズムは費用データをもとに患者の将来の医療必要度を予測していたが、黒人患者は同程度に病状が悪くても医療費支出が白人患者より低い傾向があるために「黒人は健康である」と誤推定され、追加ケア対象から漏れるケースが多発していた。この偏見は人種による医療アクセス格差を機械が学習・増幅した典型例であり、当該アルゴリズムは約2億人に適用されていたと報告されている。他にも、遺伝子データベースの偏りからアルゴリズム診断が一部人種に不正確となる問題、健康アプリから収集された個人データの保険会社による転用、コロナ接触追跡アプリのプライバシー問題など、医療データを巡る論点は多い。CDSはこれらに対し、アルゴリズムの公平性検証(バイアス・監査)やインクルーシブなデータ収集(多様な集団を代表するデータセット構築)の必要性を唱えるとともに、プライバシー保護と公衆衛生のバランスを取る制度設計(例えばデータを個人の同意と制御下に置きつつ研究促進する仕組み)を提言している。また患者監視やリスク予測の名の下に進む医療のデータ化(Datafication of Health)が、医療者-患者関係の人間的側面を損ないはしないかという倫理的問いも提起されている。
• 都市分野: 都市計画や公共政策にもビッグデータとAIの導入が進み、「スマートシティ」と呼ばれる高度にデータ駆動型の都市管理が各国で推進された。しかしCDSの観点からは、スマートシティは巨大テクノロジー企業による都市空間の植民地化であり、住民監視のインフラ化につながりかねないと批判される。カナダ・トロントでGoogle子会社のSidewalk Labsが提案したスマートシティ計画は、先進的な都市サービスの提供を謳いながら、公共空間に敷設されるセンサー網で収集される住民データの扱いが不透明なことから強い反発を招いた。この計画には「監視資本主義の植民地実験」との批判が投げかけられ、結局中止に追い込まれている。また中国における都市監視網や社会信用システムの例に見るように、都市空間でのデータ活用は治安維持や統治の文脈と結びつき、膨大なリアルタイム監視を可能にする。CDSはこうした動向に対し、都市におけるデータガバナンスの民主化(市民参加によるルール作り)や、プライバシー・バイ・デザイン(設計段階からプライバシー確保を組み込む手法)を提案する。また技術ソリューション偏重の「シティテック」には都市問題の真因を覆い隠す危険もあるとして、スマートシティ論を批判的都市論(Critical Urban Theory)から検証する動きもある。例えばプライバシー研究者のAnn Cavoukianは、スマートシティ計画への参加を辞任してまで住民プライバシーの軽視を訴えた。このようにCDS的視点は、都市政策の透明性確保と住民の権利擁護に寄与している。
• 教育分野: 教育現場でも近年、EdTech(教育テクノロジー)の導入によって学習管理システム(LMS)や学習者分析(Learning Analytics)が普及しつつある。学生のオンライン学習履歴やテスト成績などのデータを収集・分析して個別指導に活かすことが目指されているが、CDSの立場からはその功罪を精査する必要がある。批判的教育技術研究によれば、教育のデータ化には少なくとも4つの問題群(バイアス、生徒の疎外、教師の負担増、プライバシー侵害)があるとされる。第一にバイアス:教育データに偏見が含まれればAIチューターなどが特定の学生集団に不利に働く可能性がある。例えば自動エッセイ評価システムが主流言語圏の書き方を基準に訓練されていれば、マイノリティ言語の学生を不当に低く評価し得る。第二に生徒の疎外:常時監視・評価されていると感じることで生徒が萎縮し学習意欲を失う懸念がある。一部の学校で導入されている学生モニタリングソフトは、教師が生徒PCの画面やウェブ履歴をリアルタイム閲覧できるが、生徒は「常に見張られている」という無力感を抱き、教師や学校への不信につながったという報告がある。第三に教師の負担増:データ駆動型教育は教員に新たなスキル習得やデータ管理労働を要求し、却って現場を圧迫しているとの指摘がある。第四にプライバシー:子供たちの個人情報や行動ログが商業企業に蓄積され、将来にわたり利用されることへの懸念である。学生の成績・性格・嗜好に関するデータが外部に漏洩すれば差別やスティグマにつながる恐れがあり、欧州では子供のデータ保護を強化する法整備の議論も進む。CDSは教育者や政策立案者に対し、教育データの利活用に飛びつく前にそれらの副作用に目を向けるよう促している。そのうえで、アルゴリズムの公平性検証、学生のデータ権利の尊重、教師と学生の信頼関係維持を重視したテクノロジー導入を提唱する。
• AI分野: 人工知能(AI)はCDSの議論の中心に位置すると言っても過言ではない。AIシステムの開発・運用には大量のデータが不可欠であり、そこにCDSで論じられる問題が凝縮している。とりわけ近年注目されるのがAIの倫理・信頼性の問題である。機械学習モデルがブラックボックスで人間に理解不能な決定を下す場合、その説明可能性 (Explainability) を確保しなければ社会的受容は得られない。また前述したようなバイアスの問題はAIにおいて顕著であり、フェアネス(公平性)研究の大きなテーマとなっている。実際、商用AIの不公平さを告発する研究が次々と登場し、その結果ビッグテック企業が対応を迫られる事例も出ている。例えばJoy BuolamwiniとTimnit Gebruの「Gender Shades」研究は、Microsoft・IBM・Amazonの顔認識AIが暗色の女性の顔に対して35%近い誤認識率を示すことを明らかにし、この論文発表後にIBMは顔認識製品の提供停止を表明した(2020年)と報じられている。またGoogleの自然言語処理モデルが人種差別的・性差別的な言語生成を行う問題も指摘され、同社はAI倫理チームを設置したものの、むしろ批判的な研究者を解雇したことで逆に非難を浴びる騒動も起きている。こうした中、各国の政策も動き始め、EUはAI法(Artificial Intelligence Act)によって高リスクAIの事前審査や差別的AIの禁止を検討している。CDS研究者たちはAI開発プロセスへの多様な人々の参加(技術者以外の人文・社会科学者や当事者コミュニティの関与)が不可欠と訴え、AIガバナンスにおける民主主義の拡充を提案する。さらに、AIがもたらす労働環境の変化(労働者の監視強化や雇用の不安定化)や、創造性・判断力といった人間らしさの喪失についても批判が向けられている。総じて、AI分野におけるCDS的視点は「技術的な可能性」だけでなく「社会的な望ましさ」を問うものであり、AIの設計思想そのものを見直す動きを後押ししている。
結論
クリティカル・データ・スタディーズ(CDS)は、ビッグデータとAIが浸透する現代社会において、データを巡るあらゆる前提を批判的に検討する学際的プロジェクトである。本稿では、その理論的背景にあるポスト構造主義・STS・批判理論の影響から、主要な論者たちの貢献、データ権力・アルゴリズム透明性・バイアス・プライバシー・監視資本主義・プラットフォーム経済といったキー概念、さらにデータ・フェミニズムやデータ正義など社会運動との連関、代表的な研究やプロジェクト、医療・都市・教育・AI分野への適用例までを概観した。CDSの射程は広く、一見バラバラに見える論点も多い。しかし根底にあるのは、「データと社会の関係を問い直し、人間の尊厳と正義を守る」ための批判精神で一貫している。データ解析技術は今後も進歩を続け、その応用範囲は拡大するだろう。それに伴い、新たな問題(例えば生成AIによる偽情報拡散や、バイオメトリクス・遺伝情報の扱いなど)が次々と浮上すると予想される。CDSの重要性はますます増しており、更なる概念的精緻化と実証研究が求められている。同時に、研究者だけでなく技術者・政策立案者・市民が協働して、データ技術を人類社会の利益と調和させる方策を模索することが不可欠である。CDSはそのための知的基盤を提供し続けており、批判と行動を通じてより公正で人間的なデータ社会の実現を目指している。