日本語タイトル#
前処理グループの公平性を再考する:モジュラーなベンチマークフレームワーク
英文タイトル#
Revisiting Pre-processing Group Fairness: A Modular Benchmarking Framework
日本語要約#
機械学習システムが高リスクの意思決定プロセスにますます統合される中、アルゴリズムの結果の公平性を確保することは重要な課題となっています。 バイアスを軽減する方法は通常、前処理、処理中、後処理の三つのカテゴリに分けられます。 後者の二つには多くの注目が集まっていますが、データレベルで操作し、モデル非依存性やプライバシーコンプライアンスの向上といった利点を持つ前処理方法は比較的少ない注目しか受けておらず、標準化された評価ツールも不足しています。本研究では、FairPrep を紹介します。これは、表形式データセットにおける公平性を意識した前処理技術を評価するために設計された拡張可能でモジュラーなベンチマークフレームワークです。 AIF360 プラットフォームに基づいて構築された FairPrep は、データセット、公平性介入、予測モデルのシームレスな統合を可能にします。 効率的な実験を可能にし、公平性と有用性の指標の自動報告を行うバッチ処理インターフェースを備えています。 標準化されたプロセスを提供し、再現可能な評価をサポートすることで、FairPrep は公平性ベンチマークの分野における重要なギャップを埋め、データレベルの公平性研究を進めるための実用的な基盤を提供します。
英文要約#
As machine learning systems become increasingly integrated into high-stakes decision-making processes, ensuring fairness in algorithmic outcomes has become a critical concern. Methods to mitigate bias typically fall into three categories: pre-processing, in-processing, and post-processing. While significant attention has been devoted to the latter two, pre-processing methods, which operate at the data level and offer advantages such as model-agnosticism and improved privacy compliance, have received comparatively less focus and lack standardised evaluation tools. In this work, we introduce FairPrep, an extensible and modular benchmarking framework designed to evaluate fairness-aware pre-processing techniques on tabular datasets. Built on the AIF360 platform, FairPrep allows seamless integration of datasets, fairness interventions, and predictive models. It features a batch-processing interface that enables efficient experimentation and automatic reporting of fairness and utility metrics. By offering standardised pipelines and supporting reproducible evaluations, FairPrep fills a critical gap in the fairness benchmarking landscape and provides a practical foundation for advancing data-level fairness research.
文章ページ#
前処理グループの公平性を再考する:モジュラーなベンチマークフレームワーク
PDF 取得#
抖音で QR コードをスキャンしてさらに素晴らしいコンテンツを確認