日本語タイトル#
ペアサンプリングコントラストフレームワークによる共同物理 - デジタル顔攻撃検出
英文タイトル#
Paired-Sampling Contrastive Framework for Joint Physical-Digital Face Attack Detection
日本語摘要#
現代の顔認識システムは、物理的な提示攻撃やデジタル偽造を含む欺瞞試行に対して依然として脆弱です。従来、これら 2 つの攻撃ベクターはそれぞれ独立したモデルによって処理されており、各モデルは自身のアーティファクトとモダリティに焦点を当てています。しかし、異なる検出器を維持することはシステムの複雑性と推論遅延を増加させ、システムを組み合わせた攻撃ベクターにさらすことになります。私たちは、ペアサンプリングコントラストフレームワークを提案します。これは、自動的にマッチングされた本物と攻撃のセルフィーのペアを利用して、モダリティに依存しない生体の手がかりを学習する統一されたトレーニングアプローチです。第 6 回顔認識反欺瞞チャレンジ統一物理 - デジタル攻撃検出ベンチマークで評価した結果、私たちの方法は平均分類誤差率(ACER)2.10% を達成し、従来の解決策を上回りました。このフレームワークは軽量(4.46 GFLOPs)で、1 時間以内にトレーニングを完了し、実際の展開に適しています。コードと事前トレーニング済みモデルは https://github.com/xPONYx/iccv2025_deepfake_challenge で入手可能です。
英文摘要#
Modern face recognition systems remain vulnerable to spoofing attempts, including both physical presentation attacks and digital forgeries. Traditionally, these two attack vectors have been handled by separate models, each targeting its own artifacts and modalities. However, maintaining distinct detectors increases system complexity and inference latency and leaves systems exposed to combined attack vectors. We propose the Paired-Sampling Contrastive Framework, a unified training approach that leverages automatically matched pairs of genuine and attack selfies to learn modality-agnostic liveness cues. Evaluated on the 6th Face Anti-Spoofing Challenge Unified Physical-Digital Attack Detection benchmark, our method achieves an average classification error rate (ACER) of 2.10 percent, outperforming prior solutions. The framework is lightweight (4.46 GFLOPs) and trains in under one hour, making it practical for real-world deployment. Code and pretrained models are available at https://github.com/xPONYx/iccv2025_deepfake_challenge.
文章ページ#
ペアサンプリングコントラストフレームワークによる共同物理 - デジタル顔攻撃検出
PDF 入手#
抖音でスキャンしてさらに素晴らしいコンテンツを見る