91无码视频一区|蜜臀福利在线观看|日韩一极黄色视频|色欲人妻少妇Av一区二区|婷婷香蕉视频欧美三级片黄色|一级A片刺激高潮|国产精品污污久久|日韩黄色精品日韩久久综合网|中国一级片电影在线|超碰乱码久久久免费

AIGC檢測為何總“看走眼”?騰訊優(yōu)圖揭秘:問題或許源于數(shù)據(jù)源頭

2025-12-02
騰訊優(yōu)圖 投稿量子位 | 公眾號 QbitAI

隨著AIGC技術(shù)的快速發(fā)展,一行簡單的提示詞就能生成高度逼真的內(nèi)容,但這一技術(shù)進(jìn)步也帶來了虛假新聞、身份欺詐、版權(quán)侵犯等嚴(yán)峻的安全隱患。AI生成圖像檢測因此成為AIGC時代不可或缺的基礎(chǔ)安全能力。


不過在實際應(yīng)用中,卻存在一個尷尬的現(xiàn)象:檢測器在公開基準(zhǔn)數(shù)據(jù)集這類“考場”上表現(xiàn)出色,可一旦應(yīng)用到全新模型或不同數(shù)據(jù)分布的“戰(zhàn)場”,性能就會大幅下滑。


近日,騰訊優(yōu)圖實驗室聯(lián)合華東理工大學(xué)、北京大學(xué)等研究團(tuán)隊,針對AI生成圖像檢測的泛化問題展開研究,提出了Dual Data Alignment(雙重數(shù)據(jù)對齊,DDA)方法。該方法從數(shù)據(jù)層面系統(tǒng)抑制“偏差特征”,顯著提升了檢測器在跨模型、跨數(shù)據(jù)域場景下的泛化能力。


目前,相關(guān)論文《Dual Data Alignment Makes AI-Generated Image Detector Easier Generalizable》已被NeurIPS 2025接收為Spotlight(錄取率僅Top 3.2%)。


發(fā)現(xiàn):AI圖像檢測器實則在“識別訓(xùn)練集”


研究團(tuán)隊認(rèn)為,問題的根源可能在于訓(xùn)練數(shù)據(jù)本身的構(gòu)造方式。這使得檢測器沒有真正掌握區(qū)分圖像真假的本質(zhì)特征,而是“走了捷徑”,依賴一些與圖像真?zhèn)螣o關(guān)的“偏差特征”(Biased Features)來判斷。


這些偏差特征是真實圖像與AI生成圖像在訓(xùn)練數(shù)據(jù)收集過程中產(chǎn)生的系統(tǒng)性差異。具體表現(xiàn)為:


真實圖像:來源渠道多樣,清晰度和畫質(zhì)參差不齊;分辨率分布分散;幾乎都以JPEG格式存儲,且?guī)в胁煌潭鹊膲嚎s痕跡。


AI生成圖像:呈現(xiàn)出高度統(tǒng)一的模式,分辨率常集中在256×256、512×512、1024×1024等固定檔位;大多以PNG等無損格式存儲;畫面干凈,無明顯壓縮痕跡。


在這樣的數(shù)據(jù)構(gòu)成下,檢測模型可能會學(xué)習(xí)“投機(jī)策略”,比如認(rèn)為“PNG≈假圖,JPEG≈真圖”。這種“捷徑”在某些標(biāo)準(zhǔn)測試集(如GenImage)上甚至能達(dá)到100%的檢測準(zhǔn)確率,但一旦對AI生成的PNG圖像進(jìn)行簡單的JPEG壓縮,使其格式和壓縮痕跡接近真實圖像,這類檢測器的性能就會斷崖式下跌。


對比真實圖像和AI生成圖像,兩者可能存在格式偏差、語義偏差和尺寸偏差:


解法與思路


針對這一問題,研究團(tuán)隊認(rèn)為,如果訓(xùn)練數(shù)據(jù)本身帶有系統(tǒng)性偏差,再復(fù)雜的模型設(shè)計也難以避免“學(xué)偏”。因此他們提出了DDA(雙重數(shù)據(jù)對齊)方法,通過重構(gòu)和對齊訓(xùn)練數(shù)據(jù)來消除偏差。其核心操作分為三步:


像素域?qū)R(Pixel Alignment)


利用VAE(變分自編碼器)技術(shù)對每一張真實圖像進(jìn)行重建,得到內(nèi)容一致、分辨率統(tǒng)一的AI生成圖像。這一步消除了內(nèi)容和分辨率上的偏差。


頻率域?qū)R(Frequency Alignment)


僅像素域?qū)R是不夠的。由于真實圖像大多經(jīng)過JPEG壓縮,其高頻信息(細(xì)節(jié)紋理)受損;而VAE在重建圖像時會“補(bǔ)全”這些細(xì)節(jié),創(chuàng)造出比真實圖像更豐富的高頻信息,這又形成了新的偏差。


實驗也證實了這一點(diǎn):當(dāng)研究者將重建圖像中“完美”的高頻部分替換為真實圖像中“受損”的高頻部分后,檢測器對VAE重建圖的檢出率大幅下降。


因此,關(guān)鍵的第二步是對重建圖執(zhí)行與真實圖完全相同的JPEG壓縮,使兩類圖像在頻率域上對齊。


Mixup


最后采用Mixup將真實圖像與經(jīng)過對齊的生成圖像在像素層面混合,進(jìn)一步增強(qiáng)真圖和假圖的對齊程度。


經(jīng)過上述步驟,就能得到一組在像素和頻率特征上高度一致的“真/假”數(shù)據(jù)集,推動模型學(xué)習(xí)更具泛化性的“區(qū)分真假”特征。


實驗效果


傳統(tǒng)學(xué)術(shù)評測常為每個Benchmark單獨(dú)訓(xùn)練一個檢測器進(jìn)行評估,這種方式與真實應(yīng)用場景不符。


為更真實地檢驗方法的泛化能力,研究團(tuán)隊提出了嚴(yán)格的評測準(zhǔn)則:只訓(xùn)練一個通用模型,然后直接用它在所有未知的跨域測試集上評估。


在這一嚴(yán)格標(biāo)準(zhǔn)下,DDA(基于COCO數(shù)據(jù)重建)的實驗效果如下:


綜合表現(xiàn):在包含11個不同Benchmark的全面測試中,DDA在其中10個上取得領(lǐng)先。


安全下限(min-ACC):對于安全產(chǎn)品而言,“最差表現(xiàn)”比平均分更關(guān)鍵。在衡量模型最差表現(xiàn)的min-ACC指標(biāo)上,DDA比第二名高出27.5個百分點(diǎn)。


In-the-wild測試:在公認(rèn)高難度的真實場景“In-the-wild”數(shù)據(jù)集Chameleon上,檢測準(zhǔn)確率達(dá)82.4%。


跨架構(gòu)泛化:DDA訓(xùn)練的模型不僅能檢測主流Diffusion模型生成的圖像,其學(xué)到的本質(zhì)特征還能有效泛化至GAN和自回歸模型等完全不同、甚至未用到VAE的生成架構(gòu)。


無偏訓(xùn)練數(shù)據(jù)助力泛化性提升


在AI生成圖像日益逼真的當(dāng)下,準(zhǔn)確識別“真”與“假”至關(guān)重要。


但AIGC檢測模型的泛化性問題,有時無需復(fù)雜的模型結(jié)構(gòu)設(shè)計,而是要回歸數(shù)據(jù)本身,從源頭消除那些看似微小卻致命的“偏見”。


“雙重數(shù)據(jù)對齊”提供了新的技術(shù)思路,通過提供更“高質(zhì)量”的數(shù)據(jù),促使模型學(xué)習(xí)正確知識,專注于真正重要的特征,從而獲得更強(qiáng)的泛化能力。


本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。

免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com