冠蓝在线 对立脸局部辨

其中有窜改输入脸局部辨系统的影像,让 AI 无法分辨图中人脸的,如多伦多大学的《Adversarial Attacks on Face Detectors using Neural Net based Constrained Optimization》。
 
也有 CMU 设计的特殊眼镜,戴上后即使经过监控镜头,仍无法分辨影像有没有人脸,或分辨成别人;且这种掩饰不算夸大,不容易惹起他人疑心(论文《Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition》)。
 
躲藏身份的“换脸”
近日又呈现一篇新论文,来自挪威科技大学《DeepPrivacy: A Generative Adversarial Network for Face Anonymization》,蓝冠从更新、更有应战性的角度诈骗脸局部辨系统:不改动原来材料分散的前提下,将人脸匿名化,浅显地说就是模型汇出还是一张脸,姿势和背景也和原图相同,但完整无法分辨原来的脸的身份,就是“换了一张脸”。
 
作者提出的模型 DeepPrivacy 是条件生成式对立网络(conditional GAN),建构程式能以原有背景及稠密的动作标志生成逼真的匿名(其他身份)人脸。建构程式的架构是 U-net,用逐渐扩展影像的方式最终生成128×128 影像。
 
为了防止泄露个人资讯给模型,依照作者的设计,模型输入就直接是经过随机杂讯遮挡的人脸,模型完整察看不到任何原有脸部资讯。不过,蓝冠平台为了保证生成的质量及动作分歧,作者仍需求两组简单的影像标志结果:圈出脸部位置的边框,以及(与 Mask R-CNN 相同)标出耳朵、眼睛、鼻子、肩膀共7 个关键点的稠密姿势估量值。
 
依据作者的测试,经过模型匿名化的人脸仍坚持接近原图的脸部可分辨性,普通的脸局部辨模型对匿名化后的影像,分辨出人脸的均匀精确率只相对降落0.7%,而人脸含有的身份资讯自然100% 不重覆。
 
作者也做了一项具前瞻性的工作,那就是整理发表新的多姿势脸部材料集 Flickr Diverse Faces。材料集共147 万张人脸,并依照这模型输入所需,标出了含脸部位置的边框及7 个关键点。材料集的共同之处在于多样性,涵盖许多不同的脸部姿势、局部遮挡、复杂背景、不同的人。
 
相关研讨比拟
 
论文模型的建构程式设计参考《Progressive Growing of GANs for Improved Quality, Stability, and Variation》论文,从低解析度的影像开端,逐渐进步解析度、增加细节,最终可同时统筹影像内容高度谐和、高稳定性、高多样性。这种办法是 GANs 初次生成1,024×1024 大小的高画质影像。作者还一并讨论改良 GANs 锻炼过程的技巧。
 
可能有人已想到,DeepPrivacy 所做的“生成匿名逼真人脸”工作,其实就和影像补全(Image Inpainting)高度相似,都是让模型为影像指定区域填补内容。不过影像补全时要补全的不只是人脸,还包含各种日常物体和场景。也有影像补全研讨人员尝试补全人脸的效果,他们在画质解晰度、材料丰厚、姿势单一的 Celeb-A 材料集尝试,结果模型无法生成逼真、身份不同且随机的人脸。
 
另外,辉达《A Style-Based Generator Architecture for Generative Adversarial Networks》是 CVPR2019 最佳论文之一,也是目前为止生成高明晰度、高多样性人脸效果最好的办法。无须置疑,这种办法生成的人脸比 DeepPrivacy 更逼真,且可生成随机新身份,不过就没方法控制同样的姿势和背景了。
 
作者以为大企业可能经过这种办法规避欧盟《通用材料维护条例》(GDPR)的约束。GDPR 请求,运用个人的隐私材料时必需定期征得当事人同意;但是当无法依据材料分辨定位某个人时,企业无需同意就可运用这些材料。这种脸部匿名化办法就能成为“无法分辨个人,进而绕过 GDPR 限制”的帮手。
 
不过,在高度遮挡、不常见的角度、复杂背景下,模型还是会呈现一些错误的生成结果(扭曲的脸看起来有些可怕)。作者也经过对照实验,阐明更大的模型、7 个动作关键点的标志都有助于生成更高质量的影像。
 
Reddit 及 Twitter 的讨论串,有人提出,仅变卦脸部缺乏以完整躲藏身份,有的人(如奥巴马)仅凭发际线就有时机被认出来,加上衣着、场景、身边的人,知名人物被认出来的可能性大大增加;也有人提到,变成随机身份,还不如都用 DeepFake 把一切的脸换成同一张虚拟人脸,同样可到达无法经过脸局部辨肯定身份的效果;网友还吐槽为什么要取 DeepPrivacy 这么俗的名字。