NEWS 技术领域 您所在的位置:首页 > 新闻动态  > 技术领域

新闻导航

如何采用一种技术来保护我们的脸部数据不被窃取呢?

来源:www.jian-zhen.com 发布时间:2019-11-12 返回

如何采用一种技术来保护我们的脸部数据不被窃取呢?西安人脸识别公司告诉你,那就是反人脸识别技术!


西安人脸识别公司


第一种遮挡法,像明星一样将脸部遮挡起来。

第二种方法是将头部倾斜15°以上,人脸检测包括了人脸关键点检测,检测成功后的预处理是根据人脸关键点将人脸摆正对齐,将人脸图像规定在只包含五官的部分,当然也可能包含对光照的处理。但是,完善的人脸检测算法,是要适应一定多视角的,如考虑的姿态范围为摇摆[-90°, +90°],倾斜[-45°, +45°]和俯仰[-20°, +20°],所以不管头部的活动范围,头部摆动幅度较小的情况下,依然是可以识别的。所以这种方法也被称为最不靠谱的方法。

第三种方式是高科技眼镜法。主要原理是利用眼镜架上的红外发生器发射红外线,干扰摄像头的面部识别系统,使其无法检测到面部特征。通过实验,能够影响绝大多数的智能手机和平板电脑,这样拍出的照片感觉和普通照片没有差别,却无法识别面部信息。

第四种方式是可以动态地破坏人脸识别系统。西安人脸识别公司指出,这种解决方案利用了一种叫做对抗训练(adversarial training)的深度学习技术,这种技术让两种人工智能算法相互对抗,研究人员在300W人脸数据集上测试了他们的系统,该数据集包含多种族,不同照明条件和背景环境的超过600张人脸照片,是一个业界的标准库。结果表明,他们的系统可以将原本可检测到的人脸比例从接近100%降低到0.5%。

西安人脸识别公司表示,在图像识别领域,在图像中添加小的、往往不可察觉的干扰就可以欺骗一个典型的分类网络,使其将图像错误地分类。这种被干扰的图像被称为对抗样本( adversarial examples),它们可以被用来对网络进行对抗攻击。

西安人脸识别公司告诉大家,两个神经网络相互对抗,形成“隐私”滤镜,可以干扰人脸识别算法。该系统依赖于2种AI算法:一种执行连续的人脸检测,另一种设计来破坏前者。为了产生对抗干扰,研究人员提出针对基于预训练Faster R-CNN人脸检测器训练一个生成器。给定一个图像,生成器将产生一个小的干扰,可以添加到图像中以欺骗人脸检测器。人脸检测器只在未受干扰的图像上进行脱机训练,因此对生成器的存在浑然不觉。随着时间的推移,生成器学会了产生干扰,这种干扰可以有效地欺骗它所训练的人脸探测器。其结果是一个类似instagram的“隐私”滤镜,可以应用于照片,以保护隐私。西安人脸识别公司告诉我们,其中的秘诀是这种算法改变了照片中的一些特定像素,但人眼几乎察觉不到这些变化。