2

人脸识别这么好糊弄,我的钱会不会被盗刷?

 1 year ago
source link: https://www.36kr.com/p/1975918074798726
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

人脸识别这么好糊弄,我的钱会不会被盗刷?

果壳·2022-10-27 12:25
你的脸也是你重要的个人信息

AI换脸,曾经只会困扰名人,如今却会直接影响到我们普通人的财产安全

伪造人脸盗号、转账的新闻不在少数,今年8月,就有两名犯罪嫌疑人因使用手机软件制作人脸识别动态视频,并“伪装”登录他人的网络账号盗取资金而被警方抓获

v2_b3bf1f80e48c438185a58d3b2f70eae8_img_000

另一则新闻提到,由于制作简单,一个视频价格仅为2至10元,“客户”往往是成百上千购买,牟利空间巨大 | 图源:北京青年报

根据新闻报道和法院裁定书,这类案件的非法获利几千至几十万元不等,全国各地都已经发生了许多类似案件。甚至有不法分子利用银行的人脸识别授权功能,再通过木马病毒拦截短信验证码盗取存款,涉案总金额超200万元。

骗不过人,可以骗摄像头啊!

AI换脸,术语是Deepfake(深度伪造),是把Deep learning(深度学习)和Fake(伪造)组合在一起,用AI把一个人的人脸换到另一个人的照片/视频当中的技术

围绕AI换脸有着相当多的“犯罪应用”,包括且不限于:

· 攻击刷脸验证:直接从支付宝、微信钱包、甚至贷款软件里,伪造他人信息套现;

· 制作虚假色情图片/视频:诈骗、敲诈勒索或损坏他人名誉;

· 实时换脸通话:盗号并诈骗号主亲友;

· 制造虚假信息:蒙骗政客、法官、投资者等;

· 发布假新闻:煽动民众、引起混乱恐慌、打击商业对手、制造股市动荡等。

在这当中,刷脸验证与普通人关系最大,因为它验证的是一个人的身份,一旦这个信息被突破,你的资产安全与信息安全都会受到威胁,很容易在网络上“裸奔”。

除了Deepfake技术,还有相当多的方法可以干扰人脸识别认证,比如造一个“骗AI眼镜”:

v2_f6667dbf705548e482a3531ff23ec423_img_000

不好意思放错了,是这个:

v2_d6149a510e5b44d38eec1b39ad57a457_img_000

图源:Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition.

在一篇图像识别领域的经典文献中,研究者通过数学运算设计了一种特定的“眼镜”(中图),戴上就可以让一个人(左图)被AI人脸识别认成另外一个人(右图)。

另一种骗检测设备的方式是3D面具,比如下面这些图:

v2_ccf70f496dd740118f858efb1b805cf0_img_000
v2_01062d650fcd4a6abc03adf62c3ab40f_img_000

图源:businessinsider & kneron

这是Kneron这家公司的产品,他们在2019年底声明,对于微信、支付宝的刷脸支付和火车站的人脸识别闸机,都可以戴着面具伪装成别人通过。

AI换脸,特别在哪?

对普通人来说,上述技术还不必过于担心,因为它们有着各种各样的缺陷,比如“骗AI眼镜”主要是针对静态图片识别,无法突破动态人脸识别,而“人脸面具”需要定制、价值不菲且制作工艺复杂,用在普通人身上性价比并不高。

AI改变了一切,简直把造假成本降到了“白菜价”

视频越短、像素越低、实时性要求(需要实时换脸还是可以制作完视频再发出)越低、欺骗对象警惕性越低、可用素材(就是目标人物的多角度照片、视频)越多,造假成本就越低。

举个例子,同样是一个人说话,AI换成另一个人的脸,直接上手就能用的AI模型配合NVIDIA GTX1080 Ti可以做到这样,动作还算流畅,但“塑胶感”严重,一眼就能看出不是真人的视频。

v2_ccc88084223e45b384cee469a2a82b9d_img_000

图源:Youtube@Matthias Niessner

而经过NVIDIA RTX 3090 Ti长时间(数小时甚至数天)训练的AI模型,可以做出相当以假乱真的效果。可能只有在认真反复的观看下,才会发现:诶?刚刚这个人额头的皱纹是不是在闪?

v2_597e4b826c1b48c68aba45821d526f11_img_000

图源:Youtube@Druuzil Tech & Games

针对“人脸识别”,deepfake便宜很多;因为攻破“人脸识别”不需要最“精细”,最费工夫的Deepfake技术,只需要一个清晰度一般的几秒钟的视频。

而提高成本后制作的更精细的视频,则可以用于其他的诈骗用途。并且这种造假是一种“一本万利”的买卖,在设备与算法齐全后,就可以根据不同的情境与需求,批量生产假视频

普通人能怎么办

当AI换脸进入普通人的生活,我们能做些什么来应对跟它相关的不法行为呢?

“骗”机器的换脸咋办?

针对刷脸验证身份这一类场景,伪造的视频需要通过的是人脸识别系统的自动验证,或者说“骗过”机器。所需的视频时间短(几秒钟以内)、动态简单(只有少量固定动作、甚至有些系统仅仅识别图片)、没有实时要求,从技术上来讲是相对简单的,识别端也不在真人的掌控之中。

对于这类案件,普通人能做的就是平时守护好自己的个人信息(包括人脸信息),并且尽量采用多种方式结合的身份验证

密码、指纹、手机号,能选的验证方式都选上,虽然自己也会麻烦点,但是相当于多几道保险,全部被同时攻破的可能性还是小很多的。

v2_df49efa7fe6145b2b31c3fcdce322ed1_img_000

如果不幸被盗刷,立刻报警,配合警察追踪不法分子、追回违法所得,同时上报平台,让平台获取更多的信息来修补漏洞、升级系统

“骗”真人的换脸,咋办?

欺骗真人的AI换脸,比如面对个人的勒索、诈骗,还有面对大众的虚假新闻,则显得更加隐蔽和多样化。

从根本上来说,有了AI换脸技术以后,普通人面对图像信息都应该多留个心眼,不能一味相信“眼见为实”。

如果被人用伪造的裸照、不雅视频勒索,不要回应,直接报警

这类犯罪的AI换脸目标就是受害人,所以只要看到视频的人知道自己没有拍过此类照片、视频,就可以判断视频是伪造的。最大的难点反而在于不要自乱阵脚、不要因为害怕而向不法分子交付钱财。

如果被人用伪造的视频诈骗,比如骗子盗了你朋友的号,用AI换脸跟你实时通话借钱。这个时候,多渠道验证就很重要,各个社交平台、邮箱、短信、电话,不要因为对方看起来很着急就想都不想地打钱。

在观看网上的新闻、视频时,多查查新闻来源是否可靠。尤其是什么拜登讲话,马斯克讲话,这些名人们可用于机器学习的训练集太多了,仿造高精度视频很容易。

v2_82221294ad0644438b25861425b8b0f1_img_000

这张图里的马斯克是假的哈…… | 图源:VR陀螺

识别Deepfake的亿些小技巧

还有一些小诀窍,可以帮助你更好地判断一个视频是不是AI换脸伪造的(如果开了十级美颜,这些方法就不是很可靠了。毕竟,十级美颜也可以被看作一种AI换脸呢):

关注脸型

多看看脸的大小、形状、下颚线位置,尤其是动起来的样子,和本人是否一致。

关注皱纹

毕竟每个人的皮肤情况和皱纹走向都是不一样的,AI模型仅凭一些照片(而且不一定是最近的照片),生成的皱纹很难跟本人一模一样。

一个人皮肤过于光滑、皱纹过多、或者全脸皮肤状况不一致(比如额头很多皱纹、脸颊却很光滑)、一段视频中年龄感不一致(一会儿看着年轻一会儿看着年长),都可能是伪造视频的特征。

关注背景

看看这个背景是不是这个人平时用的背景、背景和人的衔接是不是自然、背景本身有没有变形等等。

关注光影

AI换脸生成的视频并不遵循现实世界的物理光影规则,因此面部的阴影眼镜的反光等等,都可能出卖伪造的视频。

关注五官的位置和大小

AI伪造的视频可能会出现五官忽大忽小、位置飘移的现象。

关注独特的面部特征

如果这个人脸上有痣、文身、疤痕,它们看起来都在正确的位置吗?

关注头发

发量、发际线看起来真实吗?头发边缘看起来自然吗?

v2_77389f7106fd4d3da455f56bf2da023d_img_000

关注动态

比如眨眼的频率和方式是否正常、眉毛和嘴的运动是否像这个人平时的样子、转头(尤其是转到90度的侧面)的时候有无变形、脸部被遮挡的时候遮挡物是否清晰可见,都是一些辨别AI伪造视频的要点。

v2_985089157d434d33bdf1b595a771c6aa_img_000
v2_582cd0622d8a491aab5f5094964f31f3_img_000

一些容易露馅的动作 | 图源:metaphysic & VFXChris Ume

除了以上的理论知识,你还可以试着去这个网站https://detectfakes.media.mit.edu/)实操做题,提升一下自己鉴别假视频的能力,说不定还能帮科学家对抗使用AI换脸的不法行为。

v2_2eb9a43cebf24f5389ef81f67fb9baa8_img_000

名人们有说过这些话吗?| 图源:MIT Media Lab

只要还有很高的潜在非法收益,不法分子就会不惜加大投入,制作更精美、更“真实”的虚假视频,去欺骗普通人、大公司、大机构乃至政府。

所以,除了个人能做到的事情外,其实也更应该由政府、公司从政策法规和技术建设上不断完善和加强,让技术的进步真正造福于人类,而不是沦为伤害他人的犯罪工具

[1]http://epaper.ynet.com/html/2022-04/14/content_396257.htm?div=-1

惊堂木 | 眼见为实?“变脸”盗刷支付宝!已有人中招... (2022). Retrieved 25 October 2022, from https://mp.weixin.qq.com/s/qNEaUN-A_83OL53vHvbWww

[2]https://www.theverge.com/2019/12/13/21020575/china-facial-recognition-terminals-fooled-3d-mask-kneron-research-fallibility

[3]Kneron's Edge AI & Facial Recognition Survey Pushes Forward Industry | Kneron – Full Stack Edge AI. (2020). Retrieved 25 October 2022, from https://www.kneron.com/news/blog/85/

[4]All it takes to fool facial recognition at airports and border crossings is a printed mask, researchers found. (2022). Retrieved 25 October 2022, from https://www.businessinsider.com/facial-recognition-fooled-with-mask-kneron-tests-2019-12

[5]To Uncover a Deepfake Video Call, Ask the Caller to Turn Sideways - Metaphysic.ai. (2022). Retrieved 25 October 2022, from https://metaphysic.ai/to-uncover-a-deepfake-video-call-ask-the-caller-to-turn-sideways/

[6]Detecting deepfakes by looking closely reveals a way to protect against them. (2022). Retrieved 25 October 2022, from https://phys.org/news/2019-06-deepfakes-reveals.html

[7]Europol report finds deepfake technology could become staple tool for organised crime | Europol. (2022). Retrieved 25 October 2022, from https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime

[8]Project Overview ‹ Detect DeepFakes: How to counteract misinformation created by AI – MIT Media Lab. (2022). Retrieved 25 October 2022, from https://www.media.mit.edu/projects/detect-fakes/overview/

[9]Sharif, M., Bhagavatula, S., Bauer, L., & Reiter, M. K. (2016, October). Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition. In Proceedings of the 2016 acm sigsac conference on computer and communications security (pp. 1528-1540).

[10]Thies, J., Zollhöfer, M., Theobalt, C., Stamminger, M., & Nießner, M. (2018). Headon: Real-time reenactment of human portrait videos. ACM Transactions on Graphics (TOG), 37(4), 1-13.

[11]Li, Y., Yang, X., Wu, B., & Lyu, S. (2019). Hiding faces in plain sight: Disrupting AI face synthesis with adversarial perturbations. arXiv preprint arXiv:1906.09288.

[12]Westerlund, M. (2019). The emergence of deepfake technology: A review. Technology Innovation Management Review, 9(11).

[13]Mirsky, Y., & Lee, W. (2021). The creation and detection of deepfakes: A survey. ACM Computing Surveys (CSUR), 54(1), 1-41.

[14]Li, C., Wang, L., Ji, S., Zhang, X., Xi, Z., Guo, S., & Wang, T. (2022). Seeing is living? rethinking the security of facial liveness verification in the deepfake era. CoRR abs/2202.10673.

[15]Nguyen, T. T., Nguyen, Q. V. H., Nguyen, D. T., Nguyen, D. T., Huynh-The, T., Nahavandi, S., ... & Nguyen, C. M. (2022). Deep learning for deepfakes creation and detection: A survey. Computer Vision and Image Understanding, 223, 103525.

[16]警惕!伪造“人脸”盗取账号,漳州两男子被抓_腾讯新闻. (2022). Retrieved 25 October 2022, from https://new.qq.com/rain/a/20220830A068U500

本文来自微信公众号“果壳”(ID:Guokr42),作者:罗碗,36氪经授权发布。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK