怀疑AI换脸的话,可以让对方摁鼻子

avatar
萤火虫
 2024-03-04 09:03
其他 技术 人工智能  诈骗 

参加多人视频会议,结果只有自己是真人……这事听上去似乎匪夷所思,却真实地发生了。近期,香港警方披露了一起多人 “AI换脸”诈骗案,涉案金额高达2亿港元。

在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元分别转账15次,转到5个本地银行账户内。

其后,向总部查询才知道受骗。警方调查得知,这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。

pic

那么,如何才能让骗子“原形毕露”?

据中国网络空间安全协会人工智能安全治理专委会专家薛智慧介绍,“AI换脸”过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤。其背后,最核心的包括为三个部分:

首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。

其次,将这些特征与目标人脸图像进行匹配、替换、融合。

最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。

专家表示,其实AI人工换脸无论做得多逼真,想要识别真假还是有一些方法的:

我们可以要求对方在视频对话的时候,在脸部的前面通过挥手的方式,去识别实时伪造的视频,因为它要对这个视频进行实时的生成和处理以及AI的换脸。

在挥手的过程中,会造成面部的数据干扰,挥手过程中,他所伪造的人脸,会产生一定的抖动或者是闪现,再或是一些异常的情况。

中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸,观察其面部变化。

他表示,如果是真人的鼻子,按下去是会变形的,但AI生成的鼻子并不会。

在此提醒,大家一定要做好日常信息安全的保护,加强对人脸、声纹、指纹等生物特征数据的安全防护。

同时做好个人的手机、电脑等终端设备的软硬件的安全管理,并且不要登录来路不明的网站,以免被病毒侵入。


展开阅读全文
赞 | 1 0条回复 收藏 分享
观点区
查看对话