【新华解读】“拟声”“换脸”新诈骗?活体防伪、中介识别技术或大有可为

最新信息

【新华解读】“拟声”“换脸”新诈骗?活体防伪、中介识别技术或大有可为
2023-10-14 12:36:00
近日,国家金融监督管理总局发布《关于警惕利用AI新型技术实施诈骗的风险提示》,提醒广大金融消费者警惕新型诈骗手段,维护个人及家庭财产安全。
  与以往的骗局不同,现如今的人工智能技术使这一过程更加迅速,而且更加具有欺骗性。这类诈骗手段迷惑性、隐蔽性较强,诈骗金额较高。业内认为,一方面,消费者需要提高自我保护意识,维护个人及家庭财产安全;另一方面,相关科技发展同样重要。与此同时,金融机构和相关平台也应当积极推动落地相关技术应用。
  AI新型技术实施诈骗社交软件或可引入鉴伪机制
  “眼下AI技术的广泛应用给网络诈骗带来可乘之机。如通过语音合成等方式,仿冒他人身份实施诈骗,侵害消费者合法权益。”一位业内人士说,“前不久,有位太原市民王女士接到一个电话,声音很像自己在上海工作的儿子。‘儿子’在电话中说遇到了紧急情况,需要立刻用钱。但在电话的另一端,实际上是一个诈骗犯罪分子,他们运用了AI技术来模仿王女士儿子的声音,制造了一场虚假的紧急情况。这种典型的诈骗被称为‘虚假亲情诈骗’。”
  利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息;再利用“拟声”“换脸”等技术合成消费者虚假音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。此外,不法分子还可能对明星、专家、官员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。
  为保护广大金融消费者合法权益,国家金融监督管理总局提示:一是网络渠道“眼见”不一定为实。“拟声”“换脸”等合成技术的一大特点即“以假乱真”,不法分子可利用此类技术轻易伪装成他人,并通过快速筛选目标人群、定制化诈骗脚本,精准实施诈骗。因此,在涉及资金往来时,一个“声音很熟的电话”、一段“貌似熟人的视频”都可能是不法分子的诈骗套路,消费者应提高警惕。
  二是转账汇款务必核验对方身份。面对自称“熟人”“领导”等通过社交软件、电话等以各种理由诱导汇款,务必核验对方身份。如可在沟通过程中提问仅双方知晓的问题,也可利用其他通讯方式或见面核实,或向对方的朋友、家人验明身份和情况。在无法确认对方身份时,应尽量避免转账操作。
  三是保护好照片、声音等个人信息。消费者应提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友,对个人社交账户的安全状况保持警惕。尽量避免在互联网过多暴露个人照片、声音、视频等信息,不贪图方便把身份证、银行卡照片等直接存放在手机内。如不慎被骗或遇可疑情形,应注意保存证据并立即向当地公安机关报案。
  业内人士认为,在此过程中,金融机构在防伪技术方面已做出了不少努力。不少金融机构已有相关的落地举措与相关技术应用。比如活体防伪、中介识别等技术在金融业务场景中也已得以应用。马上消费人工智能研究院智能核身专家冯月表示,“马上消费金融自主研发的防伪大模型,目前能够做到将99%的批量欺诈攻击拦截在外,有效防范伪造信息、中介代办、伪冒申请、多头借贷、电信诈骗等风险。”
  在冯月看来,相较于处于整体环节末端的金融机构,更前一步的,社交软件有义务引入鉴伪机制,并实时对用户进行通话鉴真提醒,标记对端用户是否有行为异常、图像伪造异常、声音伪造异常。更早的风险提示信息,可以更有效地阻隔风险结果的发生。
  活体防伪、中介识别技术大有可为 “防范意识”是一切“魔法”的基石
  马上消费人工智能研究院智能核身专家冯月表示,“活体防伪、中介识别等技术的核心功能便是能够避免人脸识别、声纹识别的自身缺陷,有效识别照片、视频、面具、仿真模型,声音剪辑、翻录、合成等攻击行为,也即国家金融监督管理总局提出的‘拟声’,‘换脸’欺诈行为。”
  攻击行为是一个复杂的过程,通常会经历三个阶段,筹划、实施、变现。其中筹备阶段往往是最关键、也最容易被忽略的,犯罪分子会从各种渠道与受害人建立的联系、获取相关社交软件的账号、知道他需要冒充谁、获取对应的图像和声音物料、挑选被害人。
  “如果我们聚焦到换脸技术和拟声技术两个关键问题上,它主要的难题就是基础数据的获取、训练框架、实时渲染三项。”冯月说,数据层面上,从社交媒体等社工库可以获取冒充对象的影音信息,亦或者是从丢失的黑产手机的相册、聊天记录中提取。训练框架上,目前国内几个主流的短视频平台的剪辑软件中都支持换脸特效,并且没有警示信息,国外的开源框架中合成方法超过30种。在实时渲染上,通过对手机刷机、安装侵入软件等攻击操作也可以实现劫持渲染。
  除平台方面的相关落地,公众也可以采取一些自救措施,目前有一类技术可以保障用户的数据不被用于换脸、变声,这类技术叫对抗样本技术。以人脸图像为例,通过对该图像混入肉眼不可见的对抗扰动蒙版,可以使换脸技术失效。用户可以使用该类技术对自己社交媒体公开的图像、语音等媒体信息进行对抗保护后再公开。
  当然,业内人士提醒,最后,“防范意识”是一切“魔法”的基石,公众也需加强对于个人物品、信息的安全性保护。“不要随便点击不明的短信链接、邮件链接等,不随意扫描不明来源二维码、下载APP,不轻易提供人脸等个人生物信息给他人,不轻易透露自己的信息。”冯月说。
(文章来源:新华财经)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

【新华解读】“拟声”“换脸”新诈骗?活体防伪、中介识别技术或大有可为

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml