金融监管总局:警惕利用AI新型技术实施诈骗的风险

最新信息

金融监管总局:警惕利用AI新型技术实施诈骗的风险
2023-10-13 16:16:00
国家金融监督管理总局10月13日发布风险提示,提醒广大金融消费者警惕利用AI新型技术实施诈骗的风险,维护个人及家庭财产安全。
  金融监管总局表示,利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息。再利用“拟声”“换脸”等技术合成消费者虚假音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。
  此类诈骗手段迷惑性、隐蔽性较强,诈骗金额较高,为保护广大金融消费者合法权益,金融监管总局提示:
  一、网络渠道“眼见”不一定为实。“拟声”“换脸”等合成技术的一大特点即“以假乱真”,不法分子可利用此类技术轻易伪装成他人,并通过快速筛选目标人群、定制化诈骗脚本,精准实施诈骗。因此,在涉及资金往来时,一个“声音很熟的电话”、一段“貌似熟人的视频”都可能是不法分子的诈骗套路,消费者应提高警惕。
  二、转账汇款务必核验对方身份。面对自称“熟人”“领导”等通过社交软件、电话等以各种理由诱导汇款,务必核验对方身份。如可在沟通过程中提问仅双方知晓的问题,也可利用其他通讯方式或见面核实,或向对方的朋友、家人验明身份和情况。在无法确认对方身份时,应尽量避免转账操作。
  三、保护好照片、声音等个人信息。消费者应提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友,对个人社交账户的安全状况保持警惕。尽量避免在互联网过多暴露个人照片、声音、视频等信息,不贪图方便把身份证、银行卡照片等直接存放在手机内。如不慎被骗或遇可疑情形,应注意保存证据并立即向当地公安机关报案。
(文章来源:新华社)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

金融监管总局:警惕利用AI新型技术实施诈骗的风险

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml