您当前的位置 : 东北网  >  东北网黑龙江
搜 索
龙小安讲安全 | 警惕!被AI“偷”走的声音
2024-08-06 10:29:54 来源:盐城网警  作者:
关注东北网
微博
Qzone
极光新闻

  俗话说“眼见为实”,但是在AI时代,眼见也不一定是真相!一些别有用心的诈骗分子利用AI“换脸”“拟声”技术实施诈骗,已然成为一种新型骗局。一个“声音很熟的电话”,一段“貌似熟人的视频”,都可能是诈骗分子的套路。

  “我是xx,这是我的新号码”“我的手机掉了,我用同事的手机给你发的消息”……

  等等!遇到这种事,首先应该确认对方身份!

  案件回顾

  近日,家住盐城的刘阿姨接到了其“小妹”的电话,“姐,我最近有点急事儿,能不能借点钱……”来电显示的是小妹,声音听起来也很相似,因此,刘阿姨对“小妹”的话深信不疑,立即向“小妹”提供的账户转去了5000块钱……

  城北派出所,接到反诈中心预警,刘阿姨疑似接到了诈骗电话,民警立即电话联系刘阿姨,并上门进行劝阻。

  “阿姨,近期有没有人提出要您转账?”“有的,我的小妹。”“您确认过她的身份了吗?”会面后,民警立即和刘阿姨了解情况,得知转账并未成功后,这才舒了一口气。

  “阿姨,这账户肯定是有问题的,您和小妹联系一下呢。”

  “姐,我没打电话和你借钱啊。”与小妹视频联系后,刘阿姨这才意识到自己遇到了诈骗。

  回过神来的刘阿姨问民警,“当时我接电话里面的声音就是我小妹的声音啊!这是怎么回事?”

  其实,这是诈骗分子利用技术手段实施的AI拟声电信诈骗。

  什么是“AI诈骗”?

  “AI诈骗”是指诈骗分子利用人工智能(AI)技术,模仿、伪造他人的声音、面容等信息,制作虚假图像、音频、视频,仿冒他人身份进行欺骗、敲诈、勒索等犯罪活动。

  现实案例中,诈骗分子通过AI技术伪装受骗者亲人、领导同事的面容与声音,冒充这些人员身份行骗。由于伪装的面容表情自然、声音逼真,受害者往往不会产生怀疑,察觉不出异样,从而上当受骗。

  面对这种新型“AI诈骗”

  如何才能防范?

  1.多重验证,确认身份

  在涉及金钱、财产等重要事项时,可要求对方提供更多证据,进行更多交流,尤其涉及“朋友”“领导”等熟人要求转账、汇款的,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款。

  2.保护个人信息,谨慎分享

  AI诈骗是隐私信息泄露与诈骗陷阱的结合,因此,要加强对个人隐私的保护,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。不管是在互联网还是社交软件上,尽量避免过多地泄露自己的信息,以免被骗子“精准围猎”。

  3.提高安全意识,确保各类账号安全

  避免在不可信的网络平台上下载未知来源的应用程序,不打开来路不明的邮件附件,不点陌生链接,不随便添加陌生好友,防止手机、电脑中病毒,以及微信、QQ等被盗号。

  防骗招数千万条,核实身份第一条,一定要提高警惕,增强防范意识,守好自己的钱袋子。

责任编辑:宋蔚
相关新闻