1. 首页
  2. 焦点新闻
  3. 详情页

有声音有视频,竟非本人!

2023-11-23 10:47:59 来源: 济南公安

  随着网络技术不断进步

  AI正迅速进入大众生活

  需要注意的是

  诈骗分子也盯上AI技术

  当心!

  和你视频对话的可能不是本人!其实 此类诈骗咱介绍过

  前不久,国家金融监督管理总局北京监管局发布谨防“AI换脸”等新型欺诈手段的风险提示。

  青岛一名大学生

  和在网上认识的“女朋友”视频聊天

  对方称需要资金周转

  男孩打钱过去之后

  发现竟然被诈骗了

  通过取证发现跟他聊天的并不是他的女朋友对方是通过虚拟的摄像头用AI换脸的功能跟他聊天

  AI如何做到在视频通话时换脸呢?一个高配置的电脑合成一段10秒的换脸视频只需要一两分钟而技术的发展上述案件中视频聊天的实时变脸也不是难事了

  照片上传后大概有30秒的时间对照片进行特征识别,然后建模建模后就可以进行实时转换不管是你的头像还是你在朋友圈的一张小照片都可以直接上传

  AI生成的技术还在不断更新迭代比如性别的互换、声音的变换都可以同步进行由于算法是开源的也就是说一个普通的工程师就可以制作出一个变脸软件这就在控制源头上带来了极大的困难

  不断迭代的AI技术

  已经把换脸视频做到“真假难辨”

  我们应如何防范此类新型诈骗?

  温馨提示

  ★ 在进行视频沟通时通过让对方在脸部做出一些动作;

  ★ 可通过一些更专业的软件来识别,比如人的整个轮廓,替换的眼睛、鼻子、嘴巴这里,它的像素大小是不一样的,颜色的色域是有差别的。像我们的衣服一样,要打一个补丁,是没办法做到完美的。这些我们眼睛肉眼看不出来,但软件算法是可以检测出来的;

  ★ 提醒大家加强对人脸、声纹、步态、指纹等生物特征数据的安全防护。

  此外

  国家也在通过多重手段

  防范“AI换脸诈骗

  严厉打击利用AI换脸、变声等手段

  实施的违法犯罪行为

济南互联网联合辟谣平台©版权所有