当前位置:当前位置:首页 >热点 >莫让AI换脸技术沦为诈骗的道具 正文

莫让AI换脸技术沦为诈骗的道具

[热点] 时间:2024-05-03 03:56:00 来源:蓝影头条 作者:探索 点击:85次
中评社北京5月25日电/据《北京青年报》报导,莫让今年4月20日,换脸福州市某知名企业法定代表人郭先生意外接到一位“至交好友”的技术具视频通话信息。聊天中,诈骗“至交好友”告诉郭先生,莫让他的换脸朋友在外地投标,需要430万元保证金,技术具且需要对公账户过账,诈骗所以想借用其公司的莫让账户走一下账。由于郭先生通过视频确认了对方的换脸面孔和声音,便毫无怀疑地把430万元分两笔转账过去。技术具事后,诈骗郭先生电话联系好友,莫让才发现对方通过智能AI技术手段,换脸佯装成好友对自己实施了诈骗。技术具庆幸的是,在福州和包头警方的联动下,郭先生追回了被骗的资金336万元。(相关报导见A7版)  从警方披露的案情看,这种诈骗伎俩并没有多少创新,甚至可以说是对老套路的复制。然而,由于此种诈骗伎俩运用了AI换脸技术,诈骗分子更容易成功冒充他人。在上述案例中,当事人郭先生之所以不假思索地给冒充成“至交好友”的诈骗分子转账,根本原因就在于后者伪装的面孔太逼真,让郭先生对其深信不疑。  AI换脸,是指通过AI人工智能技术,把别人的脸换成自己的脸。AI换脸技术在初期多用于各种娱乐场景,比如歌迷把自己的脸换成歌星的脸,借此“过把歌星瘾”。不过,随着AI换脸技术的迭代更替,换脸效果愈发逼真,一些“空手套白狼”的不法之徒也看到了敛财商机,致使AI换脸技术沦为诈骗的道具。  相比于普通的诈骗手法,借助AI换脸技术实施的诈骗伎俩,具有非接触性、能精准锁定受害对象等特点,隐蔽性强,也最容易得逞。同时,AI换脸技术运用简单,可复制性强,违法成本低,更是给受害者识别真假带来了难度,令人防不胜防。因此,如何不让AI换脸技术沦为诈骗犯罪的道具,需要创新治理手段。  不让AI换脸技术沦为诈骗道具,须对这种诈骗伎俩做到露头即打。相关部门要加强跨区域、跨部门的协调联动,开展联合打击防范。在上述案例中,福州、包头两地警方联手行动,借助银行配合,成功为受害者止损336万元,充分证明了跨区域、跨部门联动协作打击防范涉AI换脸技术诈骗犯罪的重要性,值得各地各部门各行业借鉴。  打击防范涉AI换脸技术诈骗犯罪,治本之策在于以良法促善治。虽然目前我国已出台了《网络音视频信息服务管理规定》《互联网信息服务深度合成管理规定》等法规,对AI换脸技术运用有一定的约束力,但这些法规层级较低且缺乏系统性,难以适应打击防范涉AI换脸技术诈骗的实际需要。相关部门应坚持“急在治标”与“重在治本”并举的导向,在及时完善现有法律规范的同时,着眼长远地制定出统一的上位法,从而用严密完善的法律,将AI换脸技术的运用规范在法制轨道上,不再让其沦为诈骗犯罪的道具。  需要注意的是,涉AI换脸技术的诈骗伎俩能够轻易得逞,一个重要原因在于诈骗分子掌握了受害者好友的人脸、声音等个人信息。对此,公众要增强保护个人人脸、声音等敏感信息的意识,充分认识到泄露此类个人信息的潜在风险;监管部门亦应强化监管,以法律责任的严肃追究,倒逼采集人脸、声音等个人信息的商家或相关机构建立起技术防范与依法管理相得益彰的个人信息安全格局,让诈骗分子利用AI换脸技术实施诈骗不再具备条件。

(责任编辑:探索)

    相关内容
    友情链接