安徽经济新闻网-安徽新闻观察门户
新闻热线:18805640568
当前位置: 首页 > 网评

防范“AI诈骗”需有更多实招

时间: 2024-03-25 10:33:22
来源:

AI诈骗又现。近日,浙江宁波的潘女士接到了一个冒充其孙子的电话,对方称在学校将同学碰倒,致使同学摔下楼梯受伤,需赔偿医疗费7万元,并以“学校老师答应帮忙私下处理此事,否则将被学校处分”为由,让其保密。潘女士一听的确是孙子的声音,情急之下没有再次打电话核实,而是匆匆忙忙赶到了中国银行某支行,准备按照对方要求汇款。该行工作人员凭经验判断该笔交易存在明显欺诈风险,建议她向家人确认后再考虑汇款。在银行工作人员的耐心劝阻下,潘女士联系了孙子,才发现果然遭遇了AI变声的电信诈骗,终于避免了损失。

“AI诈骗”是指不法分子利用AI技术,或通过声音合成,伪造成特定人物的声音;或通过换脸技术,伪装成特定人物,实时与他人进行音视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系消费者,博取消费者信任后实施诈骗。

近年来,利用“AI”技术实施诈骗的案例屡有发生,比如:去年5月,骗子通过AI换脸技术,使福州市某科技公司法人代表郭先生10分钟内被骗430万元。这说明,“AI诈骗”已成为一种新骗法。

据了解,诈骗分子利用“AI诈骗”,不仅骗法新,而且很容易得手。很多受骗者根本没有戒备之心,总以为视频画面中“有图有声”假不了,而把钱款直接转入了骗子的账户里。真的是应了那句老话:“防不胜防啊”。笔者以为,防范“AI诈骗”还需有更多“实招”。

首先,市民要学会提高警惕。市民一旦遇到“熟人”或“好友”利用微信视频借钱,就应提高警惕,严防诈骗分子利用“AI换脸”“AI换声”技术实施诈骗。一方面,要学会验证。在涉及钱款时,要提高安全意识,通过电话、见面等方式确认对方的真实身份。也可以选择向对方银行汇款,避免通过微信等社交工具转账;另一方面,要学会保护个人信息。市民应当加强个人信息保护意识,以防骗子利用AI技术掌握大量个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。

其次,技防部门要提供技防加持。一方面,技防部门应持续AI反诈技术的研究,建立健全技术手段,把人工智能技术运用到预防打击电信网络诈骗工作中。另一方面,技防部门应给广大市民科普一些必要的“AI换脸”“AI换声”技术的识别知识,通过简单的识别技术帮助市民轻松确认是否有诈,以防“AI诈骗”。

其三,立法要跟上。一方面,立法部门应加快对“AI”技术的运用进行立法规制,不妨对人工智能设备和软件的使用和注册进行明确限制,防止“AI”技术的运用“无序化”“无法化”,而给诈骗分子有了利用“AI诈骗”的可乘之机。另一方面,不妨通过制定专门性法律法规,深化个人信息保护制度,比如:人脸识别应用场景的限制、人脸识别后的个人信息保护等,均需立法规制,立法保护,严防不法分子利用法律漏洞获取公民个人信息,从而利用“AI换脸”“AI换声”等技术实施诈骗。

此外,还有一点也很重要,那就是对“AI诈骗”分子的严惩重处,不妨通过高额罚单、追究刑责等处罚手段,让诈骗分子既付出“经济代价”,又付出“诚信代价”,更付出“法律代价”,倒逼其遵规守法,自觉远离“AI诈骗”。

俗话说:“魔高一尺,道高一丈。”只要通过提高警惕、技防加持、立法保护,以及严惩重处等一系列有效的防范举措,诈骗分子利用“AI”的诈骗技术再高明,也一定能被识破。如此,“AI诈骗”也就难以得逞。

安徽经济新闻网版权所有 皖ICP备10005593号-2 公安备案号34010302001216 皖网宣备110004号
举报电话:0551-62656039 新闻热线:18805640568 投稿邮箱:2306957980@qq.com 技术支持:锐诚科技