新浪新闻客户端

“眼见不一定为实”,Sora时代,防诈也需要与时俱进

“眼见不一定为实”,Sora时代,防诈也需要与时俱进
2024年02月28日 17:06

  导语:理财文化万里行,基金走进千万家。欢迎大家搜索【华夏基金投资者教育基地】,关注华夏基金投资者教育基地,解锁更多理财知识。

  近期,大洋彼岸的OpenAI公司推出了重磅消息,推出了一款文生视频工具Sora,只要输入一段文字,就能按照文字指令生成长达1分钟视频,不仅如此,视频场景逼真、色彩丰富、氛围浓厚。

  这可能意味着,Sora不仅能够从物理的角度,比如可爱的宠物、神秘的海底世界、阳光灿烂的海边沙滩,甚至熙熙攘攘的闹市街区……更重要的一点是,人工智能具有强大的学习能力,能够在未来的学习中让这些场面变得更加逼真,也由此引发一个问题,即未来,越来越逼真的视频令你难以辨认哪一个是真哪一个是假。那么问题来了,AI生成的假视频存在泛滥风险,可能被用于诈骗犯罪。

  所以,人们在赞叹Sora伟大的同时,也要警惕诈骗新套路,比如利用深度伪造视频诈骗,这就说明要认识到“眼见为实”可能成为过去了。

  还需要识别视频背后的“那张脸”

  近期,有消息称,中国香港规模巨大的诈骗案,诈骗金额高达2亿港元,据称这一案件是首次涉及AI“多人变脸”的诈骗案,危害极大。

  到底怎么回事呢?据介绍,一家跨国公司香港分公司职员,上个月收到了英国总部首席财务官的消息,称要进行秘密交易,然后邀请该公司多名财务人员进行视频会议,而且,视频中对方都显示了与以往相同的容貌,职员也好不怀疑,认为这些都是真实信息,所以前后转账了15次,共计2亿港元,而后经核实才知道被骗。

  那么,不法分子是如何知道这些受害人的真实信息的?而又如何通过技术合成行骗的呢?

  据悉,诈骗者通过公司的YouTube视频和从其他公开渠道获取的员工和公司真实资料,得以成功仿造公司总部人员面部形象和声音,再利用Deepfake(深度伪造)进行视频生成,形成多人视频会议的画面结果,实际上,会议室里只有前文提到的接收信息的员工为真实的人,其他人都是利用AI换脸形成的“假人”。

  关键的是,由于是预制视频,而且主要是上司向员工下达命令,其间员工并没有机会参会者进行交流,整个会议流程比较简单,只要求该员工作一次简短的自我介绍,其后找借口走开,接下来就以信息的形式进行发布指令,也就是说该员工没有机会也没有充足的时间进行识别真伪。

  AI视频换脸可能不需要十分钟

  上述案例中,诈骗分子实施诈骗的主要技术手段就是利用AI技术进行视频换脸。最近两三年里,在Deepfake等技术的支撑下,AI换脸技术已飞入寻常百姓家,现在技术也较为成熟,据悉,一个高配置的电脑,合成一段10秒的换脸视频只需要一两分钟。据了解,通常情况下,照片上传后,需要对照片进行特征识别,这段时间需要30秒。然后就开始建模,建模后就可以进行实时转换。所以你的照片不论在哪里都可以直接上传。而随着技术的发展,聊天或者视频会议中进行视频换脸也就是轻而易举的事情了。

  目前,AI视频换脸在在国内视频网站已经流传很久,且传播度高达几十上百万。但这种恶搞性质的换脸并未造成太多实质性的社会危害,但是当AI换脸被不法分子用于非法牟利时,就会对消费者的人身财产安全造成巨大的危害了。

  如何防患未然?

  幸运的是,近几年国家撑起了“守护伞”,严厉打击犯罪。比如已经通过多重手段进行防范“AI换脸诈骗”,近两年先后出台了《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等有关政策文件,并先后开展了“互联网深度合成算法备案”“大语言模型算法备案”等相关工作,严厉打击利用AI进行换脸等的犯罪活动,目前来看,已经初步遏制了犯罪的发展,治理的良好势头开始显现,也有力促进了人工智能安全有序的发展。

  当然,防范诈骗,还需要我们人人自己筑起一道防火墙,那么究竟该如何做呢?下面几种方法或许能够帮助到您~

  1.多种方法确认身份。

  在有视频通话突然打来时,尤其在涉及到转账交易等行为时,小伙伴们要格外留意,不要怕麻烦,要通过多种身份验证其身份,可以通过电话、视频等方式确认对方是否是本人。如果实在无法确认对方身份时,可以将到账时间设置时间更长一些,以给自己留有充分时间进行验证视频那边的人是否为AI换脸。

  如果不小心已经落入了AI诈骗的圈套,也不用太着急,在与其通话的过程中,可以通过其他方式进一步确认对方身份,比如在与其通话时,可以让其在脸部做一些动作进行干扰,因为视频换脸技术也不是无懈可击,总会漏出破绽,当然有条件的可以用专业软件进行监测和识别。

  2.保护信息,避免诱惑

  预防“AI视频诈骗”还要加强对人脸、指纹、声音等生物特征数据的安全防护,比如小伙伴们在使用互联网服务或在社会生活中被要求输入人脸等生物特征数据的时候要看对方收集的生物特征数据是否合法、正当和必要。凡是突然收到不明来路的照片、视频,做到不听、不信、不转账。注意保护个人及单位信息,尤其是自己和家人的正面照,以防被不法分子掌握从而实施精准诈骗或敲诈勒索。遇到此类诈骗,请第一时间向公安机关举报;如不慎被骗,注意保留图片、视频、文字、转账记录,及时拨打报警电话。

  另外,小伙伴们要谨防各种信息泄露,平时浏览网页时,尤其是在社交平台上,尽量避免过多地暴露自己的信息,对于不明平台发来的广告、中奖、交友等链接提高警惕,不要随意填写个人详细信息,以免被不法分子盯上。

  3.相互提示,共同预防

  当前,AI换脸等高科技手段的诈骗方式,令不少小伙伴们上当受骗。所以,还需要多多提醒、告诫身边的亲人、共同筑起防诈骗防火墙。尤其是要做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要再三确认信息真实性,对于电话或者视频不要贸然就接听。

  4.拒绝诱惑,提高警惕

  要坚信”天山不会掉馅饼,就算掉馅饼,也不会砸到自己的头上“,同时要学会拒绝诱惑,提高警惕。避免占便宜心理,更不要存在侥幸心理,要知道你目前还没被骗,并不是因为你多聪明,而是适合你的脚本或许正在路上。

  所以,sora时代已经到来,当视频生成更加容易之时,或许也是诈骗更加肆虐之时,普通消费者更要防范于未然,时刻绷紧反诈骗那根“弦”。

  注:

  文章中案例来源:《震惊!“变脸”冒充CFO,骗走两个亿!香港最大AI诈骗案细节曝光》,参考来源:券商中国,2024.2.6

  免责声明:文章内容不构成投资建议,请投资者独立决策并自行承担风险,过往业绩不预示未来表现,投资需谨慎,详阅基金法律文件。该文章仅限华夏基金投资者教育基地开展投资者教育,未经授权禁止第三方机构或个人以任何形式进行传播、剪辑。

  (来源:News快报)

责任编辑:何奎良

举报邮箱:jubao@vip.sina.com

Copyright © 1996-2024 SINA Corporation

All Rights Reserved 新浪公司 版权所有