开发者

关上Deepfake的潘多拉魔盒,RealAI推出深度伪造视频检测工具?

诞生之初,Deepfake是一种有趣的图像处理技术,只带来搞笑和娱乐视频,但潘多拉魔盒打开,催生黑产、恶劣政治家操纵民意,Deepfake逐渐进化为新病毒,人类伦理道德的隐蔽布也被无情地揭开。

  图:Saturday Night Live中凯特麦金农换脸伊丽莎白沃伦

面对因新技术而引发的公众恐慌,相关监管机构也加快采取行动,出台打假策略,旨在打击Deepfake虚假音视频,控制造假病毒的传播。同时,国内也迎来了最严数据管理的一年。

11月29日,中国国家网络通信办公室也正式发布了《网络音频视频信息服务管理规定》,从2020年1月1日起,AI虚假视频不得随意发布。新规定中AI虚假视频的规定主要有四条:按照国家有关规定开展安全评价,以显着的方式显示非真实的音频信息,不得利用AI虚假技术发布虚假新闻,配置AI虚假视频鉴别技术,健全虚假机制等。

新规则中,有效抑制Deepfake和类似虚假需要双手抓住,不仅要利用法律法规严格控制,还要从源头加强安全评价、鉴别技术等能力,利用技术手段提前布局,在检查方面领先。

最近,来自清华大学的人工智能企业RealAI正式发布了深度伪造视频检测工具,可以实现深度伪造视频的自动正确识别。

一键换脸一键打假

RealAICEO田天表示,尽管需求一致,但目前大规模应用的打假方法面临很多困难。

首先,Deepfake的开源技术将AI变脸的使用阈值降低到手机美容、p图的水平,单击变脸带来谣言成本的降低、爆炸性的传播。但是,在防御层,几乎没有标准化的检查工具,人工鉴别不仅专业性高,而且效率低。所以,无论对于个人、平台还是第三方机构而言,打假辟谣的时间窗口很短,难度却很高。

下图:雷佳音(左)变脸郭德纲(右)

更严重的问题是,Deepfake往往以假乱真的程度极高,人眼难以察觉。此外,其算法目前无法建模分析,检测技术的研究受到严重影响,但伪造者的适应速度快,新技术越来越反复。

RealAI基于第三代AI技术推出的深度伪造视频检测产品,采用数据普及方式,通过伪造视频培训新模型,模型更好地识别伪造痕迹,识别伪造视频该产品支持图像、视频内容的识别,用户可以根据API接口上传需要检测的图像、视频,单击即可反馈真伪。

实际上,对Deepfake进行虚假研究的团队已经存在,但相关成果只停留在算法水平,为学术研究提供使用,无法应对在现开发者_开发知识库实环境中广泛传播的虚假内容,因此RealAI发表的这个标准化自动检查工具可以说给大规模的虚假行动带来了新的希望。

二、检测精度达到99%,Deepfake逃不掉

作为清华大学人工智能研究院的核心孵化企业,国内首家安全可控人工智能系统提供商,RealAI在AI安全和攻防技术领域具有行业领先优势。在今年刚刚结束的GeekPwn2019国际安全极客大赛中,与清华大学的联合战队一举获得了CAAD、CTF图像对抗样本挑战赛和CAAD隐身挑战赛的冠军。

深厚的技术积累也让RealAI安全研究团队对造假方的攻击原理有着更深刻的理解,能够更有针对性地开发检测工具。本次推出的深度伪造视频检测产品,将原本高难度的检测过程大幅简化,只需接入SDK即可一键实时检测,调用简单快捷。

、Deepfake视频检测产品流程图

与目前市面上销售的检测技术相比,RealAI的视频检测工具利用深入的学习算法、大量的数据集训练模型,可以检测出绝大多数人工智能的假视频在算法变脸效果越来越逼真的情况下,RealAI的研究开发团队也集中开发了新的检查算法,反复更新RealAI的检查算法库。

更值得注意的是,该产品适用于复杂的视频内容检测,支持多种格式和多人脸检测模式,1S识别,最高可支持10人以上的同一屏幕。

三、Deepfake的潘多拉魔盒终于关闭了

随着Deepfake技术的滥用,传统意义上真实和虚假的界限模糊,对社会生活的影响很大,但现在技术恶作剧的负面影响正在全面爆发。

例如,在网上随意传播的视频、照片内容、内容平台的传统审查机制无法识别Deepfake的生成内容,采用人工审查,需要投入额外的时间、人工费用的特定对象在社交平台上广泛传播虚假信息,在舆论中心的当事人因为找不到可以证明谣言是捏造的有效方法,个人声誉受损的事件调查、法庭辩论中涉及的视频、图像等证据,警察、律师等人员不能仅仅通过肉眼识别证据,而且通过检查个人的虚假信息

最后,在这场AI军备竞赛中,Deepfake不断进化,RealAI也不断反复技术,磨练产品。RealAICEO田天说,未来的AI必然是安全可控的AI,一键休假超过一键换脸的速度,Deepfake的潘多拉魔盒也关闭。

0

上一篇:

下一篇:

精彩评论

暂无评论...
验证码 换一张
取 消

最新问答

问答排行榜