发新帖

研究人员提出可以改善任何视频质量的AI模型 行业新闻

威尔德编辑 2020-3-3 72657

研究人员越来越多地使用AI将历史镜头转换为高分辨率、高帧率的视频,看起来就像是用现代设备拍摄。为了简化该过程,罗切斯特大学、东北大学和普渡大学的研究人员最近提出了一种框架,该框架可从低帧频、低分辨率视频生成高分辨率慢动作视频。

据研究团队表示,他们使用的“时空视频超分辨率(STVSR)”算法不仅在图像质量上比现有方法更好,而且比以前的最新AI模型快三倍。

就某种意义上而言,这一框架的提出是继英伟达在2018年发布的针对视频处理AI模型后的再次提升,当年英伟达的AI模型可以对任何视频应用进行慢动作处理。据了解,类似的高分辨率技术已经应用于视频游戏领域。去年,《最终幻想》的用户通过使用一款名为AI Gigapixel的软件(售价100美元)来提高《最终幻想VII》的背景分辨率正是基于这类技术。

研究人员提出可以改善任何视频质量的AI模型

具体而言,STVSR同时学习时间插值(如何在原始帧之间合成不存在的中间视频帧)和空间超分辨率(如何从相应的参考帧及其相邻帧中重建高分辨率帧);与此同时,得益于伴随的卷积长短期记忆模型,它能够利用视频上下文和时间对齐来从聚合特征中重建帧,以此合成高分辨率慢动作视频。

研究人员使用来自Vimeo的60000多个7帧剪辑的数据集对STVSR进行了培训,并使用单独的评估语料库将数据集划分为快动作、正常动作和慢动作集,以测量各种条件下的性能。在实验中,他们发现STVSR在快动作的视频上获得了显著的改进,包括那些具有挑战性的动作视频,例如篮球运动员在球场上快速移动的视频。据外媒报道称,该AI模型具有更精确图像结构和更少模糊伪影的帧重建能力,同时又比基准模型小四倍、快至少两倍。

“通过这种单阶段设计,我们的网络可以很好地探索任务中时间插值与空间超分辨率之间的内在联系,” 预印本论文的合著者写道。“它使我们的模型能够自适应地学习,以利用有用的本地和全局时间上下文来缓解大型运动问题。大量的实验表明,我们的框架比现有AI模型更有效、效率更高,并且所建议的特征时间插值网络和可变形模型能够处理非常具有挑战性的快速运动视频。”

据外媒报道称,该项目研究人员打算在今年夏天对外公布源代码。雷锋网雷锋网雷锋网(公众号:雷锋网)

via:venturebeat

原文链接:https://venturebeat.com/2020/02/27/researchers-propose-ai-that-improves-the-quality-of-any-video/

注:本文转载自雷锋网,如需转载请至雷锋网官网申请授权,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如有侵权行为,请联系我们,我们会及时删除。

成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加- 版权声明 1、本主题所有言论和图片纯属会员个人意见,与成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加立场无关。
2、本站所有主题由该帖子作者发表,该帖子作者威尔德编辑成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加享有帖子相关版权。
3、成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加管理员和版主有权不事先通知发贴者而删除本文。
4、其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者威尔德编辑成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加的同意。

这家伙太懒了,什么也没留下。
最新回复 (0)
只看楼主
全部楼主
    • 成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加
      2
        立即登录 立即注册 QQ登录
返回
免责声明:本站部分资源来源于网络,如有侵权请发邮件(673011635@qq.com)告知我们,我们将会在24小时内处理。